Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Vivimos en medio de muchas catástrofes morales, todas a la vez.
La abundancia tecnológica y material nos ha dado la oportunidad de crear un mundo verdaderamente próspero, y hemos desperdiciado esa oportunidad por completo.
¿Será lo mismo cierto para el futuro?
Lamentablemente, creo que eso es probable.
Un hilo.
Hoy:
Solo considera nuestro impacto en los animales de granja. Cada año, decenas de miles de millones de animales terrestres criados en fábricas viven vidas de miseria.
Creo que el bienestar humano ha mejorado drásticamente en los últimos siglos.
Pero el sufrimiento causado directamente por la ganadería - ¡solo un error moral! - es suficiente para superar gran parte o la totalidad de esos avances.
Quizás no te importe el bienestar animal. Pero entonces solo piensa en la pobreza extrema, la desigualdad, la guerra, el consumismo o las restricciones globales a la libertad.
Todo esto significa que el mundo está muy lejos de lo bueno que podría ser.
De hecho, creo que la mayoría de las perspectivas morales deberían considerar que el mundo de hoy implica una pérdida catastrófica de valor en comparación con lo que podríamos haber logrado.

Nada de esto quiere decir que el mundo de hoy sea *malo*, en el sentido de ser peor que nada.
Se dice que el mundo, hoy, es solo una fracción de lo bueno que podría ser.
Eso es hoy. Pero, ¿quizás el futuro será muy diferente?
Después de la superinteligencia, tendremos abundancia material y cognitiva, así que todos serán extremadamente ricos y bien informados, y eso permitirá que todos obtengan la mayor parte de lo que quieren - ¿y no es eso suficiente?
No lo creo.
Creo que es probable que las personas en el futuro desperdicien la mayor parte del potencial que podría haberse logrado, en parte porque hay muchas formas sutiles en las que las cosas podrían salir mal.
Considera la ética poblacional.
¿Tiene una sociedad futura ideal una población pequeña con un bienestar por persona muy alto, o una población muy grande con un bienestar por persona más bajo?
¿Las vidas que tienen un bienestar positivo pero bajo hacen que el mundo sea mejor, en general?
La ética poblacional es notoriamente difícil; de hecho, existen "teoremas de imposibilidad" que demuestran que ninguna teoría de la ética poblacional puede satisfacer todos los axiomas éticos que parecen obvios.
Y diferentes perspectivas resultarán en visiones radicalmente distintas de un futuro casi ideal.
Desde la perspectiva total, el futuro ideal podría implicar un gran número de seres cada uno con un bienestar comparativamente más bajo; una pequeña población de vidas de alto bienestar se perdería casi todo el valor.
Pero desde las perspectivas de nivel crítico o de valor variable, podría ser todo lo contrario.
Si la sociedad futura se equivoca en su ética poblacional (ya sea por valores erróneos, o porque simplemente no le importa la ética poblacional de ninguna manera), entonces es fácil que pierda casi todo el valor potencial.
Y esa es solo una forma en que la sociedad podría arruinar las cosas. Considera, también, los errores que las personas del futuro podrían cometer en torno a:
Actitudes hacia los seres digitales
Actitudes hacia la naturaleza del bienestar
Asignación de recursos espaciales
Compensaciones entre felicidad/sufrimiento
Bienes prohibidos
Compensaciones entre similitud/diversidad
Igualdad o desigualdad
Tasas de descuento
Teoría de decisiones
Perspectivas sobre la simulación
Perspectivas sobre el valor infinito
Procesos reflexivos
Para la mayoría de estos problemas, no hay una opción "segura", donde un gran resultado esté garantizado desde la mayoría de las perspectivas morales razonables. Los futuros tomadores de decisiones necesitarán acertar en muchas cosas.
Y parece que cometer solo uno de estos errores podría ser suficiente para perder gran parte o la mayor parte del valor alcanzable. Un solo defecto podría ser suficiente para hacer que la sociedad futura sea mucho peor de lo que podría haber sido.

Es decir, podemos representar el valor como el producto de muchos factores. Si es así, entonces un futuro verdaderamente grandioso necesita hacerlo muy bien en prácticamente cada uno de esos factores; hacerlo mal en cualquiera de ellos es suficiente para perder la mayor parte del valor.

No hace falta decir que este es un gran desafío.
Para una discusión mucho más amplia sobre estos temas, consulta "No Easy Eutopia":
@William_Kiely "Concebiblemente, *la incertidumbre moral por sí sola* sería suficiente para evitar que elijamos un futuro que sea al menos un 0.1% óptimo, incluso si tuviéramos el poder total para elegir cualquier futuro concreto que quisiéramos." - no si pudiéramos reflexionar plenamente.
14.55K
Populares
Ranking
Favoritas