Vivemos em meio a muitas catástrofes morais, todas de uma vez. A abundância tecnológica e material nos deu a oportunidade de criar um mundo verdadeiramente próspero, e desperdiçamos totalmente essa oportunidade. O mesmo acontecerá no futuro?
Infelizmente, acho que isso é provável. Um tópico.
Hoje: Basta considerar nosso impacto nos animais de criação. Todos os anos, dezenas de bilhões de animais terrestres de criação industrial vivem vidas de miséria.
Acho que o bem-estar humano melhorou drasticamente nos últimos séculos. Mas o sofrimento causado diretamente pela pecuária - apenas um erro moral! - é suficiente para superar grande parte ou todos esses ganhos.
Talvez você não se importe com o bem-estar animal. Mas então pense em pobreza extrema, desigualdade, guerra, consumismo ou restrições globais à liberdade. Tudo isso significa que o mundo fica muito aquém de quão bom poderia ser.
Na verdade, acho que a maioria das perspectivas morais deve considerar o mundo hoje como envolvendo uma perda catastrófica de valor em comparação com o que poderíamos ter alcançado.
Nada disso quer dizer que o mundo hoje é *ruim*, no sentido de pior do que nada. Está dizendo que o mundo, hoje, é apenas uma fração tão bom quanto poderia ser.
Isso é hoje. Mas talvez o futuro seja muito diferente? Depois da superinteligência, teremos abundância material e cognitiva, então todos serão extremamente ricos e bem informados, e isso permitirá que todos obtenham a maior parte do que desejam - e isso não é suficiente?
Eu acho que não. Acho que é provável que as pessoas no futuro desperdicem a maior parte do potencial que poderia ter sido alcançado - em parte porque existem muitas maneiras sutis pelas quais as coisas podem dar errado.
Considere a ética populacional. Uma sociedade futura ideal tem uma população pequena com bem-estar per capita muito alto ou uma população muito grande com bem-estar per capita menor? Vidas que têm bem-estar positivo, mas baixo, tornam o mundo melhor, em geral?
A ética populacional é notoriamente difícil - na verdade, existem "teoremas da impossibilidade" mostrando que nenhuma teoria da ética populacional pode satisfazer todos os axiomas éticos aparentemente óbvios.
E visões diferentes resultarão em visões radicalmente diferentes de um futuro quase melhor. Na visão total, o futuro ideal pode envolver um grande número de seres, cada um com um bem-estar comparativamente inferior; uma pequena população de vidas de alto bem-estar perderia quase todo o valor. Mas em visualizações de nível crítico ou de valor variável, o oposto pode ser verdadeiro.
Se a sociedade futura errar em sua ética populacional (seja por causa de valores equivocados ou porque simplesmente não se importa com a ética populacional de qualquer maneira), então é fácil perder quase todo o valor potencial.
E essa é apenas uma maneira pela qual a sociedade pode bagunçar as coisas. Considere, também, os erros que as pessoas do futuro podem cometer ao redor: Atitudes em relação aos seres digitais Atitudes em relação à natureza do bem-estar Alocação de recursos espaciais Compensações de felicidade/sofrimento Mercadorias proibidas Compensações de similaridade/diversidade Igualdade ou desigualdade Taxas de desconto Teoria da decisão Visualizações da simulação Visões sobre valor infinito Processos reflexivos
Para a maioria dessas questões, não há opção "segura", onde um ótimo resultado é garantido nas perspectivas morais mais razoáveis. Os futuros tomadores de decisão precisarão acertar muitas coisas.
E parece que errar apenas um deles pode ser suficiente para perder muito ou mais valor alcançável. Uma única falha pode ser suficiente para tornar a sociedade futura muito pior do que poderia ter sido.
Ou seja, podemos representar o valor como produto de muitos fatores. Nesse caso, um futuro verdadeiramente grande precisa se sair muito bem em essencialmente todos esses fatores; Ir mal em qualquer um deles é suficiente para perder a maior parte do valor.
Escusado será dizer que este é um grande desafio. Para muito mais discussão sobre essas questões, consulte "No Easy Eutopia":
@William_Kiely "Concebivelmente *a incerteza moral* por si só seria suficiente para nos impedir de escolher um futuro que seja pelo menos 0,1% ideal, mesmo que tivéssemos pleno poder para escolher qualquer futuro concreto que quiséssemos." - não se fôssemos totalmente capazes de refletir.
14,62K