Vivemos no meio de muitas catástrofes morais, todas ao mesmo tempo. A abundância tecnológica e material deu-nos a oportunidade de criar um mundo verdadeiramente próspero, e desperdiçámos completamente essa oportunidade. Será que o mesmo será verdade para o futuro?
Infelizmente, acho que isso é provável. Um tópico.
Hoje: Basta considerar o nosso impacto nos animais de criação. Todos os anos, dezenas de bilhões de animais terrestres criados em fábricas vivem vidas de miséria.
Acho que o bem-estar humano melhorou dramaticamente ao longo dos últimos séculos. Mas o sofrimento causado diretamente pela pecuária - apenas um erro moral! - é suficiente para superar grande parte ou todos esses ganhos.
Talvez você não se importe com o bem-estar animal. Mas então, pense apenas na pobreza extrema, desigualdade, guerra, consumismo ou nas restrições globais à liberdade. Tudo isso significa que o mundo está muito aquém de quão bom poderia ser.
Na verdade, acho que a maioria das perspetivas morais deve considerar o mundo de hoje como envolvendo uma perda catastrófica de valor em comparação com o que poderíamos ter alcançado.
Nada disto quer dizer que o mundo de hoje é *mau*, no sentido de ser pior do que nada. Está a dizer que o mundo, hoje, é apenas uma fração tão boa quanto poderia ser.
Isso é hoje. Mas talvez o futuro seja muito diferente? Após a superinteligência, teremos abundância material e cognitiva, então todos serão extremamente ricos e bem informados, e isso permitirá que todos consigam a maior parte do que desejam - e isso não é suficiente?
Acho que não. Acho que é provável que as pessoas no futuro desperdicem a maior parte do potencial que poderia ter sido alcançado - em parte porque existem muitas maneiras subtis pelas quais as coisas podem correr mal.
Considere a ética populacional. Uma sociedade futura ideal tem uma população pequena com um bem-estar por pessoa muito elevado, ou uma população muito grande com um bem-estar por pessoa mais baixo? Vidas que têm um bem-estar positivo, mas baixo, tornam o mundo melhor, no geral?
A ética populacional é notoriamente difícil - de fato, existem "teoremas de impossibilidade" que mostram que nenhuma teoria da ética populacional pode satisfazer todos os axiomas éticos que parecem óbvios.
E diferentes visões resultarão em visões radicalmente diferentes de um futuro quase ideal. Na visão total, o futuro ideal pode envolver um número vasto de seres, cada um com bem-estar comparativamente mais baixo; uma pequena população de vidas de alto bem-estar perderia quase todo o valor. Mas, em visões de nível crítico ou de valor variável, o oposto pode ser verdade.
Se a sociedade futura errar na sua ética populacional (seja por causa de valores mal orientados, ou porque simplesmente não se importa com a ética populacional de qualquer forma), então é fácil para ela perder quase todo o valor potencial.
E essa é apenas uma maneira pela qual a sociedade poderia estragar as coisas. Considere, também, os erros que as pessoas do futuro poderiam cometer em relação a: Atitudes em relação a seres digitais Atitudes sobre a natureza do bem-estar Alocação de recursos espaciais Compensações entre felicidade/sofrimento Bens proibidos Compensações entre semelhança/diversidade Igualdade ou desigualdade Taxas de desconto Teoria da decisão Visões sobre a simulação Visões sobre valor infinito Processos reflexivos
Para a maioria dessas questões, não há uma opção "segura", onde um grande resultado é garantido na maioria das perspectivas morais razoáveis. Os futuros tomadores de decisão precisarão acertar muitas coisas.
E parece que errar apenas um destes pontos pode ser suficiente para perder muito ou a maior parte do valor alcançável. Um único erro pode ser suficiente para tornar a sociedade futura muito pior do que poderia ter sido.
Ou seja, podemos representar o valor como o produto de muitos fatores. Se assim for, então um futuro verdadeiramente grandioso precisa ter um desempenho muito bom em essencialmente cada um desses fatores; ter um desempenho ruim em qualquer um deles é suficiente para perder a maior parte do valor.
Não é preciso dizer que este é um grande desafio. Para uma discussão muito mais aprofundada sobre estas questões, veja "No Easy Eutopia":
@William_Kiely "Conceitualmente, *a incerteza moral por si só* seria suficiente para nos impedir de escolher um futuro que seja pelo menos 0,1% ótimo, mesmo que tivéssemos total poder para escolher qualquer futuro concreto que quiséssemos." - não se fôssemos totalmente capazes de refletir.
14,61K