Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Vivemos no meio de muitas catástrofes morais, todas ao mesmo tempo.
A abundância tecnológica e material deu-nos a oportunidade de criar um mundo verdadeiramente próspero, e desperdiçámos completamente essa oportunidade.
Será que o mesmo será verdade para o futuro?
Infelizmente, acho que isso é provável.
Um tópico.
Hoje:
Basta considerar o nosso impacto nos animais de criação. Todos os anos, dezenas de bilhões de animais terrestres criados em fábricas vivem vidas de miséria.
Acho que o bem-estar humano melhorou dramaticamente ao longo dos últimos séculos.
Mas o sofrimento causado diretamente pela pecuária - apenas um erro moral! - é suficiente para superar grande parte ou todos esses ganhos.
Talvez você não se importe com o bem-estar animal. Mas então, pense apenas na pobreza extrema, desigualdade, guerra, consumismo ou nas restrições globais à liberdade.
Tudo isso significa que o mundo está muito aquém de quão bom poderia ser.
Na verdade, acho que a maioria das perspetivas morais deve considerar o mundo de hoje como envolvendo uma perda catastrófica de valor em comparação com o que poderíamos ter alcançado.

Nada disto quer dizer que o mundo de hoje é *mau*, no sentido de ser pior do que nada.
Está a dizer que o mundo, hoje, é apenas uma fração tão boa quanto poderia ser.
Isso é hoje. Mas talvez o futuro seja muito diferente?
Após a superinteligência, teremos abundância material e cognitiva, então todos serão extremamente ricos e bem informados, e isso permitirá que todos consigam a maior parte do que desejam - e isso não é suficiente?
Acho que não.
Acho que é provável que as pessoas no futuro desperdicem a maior parte do potencial que poderia ter sido alcançado - em parte porque existem muitas maneiras subtis pelas quais as coisas podem correr mal.
Considere a ética populacional.
Uma sociedade futura ideal tem uma população pequena com um bem-estar por pessoa muito elevado, ou uma população muito grande com um bem-estar por pessoa mais baixo?
Vidas que têm um bem-estar positivo, mas baixo, tornam o mundo melhor, no geral?
A ética populacional é notoriamente difícil - de fato, existem "teoremas de impossibilidade" que mostram que nenhuma teoria da ética populacional pode satisfazer todos os axiomas éticos que parecem óbvios.
E diferentes visões resultarão em visões radicalmente diferentes de um futuro quase ideal.
Na visão total, o futuro ideal pode envolver um número vasto de seres, cada um com bem-estar comparativamente mais baixo; uma pequena população de vidas de alto bem-estar perderia quase todo o valor.
Mas, em visões de nível crítico ou de valor variável, o oposto pode ser verdade.
Se a sociedade futura errar na sua ética populacional (seja por causa de valores mal orientados, ou porque simplesmente não se importa com a ética populacional de qualquer forma), então é fácil para ela perder quase todo o valor potencial.
E essa é apenas uma maneira pela qual a sociedade poderia estragar as coisas. Considere, também, os erros que as pessoas do futuro poderiam cometer em relação a:
Atitudes em relação a seres digitais
Atitudes sobre a natureza do bem-estar
Alocação de recursos espaciais
Compensações entre felicidade/sofrimento
Bens proibidos
Compensações entre semelhança/diversidade
Igualdade ou desigualdade
Taxas de desconto
Teoria da decisão
Visões sobre a simulação
Visões sobre valor infinito
Processos reflexivos
Para a maioria dessas questões, não há uma opção "segura", onde um grande resultado é garantido na maioria das perspectivas morais razoáveis. Os futuros tomadores de decisão precisarão acertar muitas coisas.
E parece que errar apenas um destes pontos pode ser suficiente para perder muito ou a maior parte do valor alcançável. Um único erro pode ser suficiente para tornar a sociedade futura muito pior do que poderia ter sido.

Ou seja, podemos representar o valor como o produto de muitos fatores. Se assim for, então um futuro verdadeiramente grandioso precisa ter um desempenho muito bom em essencialmente cada um desses fatores; ter um desempenho ruim em qualquer um deles é suficiente para perder a maior parte do valor.

Não é preciso dizer que este é um grande desafio.
Para uma discussão muito mais aprofundada sobre estas questões, veja "No Easy Eutopia":
@William_Kiely "Conceitualmente, *a incerteza moral por si só* seria suficiente para nos impedir de escolher um futuro que seja pelo menos 0,1% ótimo, mesmo que tivéssemos total poder para escolher qualquer futuro concreto que quiséssemos." - não se fôssemos totalmente capazes de refletir.
14,61K
Top
Classificação
Favoritos