Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Vivemos em meio a muitas catástrofes morais, todas de uma vez.
A abundância tecnológica e material nos deu a oportunidade de criar um mundo verdadeiramente próspero, e desperdiçamos totalmente essa oportunidade.
O mesmo acontecerá no futuro?
Infelizmente, acho que isso é provável.
Um tópico.
Hoje:
Basta considerar nosso impacto nos animais de criação. Todos os anos, dezenas de bilhões de animais terrestres de criação industrial vivem vidas de miséria.
Acho que o bem-estar humano melhorou drasticamente nos últimos séculos.
Mas o sofrimento causado diretamente pela pecuária - apenas um erro moral! - é suficiente para superar grande parte ou todos esses ganhos.
Talvez você não se importe com o bem-estar animal. Mas então pense em pobreza extrema, desigualdade, guerra, consumismo ou restrições globais à liberdade.
Tudo isso significa que o mundo fica muito aquém de quão bom poderia ser.
Na verdade, acho que a maioria das perspectivas morais deve considerar o mundo hoje como envolvendo uma perda catastrófica de valor em comparação com o que poderíamos ter alcançado.

Nada disso quer dizer que o mundo hoje é *ruim*, no sentido de pior do que nada.
Está dizendo que o mundo, hoje, é apenas uma fração tão bom quanto poderia ser.
Isso é hoje. Mas talvez o futuro seja muito diferente?
Depois da superinteligência, teremos abundância material e cognitiva, então todos serão extremamente ricos e bem informados, e isso permitirá que todos obtenham a maior parte do que desejam - e isso não é suficiente?
Eu acho que não.
Acho que é provável que as pessoas no futuro desperdicem a maior parte do potencial que poderia ter sido alcançado - em parte porque existem muitas maneiras sutis pelas quais as coisas podem dar errado.
Considere a ética populacional.
Uma sociedade futura ideal tem uma população pequena com bem-estar per capita muito alto ou uma população muito grande com bem-estar per capita menor?
Vidas que têm bem-estar positivo, mas baixo, tornam o mundo melhor, em geral?
A ética populacional é notoriamente difícil - na verdade, existem "teoremas da impossibilidade" mostrando que nenhuma teoria da ética populacional pode satisfazer todos os axiomas éticos aparentemente óbvios.
E visões diferentes resultarão em visões radicalmente diferentes de um futuro quase melhor.
Na visão total, o futuro ideal pode envolver um grande número de seres, cada um com um bem-estar comparativamente inferior; uma pequena população de vidas de alto bem-estar perderia quase todo o valor.
Mas em visualizações de nível crítico ou de valor variável, o oposto pode ser verdadeiro.
Se a sociedade futura errar em sua ética populacional (seja por causa de valores equivocados ou porque simplesmente não se importa com a ética populacional de qualquer maneira), então é fácil perder quase todo o valor potencial.
E essa é apenas uma maneira pela qual a sociedade pode bagunçar as coisas. Considere, também, os erros que as pessoas do futuro podem cometer ao redor:
Atitudes em relação aos seres digitais
Atitudes em relação à natureza do bem-estar
Alocação de recursos espaciais
Compensações de felicidade/sofrimento
Mercadorias proibidas
Compensações de similaridade/diversidade
Igualdade ou desigualdade
Taxas de desconto
Teoria da decisão
Visualizações da simulação
Visões sobre valor infinito
Processos reflexivos
Para a maioria dessas questões, não há opção "segura", onde um ótimo resultado é garantido nas perspectivas morais mais razoáveis. Os futuros tomadores de decisão precisarão acertar muitas coisas.
E parece que errar apenas um deles pode ser suficiente para perder muito ou mais valor alcançável. Uma única falha pode ser suficiente para tornar a sociedade futura muito pior do que poderia ter sido.

Ou seja, podemos representar o valor como produto de muitos fatores. Nesse caso, um futuro verdadeiramente grande precisa se sair muito bem em essencialmente todos esses fatores; Ir mal em qualquer um deles é suficiente para perder a maior parte do valor.

Escusado será dizer que este é um grande desafio.
Para muito mais discussão sobre essas questões, consulte "No Easy Eutopia":
@William_Kiely "Concebivelmente *a incerteza moral* por si só seria suficiente para nos impedir de escolher um futuro que seja pelo menos 0,1% ideal, mesmo que tivéssemos pleno poder para escolher qualquer futuro concreto que quiséssemos." - não se fôssemos totalmente capazes de refletir.
14,62K
Melhores
Classificação
Favoritos