Viviamo in mezzo a molte catastrofi morali, tutte insieme. L'abbondanza tecnologica e materiale ci ha dato l'opportunità di creare un mondo veramente fiorente, e abbiamo completamente sprecato quell'opportunità. Sarà lo stesso per il futuro?
Purtroppo, penso che sia probabile. Un thread.
Oggi: Basta considerare il nostro impatto sugli animali da allevamento. Ogni anno, decine di miliardi di animali terrestri allevati in fabbrica vivono vite di miseria.
Penso che il benessere umano sia migliorato notevolmente negli ultimi secoli. Ma la sofferenza causata direttamente dall'allevamento di animali - solo un errore morale! - è sufficiente a superare gran parte o tutti quei guadagni.
Forse non ti interessa il benessere degli animali. Ma allora pensa semplicemente alla povertà estrema, all'ineguaglianza, alla guerra, al consumismo o alle restrizioni globali sulla libertà. Tutto ciò significa che il mondo è molto lontano da quanto potrebbe essere.
In effetti, penso che la maggior parte delle prospettive morali dovrebbe considerare il mondo di oggi come un coinvolgimento in una catastrofica perdita di valore rispetto a ciò che avremmo potuto realizzare.
Niente di tutto ciò vuole dire che il mondo di oggi sia *cattivo*, nel senso di peggiore di niente. Si sta dicendo che il mondo, oggi, è solo una frazione di quanto potrebbe essere.
Oggi è così. Ma forse il futuro sarà molto diverso? Dopo la superintelligenza, avremo abbondanza materiale e cognitiva, quindi tutti saranno estremamente ricchi e ben informati, e questo permetterà a tutti di ottenere la maggior parte di ciò che desiderano - e non è forse abbastanza?
Non lo penso. Penso che sia probabile che le persone in futuro sperpereranno gran parte del potenziale che avrebbe potuto essere raggiunto - in parte perché ci sono molti modi sottili in cui le cose potrebbero andare male.
Considera l'etica della popolazione. Una società futura ideale ha una popolazione ridotta con un benessere per persona molto elevato, o una popolazione molto grande con un benessere per persona più basso? Le vite che hanno un benessere positivo ma basso rendono il mondo migliore, nel complesso?
L'etica della popolazione è notoriamente difficile - infatti, ci sono "teoremi di impossibilità" che dimostrano che nessuna teoria dell'etica della popolazione può soddisfare tutti un certo numero di assiomi etici che sembrano ovvi.
E diverse visioni porteranno a visioni radicalmente diverse di un futuro quasi ideale. Dal punto di vista totale, il futuro ideale potrebbe coinvolgere un numero vasto di esseri ciascuno con un benessere relativamente inferiore; una piccola popolazione di vite ad alto benessere perderebbe quasi tutto il valore. Ma secondo le visioni di livello critico o di valore variabile, il contrario potrebbe essere vero.
Se la società futura sbaglia la sua etica della popolazione (sia a causa di valori fuorvianti, sia perché semplicemente non si preoccupa dell'etica della popolazione in ogni caso), allora è facile che perda quasi tutto il potenziale valore.
E questa è solo una delle modalità in cui la società potrebbe rovinare le cose. Considera, inoltre, gli errori che le persone future potrebbero fare riguardo a: Atteggiamenti verso gli esseri digitali Atteggiamenti sulla natura del benessere Allocazione delle risorse spaziali Compromessi tra felicità e sofferenza Beni vietati Compromessi tra somiglianza e diversità Uguaglianza o disuguaglianza Tassi di sconto Teoria delle decisioni Opinioni sulla simulazione Opinioni sul valore infinito Processi riflessivi
Per la maggior parte di queste questioni, non esiste un'opzione "sicura", dove un grande risultato è garantito dalla maggior parte delle prospettive morali ragionevoli. I futuri decisori dovranno fare molte cose nel modo giusto.
E sembra che sbagliarne anche solo uno di questi possa essere sufficiente per perdere gran parte o il valore massimo raggiungibile. Un singolo difetto potrebbe essere sufficiente per rendere la società futura molto peggiore di quanto avrebbe potuto essere.
Cioè, possiamo rappresentare il valore come il prodotto di molti fattori. Se è così, allora un futuro veramente grande deve comportarsi molto bene su praticamente ognuno di quei fattori; comportarsi male su uno di essi è sufficiente per perdere gran parte del valore.
Inutile dire che questa è una grande sfida. Per una discussione molto più approfondita su questi temi, vedi "No Easy Eutopia":
@William_Kiely "Conceivibilmente *l'incertezza morale da sola* sarebbe sufficiente a impedirci di scegliere un futuro che sia almeno dello 0,1% ottimale, anche se avessimo il pieno potere di scegliere qualsiasi futuro concreto volessimo." - non se fossimo completamente in grado di riflettere.
14,53K