Beaucoup de gens affirment que "l'IA est plus susceptible de sauver l'humanité que de la détruire". De quels dangers, exactement, ces personnes pensent-elles que l'IA doit "sauver l'humanité" ? (Je suis vraiment curieux ; je ne comprends pas leur hypothèse selon laquelle l'humanité est d'une manière ou d'une autre condamnée sans l'IA.)