Viele Menschen behaupten, dass "AI eher dazu in der Lage ist, die Menschheit zu retten, als sie zu zerstören". Vor welchen Gefahren, genau, denken solche Menschen, dass AI die Menschheit "retten" muss? (Ich bin wirklich neugierig; ich verstehe nicht ihre Annahme, dass die Menschheit ohne AI irgendwie dem Untergang geweiht ist.)