多くの人々は「AIは人類を滅ぼすよりも人類を救う可能性が高い」と主張しています。 そのような人々は、AIが「人類を救う」必要があると、いったいどのような危険があると考えているのでしょうか? (純粋に興味があります。AIがなければ人類はどういうわけか破滅する運命にあるという彼らの思い込みが理解できません。