Wielu ludzi twierdzi, że 'AI jest bardziej prawdopodobne, że uratuje ludzkość niż ją zniszczy'. Jakie niebezpieczeństwa, dokładnie, myślą, że AI musi 'uratować ludzkość' przed? (Jestem szczerze ciekawy; nie rozumiem ich założenia, że ludzkość jest w jakiś sposób skazana bez AI.)