Muitas pessoas afirmam que 'a IA tem mais probabilidade de salvar a humanidade do que destruir a humanidade'. De quais perigos, exatamente, essas pessoas acham que a IA precisa "salvar a humanidade"? (Estou genuinamente curioso; Eu não entendo a suposição deles de que a humanidade está de alguma forma condenada sem IA.)