Muitas pessoas afirmam que 'a IA é mais provável de salvar a humanidade do que de destruí-la'. Quais perigos, exatamente, essas pessoas acham que a IA precisa 'salvar a humanidade' de? (Estou genuinamente curioso; não entendo a suposição deles de que a humanidade está de alguma forma condenada sem a IA.)