Seria útil se houvesse um acordo geral de que a atual gama de capacidades de IA resultará em coisas boas e ruins, e tivéssemos esforços mais específicos (paralelos às discussões existenciais mais amplas) para fazer as coisas boas funcionarem para mais pessoas e mitigar o óbvio ruim.
Sobre o bem: promessa inicial de tutores de IA integrados à educação sugere que os esforços intensivos podem ajudar muitos em todo o mundo, especialmente em áreas desfavorecidas Sobre o mal: Deepfakes precisam ser regulamentados e um esforço em larga escala para fazer com que as IAs apoiem, não prejudiquem, a saúde mental
Muitos desses danos e benefícios são previsíveis e / ou têm evidências empíricas iniciais, e as intervenções agora podem produzir muitos benefícios. Muitas preocupações gerais de longo prazo sobre IA, mas não acho que foco suficiente em aproveitar ou mitigar os recursos de hoje
Muitos desses esforços não devem ser deixados apenas para os laboratórios de IA, o que parece ser o que está acontecendo, e historicamente seriam casos clássicos em que governo, universidades, organizações sem fins lucrativos e indústria se uniriam para atender a necessidades urgentes. Há muito que poderia ser feito hoje
E onde a indústria parece estar avançando nas principais preocupações, como o recente trabalho da OpenAI sobre crises de saúde mental, ela poderia servir de base para órgãos de formulação de padrões da indústria, que historicamente desempenharam um papel importante na autorregulação em novas indústrias.
Eu me pergunto se a escassez de órgãos voluntários da indústria (W3C, Unicode) em IA se deve às intensas (e muitas vezes pessoais) rivalidades entre as empresas de IA, talvez exacerbadas pela falta de necessidade de autorregular os padrões, uma vez que ainda não houve muita pressão reguladora.
29,99K