Tenho algumas histórias sobre o apego emocional a partes aleatórias do software...
Sam Altman
Sam Altman23 horas atrás
Se você tem acompanhado o lançamento do GPT-5, uma coisa que você pode estar percebendo é o quanto algumas pessoas têm apego a modelos específicos de IA. Parece diferente e mais forte do que os tipos de apego que as pessoas tinham aos tipos anteriores de tecnologia (e, de repente, descontinuar modelos antigos dos quais os usuários dependiam em seus fluxos de trabalho foi um erro). Isso é algo que temos acompanhado de perto no ano passado, mas ainda não recebeu muita atenção do público (exceto quando lançamos uma atualização para GPT-4o que era muito bajuladora). (Este é apenas o meu pensamento atual, e ainda não é uma posição oficial da OpenAI.) As pessoas usaram a tecnologia, incluindo a IA, de maneiras autodestrutivas; se um usuário estiver em um estado mentalmente frágil e propenso à ilusão, não queremos que a IA reforce isso. A maioria dos usuários pode manter uma linha clara entre realidade e ficção ou dramatização, mas uma pequena porcentagem não pode. Valorizamos a liberdade do usuário como um princípio fundamental, mas também nos sentimos responsáveis na forma como introduzimos novas tecnologias com novos riscos. Encorajar a ilusão em um usuário que está tendo problemas para dizer a diferença entre realidade e ficção é um caso extremo e é bastante claro o que fazer, mas as preocupações que mais me preocupam são mais sutis. Haverá muitos casos extremos e, geralmente, planejamos seguir o princípio de "tratar os usuários adultos como adultos", o que, em alguns casos, incluirá empurrar os usuários para garantir que eles estejam recebendo o que realmente querem. Muitas pessoas usam efetivamente o ChatGPT como uma espécie de terapeuta ou coach de vida, mesmo que não o descrevam dessa maneira. Isso pode ser muito bom! Muitas pessoas já estão obtendo valor com isso hoje. Se as pessoas estão recebendo bons conselhos, subindo de nível em direção a seus próprios objetivos, e sua satisfação com a vida está aumentando ao longo dos anos, teremos orgulho de fazer algo genuinamente útil, mesmo que usem e confiem muito no ChatGPT. Se, por outro lado, os usuários têm um relacionamento com o ChatGPT em que acham que se sentem melhor depois de conversar, mas são, sem saber, afastados de seu bem-estar a longo prazo (independentemente de como o definam), isso é ruim. Também é ruim, por exemplo, se um usuário quiser usar menos o ChatGPT e sentir que não pode. Posso imaginar um futuro em que muitas pessoas realmente confiem nos conselhos do ChatGPT para suas decisões mais importantes. Embora isso possa ser ótimo, isso me deixa desconfortável. Mas espero que esteja chegando a algum ponto, e em breve bilhões de pessoas poderão estar falando com uma IA dessa maneira. Portanto, nós (nós como sociedade, mas também como na OpenAI) temos que descobrir como torná-lo um grande resultado positivo. Há várias razões pelas quais acho que temos uma boa chance de acertar. Temos uma tecnologia muito melhor para nos ajudar a medir como estamos nos saindo do que as gerações anteriores de tecnologia. Por exemplo, nosso produto pode conversar com os usuários para ter uma noção de como eles estão se saindo com seus objetivos de curto e longo prazo, podemos explicar questões sofisticadas e diferenciadas para nossos modelos e muito mais.
5,02K