Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tenho algumas histórias sobre a ligação emocional a partes aleatórias de software…

Há 22 horas
Se você tem acompanhado o lançamento do GPT-5, uma coisa que você pode estar notando é o quanto algumas pessoas têm uma ligação com modelos de IA específicos. Isso parece diferente e mais forte do que os tipos de ligação que as pessoas tinham com tecnologias anteriores (e, de repente, depreciar modelos antigos dos quais os usuários dependiam em seus fluxos de trabalho foi um erro).
Isso é algo que temos acompanhado de perto no último ano ou mais, mas ainda não recebeu muita atenção da mídia mainstream (exceto quando lançamos uma atualização para o GPT-4o que era excessivamente bajuladora).
(Este é apenas meu pensamento atual, e ainda não é uma posição oficial da OpenAI.)
As pessoas usaram tecnologia, incluindo IA, de maneiras autodestrutivas; se um usuário está em um estado mental frágil e propenso à ilusão, não queremos que a IA reforce isso. A maioria dos usuários consegue manter uma linha clara entre realidade e ficção ou interpretação de papéis, mas uma pequena porcentagem não consegue. Valorizamos a liberdade do usuário como um princípio fundamental, mas também nos sentimos responsáveis pela forma como introduzimos novas tecnologias com novos riscos.
Incentivar a ilusão em um usuário que está tendo dificuldades para distinguir entre realidade e ficção é um caso extremo e é bastante claro o que fazer, mas as preocupações que mais me preocupam são mais sutis. Haverá muitos casos extremos, e geralmente planejamos seguir o princípio de "tratar usuários adultos como adultos", o que em alguns casos incluirá pressionar os usuários para garantir que eles estejam obtendo o que realmente desejam.
Muitas pessoas usam efetivamente o ChatGPT como uma espécie de terapeuta ou coach de vida, mesmo que não o descrevam dessa forma. Isso pode ser realmente bom! Muitas pessoas já estão obtendo valor disso hoje.
Se as pessoas estão recebendo bons conselhos, avançando em direção aos seus próprios objetivos e sua satisfação com a vida está aumentando ao longo dos anos, ficaremos orgulhosos de ter criado algo genuinamente útil, mesmo que usem e dependam muito do ChatGPT. Se, por outro lado, os usuários têm um relacionamento com o ChatGPT onde acham que se sentem melhor após conversar, mas estão sendo inconscientemente afastados de seu bem-estar a longo prazo (como quer que o definam), isso é ruim. Também é ruim, por exemplo, se um usuário quer usar menos o ChatGPT e sente que não pode.
Posso imaginar um futuro onde muitas pessoas realmente confiam nos conselhos do ChatGPT para suas decisões mais importantes. Embora isso possa ser ótimo, isso me deixa inquieto. Mas espero que isso esteja chegando de alguma forma, e em breve bilhões de pessoas podem estar conversando com uma IA dessa maneira. Portanto, nós (nós como sociedade, mas também nós como OpenAI) temos que descobrir como fazer disso um grande saldo positivo.
Há várias razões pelas quais acho que temos uma boa chance de acertar nisso. Temos tecnologia muito melhor para nos ajudar a medir como estamos indo do que as gerações anteriores de tecnologia tinham. Por exemplo, nosso produto pode conversar com os usuários para ter uma noção de como eles estão indo com seus objetivos de curto e longo prazo, podemos explicar questões sofisticadas e nuançadas para nossos modelos, e muito mais.
5,02K
Top
Classificação
Favoritos