Eu já disse isso cem vezes, mas continuarei dizendo: a adoção da IA e a mudança de comportamento são lentas – e permanecerão lentas – não importa o quão rápido os recursos melhorem. Vale a pena ponderar sobre a estatística na captura de tela: quase um ano após o lançamento dos modelos "pensantes", apenas uma pequena fração dos usuários os usava (até que o switcher automático do GPT-5 silenciosamente aumentou os números). Isso é exatamente o que devemos esperar. A narrativa dominante é que a IA está sendo adotada em uma velocidade sem precedentes, mas isso se baseia em quantas pessoas a experimentaram, ignorando como a estão usando, por quanto tempo a usam todos os dias e quanto estão ganhando com isso. Mesmo as inovações que salvam vidas levam muito tempo para se infiltrar na população. Esta é uma propriedade do comportamento humano, não da tecnologia em questão, portanto, não devemos esperar que a IA seja diferente. (Para saber mais sobre isso, consulte IA como tecnologia normal.) Alguns argumentarão que o switcher automático do GPT-5 prova que os desenvolvedores podem basicamente forçar a IA nas pessoas rapidamente. Absolutamente não. O alternador de modelos foi um problema criado pela própria OpenAI, então a OpenAI foi capaz de resolvê-lo. Mudar para um modelo de pensamento nos bastidores não exige que o usuário aprenda novas habilidades ou comportamentos ou altere seus fluxos de trabalho. É revelador que a OpenAI não tenha sido capaz de integrar de forma semelhante o Deep Research ou o Agent Mode, que exigem adaptação do usuário - especialmente o último, onde os usuários precisam aprender a supervisionar o modelo, comunicar os requisitos da tarefa com precisão, tomar decisões complexas e potencialmente arriscadas sobre segurança e achar tudo isso útil o suficiente para querer abrir suas carteiras.
26,44K