Este pode ser o artigo de IA mais perturbador de 2025 ☠️ Os cientistas acabaram de provar que grandes modelos de linguagem podem literalmente apodrecer seus próprios cérebros da mesma forma que os humanos apodrecem o cérebro ao rolar conteúdo indesejado online. Eles alimentaram os modelos com meses de dados virais do Twitter, postagens curtas e de alto engajamento e viram sua cognição entrar em colapso: - O raciocínio caiu 23% - A memória de contexto longo caiu 30% - Testes de personalidade mostraram picos de narcisismo e psicopatia E conseguir isso mesmo depois de treinar novamente em dados limpos e de alta qualidade, o dano não cicatrizou totalmente. A "podridão" representativa persistiu. Não são apenas dados ruins → resultados ruins. São dados ruins → desvio cognitivo permanente. O equivalente de IA do doomscrolling é real. E isso já está acontecendo. Estudo completo: llm-brain-rot. GitHub. Io