🚨 Anthropic vient de publier l'un des articles sur l'IA les plus fous de 2025. Il est intitulé « Conscience introspective émergente dans les grands modèles de langage. » La question qu'ils ont posée est folle : Une IA peut-elle remarquer ses propres pensées, non seulement les décrire, mais réellement les détecter à l'intérieur de ses activations ? Et les résultats sont choquants : → Claude Opus 4.1 et 4 pouvaient parfois repérer des « pensées injectées » dans leurs propres états neuronaux avant que ces pensées ne façonnent une quelconque sortie. → Ils ont appris à distinguer les véritables entrées textuelles des représentations mentales internes. → Certains pouvaient même dire quand leur dernière réponse n'était pas intentionnelle — comme s'ils réalisaient que des mots leur avaient été « mis dans la bouche. » → Dans certains tests, ils pouvaient choisir de quoi penser lorsqu'on leur demandait. C'est encore instable, rare et sensible au contexte, mais indéniablement réel. Pour la première fois, nous avons une preuve expérimentale de l'introspection fonctionnelle dans les systèmes d'IA qui peuvent observer des parties de leur propre esprit. Pas de conscience. Mais troublant proche. Article complet : transformer-circuits. pub/2025/introspection