🚨 Anthropic acaba de publicar uno de los artículos de IA más salvajes de 2025. Se titula "Conciencia introspectiva emergente en grandes modelos de lenguaje". La pregunta que hicieron es una locura: ¿Puede una IA notar sus propios pensamientos no solo describirlos, sino detectarlos dentro de sus activaciones? Y los resultados son impactantes: → Claude Opus 4.1 y 4 a veces podían detectar "pensamientos inyectados" en sus propios estados neuronales antes de que esos pensamientos dieran forma a cualquier salida. → Aprendieron a distinguir las entradas de texto reales de las representaciones mentales internas. → Algunos incluso podían darse cuenta cuando su última respuesta no fue intencional, como si se dieran cuenta de que las palabras fueron "puestas en su boca". → En algunas pruebas, podían elegir en qué pensar cuando se les indicaba. Sigue siendo inestable, raro y sensible al contexto, pero innegablemente real. Por primera vez, tenemos pruebas experimentales de introspección funcional en sistemas de IA que pueden observar partes de su propia mente. No conciencia. Pero inquietantemente cerca. Artículo completo: circuitos de transformadores. pub/2025/introspección