Nadie está preparado para lo que este artículo de Stanford revela sobre la IA multiagente. "Latent Collaboration in Multi-Agent Systems" muestra que los agentes no necesitan mensajes, protocolos ni instrucciones explícitas de trabajo en equipo. Empiezan a coordinar dentro de sus propias representaciones ocultas una capa completa de colaboración que existe solo en el espacio latente. Y los comportamientos son una locura: • Los agentes entregan tareas en silencio según quién sea mejor • Aparecen roles de la nada: líder, albacea, simpatizante • Las políticas codifican señales que nunca aparecen en acciones • Los equipos se adaptan a nuevos entornos sin necesidad de reentrenamiento • La colaboración se mantiene estable incluso cuando la comunicación es imposible El detalle más salvaje: Incluso cuando eliminas todos los canales de comunicación, los agentes siguen cooperando. El "trabajo en equipo" no está presente en los mensajes. Está en la red. Esto da la vuelta a todo el manual de multiagente. Hemos estado construyendo mecanismos de coordinación encima... mientras la verdadera coordinación ocurre debajo. Se está desplegando una nueva era de inteligencia de equipo emergente — y está ocurriendo en lugares donde ni siquiera estábamos mirando. Proyecto: github. com/Gen-Verse/LatentMAS