Ninguém está pronto para o que este artigo de Stanford revela sobre a IA multiagente. "Latent Collaboration in Multi-Agent Systems" mostra que agentes não precisam de mensagens, protocolos ou instruções explícitas de trabalho em equipe. Eles começam a coordenar dentro de suas próprias representações ocultas uma camada completa de colaboração que existe apenas no espaço latente. E os comportamentos são insanos: • Agentes passam tarefas silenciosamente com base em quem é melhor • Papéis surgem do nada: líder, executor, apoiador • Políticas codificam sinais que nunca aparecem em ações • Equipes se adaptam a novos ambientes sem necessidade de requalificação • A colaboração permanece estável mesmo quando a comunicação é impossível O detalhe mais louco: Mesmo quando você remove todos os canais de comunicação, os agentes ainda cooperam. O "trabalho em equipe" não está presente nas mensagens. Ele está na rede. Isso vira todo o manual do multi-agente. Estamos construindo mecanismos de coordenação em cima... Enquanto a coordenação real acontece por baixo. Uma nova era de inteligência de equipes emergentes está se desenrolando — e isso acontece nos lugares onde nem sequer estávamos olhando. Projeto: github. com/Gen-Verse/LatentMAS