Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
Ninguém está pronto para o que este artigo de Stanford revela sobre a IA multiagente.
"Latent Collaboration in Multi-Agent Systems" mostra que agentes não precisam de mensagens, protocolos ou instruções explícitas de trabalho em equipe. Eles começam a coordenar dentro de suas próprias representações ocultas uma camada completa de colaboração que existe apenas no espaço latente.
E os comportamentos são insanos:
• Agentes passam tarefas silenciosamente com base em quem é melhor
• Papéis surgem do nada: líder, executor, apoiador
• Políticas codificam sinais que nunca aparecem em ações
• Equipes se adaptam a novos ambientes sem necessidade de requalificação
• A colaboração permanece estável mesmo quando a comunicação é impossível
O detalhe mais louco:
Mesmo quando você remove todos os canais de comunicação, os agentes ainda cooperam. O "trabalho em equipe" não está presente nas mensagens. Ele está na rede.
Isso vira todo o manual do multi-agente.
Estamos construindo mecanismos de coordenação em cima...
Enquanto a coordenação real acontece por baixo.
Uma nova era de inteligência de equipes emergentes está se desenrolando — e isso acontece nos lugares onde nem sequer estávamos olhando.
Projeto: github. com/Gen-Verse/LatentMAS

137,51K
A DeepSeek acabou de realizar o tipo de atualização que todo modelo de Reasoning fingiu ter.
Em vez de despejar uma longa cadeia de pensamentos e esperar que faça sentido, DeepSeek Math V2 faz uma investigação completa sobre sua própria lógica. Ele constrói uma prova, ataca, verifica o ataque, verifica o checker, corrige as falhas e faz loops até não conseguir mais se quebrar.
Essa única ideia mudou completamente seu desempenho.
Aqui está o que esse nível de autoanálise produziu:
• Desempenho de nível Ouro na IMO 2025
• Desempenho de nível ouro no CMO 2024
• 118/120 no Putnam 2024, a maior pontuação reportada
• Melhores resultados que GPT-5 Thinking e Gemini 2.5 Pro nas categorias mais difíceis
O segredo não é a escama.
É a arquitetura ao redor do modelo:
— um verificador que caça lacunas lógicas
— um meta-verificador que questiona o verificador
— um gerador de provas condicionado a evitar raciocínio fraco
— um ciclo que força cada parte do sistema a ficar mais nítida
O processo funciona como um moedor:
- Produzir uma prova
- Teste
- Teste o testador
- Reparar o raciocínio
-Repetir
Eles miraram na verdadeira questão do raciocínio matemático: um modelo pode acertar na resposta pelos motivos errados. Então, o DeepSeek treinou um verificador que pontua raciocínio, não resultados.
A parte mais louca é o que acontece com o tempo:
Cada ciclo melhora a qualidade da prova do modelo sem necessidade de limpeza humana.
Fica melhor porque se recusa a aceitar seu primeiro rascunho como correto.
Esta é uma nova direção para modelos de raciocínio.
Não mais para pensar.
Pensamento melhor.
Se você quer entender para onde o raciocínio da IA está caminhando, este artigo é uma prévia da próxima era.

19,78K
Estou lendo um relatório da Anthropic sobre o uso real do Claude e os números caíram como um tijolo.
Eles passaram por 100.000 conversas.
Aqui está a parte que me parou:
A maioria das tarefas que as pessoas levam para Claude normalmente leva cerca de 90 minutos.
Com Claude, essas mesmas tarefas terminam 80% mais rápido.
É alguém economizando horas toda semana sem nem tentar.
Então o relatório vai maior.
Se você aplicar esses ganhos em toda a economia dos EUA, os modelos atuais sozinhos impulsionam a produtividade do trabalho em 1,8% ao ano na próxima década.
Quase o dobro do ritmo recente.
E nada disso inclui modelos melhores.
É assim que as pessoas já usam Claude agora.
Pode ser a primeira vez que vemos evidências concretas do que a IA está fazendo dentro de empregos reais.
Turno silencioso.
Impacto enorme.
Já está acontecendo.

2,99K
Melhores
Classificação
Favoritos

