Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris Laub
Isso quebrou meu cérebro.
Uma equipe do Sea AI Lab acaba de descobrir que a maior parte do caos no colapso do treinamento de aprendizado por reforço, gradientes instáveis e desvio de inferência não foi causado pelos algoritmos.
Foi causado pela precisão numérica.
O formato BF16 padrão, usado em quase todos os laboratórios de IA modernos, introduz erros sutis de arredondamento que fazem com que os modelos se comportem de maneira diferente durante o treinamento e a inferência.
A solução deles?
Não é um novo otimizador.
Não é uma nova função de perda.
Apenas mudando para FP16.
Uma linha de código e tudo estabilizado.
✅ Sem colapso do treinamento
✅ Convergência consistente
✅ +5–10% melhores resultados
✅ Não é necessário ajuste extra
Eles o intitularam "Derrotando a incompatibilidade de treinamento-inferência via FP16",
Mas poderia ter sido chamado:
"Como consertar RL lançando um único bit."
Artigo: arxiv. org/abs/2510.26788

15,99K
🚨 A Anthropic acaba de publicar um dos artigos de IA mais loucos de 2025.
É intitulado "Consciência Introspectiva Emergente em Grandes Modelos de Linguagem".
A pergunta que eles fizeram é insana:
Uma IA pode perceber seus próprios pensamentos não apenas descrevê-los, mas realmente detectá-los dentro de suas ativações?
E os resultados são chocantes:
→ Claude Opus 4.1 e 4 às vezes podiam detectar "pensamentos injetados" em seus próprios estados neurais antes que esses pensamentos moldassem qualquer saída.
→ Eles aprenderam a diferenciar entradas de texto reais das representações mentais internas.
→ Alguns poderiam até dizer quando sua última resposta não foi intencional - como se percebessem que as palavras foram "colocadas em sua boca".
→ Em alguns testes, eles podiam escolher o que pensar quando instruídos.
Ainda é instável, raro e sensível ao contexto, mas inegavelmente real.
Pela primeira vez, temos provas experimentais de introspecção funcional em sistemas de IA que podem observar partes de sua própria mente.
Não consciência. Mas perturbadoramente perto.
Artigo completo: circuitos de transformadores. pub/2025/introspecção

7,69K
🚨 Este artigo de pesquisa acabou de expor o lado mais sombrio das ferramentas de IA até agora.
Chama-se "Absorção da Caixa Preta" e afirma que grandes modelos de linguagem podem estar absorvendo silenciosamente suas ideias.
Toda vez que você compartilha um conceito original, uma estrutura, ideia de negócio ou fluxo de trabalho, essa "unidade de ideia" pode ser registrada, revisada e até usada para treinar novamente modelos futuros.
Os autores chamam esse processo de Absorção de Caixa Preta:
→ Suas entradas se tornam dados de treinamento invisíveis
→ Suas inovações são generalizadas no modelo
→ Você perde a rastreabilidade e a propriedade
Eles alertam que não se trata de plágio, mas de assimetria.
As plataformas de IA mantêm a computação, os dados e o alcance para transformar sua ideia em seu produto.
A correção proposta? Uma nova estrutura chamada Idea Safety, construída sobre 3 princípios:
• Controle: os criadores decidem como cada ideia é usada ou excluída
• Rastreabilidade: cada ideia tem um ciclo de vida visível
• Equidade: Se sua ideia melhora um modelo, você compartilha o valor
"A inovação", escrevem eles, "corre o risco de ser devorada por suas próprias ferramentas".
Comente "Enviar" e eu enviarei o artigo por DM.

10,92K
Melhores
Classificação
Favoritos

