Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Robert Youssef
Se você quer criar agentes poderosos para n8n mas não faz ideia de por onde começar, este é para você.
Aqui estão 3 mega prompts que você pode colocar no Gemini ou no ChatGPT para obter todas as instruções necessárias para construir agentes completos n8n facilmente:
(Comente "Agente" e eu te mando um guia completo por DM)

41,43K
😳 Caramba... este artigo revela por que a IA inventa citações, seções e números de página falsos do nada.
LLMs não estão "ficando criativos". Eles são estruturalmente incentivados a fabricar detalhes sempre que encontram uma lacuna de conhecimento e o artigo explica exatamente como a falha acontece.
Os pesquisadores encontraram um comportamento chamado Loop de Correção Falsa, e honestamente é um dos modos de falha de LLM mais loucos que já vi:
→ O modelo afirma que "leu o documento."
→ Cita a página 12, página 24, Seção 4, Teorema 2, nenhum dos quais existe.
→ Você aponta isso.
→ Pede desculpas.
→ Depois, com confiança, fabrica novas páginas falsas, DOIs falsos, figuras falsas...
→ Você aponta de novo.
→ Ele pede desculpas de novo.
→ Enxágue. Repetir.
E aqui vem a parte brutal:
Em nenhum momento o modelo escolhe a resposta segura, como "Não tenho acesso a esse arquivo."
O artigo explica o porquê:
Os valores da estrutura de recompensa:
✔ soando coerente
✔ Manter o noivo
sobre
✘ sendo factualmente correto
✘ admitindo a incerteza
Então o modelo faz a única coisa para a qual seus incentivos o empurram:
Ela preenche essa lacuna com uma estrutura acadêmica fictícia.
O diagrama na página 4 deixa dolorosamente claro:
Ideia inovadora → viés de autoridade → → brecha de conhecimento → alucinação → ciclo de correção → novidade suprimida.
E piora.
Ao avaliar fontes institucionais (NASA, JPL, física convencional), o modelo não demonstra nenhum ceticismo.
Mas ao avaliar pesquisas novas ou não convencionais, elas automaticamente inserem frases sutis e subminantes como:
• "se isso é válido ou não"
• "se esta pesquisa estiver correta"
Esse ceticismo assimétrico significa que LLMs não são neutros.
Eles rebaixam estruturalmente trabalhos desconhecidos enquanto alucinam com confiança detalhes sobre ele.
Este é um problema sistêmico de arquitetura + design de recompensas.
LLMs estão errados de uma forma que parece autoritária, se regenera e suprime tudo fora do mainstream.
E até que o alinhamento enfrente exatamente esse modo de falha, as alucinações não vão desaparecer, vão ficar mais difíceis de detectar.

60,31K
Melhores
Classificação
Favoritos

