Aposte na ideia, não no laboratório. Se a Anthropic parar, isso está no paradigma, não na equipe. Os LLMs preveem. O raciocínio precisa de feedback fundamentado, memória de longo prazo, ferramentas e incentivos. Somente redes sem permissão podem testar isso em escala.
Tim Dettmers
Tim Dettmers8 de ago., 02:21
Parece que o cenário de código fechado versus pesos abertos foi nivelado. O GPT-5 é apenas 10% melhor em codificação do que um modelo de peso aberto que você pode executar em um desktop de consumidor e, em breve, em um laptop. Se a Anthropic não conseguir apresentar um bom modelo, provavelmente não veremos a AGI por um tempo.
51,89K