Apuesta por la idea, no por el laboratorio. Si Anthropic se estanca, eso está en el paradigma, no en el equipo. Los LLM predicen. El razonamiento necesita retroalimentación fundamentada, memoria a largo plazo, herramientas e incentivos. Solo las redes sin permiso pueden probar eso a escala.
Tim Dettmers
Tim Dettmers8 ago, 02:21
Parece que el panorama de código cerrado frente a pesos abiertos se ha nivelado. GPT-5 es solo un 10% mejor en codificación que un modelo de peso abierto que puede ejecutar en una computadora de escritorio de consumo y pronto en una computadora portátil. Si Anthropic no puede encontrar un buen modelo, probablemente no veremos AGI por un tiempo.
50.56K