Wed op het idee, niet op het lab. Als Anthropic stagneert, ligt dat aan het paradigma, niet aan het team. LLM's voorspellen. Redeneren heeft grondige feedback, langetermijngeheugen, tools en prikkels nodig. Alleen toestemmingloze netwerken kunnen dat op grote schaal onder druk zetten.
Tim Dettmers
Tim Dettmers8 aug, 02:21
Het lijkt erop dat het landschap van gesloten bron versus open gewichten is geëgaliseerd. GPT-5 is slechts 10% beter in coderen dan een open-gewichtmodel dat je op een consumenten-desktop en binnenkort laptop kunt draaien. Als Anthropic niet met een goed model komt, zullen we waarschijnlijk een tijdje geen AGI zien.
51,92K