Djupdykningsdiskussion om agenter, GPT-5 och modellevals 👇
Amp — Research Preview
Amp — Research Preview22 aug. 01:27
Att uppfostra en agent - Avsnitt 8 I det här avsnittet sätter @beyang oss ner med @camden_cheek för att diskutera hur Amp-teamet utvärderar nya modeller: varför verktygsanrop är den viktigaste skillnaden, hur öppna modeller som K2 och Qwen står sig, vilka GPT-5-förändringar som sker och hur kvalitativa "vibe-kontroller" ofta är viktigare än riktmärken. De dyker också ner i subagenter, modelllegeringar och hur framtiden för agentisk kodning ser ut inuti Amp. Tidsstämplar: 0:00 Intro - Varför modellutvärdering är viktigt 1:06 Amps filosofi med flera modeller 3:16 Varför Gemini Pro inte fastnade 4:55 Fel vid verktygsanrop och användarstörningar 6:09 Iterationsförfall kontra självkorrigering 10:08 Öppna modeller hype (K2, Qwen) 11:22 "56k-eran av agenter" 18:01 Första intrycken av GPT-5 20:35 Legeringsmodeller och Oracle som reserv 24:26 Hur GPT-5 känns annorlunda (personlighet och styrbarhet) 29:10 Passerar användbarhetströskeln 38:13 Varför vibbar > riktmärken 44:18 Regressionstestning och utvärderingsfilosofi 46:21 Multi-model future > ensam vinnare 52:38 Avslutande tankar
2,76K