Raising An Agent - Episode 8 In dieser Episode setzt sich @beyang mit @camden_cheek zusammen, um zu besprechen, wie das Amp-Team neue Modelle bewertet: warum das Tool-Calling der entscheidende Differenzierungsfaktor ist, wie sich offene Modelle wie K2 und Qwen schlagen, welche Änderungen GPT-5 mit sich bringt und wie qualitative "Vibe-Checks" oft wichtiger sind als Benchmarks. Sie tauchen auch in Subagenten, Modelllegierungen und die Zukunft des agentischen Codierens innerhalb von Amp ein. Zeitstempel: 0:00 Intro — Warum die Modellevaluation wichtig ist 1:06 Amps Multi-Modell-Philosophie 3:16 Warum Gemini Pro nicht durchgesetzt hat 4:55 Tool-Calling-Fehler & Benutzerstörungen 6:09 Iterationsverfall vs. Selbstkorrektur 10:08 Hype um offene Modelle (K2, Qwen) 11:22 Die "56k-Ära der Agenten" 18:01 Erste Eindrücke von GPT-5 20:35 Modelllegierungen & Oracle als Rückfalloption 24:26 Wie sich GPT-5 anders anfühlt (Persönlichkeit & Steuerbarkeit) 29:10 Überschreitung der Nutzbarkeitsschwelle 38:13 Warum Vibes > Benchmarks 44:18 Regressionstests & Evaluationsphilosophie 46:21 Multi-Modell-Zukunft > einzelner Gewinner 52:38 Abschließende Gedanken
9,27K