Wir haben unser Format für das Aufrufen von System-Prompt-Tools auf natives Tool-Calling umgestellt und dies für verschiedene Modellfamilien aufgeteilt. Hier ist der Grund, warum dies zu einer besseren Erfahrung mit Cline führt: Modelle geben jetzt Tool-Calls in ihrem nativen JSON-Format zurück, das sie speziell dafür trainiert wurden, zu produzieren. Sie werden weniger "ungültige API-Antwort"-Fehler bemerken - dies verbessert insbesondere die Leistung von gpt-5-codex mit einer signifikanten Reduzierung der fehlgeschlagenen Operationen. Die parallele Ausführung von Tools ist jetzt aktiviert. Wenn Cline drei Dateien lesen muss, kann es diese gleichzeitig anstatt nacheinander ausführen. System-Prompts sind ebenfalls kleiner, da die Tool-Definitionen in die API-Parameter verschoben wurden, was den Tokenverbrauch pro Anfrage um etwa 15 % reduziert. Natives Tool-Calling wird derzeit für die nächsten Generationen von Modellen unterstützt: Claude 4+, Gemini 2.5, Grok 4, Grok Code und GPT-5 (außer gpt-5-chat) über unterstützende Anbieter wie Cline, Anthropic, Gemini, OpenRouter, xAI, OpenAI-native und Vercel AI Gateway.