AI ist von Natur aus fehlerhaft. Nicht wegen böswilliger Absichten oder ähnlichem, sondern weil es die Realität modelliert und die Realität probabilistisch ist. Die Wahrheit wird zu dem, was die Gewichte entscheiden. Das ist das Problem von LLMs, sie sagen einfach das nächste Token voraus. Indem sie linearen Mustern für Anfragen folgen, passt es an, erkennt, spiegelt Antworten wider, die passen. Du fragst nach drei Elementen; es gibt vier. Warum ist das so? Der parametrische Wissensbias tritt ein: starke Trainingsdaten überlagern schwache Anfragen und vermischen Quellen, bis das Modell an seine eigene Kompression der Welt glaubt. Hast du jemals eine AI gefragt und die Antwort erhalten: ‚Ich weiß es nicht‘? Das ist selten oder könnte wahrscheinlich nie vorgekommen sein. Weil ein solches Konzept ihnen unbekannt ist. Sie scheinen alles zu wissen, selbst in einem Thema, das über ihr Fachgebiet hinausgeht. AI entwickelt ein System basierend auf neuromorphen Rechenprinzipien, das den physischen Mechanismus des menschlichen Gedächtnisses und Zweifels nachahmt. Komplexe Anfragen sind normalerweise die Opfer solcher Umstände – sie werden mit erstaunlichen Halluzinationen begrüßt. Warum? >> Kumulativer Fehler in seinen Schritten >> Mangel an Problemstruktur >> Irrelevante Kontextablenkung @SentientAGI hat eine Lösung - ROMA [Recursive Open Meta Agent] → Der Orchestrator. Im Spiel der langfristigen Aufgaben ist Struktur wichtiger als Intelligenz. ROMA versteht das und nimmt daher eine rekursive-hierarchische Befehlskette an, die den Kontextfluss aufrechterhält. Wie funktioniert ROMA - der Endgegner für die Bewältigung langfristiger Aufgaben? ROMA gibt Agenten ein rekursives Gerüst – einen hierarchischen Aufgabenbaum, der steuert, wie der Kontext fließt. Sobald der Kontextfluss unterbrochen ist, schleicht sich Anarchie ein. Deshalb wird ROMA durchgesetzt, um den Fluss des Kontexts zu verwalten. Um dies effektiv zu handhaben, ROMA; Entkoppelt und zerlegt Aufgaben in verschiedene Unteragenten, die als Knoten bekannt sind, insbesondere Aufgaben, die es als komplex erachtet. Lass uns ROMA den AI-Manager nennen, der andere AIs verwaltet. In einem einfachen Bild, hier ist die Struktur: Elternknoten: hochrangige Agenten, die dein komplexes Ziel erhalten. => Sie zerlegen es in Unteraufgaben und geben sie an Kindknoten (einfachere Agenten/Tools) weiter. => Kindknoten lösen ihr Stück, senden die Ergebnisse zurück zu den Elternknoten. => Elternknoten aggregieren Lösungen und kombinieren sie in die endgültige Antwort. Anfrage gelöst! Vier Knotentypen, die das ROMA-System antreiben: >> Atomizer – Der Determinantenknoten. Bewertet die Aufgabe. Bestimmt, ob sie einfach genug ist, um sie auszuführen? Oder muss sie zerlegt werden? >> Planner – Wenn eine Aufgabe zerlegt werden muss - zerlegt komplexe Ziele in Unteraufgaben. Jede Unteraufgabe wird zu einem Kindknoten. Aufgaben können sequenziell (wenn abhängig) oder parallel (wenn unabhängig) ausgeführt werden. >> Executor – Führt die Arbeit aus. Ruft Tools, Agenten, APIs auf. Gibt Ausgaben nach Bedarf nach oben oder unten im Baum weiter. >> Aggregator – Sammelt Ergebnisse von Kindknoten, überprüft die Konsistenz, synthetisiert die endgültige Antwort. Hier ist eine umfassende Illustration 👇 Anfrage: "Wie viele Filme mit einem Budget von über 350 Millionen Dollar waren nicht die umsatzstärksten ihres Veröffentlichungsjahres?" ROMAs Prozess: 1/ Atomizer prüft - Der Determinantenknoten. Zu komplex für einen Schritt? Atomizer kommt ins Spiel. 2/ Planner. Ziel zu komplex? Der Planer kommt ins Spiel, zerlegt: Unteraufgabe 1: Finde alle Filme mit einem Budget von über 350 Millionen Dollar (Titel, Budgets, Jahre) Unteraufgabe 2: Finde die umsatzstärksten Filme pro Jahr Unteraufgabe 3: Querverweis und Filter 3/ Executor führen jede Unteraufgabe aus (Such-APIs, Extraktionsmodelle) 4/ Aggregator synthetisiert: saubere Liste von Filmen, die den Kriterien entsprechen. Neben ROMAs rekursiven Knotenschleifenformeln fügte es eine zusätzliche Ebene der Klarheit für Benutzer und Entwickler hinzu. Human-in-the-loop = Benutzerintervention. Ein inhärentes Feedbackmechanismus-Feature, das eine erlaubenlose Genehmigung für Benutzer ermöglicht, die Bedingungen ihrer Anfrage zu überprüfen. Dies geschieht direkt nach der Planungsphase. „Ich habe diese Fakten gefunden. Sind sie korrekt? Ich habe diese Unteraufgaben geplant - stimmen sie mit dem überein, was du willst?“ Dies ermöglicht es dem Benutzer, zu korrigieren, zu bearbeiten oder Kontexte hinzuzufügen, bevor der Agent fortfährt.
Stufenverfolgung - Für Entwickler Für den Entwickler, der den Agenten erstellt oder debuggt. Die Stufenverfolgung zeigt das interne Denken: >> Welche Eingabe hat dieser Knoten erhalten? >> Welche Ausgabe hat er produziert? >> Wo ging der Kontext verloren oder wurde verzerrt? Der Entwickler nutzt diese Transparenz, um: >> Zu diagnostizieren, wo Fehler auftreten. >> Eingabeaufforderungen an bestimmten Knoten zu verfeinern. >> Unterperformende Agenten/Werkzeuge auszutauschen. Dieses Feature hilft den Nutzern, Fehler in Echtzeit zu erkennen, und Entwicklern, systematische Probleme auf architektonischer Ebene zu beheben. Echte Anwendungsfälle ROMA-Suche als Proof of Concept, das die gesamte Architektur von ROMA mit seinem SEAL-0 nutzt, einem Test für komplexe Multi-Source-Reasoning-Benchmarks, der bei 45,6 % Genauigkeit (State-of-the-Art) liegt, vorheriger Bestwert (Kimi Researcher): 36 %, Gemini 2.5 Pro: 19,8 %, bester Open-Source-Konkurrent: 8,9 %.
1,89K