AI este defectuoasă prin design. Nu din cauza intenției rău intenționate sau de orice altceva, ci pentru că modelează realitatea și realitatea este probabilistică. Adevărul devine orice decid greutățile. Aceasta este problema LLM-urilor, ei doar prezic următorul token. Urmând modele liniare pentru interogări, se potrivește, recunoaște, oglindește răspunsurile care se potrivesc. Cereți trei articole; dă patru. De ce este asta? Intră în joc prejudecățile de cunoștințe parametrice: datele puternice de antrenament suprascriu interogările slabe, confundând sursele până când modelul crede propria compresie a lumii. Ați întrebat vreodată o inteligență artificială și ați primit răspunsul: "Nu știu" Acest lucru este rar sau probabil că nu s-a întâmplat niciodată. Pentru că un astfel de concept le ignoră. Se pare că știu totul, chiar și într-un subiect care este dincolo de domeniul lor. AI dezvoltă un sistem bazat pe principiile de calcul neuromorfic care imită mecanismul fizic al memoriei umane și al îndoielii. Interogările complexe sunt de obicei victima unor astfel de circumstanțe – sunt întâmpinate cu halucinații uimitoare. De ce? >> Eroare de compus în pașii săi >> Lipsa structurii problemelor >> Distragere irelevantă a contextului @SentientAGI are o soluție - ROMA [Recursive Open Meta Agent] → Orchestratorul. În jocul sarcinilor cu orizont lung, structura contează mai mult decât inteligența. ROMA înțelege acest lucru, prin urmare, adoptă un lanț de comandă recursiv-ierarhic care menține fluxul de context. Cum funcționează ROMA - șeful final pentru abordarea sarcinilor cu orizont lung? ROMA oferă agenților o schelă recursivă - un arbore de sarcini ierarhic care controlează modul în care curge contextul. Odată ce fluxul de context este întrerupt, anarhia se strecoară. Deci ROMA este forțat să gestioneze fluxul de context. Pentru a gestiona acest lucru în mod eficient, ROMA; Decuplează și descompune sarcinile în subagenți diferiți cunoscuți sub numele de noduri, în special sarcini pe care le consideră complexe. Să numim ROMA managerul AI care gestionează alte AI. Într-o imagine simplă, iată structura: Noduri părinte: agenți de nivel înalt care primesc obiectivul dvs. complex. => Îl împart în subsarcini și le transmit nodurilor copii (agenți/instrumente mai simple). => Nodurile copil își rezolvă piesa, trimit rezultatele înapoi la nodurile părinte. => Nodurile părinte agregă soluțiile și le combină în răspunsul final. Interogare rezolvată! Patru tipuri de noduri care conduc sistemul ROMA: >> Atomizor – Încuviințarea determinantă. Evaluați sarcina. Determină dacă sunt suficient de simple pentru a fi executate? Sau are nevoie de descompunere? >> Planner – Dacă o sarcină trebuie descompusă – împarte obiectivele complexe în subsarcini. Fiecare subsarcină devine un nod copil. Sarcinile pot rula secvențial (atunci când sunt dependente) sau în paralel (când sunt independente). >> Executor – Efectuează lucrarea. Apelează instrumente, agenți, API-uri. Trece ieșirile în sus sau în jos în arbore, după cum este necesar. >> Agregator – Colectează rezultatele de la nodurile copil, verifică consecvența, sintetizează răspunsul final. Iată o ilustrare 👇 cuprinzătoare Întrebare: "Câte filme cu buget de 350 de milioane de dolari + nu au fost cele mai mari încasări din anul lor de lansare?" Procesul ROMA: 1/ Verificări atomizor - Nodul Determinant. Prea complex pentru un pas? Vine atomizorul. 2/ Planificator. Obiectiv prea complex? Planificatorul intră, se descompune: Subsarcina 1: Găsiți toate filmele de 350 de milioane de dolari + (titluri, bugete, ani) Subsarcina 2: Găsiți filmele cu cele mai mari încasări pe an Subsarcina 3: Referință încrucișată și filtrare 3/ Executorii rulează fiecare subsarcină (API-uri de căutare, modele de extracție) 4/ Sintetizarea agregatorului: listă clară a filmelor care corespund criteriilor. Pe lângă formulele de buclă recursivă a nodurilor ROMA, a adăugat un strat suplimentar de claritate pentru URSS și constructori. Human-in-the loop = intervenția utilizatorului. O caracteristică inerentă a mecanismului de feedback care permite utilizatorilor să acorde fără permisiune să facă șah-mat cu starea interogării lor. Acest lucru se întâmplă imediat după etapa de planificare. "Am găsit aceste fapte. Au dreptate? Am planificat aceste substack-uri - se aliniază cu ceea ce vrei?" Acest lucru permite utilizatorului să corecteze, să editeze sau să adauge contexte înainte ca agentul să continue.
Urmărirea etapelor - Pentru constructori Pentru dezvoltatorul care construiește sau depanează agentul. Urmărirea etapei expune raționamentul intern: >> Ce intrare a primit acest nod? >> Ce producție a produs? >> Unde s-a pierdut sau distorsionat contextul? Constructorul folosește această transparență pentru: >> Diagnosticați unde se întâmplă eșecurile. >> Rafinați solicitările la anumite noduri >> Schimbați agenții/instrumentele cu performanțe slabe. Această caracteristică ajută utilizatorii să prindă greșelile în timp real, iar constructorii remediază problemele sistematice la nivel arhitectural. Utilizare în lumea reală Căutarea ROMA ca dovadă a conceptului folosind toată arhitectura ROMA cu SEAL-0, un test pentru un benchmark complex de raționament multi-sursă limitat la o precizie de 45,6% (de ultimă generație) cel mai bun anterior (Kimi Researcher): 36%, Gemini 2.5 Pro: 19,8%, cel mai bun rival open-source: 8,9%.
1,92K