Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI är bristfällig till sin utformning.
Inte på grund av onda avsikter eller vad det nu kan vara, utan för att den modellerar verkligheten och verkligheten är probabilistisk. Sanningen blir vad än vikterna bestämmer.
Detta är problemet med LLM:er, de förutsäger bara nästa token.
Genom att följa linjära mönster för frågor matchar, känner den igen och speglar svar som passar.
Du ber om tre saker; Det ger fyra.
Varför är det så?
Parametrisk kunskapsbias slår in: starka träningsdata åsidosätter svaga frågor och blandar ihop källor tills modellen tror på sin egen komprimering av världen.
Har du någonsin frågat en AI och du får svaret, "Jag vet inte" Det är sällsynt eller kanske aldrig har inträffat.
Eftersom ett sådant koncept är omedvetet för dem. De verkar veta allt även i ett ämne som ligger utanför deras domän.
AI utvecklar ett system baserat på neuromorfa beräkningsprinciper som efterliknar den fysiska mekanismen för mänskligt minne och tvivel.
Komplexa frågor är vanligtvis offer för sådana omständigheter – de möts av häpnadsväckande hallucinationer.
Varför?
>> Sammansättningsfel i dess steg
>> Brist på problemstruktur
>> Irrelevant kontextdistraktion
@SentientAGI har en lösning - ROMA [Recursive Open Meta Agent] → The orchestrator.
I spelet med uppgifter med lång horisont är struktur viktigare än intelligens.
ROMA förstår detta och antar därför en rekursiv-hierarkisk befälskedja som upprätthåller kontextflödet.
Hur fungerar ROMA - den slutliga chefen för att ta itu med uppgifter med lång horisont?
ROMA ger agenter en rekursiv ställning – ett hierarkiskt uppgiftsträd som styr hur kontexten flödar.
När kontextflödet bryts smyger sig anarkin in.
Så ROMA tillämpas för att hantera flödet av kontext.
För att hantera detta på ett effektivt sätt har ROMA;
Frikopplar och delar upp uppgifter till distinkta underagenter som kallas noder, särskilt uppgifter som anses vara komplexa.
Låt oss kalla ROMA för AI-chefen som hanterar andra AI:er.
I en enkel bild, här är strukturen:
Överordnade noder: agenter på hög nivå som tar emot ditt komplexa mål.
=> De delar upp det i deluppgifter och skickar ner dem till underordnade noder (enklare agenter/verktyg).
=> Barnnoder löser sin del, skickar tillbaka resultaten till överordnade noder.
=> Överordnade noder aggregerar lösningar och kombinerar dem till det slutliga svaret.
Frågan är löst!
Fyra nodtyper som driver ROMA-systemet:
>> Atomizer – Determinanten nickar. Bedöm uppgiften. Avgör om de är tillräckligt enkla att köra? Eller behöver den sönderdelas?
>> Planner – Om en uppgift behöver brytas ner - delar upp komplexa mål i deluppgifter. Varje underuppgift blir en underordnad nod. Uppgifter kan köras sekventiellt (när de är beroende) eller parallellt (när de är oberoende).
>> Executor – Utför arbetet. Anropar verktyg, agenter, API:er. Skickar utdata uppåt eller nedåt i trädet efter behov.
>> Aggregator – Samlar in resultat från underordnade noder, verifierar konsekvens, syntetiserar det slutliga svaret.
Här är en omfattande illustration 👇
Fråga: "Hur många filmer med en budget på 350 miljoner dollar + var inte de mest inkomstbringande under sitt utgivningsår?"
ROMA:s process:
1/ Atomizer-kontroller - Determinant-noden. För komplicerat för ett steg? Atomizer kommer in.
2/ Planerare. Är målet för komplext? Planeraren kommer in, bryter ner:
Deluppgift 1: Hitta alla filmer för 350 miljoner dollar + (titlar, budgetar, år)
Deluppgift 2: Hitta de mest inkomstbringande filmerna per år
Deluppgift 3: Korsreferens och filter
3/ Utförare kör varje underuppgift (sök-API:er, extraheringsmodeller)
4/ Aggregator syntetiserar: ren lista över filmer som matchar kriterierna.
Förutom ROMA:s formler för rekursiva nodslingor, lade den till ett extra lager av tydlighet för Sovjetunionen och byggare.
Människa-i-loopen = användaringripande.
En inbyggd återkopplingsfunktion som gör det möjligt för användare att utan behörighet bevilja användare att sätta villkoret för deras fråga matt. Detta sker direkt efter planeringsstadiet.
"Jag hittade dessa fakta. Är de korrekta? Jag planerade dessa substacks - stämmer de överens med vad du vill ha? Detta gör det möjligt för användaren att korrigera, redigera eller lägga till kontexter innan agenten fortsätter.

Stage Tracing - För byggare
För utvecklaren som skapar eller felsöker agenten. Scenspårning visar det interna resonemanget:
>> Vilka indata fick den här noden?
>> Vilka resultat gav den?
>> Var gick sammanhanget förlorat eller förvrängdes?
Byggherren använder den här genomskinligheten för att:
>> Diagnostisera var fel inträffar.
>> Förfina prompter vid specifika noder
>> Byt ut underpresterande agenter/verktyg.
Den här funktionen hjälper användare att fånga upp misstag i realtid, och byggare fixar systematiska problem på arkitektonisk nivå.
Användning i den verkliga världen
ROMA-sökning som ett bevis på konceptet som utnyttjar hela ROMA:s arkitektur med sin SEAL-0, ett test för komplext resonemang med flera källor som är begränsat till 45,6 % noggrannhet (toppmodernt) tidigare bästa (Kimi Researcher): 36 %, Gemini 2,5 Pro: 19,8 %, bästa rival med öppen källkod: 8,9 %.
1,94K
Topp
Rankning
Favoriter

