Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Saint
Scrivo mentre risuona con me istantaneamente mentre mi chiudo su @moduverseco
L'AI è difettosa per design.
Non a causa di intenzioni maligne o simili, ma perché modella la realtà e la realtà è probabilistica. La verità diventa ciò che decidono i pesi.
Questo è il problema dei LLM, prevedono solo il token successivo.
Seguendo schemi lineari per le query, corrisponde, riconosce, rispecchia risposte che si adattano.
Chiedi tre elementi; ne dà quattro.
Perché?
Il bias di conoscenza parametrica entra in gioco: dati di addestramento forti sovrascrivono query deboli, confondendo le fonti fino a quando il modello non crede alla propria compressione del mondo.
Hai mai interrogato un'AI e hai ricevuto la risposta 'Non lo so'? È raro o probabilmente non è mai accaduto.
Perché tale concetto è ignoto per loro. Sembrano sapere tutto anche su un argomento che va oltre il loro dominio.
L'AI sviluppa un sistema basato sui principi del calcolo neuromorfico che imita il meccanismo fisico della memoria umana e del dubbio.
Le query complesse sono solitamente vittime di tali circostanze: vengono accolte da allucinazioni straordinarie.
Perché?
>> Errore cumulativo nei suoi passaggi
>> Mancanza di struttura del problema
>> Distrazione da contesto irrilevante
@SentientAGI ha una soluzione - ROMA [Recursive Open Meta Agent] → L'orchestratore.
Nel gioco dei compiti a lungo termine, la struttura conta più dell'intelligenza.
ROMA comprende questo e quindi adotta una catena di comando ricorsiva-gerarchica che mantiene il flusso di contesto.
Come funziona ROMA - il boss finale per affrontare compiti a lungo termine?
ROMA fornisce agli agenti un'impalcatura ricorsiva: un albero di compiti gerarchico che controlla come fluisce il contesto.
Una volta che il flusso di contesto è interrotto, l'anarchia si insinua.
Quindi ROMA è costretta a gestire il flusso di contesto.
Per gestire questo in modo efficace, ROMA;
Decouples e decomprime i compiti in distinti sub agenti noti come nodi, specialmente compiti che considera complessi.
Chiamiamo ROMA il manager AI che gestisce altre AI.
In un'immagine semplice, ecco la struttura:
Nodi genitori: agenti di alto livello che ricevono il tuo obiettivo complesso.
=> Rompono in subtasks e li passano ai nodi figli (agenti/strumenti più semplici).
=> I nodi figli risolvono il loro pezzo, inviano i risultati ai nodi genitori.
=> I nodi genitori aggregano le soluzioni e le combinano nella risposta finale.
Query risolta!
Quattro tipi di nodi che guidano il sistema ROMA:
>> Atomizer – Il nodo determinante. Valuta il compito. Determina se sono abbastanza semplici da eseguire? O ha bisogno di decomposizione?
>> Planner – Se un compito ha bisogno di decomposizione - rompe obiettivi complessi in subtasks. Ogni subtask diventa un nodo figlio. I compiti possono essere eseguiti in sequenza (quando dipendenti) o in parallelo (quando indipendenti).
>> Executor – Esegue il lavoro. Chiama strumenti, agenti, API. Passa gli output su o giù per l'albero secondo necessità.
>> Aggregator – Raccoglie risultati dai nodi figli, verifica la coerenza, sintetizza la risposta finale.
Ecco un'illustrazione completa 👇
Query: "Quanti film con budget di oltre $350M non sono stati i più redditizi dell'anno di uscita?"
Processo di ROMA:
1/ Atomizer controlla - Il nodo determinante. Troppo complesso per un solo passaggio? L'Atomizer interviene.
2/ Planner. Obiettivo troppo complesso? Il planner interviene, decomponendo:
Subtask 1: Trova tutti i film da $350M+ (titoli, budget, anni)
Subtask 2: Trova i film più redditizi per anno
Subtask 3: Incrocia e filtra
3/ Gli Executor eseguono ciascun subtask (API di ricerca, modelli di estrazione)
4/ L'Aggregator sintetizza: lista pulita di film che soddisfano i criteri.
Oltre alla formula del ciclo ricorsivo dei nodi di ROMA, ha aggiunto uno strato extra di chiarezza per utenti e costruttori.
Human-in-the loop = intervento dell'utente.
Un meccanismo di feedback intrinseco che consente un'autorizzazione senza permesso agli utenti per controllare le condizioni della loro query. Questo avviene subito dopo la fase di pianificazione.
"Ho trovato questi fatti. Sono corretti? Ho pianificato questi sottocompiti - si allineano con ciò che vuoi?" Questo consente all'utente di correggere, modificare o aggiungere contesti prima che l'agente continui.

1,53K
Principali
Ranking
Preferiti

