AI 本質上存在缺陷。 並不是因為惡意意圖或其他原因,而是因為它模擬現實,而現實是概率性的。真相變成了權重所決定的東西。 這就是 LLMs 的問題,它們只是預測下一個標記。 通過遵循查詢的線性模式,它匹配、識別、鏡像適合的回應。 你要求三個項目;它卻給了四個。 這是為什麼? 參數知識偏見開始發揮作用:強大的訓練數據壓倒了弱查詢,混淆來源,直到模型相信它自己對世界的壓縮。 你有沒有詢問過 AI,卻得到答案「我不知道」?這是罕見的,或者可能從未發生過。 因為這樣的概念對它們來說是陌生的。它們似乎知道一切,即使在超出其領域的主題上。 AI 基於神經形態計算原則發展出一個系統,模仿人類記憶和懷疑的物理機制。 複雜的查詢通常是這種情況的受害者——它們會遭遇驚人的幻覺。 為什麼? >> 步驟中的累積錯誤 >> 缺乏問題結構 >> 不相關的上下文干擾 @SentientAGI 有一個解決方案 - ROMA [遞歸開放元代理] → 統籌者。 在長期任務的遊戲中,結構比智力更重要。 ROMA 理解這一點,因此採用遞歸-層級的指揮鏈來維持上下文流。 ROMA 如何運作 - 解決長期任務的最終關卡? ROMA 為代理提供遞歸支架——一個層級任務樹,控制上下文的流動。 一旦上下文流被打斷,無政府狀態就會悄然進入。 因此,ROMA 被強制管理上下文的流動。 為了有效處理這一點,ROMA; 將任務解耦並分解為稱為節點的不同子代理,特別是它認為複雜的任務。 讓我們稱 ROMA 為管理其他 AI 的 AI 管理者。 在一個簡單的圖示中,這是結構: 父節點:接收你複雜目標的高級代理。 => 它們將其分解為子任務並傳遞給子節點(更簡單的代理/工具)。 => 子節點解決它們的部分,將結果發送回父節點。 => 父節點聚合解決方案並將其組合成最終答案。 查詢解決了! 驅動 ROMA 系統的四種類型的節點: >> 原子化器 – 決定性節點。評估任務。確定它們是否足夠簡單以執行?還是需要分解? >> 計劃者 – 如果任務需要分解 - 將複雜目標分解為子任務。每個子任務成為子節點。任務可以順序運行(當依賴時)或並行運行(當獨立時)。 >> 執行者 – 執行工作。調用工具、代理、API。根據需要將輸出向上或向下傳遞。 >> 聚合器 – 收集來自子節點的結果,驗證一致性,綜合最終答案。 這是一個全面的插圖 👇 查詢:"有多少部 $350M+ 預算的電影不是其發行年份的最高票房?" ROMA 的過程: 1/ 原子化器檢查 - 決定性節點。一步太複雜?原子化器進場。 2/ 計劃者。目標太複雜?計劃者進場,分解: 子任務 1:查找所有 $350M+ 的電影(標題、預算、年份) 子任務 2:查找每年的最高票房電影 子任務 3:交叉參考和過濾 3/ 執行者運行每個子任務(搜索 API、提取模型) 4/ 聚合器綜合:清單中符合標準的電影。 除了 ROMA 的節點遞歸循環公式外,它還為用戶和建設者增加了一層額外的清晰度。 人類在循環中 = 用戶干預。 一個固有的反饋機制特徵,允許用戶在查詢的條件下進行無許可的檢查。這發生在計劃階段之後。 「我找到了這些事實。它們正確嗎?我計劃了這些子任務 - 它們是否符合你的需求?」這使得用戶能夠在代理繼續之前進行更正、編輯或添加上下文。
階段追蹤 - 為建構者而設 針對正在建構或調試代理的開發者。階段追蹤揭示了內部推理: >> 這個節點接收到什麼輸入? >> 它產生了什麼輸出? >> 上下文在哪裡丟失或扭曲了? 建構者利用這種透明度來: >> 診斷失敗發生的地方。 >> 在特定節點上精煉提示。 >> 更換表現不佳的代理/工具。 此功能幫助用戶即時捕捉錯誤,並讓建構者在架構層面修正系統性問題。 實際使用案例 ROMA 搜尋作為概念驗證,利用 ROMA 的所有架構及其 SEAL-0,這是一個複雜多來源推理基準測試,準確率上限為 45.6%(最先進技術),之前的最佳(Kimi Researcher):36%,Gemini 2.5 Pro:19.8%,最佳開源競爭對手:8.9%。
1.93K