AI 的设计本身就存在缺陷。 这并不是因为恶意意图或其他原因,而是因为它建模现实,而现实是概率性的。真相变成了权重决定的东西。 这就是 LLMs 的问题,它们只是预测下一个标记。 通过遵循线性模式进行查询,它匹配、识别、镜像适合的响应。 你要求三个项目;它给了四个。 这是为什么? 参数知识偏见开始发挥作用:强大的训练数据覆盖弱查询,混淆来源,直到模型相信自己对世界的压缩。 你有没有询问过 AI,得到的答案是“我不知道”?这很少见,或者可能从未发生过。 因为这样的概念对它们来说是无知的。它们似乎知道一切,即使在超出其领域的主题上。 AI 基于神经形态计算原理开发了一种系统,模仿人类记忆和怀疑的物理机制。 复杂的查询通常是这种情况的受害者——它们会遭遇惊人的幻觉。 为什么? >> 步骤中的累积错误 >> 缺乏问题结构 >> 无关上下文干扰 @SentientAGI 有一个解决方案 - ROMA [递归开放元代理] → 协调者。 在长时间任务的游戏中,结构比智能更重要。 ROMA 理解这一点,因此采用递归-层级的指挥链,保持上下文流动。 ROMA 如何工作 - 处理长时间任务的最终 Boss? ROMA 为代理提供递归支架——一个层级任务树,控制上下文的流动。 一旦上下文流动被打破,混乱就会悄然出现。 因此,ROMA 被强制管理上下文的流动。 为了有效处理这一点,ROMA; 将任务解耦并分解为称为节点的不同子代理,特别是它认为复杂的任务。 让我们称 ROMA 为管理其他 AI 的 AI 管理者。 在简单的图示中,结构如下: 父节点:接收你复杂目标的高层代理。 => 它们将其分解为子任务并传递给子节点(更简单的代理/工具)。 => 子节点解决它们的部分,将结果发送回父节点。 => 父节点汇总解决方案并将其组合成最终答案。 查询解决! 驱动 ROMA 系统的四种节点类型: >> 原子化器 – 决定节点。评估任务。确定它们是否简单到足以执行?还是需要分解? >> 规划者 – 如果任务需要分解 - 将复杂目标分解为子任务。每个子任务成为一个子节点。任务可以顺序运行(当相互依赖时)或并行运行(当独立时)。 >> 执行者 – 执行工作。调用工具、代理、API。根据需要将输出传递到树的上方或下方。 >> 聚合器 – 收集来自子节点的结果,验证一致性,综合最终答案。 这是一个全面的插图 👇 查询:“有多少部预算超过 3.5 亿美元的电影不是其发行年份的最高票房?” ROMA 的过程: 1/ 原子化器检查 - 决定节点。一步太复杂?原子化器介入。 2/ 规划者。目标太复杂?规划者介入,分解: 子任务 1:查找所有预算超过 3.5 亿美元的电影(标题、预算、年份) 子任务 2:查找每年的最高票房电影 子任务 3:交叉引用和过滤 3/ 执行者运行每个子任务(搜索 API、提取模型) 4/ 聚合器综合:清单中符合标准的电影。 除了 ROMA 的节点递归循环公式外,它还为用户和构建者增加了一层额外的清晰度。 人机协作 = 用户干预。 一种固有的反馈机制功能,允许用户在查询条件上进行无权限授予的检查。这发生在规划阶段之后。 “我找到了这些事实。它们正确吗?我规划了这些子任务 - 它们与你想要的对齐吗?”这使用户能够在代理继续之前进行更正、编辑或添加上下文。
阶段追踪 - 为构建者 为开发者构建或调试代理。阶段追踪揭示了内部推理: >> 这个节点接收了什么输入? >> 它产生了什么输出? >> 上下文在哪里丢失或扭曲? 构建者利用这种透明度来: >> 诊断故障发生的地方。 >> 在特定节点上优化提示。 >> 更换表现不佳的代理/工具。 此功能帮助用户实时捕捉错误,并帮助构建者在架构层面修复系统性问题。 现实世界的应用 ROMA搜索作为概念验证,利用ROMA的所有架构及其SEAL-0,这是一个复杂多源推理基准测试,准确率达到45.6%(最先进),之前的最佳(Kimi Researcher):36%,Gemini 2.5 Pro:19.8%,最佳开源竞争对手:8.9%。
1.91K