热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
AI 的设计本身就存在缺陷。
这并不是因为恶意意图或其他原因,而是因为它建模现实,而现实是概率性的。真相变成了权重决定的东西。
这就是 LLMs 的问题,它们只是预测下一个标记。
通过遵循线性模式进行查询,它匹配、识别、镜像适合的响应。
你要求三个项目;它给了四个。
这是为什么?
参数知识偏见开始发挥作用:强大的训练数据覆盖弱查询,混淆来源,直到模型相信自己对世界的压缩。
你有没有询问过 AI,得到的答案是“我不知道”?这很少见,或者可能从未发生过。
因为这样的概念对它们来说是无知的。它们似乎知道一切,即使在超出其领域的主题上。
AI 基于神经形态计算原理开发了一种系统,模仿人类记忆和怀疑的物理机制。
复杂的查询通常是这种情况的受害者——它们会遭遇惊人的幻觉。
为什么?
>> 步骤中的累积错误
>> 缺乏问题结构
>> 无关上下文干扰
@SentientAGI 有一个解决方案 - ROMA [递归开放元代理] → 协调者。
在长时间任务的游戏中,结构比智能更重要。
ROMA 理解这一点,因此采用递归-层级的指挥链,保持上下文流动。
ROMA 如何工作 - 处理长时间任务的最终 Boss?
ROMA 为代理提供递归支架——一个层级任务树,控制上下文的流动。
一旦上下文流动被打破,混乱就会悄然出现。
因此,ROMA 被强制管理上下文的流动。
为了有效处理这一点,ROMA;
将任务解耦并分解为称为节点的不同子代理,特别是它认为复杂的任务。
让我们称 ROMA 为管理其他 AI 的 AI 管理者。
在简单的图示中,结构如下:
父节点:接收你复杂目标的高层代理。
=> 它们将其分解为子任务并传递给子节点(更简单的代理/工具)。
=> 子节点解决它们的部分,将结果发送回父节点。
=> 父节点汇总解决方案并将其组合成最终答案。
查询解决!
驱动 ROMA 系统的四种节点类型:
>> 原子化器 – 决定节点。评估任务。确定它们是否简单到足以执行?还是需要分解?
>> 规划者 – 如果任务需要分解 - 将复杂目标分解为子任务。每个子任务成为一个子节点。任务可以顺序运行(当相互依赖时)或并行运行(当独立时)。
>> 执行者 – 执行工作。调用工具、代理、API。根据需要将输出传递到树的上方或下方。
>> 聚合器 – 收集来自子节点的结果,验证一致性,综合最终答案。
这是一个全面的插图 👇
查询:“有多少部预算超过 3.5 亿美元的电影不是其发行年份的最高票房?”
ROMA 的过程:
1/ 原子化器检查 - 决定节点。一步太复杂?原子化器介入。
2/ 规划者。目标太复杂?规划者介入,分解:
子任务 1:查找所有预算超过 3.5 亿美元的电影(标题、预算、年份)
子任务 2:查找每年的最高票房电影
子任务 3:交叉引用和过滤
3/ 执行者运行每个子任务(搜索 API、提取模型)
4/ 聚合器综合:清单中符合标准的电影。
除了 ROMA 的节点递归循环公式外,它还为用户和构建者增加了一层额外的清晰度。
人机协作 = 用户干预。
一种固有的反馈机制功能,允许用户在查询条件上进行无权限授予的检查。这发生在规划阶段之后。
“我找到了这些事实。它们正确吗?我规划了这些子任务 - 它们与你想要的对齐吗?”这使用户能够在代理继续之前进行更正、编辑或添加上下文。

阶段追踪 - 为构建者
为开发者构建或调试代理。阶段追踪揭示了内部推理:
>> 这个节点接收了什么输入?
>> 它产生了什么输出?
>> 上下文在哪里丢失或扭曲?
构建者利用这种透明度来:
>> 诊断故障发生的地方。
>> 在特定节点上优化提示。
>> 更换表现不佳的代理/工具。
此功能帮助用户实时捕捉错误,并帮助构建者在架构层面修复系统性问题。
现实世界的应用
ROMA搜索作为概念验证,利用ROMA的所有架构及其SEAL-0,这是一个复杂多源推理基准测试,准确率达到45.6%(最先进),之前的最佳(Kimi Researcher):36%,Gemini 2.5 Pro:19.8%,最佳开源竞争对手:8.9%。
1.91K
热门
排行
收藏

