Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
A IA é falha por design.
Não por causa de intenção maliciosa ou qualquer outra coisa, mas porque modela a realidade e a realidade é probabilística. A verdade se torna o que os pesos decidirem.
Este é o problema dos LLMs, eles apenas preveem o próximo token.
Seguindo padrões lineares para consultas, ele corresponde, reconhece e espelha as respostas que se encaixam.
Você pede três itens; dá quatro.
Por que isso?
O viés de conhecimento paramétrico entra em ação: dados de treinamento fortes substituem consultas fracas, confundindo fontes até que o modelo acredite em sua própria compressão do mundo.
Você já consultou uma IA e obteve a resposta: 'Não sei' Isso é raro ou provavelmente nunca teria ocorrido.
Porque tal conceito é alheio a eles. Eles parecem saber tudo, mesmo em um assunto que está além de seu domínio.
A IA desenvolve um sistema baseado em princípios de computação neuromórfica que imita o mecanismo físico da memória humana e da dúvida.
Consultas complexas são geralmente vítimas de tais circunstâncias - elas são recebidas por alucinações surpreendentes.
Por que?
>> Erro de composição em suas etapas
>> Falta de estrutura do problema
>> Distração de contexto irrelevante
@SentientAGI tem uma solução - ROMA [Recursive Open Meta Agent] → O orquestrador.
No jogo de tarefas de longo horizonte, a estrutura é mais importante do que a inteligência.
O ROMA entende isso, portanto, adota uma cadeia de comando recursiva-hierárquica que mantém o fluxo de contexto.
Como funciona o ROMA - o chefe final para lidar com tarefas de longo horizonte?
O ROMA oferece aos agentes um andaime recursivo - uma árvore de tarefas hierárquica que controla como o contexto flui.
Uma vez que o fluxo de contexto é quebrado, a anarquia se insinua.
Portanto, o ROMA é aplicado para gerenciar o fluxo de contexto.
Para lidar com isso de forma eficaz, ROMA;
Desacopla e decompõe tarefas para subagentes distintos conhecidos como nós, especialmente tarefas que considera complexas.
Vamos chamar o ROMA de gerenciador de IA que gerencia outras IAs.
Em uma imagem simples, aqui está a estrutura:
Nós pai: agentes de alto nível que recebem sua meta complexa.
=> Eles o dividem em subtarefas e as passam para nós filhos (agentes/ferramentas mais simples).
=> Os nós filhos resolvem sua parte, enviam os resultados de volta para os nós pais.
=> Os nós pai agregam soluções e as combinam na resposta final.
Consulta resolvida!
Quatro tipos de nó que impulsionam o sistema ROMA:
>> Atomizador – O aceno determinante. Avalie a tarefa. Determina se eles são simples o suficiente para executar? Ou precisa de decomposição?
>> Planner – Se uma tarefa precisar de decomposição – divide metas complexas em subtarefas. Cada subtarefa se torna um nó filho. As tarefas podem ser executadas sequencialmente (quando dependentes) ou em paralelo (quando independentes).
>> Executor – Executa o trabalho. Chama ferramentas, agentes, APIs. Passa as saídas para cima ou para baixo na árvore, conforme necessário.
>> Agregador – Coleta resultados de nós filhos, verifica a consistência, sintetiza a resposta final.
Aqui está uma ilustração 👇 abrangente
Pergunta: "Quantos filmes de orçamento de US $ 350 milhões + não foram os de maior bilheteria de seu ano de lançamento?"
Processo da ROMA:
1/ Verificações do atomizador - O nó Determinante. Muito complexo para uma etapa? O atomizador entra.
2/ Planejador. Objetivo muito complexo? o planejador entra, decompõe:
Subtarefa 1: Encontre todos os filmes de US$ 350 milhões + (títulos, orçamentos, anos)
Subtarefa 2: Encontre filmes de maior bilheteria por ano
Subtarefa 3: Referência cruzada e filtro
3/ Os executores executam cada subtarefa (APIs de pesquisa, modelos de extração)
4/ Sintetizadores do agregador: lista limpa de filmes que correspondem aos critérios.
Além das fórmulas de loop recursivo de nó do ROMA, ele adicionou uma camada extra de clareza para a URSS e construtores.
Human-in-the-loop = intervenção do usuário.
Um recurso de mecanismo de feedback inerente que permite uma concessão sem permissão aos usuários para marcar a condição de sua consulta. Isso ocorre logo após a fase de planejamento.
"Eu encontrei esses fatos. Eles estão corretos? Eu planejei essas subpilhas - elas se alinham com o que você quer?" Isso permite que o usuário corrija, edite ou adicione contextos antes que o agente continue.

Rastreamento de estágio - para construtores
Para o desenvolvedor que cria ou depura o agente. O rastreamento de estágios expõe o raciocínio interno:
>> Que entrada esse nó recebeu?
>> Que saída ele produziu?
>> Onde o contexto se perdeu ou foi distorcido?
O construtor usa essa transparência para:
>> Diagnostique onde as falhas acontecem.
>> Refinar prompts em nós específicos
>> Troque agentes/ferramentas de baixo desempenho.
Esse recurso ajuda os usuários a detectar erros em tempo real e os construtores a corrigir problemas sistemáticos em um nível arquitetônico.
Uso no mundo real
Pesquisa ROMA como uma prova de conceito aproveitando toda a arquitetura do ROMA com seu SEAL-0, um teste para benchmark de raciocínio complexo de várias fontes limitado a 45,6% de precisão (estado da arte) melhor anterior (Kimi Researcher): 36%, Gemini 2.5 Pro: 19,8%, melhor rival de código aberto: 8,9%.
1,89K
Melhores
Classificação
Favoritos

