Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Deixe-me pintar o quadro.
Digamos que você quer um Humanoide para cozinhar um jantar delicioso enquanto você se senta no sofá e assiste Netflix.
Como isso funcionaria a nível técnico, uma vez que o Humanoide requer vários cérebros para preparar seu jantar?
A inteligência do robô não é monolítica, mas uma equipe de módulos de IA que combinam deliberação lenta com reflexos rápidos (design do Sistema 2 + Sistema 1).
Seu modelo de visão-linguagem-ação (VLA) divide a cognição em um módulo de raciocínio e uma política de controle reativa.
Como o robô está operando em uma arquitetura cognitiva de múltiplos cérebros, ele ativaria um operador “chef” dedicado para lidar com seu pedido, como inspecionar a cozinha com suas câmeras, procurar uma receita e, em seguida, direcionar seus membros para começar a cortar vegetais.
Esses cérebros podem ser divididos nos seguintes operadores.
Cérebro #1:
Para cozinhar um jantar delicioso, você precisa de um planejador executivo. Ele interpreta seu comando (“prepare o jantar”) para determinar o objetivo (fazer macarrão). Usando compreensão de linguagem natural, ele decide quais subtarefas são necessárias (encontrar ingredientes, cozinhar macarrão, arrumar a mesa etc.) e quais outros cérebros devem lidar com cada uma.
Ele coordena o sistema multiagente: ativando módulos especializados para visão, conhecimento e movimento. Este cérebro deliberativo (sistema 2) toma decisões de alto nível, traça a abordagem e aloca responsabilidades antes que qualquer movimento físico comece.
Cérebro #2:
Agora que você tem a receita, você precisará de alguns olhos robóticos e consciência espacial. Ele processa feeds de câmera para identificar ingredientes, ferramentas e suas localizações na cozinha. Usando visão computacional avançada, ele vê a tábua de cortar, os vegetais na geladeira, a faca na bancada etc.
Ele constrói um mapa 3D do ambiente e rastreia objetos relevantes (como onde estão o sal ou as panelas). Este cérebro perceptual (Sistema 2) funciona mais lentamente do que os reflexos, mas fornece um contexto preciso da cena para o planejamento. Ao reconhecer todas as peças envolvidas, ele educa o robô no mundo real.
Cérebro #3:
Este cérebro atua como a base de conhecimento e memória do robô (Sistema 2). Ele recupera e analisa informações necessárias para a tarefa, neste caso, uma receita adequada e instruções de cozimento. Ele pode consultar um livro de receitas online ou seu banco de dados interno para uma receita de macarrão, e então interpretar os passos (ferver água, picar alho, etc).
Ele recorda fatos sobre a cozinha (como onde as especiarias são guardadas) e experiências de cozimento passadas. Essencialmente, fornece compreensão semântica e conhecimento do mundo. Em seguida, computa instruções abstratas (caramelizar as cebolas) em parâmetros concretos (temperatura, tempo) que o robô pode executar, garantindo que o plano esteja alinhado com suas preferências.
Cérebro #4:
Com o objetivo e o ambiente esclarecidos, elaboramos um plano de ação detalhado. Ele divide o objetivo de alto nível em ações ordenadas e etapas condicionais. Ele agenda tarefas (às vezes em paralelo, como pré-aquecer o forno enquanto corta vegetais) e define marcos (água fervida, molho pronto).
Ele também rastreia o progresso e pode replanejar em tempo real se algo mudar (digamos que um ingrediente está faltando). Em seguida, ele entrega essa sequência de ações para os cérebros de nível de movimento para execução. Outro cérebro do Sistema 2.
Cérebro #5:
Hora de passar da arquitetura do Sistema 2 para o Sistema 1, traduzindo o plano em movimentos robóticos concretos. Para cada ação (como “andar até a geladeira” ou “cortar cenouras”), ele gera trajetórias aplicáveis para o corpo e membros do robô.
Este módulo lida com planejamento de caminho e cinemática inversa, calculando caminhos e ângulos das articulações para que o robô se mova suavemente sem colisões. Ele geralmente aplica políticas motoras aprendidas (como uma política de transformador de difusão) para produzir movimentos fluidos para tarefas complexas.
Se o Cérebro 4 diz para pegar uma panela da geladeira, o Cérebro 5 descobre como levar o robô até lá e como agarrar a panela. Onde ele coordena múltiplos membros quando necessário (usando duas mãos para levantar uma panela pesada, por exemplo). A intenção de alto nível se transforma em uma convergência de hardware e software em movimento.
Cérebro #6:
Uma vez que um plano de movimento está definido, é hora de executar. Este cérebro de controle de baixo nível do Sistema 1 aciona os atuadores do robô (motores e articulações). Ele lê continuamente os sensores (ângulos das articulações, força, equilíbrio) e envia sinais de controle para seguir a trajetória.
Usando laços de controle (controladores PID, controle preditivo de modelo etc.) para manter a precisão, se o robô começar a tombar ou uma faca desviar do curso, ele corrige instantaneamente. Esses são os reflexos e habilidades motoras finas operando em velocidades de milissegundos.
Enquanto o robô corta uma cenoura, o Cérebro 6 modula a força e ajusta o ângulo da lâmina para obter fatias uniformes sem escorregar. É como a “memória muscular” subconsciente do sistema, lidando automaticamente com detalhes de baixo nível.
Cérebro #7:
A peça final é focar na melhoria contínua. Durante e após a preparação do jantar, ele analisa o desempenho. Ele derrubou algo? Estava muito lento ao mexer?
Este módulo usa aprendizado por reforço e auto calibração para atualizar os modelos do robô ao longo do tempo. As habilidades principais do robô foram inicialmente treinadas em enormes demonstrações humanas e tentativa e erro, mas você precisa estar continuamente ajustando-as.
Se ele descobrir uma técnica de corte mais eficiente ou uma melhor pegada para a espátula, ele atualiza sua política para que o próximo jantar ocorra ainda mais suavemente. Este cérebro adaptativo permite que o humanoide se torne mais habilidoso com a experiência.
Codec: Operadores em Ação
Como a arquitetura do Codec une esses cérebros? Cada “cérebro” funciona como um módulo operador separado no sistema de IA do robô. A orquestração do Fabric do Codec fornece a cada operador seu próprio ambiente seguro e isolado.
Isso significa que o módulo de visão, módulo de linguagem/lógica, módulo de planejamento etc., todos funcionam em isolamento, mas se comunicam através de interfaces definidas.
Se um módulo falhar ou tiver erros, isso não derrubará todo o robô, os outros continuam funcionando com segurança. Este design modular também facilita a atualização ou troca de um cérebro sem afetar o restante, e adicionar novos operadores especializados conforme necessário.
Essa abordagem de operador apoia diretamente a estrutura de múltiplos cérebros. Quando você solicita o jantar, o cérebro executivo do robô (Cérebro 1) pode ativar um operador “chef” dedicado a essa tarefa, enquanto outros operadores lidam com percepção e controle em paralelo.
Cada operador tem acesso apenas aos recursos que precisa (por exemplo, o agente de receita pode ter acesso à internet para buscar instruções, enquanto o agente de controle apenas se comunica com o hardware), o que melhora a segurança.
O design modular e isolado do Codec é a cola que une todas essas habilidades diversas trabalhando juntas, semelhante a microserviços em software, permitindo que o humanoide lide de forma confiável com tarefas complexas como cozinhar o jantar do zero.
É por isso que $CODEC será a infraestrutura principal para Robótica.


23/08/2025
You’ll see foundation models for Humanoids continually using a System 2 + System 1 style architecture which is actually inspired by human cognition.
Most vision-language-action (VLA) models today are built as centralized multimodal systems that handle perception, language, and action within a single network.
Codec’s infrastructure is perfect for this as it treats each Operator as a sandboxed module. Meaning you can spin up multiple Operators in parallel, each running its own model or task, while keeping them encapsulated and coordinated through the same architecture.
Robots and Humanoids in general typically have multiple brains, where one Operator might handle vision processing, another handling balance, another doing high level planning etc, which can all be coordinated through Codec’s system.
Nvidia’s foundation model Issac GR00T N1 uses the two module System 2 + System 1 architecture. System 2 is a vision-language model (a version of PaLM or similar, multimodal) that observes the world through the robot’s cameras and listens to instructions, then makes a high level plan.
System 1 is a diffusion transformer policy that takes that plan and turns it into continuous motions in real time. You can think of System 2 as the deliberative brain and System 1 as the instinctual body controller. System 2 might output something like “move to the red cup, grasp it, then place it on the shelf,” and System 1 will generate the detailed joint trajectories for the legs and arms to execute each step smoothly.
System 1 was trained on tons of trajectory data (including human teleoperated demos and physics simulated data) to master fine motions, while System 2 was built on a transformer with internet pretraining (for semantic understanding).
This separation of reasoning vs. acting is very powerful for NVIDIA. It means GR00T can handle long horizon tasks that require planning (thanks to System 2) and also react instantly to perturbations (thanks to System 1).
If a robot is carrying a tray and someone nudges the tray, System 1 can correct the balance immediately rather than waiting for the slower System 2 to notice.
GR00T N1 was one of the first openly available robotics foundation models, and it quickly gained traction.
Out of the box, it demonstrated skill across many tasks in simulation, it could grasp and move objects with one hand or two, hand items between its hands, and perform multi step chores without any task specific programming. Because it wasn’t tied to a single embodiment, developers showed it working on different robots with minimal adjustments.
This is also true for Helix (Figure’s foundation model) which uses this type of architecture. Helix allows for two robots or multiple skills to operate, Codec could enable a multi agent brain by running several Operators that share information.
This “isolated pod” design means each component can be specialized (just like System 1 vs System 2) and even developed by different teams, yet they can work together.
It’s a one of a kind approach in the sense that Codec is building the deep software stack to support this modular, distributed intelligence, whereas most others only focus on the AI model itself.
Codec also leverages large pre trained models. If you’re building a robot application on it, you might plug in an OpenVLA or a Pi Zero foundation model as part of your Operator. Codec provides the connectors, easy access to camera feeds or robot APIs, so you don’t have to write the low level code to get images from a robot’s camera or to send velocity commands to its motors. It’s all abstracted behind a high level SDK.
One of the reasons I’m so bullish on Codec is exactly what I outlined above. They’re not chasing narratives, the architecture is built to be the glue between foundation models, and it frictionlessly supports multi brain systems, which is critical for humanoid complexity.
Because we’re so early in this trend, it’s worth studying the designs of industry leaders and understanding why they work. Robotics is hard to grasp given the layers across hardware and software, but once you learn to break each section down piece by piece, it becomes far easier to digest.
It might feel like a waste of time now, but this is the same method that gave me a head start during AI szn and why I was early on so many projects. Become disciplined and learn which components can co exist and which components don’t scale.
It’ll pay dividends over the coming months.
Deca Trillions ( $CODEC ) coded.

8,94K
Top
Classificação
Favoritos