Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
De vez em quando, surge um projeto único que consegue executar sua própria corrida.
A IA, na maioria das vezes, não tem sido nada além de terminais de estilo chatgpt e geração criativa de imagem/vídeo.
Há vários meses ouvimos que estamos à beira de todos perderem seus empregos devido à IA.
Sim, isso tornou todos 10 vezes mais produtivos, mas não substituímos totalmente as pessoas na força de trabalho. Por que?
Os assistentes de IA dominantes hoje, de chatbots em um navegador a estruturas experimentais de "agentes", são fortes na conversa, mas estruturalmente limitados na execução.
Eles normalmente dependem de um navegador ou ambiente de script simples para executar tarefas. Embora isso funcione para buscar informações ou automação básica da web, esses agentes lutam com processos complexos de várias etapas e geralmente quebram quando as coisas se desviam de seu caminho confinado.
Os agentes de IA atuais falham porque não têm memória persistente e tolerância a falhas, quando confrontados com erros inesperados, não conseguem se recuperar ou se adaptar, muitas vezes parando ou repetindo indefinidamente.
A maioria opera em ambientes limitados baseados em navegador e não pode acessar toda a gama de software corporativo, deixando o trabalho rotineiro fora de seu alcance.
É por isso que não vimos a IA substituir as funções mundanas da empresa, como suporte ao cliente e administração. Não por falta de capacidade nos próprios modelos de IA, mas porque as estruturas ao seu redor não são confiáveis o suficiente para fluxos de trabalho críticos.
Então, o que é necessário?
Uma arquitetura de sistema reinventada. Um que aborda tolerância a falhas, memória, acesso, isolamento e eficiência em uma estrutura singular.
Em vez de parar na primeira entrada inesperada, eles devem detectar erros, adaptar-se e tentar novamente métodos diferentes, assim como os humanos fazem quando as coisas dão errado.
Para dimensionar a IA em fluxos de trabalho reais, ela precisa de memória persistente e rastreamento de tarefas para operar de forma confiável por longos períodos.
Eles também exigem acesso total ao ecossistema, além das ferramentas do navegador para usar o mesmo software que os humanos, incluindo aplicativos de desktop.
Sem isolamento seguro, os agentes não podem operar com segurança em ambientes dedicados, tornando a implantação em larga escala arriscada devido à possível interferência entre sistemas.
Se eles quiserem que seu tempo de execução seja consistente e eficiente, eles também precisarão de um gerenciamento inteligente de recursos que trate os computadores como um corpo em funcionamento ao vivo.
Para aqueles que conectaram os pontos, @Codecopenflow recente versão do Fabric reúne tudo isso, oferecendo aos agentes de IA sistemas operacionais (SO) confiáveis e totalmente dedicados que combinam o poder cognitivo de modelos avançados com a infraestrutura de que precisam para funcionar como trabalhadores digitais confiáveis.
O Fabric em si pode ser um software licenciado completamente independente. Ele transforma agentes de scripts vinculados ao navegador em operadores autônomos com acesso total ao nível do sistema operacional.
Assim como um agregador DEX roteia o preço mais eficiente para você, o Fabric é a camada de roteamento que atende à arquitetura de nível profundo do Codec.
Você lista suas necessidades de CPU, GPU, memória e quaisquer preferências de região. Isso significa encontrar os servidores mais econômicos, como AWS/google cloud ou recursos de GPU da rede Render/IO.
O Codec fornece SDKs limpos e uma API para controle total desses operadores de IA. Uma empresa pode integrar agentes de codec em seu pipeline de software existente (por exemplo, ativar um agente para lidar com uma solicitação de usuário e, em seguida, desativá-lo) sem precisar reinventar sua infraestrutura.
No suporte ao cliente, os agentes podem gerenciar fluxos de trabalho inteiros, resolução de consultas, atualizações de CRM, reembolsos, reduzindo os custos de mão de obra em até 90% e melhorando a consistência e o tempo de atividade.
Para operações comerciais, o Codec automatiza processos administrativos repetitivos, como manuseio de faturas, atualizações de RH e sinistros de seguros, especialmente em setores de alto volume, como finanças e saúde.
Ao se concentrar em um ambiente de vários aplicativos totalmente isolado para cada operador de IA, a IA não é restrita pelas questões críticas de confiabilidade e integração que as estruturas anteriores não podiam abordar.
Essencialmente, transformando a infraestrutura de computação em nuvem em uma linha de montagem flexível para trabalhadores de IA. Cada "trabalhador" recebe as ferramentas certas (aplicativos, sistema operacional, acesso a dados) e um cinto de segurança (isolamento + tratamento de falhas) para fazer seu trabalho.
Cada melhoria nos modelos de IA (GPT-5 etc) apenas aumenta o valor da plataforma da Codec, porque "cérebros" melhores agora podem ser conectados a esse "corpo" forte para realizar trabalhos ainda mais complexos.
O codec é independente do modelo (funciona com qualquer modelo de IA), portanto, ele se beneficia do progresso geral da IA sem estar vinculado ao destino de um único provedor.
Estamos em um ponto de inflexão semelhante aos primeiros dias da computação em nuvem. Assim como as empresas que forneceram as plataformas para nuvem (virtualização, infraestrutura da AWS, etc.) se tornaram indispensáveis para a TI corporativa, uma empresa que fornece a plataforma para os agentes de IA operarem conquistará um enorme mercado.
A OpenAI já lançou um terminal de codificação em nuvem totalmente agencial chamado Codex. O Codex será uma mini versão local do Codex que você pode executar em seu computador, mas o mais importante é que o modelo principal do Codex estará na nuvem com seu próprio computador.
O cofundador da OpenAI acredita que as empresas mais bem-sucedidas no futuro serão esses dois tipos de arquitetura mesclados. Parece familiar.
O que vem a seguir?
Em vez de dizer o que vem a seguir, talvez seja melhor apontar para o que ainda não vimos:
- Nenhuma utilidade de token confirmada
- Sem incentivos
- Sem roteiro principal
- Sem demonstrações
- Sem mercado
- Parcerias mínimas
Considerando o quanto está em andamento, juntamente com novos sites, documentos atualizados, pools de liquidez mais profundos, campanhas / marketing da comunidade e robótica. Codec ainda não revelou muitos cartões.
Claro que pode haver mais produtos baseados em navegador prontos atualmente no mercado, embora quanto tempo até que eles estejam obsoletos?
Este é um investimento na direção da IA e na arquitetura primária que substituirá as forças de trabalho humanas.
Codec codificado.


13 de mai. de 2025
Virtual Environments for Operator Agents: $CODEC
My core thesis around the explosion of AI has always centered on the rise of operator agents.
But for these agents to succeed, they require deep system access, effectively granting them control over your personal computer and sensitive data, which introduces serious security concerns.
We’ve already seen how companies like OpenAI and other tech giants handle user data. While most people don’t care, the individuals who stand to benefit most from operator agents, the top 1% absolutely do.
Personally, there's zero chance I’m giving a company like OpenAI full access to my machine, even if it means a 10× boost in productivity.
So why Codec?
Codec’s architecture is centered on launching isolated, on-demand “cloud desktops” for AI agents. At its core is a Kubernetes-based orchestration service (codenamed Captain) that provisions lightweight virtual machines (VMs) inside Kubernetes pods.
Each agent gets its own OS-level isolated environment (a full Linux OS instance) where it can run applications, browsers, or any code, completely sandboxed from other agents and the host. Kubernetes handles scheduling, auto-scaling, and self-healing of these agent pods, ensuring reliability and the ability to spin up/down many agent instances as load demands
Trusted Execution Environments (TEEs) are used to secure these VMs, meaning the agent’s machine can be cryptographically isolated, its memory and execution can be protected from the host OS or cloud provider. This is crucial for sensitive tasks: for example, a VM running in an enclave could hold API keys or crypto wallet secrets securely.
When an AI agent (an LLM-based “brain”) needs to perform actions, it sends API requests to the Captain service, which then launches or manages the agent’s VM pod. The workflow: the agent requests a machine, Captain (through Kubernetes) allocates a pod and attaches a persistent volume (for the VM’s disk). The agent can then connect into its VM (via a secure channel or streaming interface) to issue commands. Captain exposes endpoints for the agent to execute shell commands, upload/download files, retrieve logs, and even snapshot the VM for later restoration.
This design gives the agent a full operating system to work in, but with controlled, audited access. Because it’s built on Kubernetes, Codec can auto-scale horizontally, if 100 agents need environments, it can schedule 100 pods across the cluster, and handle failures by restarting pods.
The agent’s VM can be equipped with various MCP servers (like a “USB port” for AI). For example, Codec’s Conductor module is a container that runs a Chrome browser along with a Microsoft Playwright MCP server for browser control. This allows an AI agent to open web pages, click links, fill forms, and scrape content via standard MCP calls, as if it were a human controlling the browser.
Other MCP integrations could include a filesystem/terminal MCP (to let an agent run CLI commands securely) or application-specific MCPs (for cloud APIs, databases, etc.). Essentially, Codec provides the infrastructure “wrappers” (VMs, enclaves, networking) so that high-level agent plans can safely be executed on real software and networks.
Use Cases
Wallet Automation:
Codec can embed wallets or keys inside a TEE-protected VM, allowing an AI agent to interact with blockchain networks (trade on DeFi, manage crypto assets) without exposing secret keys.
This architecture enables onchain financial agents that execute real transactions securely, something that would be very dangerous in a typical agent setup. The platform’s tagline explicitly lists support for “wallets” as a key capability.
An agent could, for instance, run a CLI for an Ethereum wallet inside its enclave, sign transactions, and send them, with the assurance that if the agent misbehaves, it’s confined to its VM and the keys never leave the TEE.
Browser and Web Automation:
CodecFlow agents can control full web browsers in their VM. The Conductor example demonstrates an agent launching Chrome and streaming its screen to Twitch in real-time. Through the Playwright MCP, the agent can navigate websites, click buttons, and scrape data just like a human user. This is ideal for tasks like web scraping behind logins, automated web transactions, or testing web apps.
Traditional frameworks usually rely on API calls or simple headless browser scripts; in contrast, CodecFlow can run a real browser with a visible UI, making it easier to handle complex web applications (e.g. with heavy JavaScript or CAPTCHA challenges) under AI control.
Real-World GUI Automation (Legacy Systems):
Because each agent has an actual desktop OS, it can automate legacy GUI applications or remote desktop sessions, essentially functioning like robotic process automation (RPA) but driven by AI. For example, an agent could open an Excel spreadsheet in its Windows VM, or interface with an old terminal application that has no API.
Codec’s site mentions enabling “legacy automation” explicitly. This opens up using AI to operate software that isn’t accessible via modern APIs, a task that would be very hacky or unsafe without a contained environment. The included noVNC integration suggests agents can be observed or controlled via VNC, which is useful for monitoring an AI driving a GUI.
Simulating SaaS Workflows:
Companies often have complex processes that involve multiple SaaS applications or legacy systems. for example, an employee might take data from Salesforce, combine it with data from an internal ERP, then email a summary to a client. Codec can enable an AI agent to perform this entire sequence by actually logging into these apps through a browser or client software in its VM, much like a human would. This is like RPA, but powered by an LLM that can make decisions and handle variability.
Importantly, credentials to these apps can be provided to the VM securely (and even enclosed in a TEE), so the agent can use them without ever “seeing” plaintext credentials or exposing them externally. This could accelerate automation of routine back office tasks while satisfying IT that each agent runs with least privilege and full auditability (since every action in the VM can be logged or recorded).
Roadmap
- Launch public demo at end of the month
- Feature comparison with other similar platforms (no web3 competitor)
- TAO Integration
- Large Gaming Partnership
In terms of originality, Codec is built on a foundation of existing technologies but integrates them in a novel way for AI agent usage. The idea of isolated execution environments is not new (containers, VMs, and TEEs are standard in cloud computing), but applying them to autonomous AI agents with a seamless API layer (MCP) is extremely novel.
The platform leverages open standards and tools wherever possible: it uses MCP servers like Microsoft’s Playwright for browser control instead of reinventing that wheel, and plans to support AWS’s Firecracker micro-VMs for faster virtualization. It also forked existing solutions like noVNC for streaming desktops. Demonstrating the project is standing on the foundations of proven tech (Kubernetes, enclave hardware, open-source libraries), focusing its original development on glue logic and orchestration (the “secret sauce” is how it all works together).
The combination of open-source components and a upcoming cloud service (hinted by the mention of a $CODEC token utility and public product access) means Codec will soon be accessible in multiple forms (both as a service and self-hosted).
Team
Moyai: 15+ years dev experience, currently leading AI development at Elixir Games.
lil’km: 5+ years AI developer, currently working with HuggingFace on the LeRobot project.
HuggingFace is a huge robotics company and Moyai works as head of ai at elixir games (backed by square enix and solanafdn.
I’ve personally video called the entire team and really like the energy they bring. My friend who put them on my radar also met them all at Token2049 and only had good things to say.
Final Thoughts
There’s still a lot left to cover, which I’ll save for future updates and posts in my Telegram channel.
I’ve long believed cloud infrastructure is the future for operator agents. I’ve always respected what Nuit is building, but Codec is the first project that’s shown me the full-stack conviction I was looking for.
The team are clearly top tier engineers. They’ve openly said marketing isn’t their strength, which is likely why this has flown under the radar. I’ll be working closely with them to help shape the GTM strategy that actually reflects the depth of what they’re building.
With a $4 mil market cap and this level of infrastructure, it feels massively underpriced. If they can deliver a usable product, I think it could easily mark the beginning of the next AI infra cycle.
As always, there’s risk and while I’ve vetted the team in stealth over the past few weeks, no project is ever completely rug proof.
Price targets? A lot higher.

11,94K
Melhores
Classificação
Favoritos