Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Trissy
Une dernière course haussière
Pourquoi vous devriez travailler pour vos sacs :
1. Le niveau de conviction est si bas en raison des temps de détention. Tout le monde a peur de croire en quelque chose, donc quand ils voient quelqu'un être vocal et élaborer une bonne thèse tout en ne laissant pas tomber la pièce après quelques jours, ils sont fortement enclins à rejoindre.
Plus la thèse est de qualité + plus la constance dans les publications est élevée = plus la confiance est grande. Chaque coureur a au moins un membre de la communauté dévoué qui donne tout pour le projet (murad, lexapro, lui, Unipcs, etc.)
2. Votre impact devient exponentiel. Je trouve rarement des pièces par moi-même et découvrir de nouvelles narrations provient généralement de fouiller à travers des dizaines à des centaines de petits comptes, chaînes, gc, etc.
Des centaines de fois, j'ai vu un compte avec moins de 1k abonnés qui a posté une thèse sur une nouvelle pièce que j'ai fini par acheter et partager moi-même. Vous seriez surpris de l'impact qu'un seul post peut avoir avec le bon message.
3. C'est le meilleur moyen de développer votre réseau et de trouver des traders au style similaire. Si vous essayez d'être ajouté à de nouveaux gc ou de trouver d'autres amis, commencez à poster davantage sur les pièces dans lesquelles vous êtes et donnez des analyses uniques et perspicaces.
J'ai fait beaucoup d'amis simplement en travaillant pour le même coin. Il n'y a rien de mieux que de trouver un groupe central de traders/écrivains pour aider à faire grandir un projet, à condition d'être éthique à ce sujet.
4. Travailler pour ses sacs est +ev en tant que petit compte. Si vous débutez, le meilleur moyen de grandir est de constamment chercher de nouvelles pièces et d'écrire des narrations à leur sujet, selon moi.
Lorsque vous atteindrez finalement ce 20, 50, 100x avec une thèse attachée, vous grandirez en réputation et, espérons-le, en portefeuille. L'art est de ne pas trop partager de pièces pour que les gens respectent votre conviction et sachent que vous ne cherchez pas de liquidité de sortie, tout en fournissant réellement une forme d'insight.
Mes plus grands regrets viennent toujours de ne pas avoir écrit davantage. Vous seriez surpris de l'effet qu'une seule conviction peut avoir sur les autres.
Il n'a jamais été aussi facile de se démarquer, la qualité de la recherche, de la conviction, de l'authenticité et de la dévotion est à son plus bas historique.
Prenez une chance.
6,7K
Le Pump et son éco semblent être le trade évident ici.
- 10 millions en rachats cette semaine (99% des revenus), presque 50% des revenus des hyperliquides et des rachats à 15x un FDV plus bas
- A montré qu'il est le véritable lanceur de roi
- SOL franchissant une nouvelle plage et SOL/ETH semblant avoir atteint un creux
- Conditions macroéconomiques accommodantes pour le mois prochain
Le prix est réprimé en raison du nombre de traders DEX actifs quotidiennement, le plus bas qu'il ait été depuis plus d'un an.
Tout le monde sous-estime à quel point il est facile de raviver l'esprit animal avec quelques coureurs, étudiez octobre 2024.
Vous n'avez besoin que d'une seule pièce pour raviver l'imagination de tout le monde.
$PUMP

18,6K
Laissez-moi peindre le tableau.
Disons que vous voulez qu'un Humanoïde prépare un délicieux dîner pendant que vous êtes assis sur le canapé à regarder Netflix.
Comment cela fonctionnerait-il sur un plan technique puisque l'Humanoïde nécessite plusieurs cerveaux pour préparer votre dîner ?
L'intelligence du robot n'est pas monolithique, mais une équipe de modules d'IA combinant une délibération lente avec des réflexes rapides (conception Système 2 + Système 1).
Son modèle vision-langage-action (VLA) divise la cognition en un module de raisonnement et une politique de contrôle réactif.
Alors que le robot fonctionne sur une architecture cognitive multi-cerveau, il activerait un opérateur "chef" dédié pour gérer votre demande, comme surveiller la cuisine avec ses caméras, rechercher une recette, puis diriger ses membres pour commencer à couper des légumes.
Ces cerveaux peuvent être décomposés en les opérateurs suivants.
Cerveau #1 :
Pour cuisiner un délicieux dîner, vous avez besoin d'un planificateur exécutif. Il interprète votre commande ("préparer le dîner") pour déterminer l'objectif (faire des pâtes). En utilisant la compréhension du langage naturel, il décide quelles sous-tâches sont nécessaires (trouver les ingrédients, cuire les pâtes, mettre la table, etc.) et quels autres cerveaux devraient gérer chacune.
Il coordonne le système multi-agent : activant des modules spécialisés pour la vision, la connaissance et le mouvement. Ce cerveau délibératif (système 2) prend des décisions de haut niveau, établit l'approche et attribue des responsabilités avant que tout mouvement physique ne commence.
Cerveau #2 :
Maintenant que vous avez la recette, vous aurez besoin d'yeux de robot et de conscience spatiale. Il traite les flux de caméra pour identifier les ingrédients, les outils et leurs emplacements dans la cuisine. En utilisant une vision par ordinateur avancée, il voit la planche à découper, les légumes dans le réfrigérateur, le couteau sur le comptoir, etc.
Il construit une carte 3D de l'environnement et suit les objets pertinents (comme où se trouvent le sel ou les casseroles). Ce cerveau perceptuel (Système 2) fonctionne plus lentement que les réflexes, mais fournit un contexte de scène précis pour la planification. En reconnaissant toutes les pièces impliquées, il éduque le robot dans le monde réel.
Cerveau #3 :
Ce cerveau agit comme la base de connaissances et la mémoire du robot (Système 2). Il récupère et analyse les informations nécessaires pour la tâche, dans ce cas, une recette appropriée et des instructions de cuisson. Il pourrait interroger un livre de cuisine en ligne ou sa base de données interne pour une recette de pâtes, puis interpréter les étapes (faire bouillir de l'eau, hacher de l'ail, etc.).
Il rappelle des faits sur la cuisine (comme où sont conservées les épices) et des expériences de cuisson passées. Essentiellement, il fournit une compréhension sémantique et des connaissances sur le monde. Puis il calcule des instructions abstraites (caraméliser les oignons) en paramètres concrets (température, timing) que le robot peut exécuter, s'assurant que le plan s'aligne avec vos préférences.
Cerveau #4 :
Avec l'objectif et l'environnement clarifiés, nous avons élaboré un plan de jeu détaillé. Il décompose l'objectif de haut niveau en actions ordonnées et étapes conditionnelles. Il planifie les tâches (parfois en parallèle, comme préchauffer le four tout en coupant des légumes) et fixe des jalons (eau bouillie, sauce prête).
Il suit également les progrès et peut replanifier à la volée si quelque chose change (par exemple, un ingrédient est manquant). Il transmet ensuite cette séquence d'actions aux cerveaux de niveau mouvement pour exécution. Un autre cerveau Système 2.
Cerveau #5 :
Il est temps de passer de l'architecture Système 2 au Système 1, traduisant le plan en mouvements concrets du robot. Pour chaque action (comme "marcher jusqu'au réfrigérateur" ou "couper des carottes"), il génère des trajectoires applicables pour le corps et les membres du robot.
Ce module gère la planification de chemin et la cinématique inverse, calculant les chemins et angles des articulations afin que le robot se déplace en douceur sans collisions. Il applique généralement des politiques motrices apprises (comme une politique de transformateur de diffusion) pour produire des mouvements fluides pour des tâches complexes.
Si le Cerveau 4 dit de récupérer une casserole du réfrigérateur, le Cerveau 5 détermine comment amener le robot là-bas et comment saisir la casserole. Il coordonne plusieurs membres lorsque cela est nécessaire (utilisant deux mains pour soulever une casserole lourde par exemple). L'intention de haut niveau se transforme en une convergence de matériel et de logiciel en mouvement.
Cerveau #6 :
Une fois qu'un plan de mouvement est établi, il est temps d'exécuter. Ce cerveau de contrôle de bas niveau Système 1 entraîne les actionneurs du robot (moteurs et articulations). Il lit en continu les capteurs (angles des articulations, force, équilibre) et envoie des signaux de contrôle pour suivre la trajectoire.
Utilisant des boucles de contrôle (contrôleurs PID, contrôle prédictif de modèle, etc.) pour maintenir la précision, si le robot commence à basculer ou qu'un couteau dévie de son cours, il corrige instantanément. Ce sont les réflexes et les compétences motrices fines opérant à des vitesses de millisecondes.
Alors que le robot tranche une carotte, le Cerveau 6 module la force et ajuste l'angle de la lame pour obtenir des tranches uniformes sans glisser. C'est comme la "mémoire musculaire" subconsciente du système, gérant automatiquement les détails de bas niveau.
Cerveau #7 :
La dernière pièce se concentre sur l'amélioration continue. Pendant et après la préparation du dîner, il analyse les performances. A-t-il renversé quelque chose ? Était-il trop lent à remuer ?
Ce module utilise l'apprentissage par renforcement et l'auto-calibration pour mettre à jour les modèles du robot au fil du temps. Les compétences de base du robot ont été initialement entraînées sur d'énormes démonstrations humaines et par essais et erreurs, mais vous devez les affiner en continu.
S'il découvre une technique de découpe plus efficace ou une meilleure prise de spatule, il met à jour sa politique afin que le prochain dîner se déroule encore plus facilement. Ce cerveau adaptatif permet à l'humanoïde de devenir plus habile avec l'expérience.
Codec : Opérateurs en Action
Comment l'architecture de Codec relie-t-elle ces cerveaux ensemble ? Chaque "cerveau" fonctionne comme un module d'opérateur séparé dans le système d'IA du robot. L'orchestration de Fabric de Codec fournit à chaque opérateur son propre environnement sécurisé et isolé.
Cela signifie que le module de vision, le module de langage/logique, le module de planification, etc., fonctionnent tous en isolation tout en communiquant par des interfaces définies.
Si un module plante ou a des erreurs, cela ne fera pas tomber tout le robot, les autres continuent de fonctionner en toute sécurité. Ce design modulaire facilite également la mise à jour ou le remplacement d'un cerveau sans affecter le reste, et l'ajout de nouveaux opérateurs spécialisés au besoin.
Cette approche d'opérateur soutient directement le cadre multi-cerveau. Lorsque vous demandez le dîner, le cerveau exécutif du robot (Cerveau 1) peut activer un opérateur "chef" dédié à cette tâche, tandis que d'autres opérateurs gèrent la perception et le contrôle en parallèle.
Chaque opérateur n'a accès qu'aux ressources dont il a besoin (par exemple, l'agent de recette pourrait avoir accès à Internet pour récupérer des instructions, tandis que l'agent de contrôle n'interagit qu'avec le matériel), ce qui améliore la sécurité.
Le design modulaire et isolé de Codec est le lien entre toutes ces compétences diverses travaillant ensemble, similaire aux microservices dans les logiciels, permettant à l'humanoïde de gérer de manière fiable des tâches complexes comme cuisiner un dîner à partir de zéro.
C'est pourquoi $CODEC sera l'infrastructure principale pour la robotique.


Trissy23 août 2025
You’ll see foundation models for Humanoids continually using a System 2 + System 1 style architecture which is actually inspired by human cognition.
Most vision-language-action (VLA) models today are built as centralized multimodal systems that handle perception, language, and action within a single network.
Codec’s infrastructure is perfect for this as it treats each Operator as a sandboxed module. Meaning you can spin up multiple Operators in parallel, each running its own model or task, while keeping them encapsulated and coordinated through the same architecture.
Robots and Humanoids in general typically have multiple brains, where one Operator might handle vision processing, another handling balance, another doing high level planning etc, which can all be coordinated through Codec’s system.
Nvidia’s foundation model Issac GR00T N1 uses the two module System 2 + System 1 architecture. System 2 is a vision-language model (a version of PaLM or similar, multimodal) that observes the world through the robot’s cameras and listens to instructions, then makes a high level plan.
System 1 is a diffusion transformer policy that takes that plan and turns it into continuous motions in real time. You can think of System 2 as the deliberative brain and System 1 as the instinctual body controller. System 2 might output something like “move to the red cup, grasp it, then place it on the shelf,” and System 1 will generate the detailed joint trajectories for the legs and arms to execute each step smoothly.
System 1 was trained on tons of trajectory data (including human teleoperated demos and physics simulated data) to master fine motions, while System 2 was built on a transformer with internet pretraining (for semantic understanding).
This separation of reasoning vs. acting is very powerful for NVIDIA. It means GR00T can handle long horizon tasks that require planning (thanks to System 2) and also react instantly to perturbations (thanks to System 1).
If a robot is carrying a tray and someone nudges the tray, System 1 can correct the balance immediately rather than waiting for the slower System 2 to notice.
GR00T N1 was one of the first openly available robotics foundation models, and it quickly gained traction.
Out of the box, it demonstrated skill across many tasks in simulation, it could grasp and move objects with one hand or two, hand items between its hands, and perform multi step chores without any task specific programming. Because it wasn’t tied to a single embodiment, developers showed it working on different robots with minimal adjustments.
This is also true for Helix (Figure’s foundation model) which uses this type of architecture. Helix allows for two robots or multiple skills to operate, Codec could enable a multi agent brain by running several Operators that share information.
This “isolated pod” design means each component can be specialized (just like System 1 vs System 2) and even developed by different teams, yet they can work together.
It’s a one of a kind approach in the sense that Codec is building the deep software stack to support this modular, distributed intelligence, whereas most others only focus on the AI model itself.
Codec also leverages large pre trained models. If you’re building a robot application on it, you might plug in an OpenVLA or a Pi Zero foundation model as part of your Operator. Codec provides the connectors, easy access to camera feeds or robot APIs, so you don’t have to write the low level code to get images from a robot’s camera or to send velocity commands to its motors. It’s all abstracted behind a high level SDK.
One of the reasons I’m so bullish on Codec is exactly what I outlined above. They’re not chasing narratives, the architecture is built to be the glue between foundation models, and it frictionlessly supports multi brain systems, which is critical for humanoid complexity.
Because we’re so early in this trend, it’s worth studying the designs of industry leaders and understanding why they work. Robotics is hard to grasp given the layers across hardware and software, but once you learn to break each section down piece by piece, it becomes far easier to digest.
It might feel like a waste of time now, but this is the same method that gave me a head start during AI szn and why I was early on so many projects. Become disciplined and learn which components can co exist and which components don’t scale.
It’ll pay dividends over the coming months.
Deca Trillions ( $CODEC ) coded.

8,95K
Meilleurs
Classement
Favoris