En lo que he estado trabajando este último mes con el equipo de $CODEC: - Investigar todo el sector de la robótica y la arquitectura técnica a vista de pájaro con @unmoyai (últimos desarrollos, mejores prácticas, etc.) - Comprender dónde y cómo se posiciona el producto de Codec en cada uno de ellos (abordando los puntos débiles) - Qué casos de uso específicos y narrativas desbloquea esto - La capa de mayor valor para las herramientas y donde fluye el capital principal - Comparando las herramientas web2 y lo que llevó al éxito de AI szn (Virtuals & ai16z) - ¿cuáles son los componentes principales para impulsar la actividad de los desarrolladores? - Volantes de inercia tokenómicos y utilidad El equipo ha hecho un gran trabajo con los artículos técnicos, aunque sigo creyendo que solo están rozando la superficie de explicar cuán importantes son realmente sus herramientas. Mi objetivo es ayudar a construir marcos y procesos para capturar las narrativas de manera más sucinta mientras resalto las verdaderas características que desbloquea el SDK. Tal como está, todavía no hay nada, incluso en web2, que ofrezca el mismo tipo de abstracción en la que está trabajando Codec. La contribución de código abierto es el camino a seguir y los principales modelos de bases como Issac Gr00t de Nvidia ya se están construyendo con esto en mente, ya que el entrenamiento de datos y tareas aún está en una etapa muy temprana. No se pueden usar cadenas de texto de IA para entrenar robots, no hay "Internet de la robótica". Cada uno de estos humanoides y robots que estás viendo está construido con una arquitectura monolítica de pila completa, no hay transferencia para el entrenamiento de tareas o formas de agregar nuevos componentes (sensor adicional o cámara en la parte posterior de la cabeza) sin tener que reescribir toda la base de código. En lugar de construir canalizaciones de datos y simulaciones para una arquitectura monolítica singular, están adoptando un enfoque modular en el que, en lugar de construir tareas para sistemas completos, divide cada parte del robot en componentes centrales (motores, sensores, actuadores, ojos, etc.). Lo que significa que puede conectarse fácilmente a cualquier tipo de robot/humanoide sin importar su sistema e instruirlo para que lleve a cabo requisitos basados en piezas individuales. Similar a lo que vimos con Eliza y Virtuals, los desarrolladores no necesitaban codificar todo su marco y tenían modelos GPT con todos los complementos (twitter, feed de noticias, API dexscreener, etc.) al alcance de la mano. Todo lo que necesitaban era un contexto personal para sus aportes de los agentes, entonces era puramente una cuestión de ajuste. El objetivo de Codec es muy similar, un centro de desarrolladores donde los desarrolladores no necesitan preocuparse por construir su propio "motor de juego", el kit de herramientas del SDK es lo que Unreal Engine/Unity es para el desarrollo de juegos. ...