Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
En los últimos días, he sentido que la liquidez del primer nivel es mucho peor que antes
Ya sea que se trate de 2 etapas o del juego interno, se siente mucho más difícil de jugar...
Sin embargo, el rendimiento del precio de la moneda del códec sigue siendo muy estable en 30M, y todavía tengo algunas posiciones en la mano, lo que también es muy tranquilizador, principalmente porque la pista del robot ha estado muy caliente en web2 recientemente, y la siguiente también es información reciente, todo lo que expresa que AI es el siguiente es Robot Meta.
• Recientemente, Remi Cadene, un científico investigador principal de Hugging Face, está en conversaciones para recaudar alrededor de $ 40 millones en fondos iniciales para su startup de robótica "Uma" con sede en París.
• Estas empresas de investigación y desarrollo de robótica son favorecidas por los inversores, y la recaudación de fondos global de robótica ha superado los $ 160 mil millones en 2025, acercándose a la escala de $ 172 mil millones para todo el año pasado.
Sigo siendo optimista sobre Codec, después de todo, el desarrollador de Codec es un contribuyente muy importante al código abierto de VLA, y actualmente es web3, por lo que definitivamente conozco muy bien la pista de robots.
Recientemente, he estado ocupado lidiando con asuntos familiares, pero todavía trato de ganar un poco de activos todos los días, y continúo ATH poco a poco, WLFI es muy poco, pero esta vez no estoy muy ansioso y puedo ganar un poco de satisfacción todos los días con una mentalidad estable.
Por cierto, rápidamente Vibe un sitio web para estadísticas diarias de activos, personalmente creo que es muy útil, pon el enlace de Github en el comentario, descárgalo directamente a la computadora para abrir el sitio web del índice y usarlo.



22 ago, 18:03
Los VLA son todavía muy nuevos y a mucha gente le resulta difícil entender la diferencia entre los VLA y los LLM.
Aquí hay una inmersión profunda en cómo estos sistemas de IA difieren en razonamiento, detección y acción. Parte 1.
Analicemos las distinciones clave y cómo los agentes de IA envueltos alrededor de un LLM difieren de los agentes operadores que usan modelos VLA:
1. Sentido: Cómo perciben el mundo
Agente (LLM): Procesa texto o datos estructurados, por ejemplo, JSON, API y, a veces, imágenes. Es como un cerebro que trabaja con entradas limpias y abstractas. Piense en leer un manual o analizar una hoja de cálculo. Ideal para entornos estructurados, pero limitado por lo que se le proporciona.
Operador (VLA): ve píxeles sin procesar en tiempo real de las cámaras, además de datos del sensor (por ejemplo, tacto, posición) y propiocepción (autoconciencia del movimiento). Es como navegar por el mundo con ojos y sentidos, prosperando en entornos dinámicos y desordenados como interfaces de usuario o espacios físicos.
2. Actuar: cómo interactúan
Agente: Actúa llamando a funciones, herramientas o API. Imagínelo como un gerente que envía instrucciones precisas como "reservar un vuelo a través de la API de Expedia". Es deliberado, pero se basa en herramientas prediseñadas e interfaces claras.
Operador: Ejecuta acciones continuas de bajo nivel, como mover el cursor del mouse, escribir o controlar las articulaciones del robot. Es como un trabajador calificado que manipula directamente el entorno, ideal para tareas que requieren precisión en tiempo real.
3. Control: cómo toman decisiones
Agente: Sigue un bucle lento y reflexivo: planificar, llamar a una herramienta, evaluar el resultado, repetir. Está vinculado a tokens (limitado por el procesamiento de texto) y a la red (esperando respuestas de API). Esto lo hace metódico pero lento para las tareas en tiempo real.
Operador: Opera, tomando decisiones paso a paso en un estrecho ciclo de retroalimentación. Piense en ello como un jugador que reacciona instantáneamente a lo que está en la pantalla. Esta velocidad permite la interacción de fluidos, pero exige un procesamiento robusto en tiempo real.
4. Datos para aprender: qué alimenta su entrenamiento
Agente: Entrenado en vastos corpus de texto, instrucciones, documentación o conjuntos de datos RAG (Retrieval-Augmented Generation). Aprende de libros, código o preguntas frecuentes, sobresaliendo en el razonamiento sobre el conocimiento estructurado.
Operador: Aprende de demostraciones (por ejemplo, videos de humanos realizando tareas), registros de teleoperación o señales de recompensa. Es como aprender observando y practicando, perfecto para tareas donde las instrucciones explícitas son escasas.
5. Modos de falla: dónde se rompen
Agente: Propenso a la alucinación (inventar respuestas) o planes frágiles a largo plazo que se desmoronan si falla un paso. Es como un estratega que piensa demasiado o malinterpreta la situación.
Operador: se enfrenta a un cambio de covariable (cuando los datos de entrenamiento no coinciden con las condiciones del mundo real) o a errores compuestos en el control (pequeños errores que se convierten en una bola de nieve). Es como un conductor que pierde el control en una carretera desconocida.
6. Infra: la tecnología detrás de ellos
Agente: se basa en un prompt/router para decidir a qué herramientas llamar, un registro de herramientas para las funciones disponibles y memoria/RAG para el contexto. Es una configuración modular, como un centro de comando que orquesta tareas.
Operador: necesita canalizaciones de ingesta de vídeo, un servidor de acciones para el control en tiempo real, un escudo de seguridad para evitar acciones dañinas y un búfer de reproducción para almacenar experiencias. Es un sistema de alto rendimiento diseñado para entornos dinámicos.
7. Donde brilla cada uno: sus puntos dulces
Agente: Domina los flujos de trabajo con API limpias (por ejemplo, automatización de procesos comerciales), razonamiento sobre documentos (por ejemplo, resumen de informes) o generación de código. Es su opción para tareas estructuradas y de alto nivel.
Operador: Sobresale en entornos desordenados y sin API, como navegar por interfaces de usuario torpes, controlar robots o abordar tareas similares a las de un juego. Si implica interacción en tiempo real con sistemas impredecibles, VLA es el rey.
8. Modelo mental: planificador + hacedor
Piense en el agente de LLM como el planificador: divide tareas complejas en objetivos claros y lógicos.
El operador VLA es el hacedor, ejecutando esos objetivos interactuando directamente con píxeles o sistemas físicos. Un verificador (otro sistema o agente) monitorea los resultados para garantizar el éxito.
$CODEC

39.12K
Populares
Ranking
Favoritas