Mierda... Hugging Face & Oxford lanzó 'LeRobot', el primer marco de modelo de fundación real para robots.
No simulaciones. No demostraciones. Robots reales que aprenden de datos como LLM.
Es de código abierto, integrado en PyTorch, y entrena políticas generalistas que pueden controlar cualquier brazo robótico, humanoides o bots móviles utilizando datos de video, sensores y lenguaje.
Esto lo cambia todo:
→ Los robots ahora pueden aprender habilidades de millones de demostraciones
→ Un modelo puede alimentar varias máquinas
→ Los desarrolladores pueden ajustar el movimiento como ajustar GPT
Hemos tenido modelos básicos para texto, imágenes y voz.
Ahora tenemos uno para el mundo físico. 🌍
GitHub:
Papel:
R.I.P Google Académico.
Voy a compartir las 10 indicaciones de perplejidad que convierten la investigación de una tarea en un superpoder.
Copia y pega estos en Perplexity ahora mismo:
Mierda... NVIDIA acaba de hacer lo imposible 🤯
Entrenaron un LLM de 12B parámetros en tokens de 10 billones usando solo una precisión de 4 bits.
Se llama NVFP4 y coincide con la precisión de FP8 al tiempo que reduce los costos de computación y memoria a la MITAD.
Esto no es una mejora incremental. Este es un cambio de paradigma completo.
Así es como lo descifraron:
→ Hadamard aleatorio se transforma para eliminar valores atípicos
→ Escalado 2D que conserva el flujo de gradiente
→ Redondeo estocástico para actualizaciones imparciales
→ Capas selectivas de alta precisión donde importa
Los resultados son absurdos:
La misma precisión que FP8. La mitad de los recursos. Eficiencia récord.
Si bien todos han estado compitiendo para escalar, NVIDIA acaba de demostrar que puede reducir la escala y aún así ganar.
Esto podría redefinir cómo se entrena cada modelo de frontera.
La era de los 4 bits acaba de comenzar.