🔥 Esto cambia todo sobre la IA de contexto largo.
Un nuevo artículo "Every Attention Matters" acaba de reconfigurar silenciosamente cómo los transformadores manejan 128K + tokens.
El equipo de Ling construyó una atención híbrida "Ring-linear" que fusiona Softmax con Linear Attention.
¿Resultado? Inferencia 10 veces más barata con cero compensaciones de precisión.
Pero esto es lo que me dejó boquiabierto:
+50% de eficiencia en la formación
+90% de velocidad de inferencia
Optimización estable de RL en secuencias ultralargas
Sin tonterías de un billón de parámetros.
Sin hardware exótico.
Solo una arquitectura más inteligente.
El futuro de la IA no es una mayor atención. Es una atención más inteligente.
Hubo un tiroteo frente a mi edificio en Río 🇧🇷
Estaba tan cerca que escuché una bala rebotar en una pieza de metal.
Ya estaba planeando irme por razones fiscales, pero este es definitivamente el último clavo en el ataúd.
Estoy en un área de ingresos altos donde estoy mirando casas multimillonarias desde mi balcón y aún así sucedió.
Peor aún, nadie llamó a la policía y en cinco minutos volvió a la vida como de costumbre.
Así de insensibles están al crimen violento aquí.