Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🔥 Esto cambia todo sobre la IA de largo contexto.
Un nuevo artículo "Cada Atención Importa" acaba de reconfigurar silenciosamente cómo los transformadores manejan más de 128K tokens.
El equipo de Ling construyó una atención híbrida "Ring-linear" que fusiona Softmax con Atención Lineal.
¿Resultado? Inferencia 10 veces más barata sin comprometer la precisión.
Pero aquí está lo que me dejó boquiabierto:
+50% de eficiencia en el entrenamiento
+90% de velocidad en la inferencia
Optimización de RL estable a través de secuencias ultra largas.
Sin tonterías de billones de parámetros.
Sin hardware exótico.
Solo una arquitectura más inteligente.
El futuro de la IA no es una atención más grande. Es una atención más inteligente.

Parte superior
Clasificación
Favoritos

