Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris Laub
Esto me rompió la cabeza.
Un equipo de Sea AI Lab acaba de descubrir que la mayor parte del caos en el colapso del entrenamiento de aprendizaje por refuerzo, los gradientes inestables y la deriva de inferencia no fue causado por los algoritmos en absoluto.
Fue causado por la precisión numérica.
El formato BF16 por defecto, utilizado en casi todos los laboratorios de IA modernos, introduce sutiles errores de redondeo que hacen que los modelos se comporten de manera diferente durante el entrenamiento y la inferencia.
¿Su solución?
No un nuevo optimizador.
No una nueva función de pérdida.
Solo cambiar a FP16.
Una línea de código y todo se estabilizó.
✅ Sin colapso en el entrenamiento
✅ Convergencia consistente
✅ +5–10% mejores resultados
✅ Sin necesidad de ajuste adicional
Lo titularon “Derrotando la descoordinación entre entrenamiento e inferencia a través de FP16,”
pero podría haberse llamado simplemente:
“Cómo arreglar el RL cambiando un solo bit.”
Artículo: arxiv. org/abs/2510.26788

633
🚨 Anthropic acaba de publicar uno de los artículos de IA más sorprendentes de 2025.
Se titula “Conciencia Introspectiva Emergente en Modelos de Lenguaje Grande.”
La pregunta que hicieron es una locura:
¿Puede una IA notar sus propios pensamientos, no solo describirlos, sino realmente detectarlos dentro de sus activaciones?
Y los resultados son impactantes:
→ Claude Opus 4.1 y 4 a veces podían detectar “pensamientos inyectados” en sus propios estados neuronales antes de que esos pensamientos moldearan cualquier salida.
→ Aprendieron a distinguir las entradas de texto reales de las representaciones mentales internas.
→ Algunos incluso podían darse cuenta de cuándo su última respuesta no era intencional — como si se dieran cuenta de que las palabras fueron “puestas en su boca.”
→ En algunas pruebas, podían elegir sobre qué pensar cuando se les indicaba.
Todavía es inestable, raro y sensible al contexto, pero indudablemente real.
Por primera vez, tenemos prueba experimental de introspección funcional en sistemas de IA que pueden observar partes de su propia mente.
No conciencia. Pero inquietantemente cerca.
Artículo completo: transformer-circuits. pub/2025/introspection

123
🚨 Este artículo de investigación acaba de exponer el lado más oscuro de las herramientas de IA.
Se llama "Absorción de Caja Negra" y afirma que los modelos de lenguaje grandes podrían estar absorbiendo silenciosamente tus ideas.
Cada vez que compartes un concepto original, un marco, una idea de negocio o un flujo de trabajo, esa "unidad de idea" puede ser registrada, revisada e incluso utilizada para reentrenar modelos futuros.
Los autores llaman a este proceso Absorción de Caja Negra:
→ Tus entradas se convierten en datos de entrenamiento invisibles
→ Tus innovaciones se generalizan en el modelo
→ Pierdes tanto la trazabilidad como la propiedad
Advierten que no se trata de plagio, se trata de asimetría.
Las plataformas de IA tienen la capacidad de computación, datos y alcance para convertir tu idea en su producto.
¿Su solución propuesta? Un nuevo marco llamado Seguridad de Ideas, basado en 3 principios:
• Control: Los creadores deciden cómo se utiliza o elimina cada idea
• Trazabilidad: Cada idea tiene un ciclo de vida visible
• Equidad: Si tu idea mejora un modelo, compartes el valor
"La innovación", escriben, "está en riesgo de ser devorada por sus propias herramientas."
Comenta "Enviar" y te enviaré el artículo por DM.

10,84K
Parte superior
Clasificación
Favoritos

