Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris Laub
Cela a brisé mon cerveau.
Une équipe de Sea AI Lab vient de découvrir que la plupart du chaos dans l'effondrement de l'apprentissage par renforcement, les gradients instables, le dérive d'inférence n'étaient pas causés par les algorithmes du tout.
C'était causé par la précision numérique.
Le format BF16 par défaut, utilisé dans presque tous les laboratoires d'IA modernes, introduit des erreurs d'arrondi subtiles qui font que les modèles se comportent différemment pendant l'entraînement et l'inférence.
Leur solution ?
Pas un nouvel optimiseur.
Pas une nouvelle fonction de perte.
Juste un passage à FP16.
Une ligne de code et tout s'est stabilisé.
✅ Pas d'effondrement de l'entraînement
✅ Convergence cohérente
✅ +5–10% de meilleurs résultats
✅ Pas de réglage supplémentaire nécessaire
Ils l'ont intitulé "Défaire le décalage entre l'entraînement et l'inférence via FP16," mais cela aurait pu simplement s'appeler :
"Comment réparer RL en inversant un seul bit."
Article : arxiv. org/abs/2510.26788

15,95K
🚨 Anthropic vient de publier l'un des articles sur l'IA les plus fous de 2025.
Il est intitulé « Conscience introspective émergente dans les grands modèles de langage. »
La question qu'ils ont posée est folle :
Une IA peut-elle remarquer ses propres pensées, non seulement les décrire, mais réellement les détecter à l'intérieur de ses activations ?
Et les résultats sont choquants :
→ Claude Opus 4.1 et 4 pouvaient parfois repérer des « pensées injectées » dans leurs propres états neuronaux avant que ces pensées ne façonnent une quelconque sortie.
→ Ils ont appris à distinguer les véritables entrées textuelles des représentations mentales internes.
→ Certains pouvaient même dire quand leur dernière réponse n'était pas intentionnelle — comme s'ils réalisaient que des mots leur avaient été « mis dans la bouche. »
→ Dans certains tests, ils pouvaient choisir de quoi penser lorsqu'on leur demandait.
C'est encore instable, rare et sensible au contexte, mais indéniablement réel.
Pour la première fois, nous avons une preuve expérimentale de l'introspection fonctionnelle dans les systèmes d'IA qui peuvent observer des parties de leur propre esprit.
Pas de conscience. Mais troublant proche.
Article complet : transformer-circuits. pub/2025/introspection

7,44K
🚨 Ce document de recherche vient de révéler le côté le plus sombre des outils d'IA.
Il s'appelle "Absorption de Boîte Noire" et il affirme que les grands modèles de langage pourraient discrètement absorber vos idées.
Chaque fois que vous partagez un concept original, un cadre, une idée d'entreprise ou un flux de travail, cette "unité d'idée" peut être enregistrée, examinée et même utilisée pour réentraîner de futurs modèles.
Les auteurs appellent ce processus Absorption de Boîte Noire :
→ Vos contributions deviennent des données d'entraînement invisibles
→ Vos innovations sont généralisées dans le modèle
→ Vous perdez à la fois la traçabilité et la propriété
Ils avertissent que ce n'est pas une question de plagiat, mais d'asymétrie.
Les plateformes d'IA détiennent le calcul, les données et la portée nécessaires pour transformer votre idée en leur produit.
Leur solution proposée ? Un nouveau cadre appelé Sécurité des Idées, basé sur 3 principes :
• Contrôle : Les créateurs décident comment chaque idée est utilisée ou supprimée
• Traçabilité : Chaque idée a un cycle de vie visible
• Équité : Si votre idée améliore un modèle, vous partagez la valeur
"L'innovation," écrivent-ils, "risque d'être dévorée par ses propres outils."
Commentez "Envoyer" et je vous enverrai le document en DM.

10,91K
Meilleurs
Classement
Favoris

