Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jason Wei
Chercheur en IA @meta SuperIntelligence Labs, Passé : OpenAI, Google 🧠
Jason Wei a reposté
📣 Nous sommes ravis de partager notre étude du monde réel d’un copilote clinique LLM, une collaboration entre @OpenAI et @PendaHealth.
Sur 39 849 visites de patients en direct, les cliniciens dotés d’IA ont présenté une réduction relative de 16 % des erreurs de diagnostic et de 13 % des erreurs de traitement par rapport à ceux qui n’en avaient pas. 🧵
405,5K
Jason Wei a reposté
Ceci est ma conférence d’il y a 2 mois à @Cornell
« Comment puis-je augmenter ma production ? » Une réponse naturelle est « Je vais juste travailler quelques heures de plus ». Travailler plus longtemps peut aider, mais vous finissez par atteindre une limite physique.
Une meilleure question est : « Comment puis-je augmenter ma production sans augmenter autant les entrées ? » C’est l’effet de levier.
Nous entendons si souvent parler de « levier » qu’il est facile de négliger son implication. Ma catégorisation préférée de l’effet de levier est celle de Naval Ravikant : le travail humain, le capital et le code/les médias. Chacune d’entre elles a alimenté d’importantes vagues de création de richesse au cours de l’histoire.
Cependant, une fois qu’une source d’effet de levier devient populaire (pensez aux chaînes YouTube aujourd’hui par rapport à il y a dix ans), la concurrence comprime la marge. Ainsi, lorsqu’un nouvel effet de levier apparaît, c’est une chance rare de gains démesurés.
Dans cet exposé, je décris l’IA comme ce levier émergent. Un agent d’IA combine l’effet de levier de la main-d’œuvre (il fonctionne pour vous et n’est pas autorisé) avec l’effet de levier du code (vous pouvez le copier-coller).
C’est un cliché de dire que l’IA va créer une richesse massive. Mais l’utilisation de cet effet de levier nous permet d’interpréter le cycle d’actualités bruyantes de l’IA de manière cohérente et de repérer les véritables opportunités.
Merci @unsojo de m’avoir accueilli !
402,56K
Nouveau billet de blog sur l’asymétrie de la vérification et la « loi du vérificateur » :
L’asymétrie de vérification – l’idée que certaines tâches sont beaucoup plus faciles à vérifier qu’à résoudre – devient une idée importante depuis que nous avons l’apprentissage par renforcement qui fonctionne enfin en général.
D’excellents exemples d’asymétrie de vérification sont des choses comme les puzzles sudoku, l’écriture du code pour un site Web comme Instagram et les problèmes BrowseComp (il faut ~100 sites Web pour trouver la réponse, mais facile à vérifier une fois que vous avez la réponse).
D’autres tâches ont une quasi-symétrie de vérification, comme la somme de deux nombres à 900 chiffres ou certains scripts de traitement de données. Pourtant, il est beaucoup plus facile de proposer des solutions réalisables pour d’autres tâches que de les vérifier (par exemple, vérifier les faits d’un long essai ou énoncer un nouveau régime alimentaire comme « ne mangez que du bison »).
Une chose importante à comprendre à propos de l’asymétrie de vérification est que vous pouvez améliorer l’asymétrie en effectuant un travail au préalable. Par exemple, si vous avez le corrigé d’un problème mathématique ou si vous avez des cas de test pour un problème Leetcode. Cela augmente considérablement l’ensemble des problèmes avec l’asymétrie de vérification souhaitable.
La « loi du vérificateur » stipule que la facilité d’entraînement de l’IA à résoudre une tâche est proportionnelle à la vérifiabilité de la tâche. Toutes les tâches qui sont possibles à résoudre et faciles à vérifier seront résolues par l’IA. La capacité d’entraîner l’IA à résoudre une tâche est proportionnelle au fait que la tâche possède les propriétés suivantes :
1. Vérité objective : tout le monde s’accorde sur ce que sont les bonnes solutions
2. Vérification rapide : n’importe quelle solution peut être vérifiée en quelques secondes
3. Évolutif à vérifier : de nombreuses solutions peuvent être vérifiées simultanément
4. Faible bruit : la vérification est aussi étroitement corrélée que possible à la qualité de la solution
5. Récompense continue : il est facile de classer les qualités de plusieurs solutions pour un seul problème
Une instanciation évidente de la loi du vérificateur est le fait que la plupart des points de référence proposés en IA sont faciles à vérifier et ont jusqu’à présent été résolus. Notez que pratiquement tous les benchmarks populaires au cours des dix dernières années correspondent aux critères #1-4 ; Les benchmarks qui ne répondent pas aux critères #1-4 auraient du mal à devenir populaires.
Pourquoi la vérifiabilité est-elle si importante ? La quantité d’apprentissage en IA qui se produit est maximisée lorsque les critères ci-dessus sont satisfaits ; Vous pouvez prendre beaucoup d’étapes de gradient où chaque étape a beaucoup de signal. La vitesse d’itération est essentielle : c’est la raison pour laquelle les progrès dans le monde numérique ont été beaucoup plus rapides que les progrès dans le monde physique.
AlphaEvolve de Google est l’un des meilleurs exemples d’exploitation de l’asymétrie de vérification. Il se concentre sur des configurations qui répondent à tous les critères ci-dessus et a conduit à un certain nombre d’avancées en mathématiques et dans d’autres domaines. Différent de ce que nous avons fait dans l’IA au cours des deux dernières décennies, il s’agit d’un nouveau paradigme dans lequel tous les problèmes sont optimisés dans un cadre où le train est équivalent au test.
L’asymétrie de vérification est partout, et il est passionnant d’envisager un monde d’intelligence déchiquetée où tout ce que nous pouvons mesurer sera résolu.

299,2K
un vrai tube, je l'ai lu immédiatement

Kevin Lu10 juil. 2025
Pourquoi vous devriez arrêter de travailler sur la recherche en RL et plutôt travailler sur des produits //
La technologie qui a débloqué le grand changement d'échelle dans l'IA est Internet, pas les transformateurs.
Je pense qu'il est bien connu que les données sont la chose la plus importante dans l'IA, et aussi que les chercheurs choisissent de ne pas y travailler de toute façon. ... Que signifie travailler sur les données (de manière évolutive) ?
Internet a fourni une source riche de données abondantes, diversifiées, offrant un curriculum naturel, représentant les compétences qui intéressent réellement les gens, et était une technologie économiquement viable à déployer à grande échelle -- cela est devenu le complément parfait à la prédiction du prochain jeton et était la soupe primordiale pour que l'IA décolle.
Sans transformateurs, n'importe quel nombre d'approches aurait pu décoller, nous pourrions probablement avoir des CNN ou des modèles d'espace d'état au niveau de GPT-4.5. Mais il n'y a pas eu d'amélioration dramatique des modèles de base depuis GPT-4. Les modèles de raisonnement sont excellents dans des domaines étroits, mais pas aussi révolutionnaires que ne l'était GPT-4 en mars 2023 (il y a plus de 2 ans...)
Nous avons quelque chose de formidable avec l'apprentissage par renforcement, mais ma peur profonde est que nous répéterons les erreurs du passé (l'ère RL de 2015-2020) et que nous fassions de la recherche en RL qui n'a pas d'importance.
De la même manière qu'Internet était le dual du pré-entraînement supervisé, quel sera le dual de RL qui mènera à une avancée massive comme GPT-1 -> GPT-4 ? Je pense que cela ressemble à une co-conception recherche-produit.

18,93K
Conseil pour les rencontres avec les gens normaux : Ne vous mariez pas tôt si vous grandissez et changez beaucoup chaque année
Copain IA (@YiTayML) : Vous êtes comme un réseau neuronal en plein entraînement et la perte continue de s’améliorer. Il est préférable de s’entraîner à la convergence plutôt que de prendre un instantané de point de contrôle précoce
186,12K
Nous n'avons pas encore d'IA qui s'améliore elle-même, et quand nous en aurons une, ce sera un changement radical. Avec plus de sagesse maintenant par rapport aux jours de GPT-4, il est évident que cela ne sera pas un "décollage rapide", mais plutôt extrêmement graduel sur de nombreuses années, probablement une décennie.
La première chose à savoir est que l'auto-amélioration, c'est-à-dire les modèles qui s'entraînent eux-mêmes, n'est pas binaire. Considérons le scénario où GPT-5 entraîne GPT-6, ce qui serait incroyable. GPT-5 passerait-il soudainement de l'incapacité totale à entraîner GPT-6 à l'entraîner de manière extrêmement compétente ? Définitivement pas. Les premières sessions d'entraînement de GPT-6 seraient probablement extrêmement inefficaces en termes de temps et de calcul par rapport aux chercheurs humains. Et ce n'est qu'après de nombreux essais que GPT-5 serait réellement capable d'entraîner GPT-6 mieux que les humains.
Deuxièmement, même si un modèle pouvait s'entraîner lui-même, il ne s'améliorerait pas soudainement dans tous les domaines. Il existe un gradient de difficulté quant à la façon dont il est difficile de s'améliorer dans divers domaines. Par exemple, peut-être que l'auto-amélioration ne fonctionne d'abord que dans des domaines que nous savons déjà comment corriger facilement après l'entraînement, comme les hallucinations de base ou le style. Ensuite, il y aurait les mathématiques et la programmation, qui nécessitent plus de travail mais ont des méthodes établies pour améliorer les modèles. Et puis, à l'extrême, vous pouvez imaginer qu'il y a certaines tâches qui sont très difficiles pour l'auto-amélioration. Par exemple, la capacité de parler le Tlingit, une langue amérindienne parlée par environ 500 personnes. Il sera très difficile pour le modèle de s'améliorer en parlant le Tlingit car nous n'avons pas encore de moyens de résoudre les langues à faibles ressources comme celle-ci, sauf en collectant plus de données, ce qui prendrait du temps. Donc, en raison du gradient de difficulté de l'auto-amélioration, cela ne se produira pas tout d'un coup.
Enfin, peut-être que c'est controversé, mais en fin de compte, le progrès en science est freiné par des expériences dans le monde réel. Certains peuvent croire que lire tous les articles de biologie nous donnerait le remède contre le cancer, ou que lire tous les articles sur l'apprentissage automatique et maîtriser toute la mathématique vous permettrait d'entraîner parfaitement GPT-10. Si tel était le cas, alors les personnes qui liraient le plus d'articles et étudieraient le plus de théories seraient les meilleurs chercheurs en IA. Mais ce qui s'est réellement passé, c'est que l'IA (et de nombreux autres domaines) est devenue dominée par des chercheurs empiriques impitoyables, ce qui reflète à quel point le progrès est basé sur des expériences dans le monde réel plutôt que sur une intelligence brute. Donc, mon point est que, bien qu'un agent super intelligent puisse concevoir des expériences 2x ou même 5x meilleures que nos meilleurs chercheurs humains, à la fin de la journée, ils doivent toujours attendre que les expériences se déroulent, ce qui serait une accélération mais pas un décollage rapide.
En résumé, il existe de nombreux goulets d'étranglement pour le progrès, pas seulement l'intelligence brute ou un système d'auto-amélioration. L'IA résoudra de nombreux domaines, mais chaque domaine a son propre rythme de progrès. Et même la plus haute intelligence nécessitera toujours des expériences dans le monde réel. Donc, ce sera une accélération et non un décollage rapide, merci d'avoir lu mon discours.
340,24K
La chose la plus gratifiante à propos de travailler au bureau la nuit et le week-end n'est pas le travail que vous accomplissez réellement, mais les conversations spontanées avec d'autres personnes qui travaillent toujours. Ce sont les personnes qui ont tendance à réaliser de grandes choses et qui deviendront vos amis les plus prospères.
74,83K
Je dirais que nous sommes sans aucun doute à l'AGI lorsque l'IA pourra créer une véritable licorne vivante. Et non, je ne parle pas d'une entreprise à 1 milliard de dollars, vous les nerds, je parle d'un véritable cheval rose avec une corne en spirale. Un modèle d'avancement scientifique en ingénierie génétique et en programmation cellulaire. La matière des rêves d'enfance. Oserais-je dire que cela se produira de notre vivant.
84,61K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables