Meilleurs articles sur l'IA sur @huggingface cette semaine (20-26 octobre) : - Une étude théorique sur le rapprochement de la probabilité interne et de l'auto-consistance pour le raisonnement des LLM - Entraînement efficace de modèles de langage à long contexte par désagrégation de l'attention principale - LightMem : génération augmentée de mémoire légère et efficace - Chaque attention compte : une architecture hybride efficace pour le raisonnement à long contexte - DeepAnalyze : modèles de langage large agentiques pour la science des données autonome - Monde-dans-le-monde : modèles du monde dans un monde en boucle fermée - BAPO : stabilisation de l'apprentissage par renforcement hors politique pour les LLM via l'optimisation de politique équilibrée avec découpage adaptatif - OmniVinci : amélioration de l'architecture et des données pour la compréhension omni-modale des LLM - UniGenBench++ : un benchmark d'évaluation sémantique unifié pour la génération de texte à image - Création collaborative papier-à-page homme-agent pour moins de 0,1 $ Trouvez-les ci-dessous :