.@NVIDIA’s Llama-Embed-Nemotron-8B vient de revendiquer la première place sur le tableau de classement MMTEB pour la récupération multilingue — devenant le modèle d'embedding open et portable numéro 1. Il établit une nouvelle norme pour la récupération, le re-ranking et la similarité sémantique à travers plus de 1 000 langues, surpassant le GeminiEmbedding de Google et le Qwen3-8B d'Alibaba. Basé sur Llama-3.1-8B, il utilise 16 millions de paires requête-document, un ajustement fin conscient des instructions, et une fusion de modèles pour unifier la récupération multilingue en un système puissant. Une grande victoire pour l'IA open-source et la recherche multilingue.