.@NVIDIA’s Llama-Embed-Nemotron-8B ha appena conquistato il primo posto nella classifica di recupero multilingue MMTEB — diventando il modello di embedding open e portatile numero 1. Stabilisce un nuovo standard per il recupero, il riordino e la similarità semantica in oltre 1.000 lingue, superando il GeminiEmbedding di Google e il Qwen3-8B di Alibaba. Basato su Llama-3.1-8B, utilizza 16 milioni di coppie query-documento, un fine-tuning consapevole delle istruzioni e la fusione dei modelli per unificare il recupero multilingue in un unico potente sistema. Una grande vittoria per l'AI open-source e la ricerca multilingue.