.@NVIDIA’s Llama-Embed-Nemotron-8B hat gerade den ersten Platz auf der MMTEB mehrsprachigen Retrieval-Leiterboard beansprucht – und ist das beste offene und tragbare Einbettungsmodell. Es setzt einen neuen Standard für Retrieval, Re-Ranking und semantische Ähnlichkeit über 1.000+ Sprachen hinweg und übertrifft Googles GeminiEmbedding und Alibabas Qwen3-8B. Basierend auf Llama-3.1-8B verwendet es 16M Abfrage-Dokument-Paare, anweisungsbewusstes Feintuning und Modellfusion, um mehrsprachiges Retrieval in ein leistungsstarkes System zu vereinen. Ein großer Gewinn für Open-Source-AI und mehrsprachige Forschung.