Huawei openPangu-Ultra-MoE-718B-Modell Es wurden keine Nvidia-Technologien verwendet, um dieses Modell zu erstellen - nur Ascend AI-Chips, CANN und nicht CUDA. "... von Grund auf auf Ascend NPU trainiert, mit einer Gesamtanzahl von 718B Parametern und 39B aktivierten Parametern pro Token. Das openPangu-Ultra-MoE-718B wurde auf etwa 19 Billionen Tokens trainiert und ist mit der Fähigkeit ausgestattet, zwischen schnellem und langsamem Denken zu wechseln." Scheint ein hochmodernes Modell zu sein, wenn nicht das beste offene Modell, das derzeit verfügbar ist. Link unten - Sie können es herunterladen und verwenden.
26,52K