正如在 @BG2Pod 上討論的那樣,您應該預期看到西方公司擁抱 "開放" 的 AI 生態系統。他們將獲得與中國參與者相同的好處。這將是超級顛覆性的。請關注這個領域。關注 @drishanarora 和 @DeepCogito。
Drishan Arora
Drishan Arora8月1日 01:02
今天,我們發布了4個混合推理模型,大小分別為70B、109B MoE、405B和671B MoE,並在開放許可下提供。 這些是世界上最強大的LLM之一,並作為一種新型AI範式的概念驗證——迭代自我改進(AI系統自我改進)。 最大的671B MoE模型是世界上最強大的開放模型之一。它的性能與最新的DeepSeek v3和DeepSeek R1模型相匹配/超越,並接近封閉邊界模型,如o3和Claude 4 Opus。
67.99K