正如在 @BG2Pod 上讨论的那样,您应该期待西方公司拥抱 "开放" 的人工智能生态系统。他们将获得与中国参与者相同的好处。这将是超级颠覆性的。请关注这个领域。关注 @drishanarora 和 @DeepCogito。
Drishan Arora
Drishan Arora8月1日 01:02
今天,我们发布了4个混合推理模型,大小分别为70B、109B MoE、405B和671B MoE,采用开放许可。 这些是世界上最强大的LLM之一,并作为一种新型AI范式的概念验证——迭代自我改进(AI系统自我改进)。 最大的671B MoE模型是世界上最强大的开放模型之一。它的性能与最新的DeepSeek v3和DeepSeek R1模型相匹配/超过,并接近于封闭前沿模型,如o3和Claude 4 Opus。
67.99K