Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Bemerkenswert. China wieder…

7. Nov., 05:10
MoonshotAI hat Kimi K2 Thinking veröffentlicht, eine neue Denkvariante von Kimi K2, die den 1. Platz im Tau2 Bench Telecom agentischen Benchmark erreicht und möglicherweise das neue führende Modell mit offenen Gewichten ist.
Kimi K2 Thinking ist eines der größten Modelle mit offenen Gewichten, mit insgesamt 1T Parametern und 32B aktiven. K2 Thinking ist die erste Denkmodellveröffentlichung innerhalb der Kimi K2 Modellfamilie von @Kimi_Moonshot, nach den nicht-denkenden Kimi K2 Instruct Modellen, die zuvor im Juli und September 2025 veröffentlicht wurden.
Wichtige Erkenntnisse:
➤ Starke Leistung bei agentischen Aufgaben: Kimi K2 Thinking erreicht 93% im 𝜏²-Bench Telecom, einem agentischen Werkzeugnutzungsbenchmark, bei dem das Modell als Kundenservice-Agent agiert. Dies ist die höchste Punktzahl, die wir unabhängig gemessen haben. Die Werkzeugnutzung in langen agentischen Kontexten war eine Stärke von Kimi K2 Instruct und es scheint, dass diese neue Denkvariante erhebliche Fortschritte macht.
➤ Denkvariante von Kimi K2 Instruct: Das Modell ist, wie der Name schon sagt, eine Denkvariante von Kimi K2 Instruct. Das Modell hat die gleiche Architektur und die gleiche Anzahl von Parametern (obwohl mit unterschiedlicher Präzision) wie Kimi K2 Instruct und unterstützt wie K2 Instruct nur Text als Eingabe- (und Ausgabe-)Modalität.
➤ 1T Parameter, aber INT4 statt FP8: Im Gegensatz zu Moonshots früheren Kimi K2 Instruct Veröffentlichungen, die FP8-Präzision verwendeten, wurde dieses Modell nativ in INT4-Präzision veröffentlicht. Moonshot verwendete quantisierungsbewusstes Training in der Nachtrainingsphase, um dies zu erreichen. Die Auswirkung davon ist, dass K2 Thinking nur ~594GB groß ist, im Vergleich zu etwas über 1TB für K2 Instruct und K2 Instruct 0905 - was in Effizienzgewinne für Inferenz und Training übersetzt. Ein möglicher Grund für INT4 ist, dass die vor-Blackwell NVIDIA GPUs keine Unterstützung für FP4 haben, was INT4 geeigneter macht, um Effizienzgewinne auf älterer Hardware zu erzielen.
Unser vollständiges Set von Artificial Analysis Intelligence Index Benchmarks ist in Arbeit und wir werden ein Update bereitstellen, sobald sie abgeschlossen sind.

Große Investoren in @Kimi_Moonshot :
Alibaba (40% Eigentümer), Tencent, Meituan, Ant Group, Hongshan … und Microsoft haben teilgenommen!
3,52K
Top
Ranking
Favoriten

