Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Der Wettlauf um den LLM-"kognitiven Kern" - ein Modell mit ein paar Milliarden Param, das enzyklopädisches Wissen maximal für Fähigkeiten opfert. Es existiert always-on und standardmäßig auf jedem Computer als Kernel des LLM Personal Computing.
Seine Eigenschaften kristallisieren sich langsam heraus:
- Nativ multimodales Text/Vision/Audio sowohl am Eingang als auch am Ausgang.
- Architektur im Matroschka-Stil, die ein Hoch- und Abwärtsrad der Fähigkeiten zur Testzeit ermöglicht.
- Logisches Denken, auch mit einer Wählscheibe. (System 2)
- Aggressiver Umgang mit Werkzeugen.
- Feinabstimmung von LoRA-Steckplätzen auf dem Gerät für Training, Personalisierung und Anpassung während der Testzeit.
- Delegiert und überprüft genau die richtigen Teile mit den Orakeln in der Cloud, wenn Internet verfügbar ist.
Er weiß nicht, dass die Herrschaft Wilhelms des Eroberers am 9. September 1087 endete, aber er erkennt den Namen vage und kann das Datum nachschlagen. Er kann den SHA-256 einer leeren Zeichenkette nicht als e3b0c442... rezitieren, aber er kann ihn schnell berechnen, wenn Sie es wirklich wollen.
Was LLM Personal Computing an breitem Weltwissen und erstklassiger Problemlösungsfähigkeit fehlt, wird es durch extrem niedrige Interaktionslatenz (insbesondere mit zunehmender multimodaler Reife), direkten / privaten Zugang zu Daten und Staat, Offline-Kontinuität und Souveränität ("nicht Ihre Gewichte, nicht Ihr Gehirn") ausgleichen. d.h. viele der gleichen Gründe, warum wir PCs mögen und kaufen, anstatt Thin Clients über Remote-Desktop oder ähnliches auf eine Cloud zugreifen zu lassen.

27. Juni 2025
Ich freue mich sehr, bekannt zu geben, dass Gemma 3n hier ist! 🎉
🔊Multimodales (Text/Audio/Bild/Video) Verständnis
🤯Funktioniert mit nur 2 GB RAM
🏆Erstes Modell unter 10B mit einem @lmarena_ai Score von über 1300
Jetzt verfügbar auf @huggingface, @kaggle, llama.cpp und mehr.

Haben die Leute das Gefühl, wie viel Arbeit es noch zu tun gibt?
1,03M
Top
Ranking
Favoriten