Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Taelin
Art / Biegung / HVM / INets / λKalkül
Kurze Übersicht über den Zustand von HOC / HVM / Bend:
- vor etwa 1 Jahr haben wir Bend1 gestartet
- erste Sprache, die Closures + schnellen Objekt-Allocator auf GPU ausführt
- nahezu idealer Speedup bis zu 10000+ Kernen
- basiert auf HVM2, einer strengen Laufzeit für Interaktionsnetze
Probleme:
- Interpretationsüberkopf ist immer noch erheblich
- volle RTX 4090 benötigt, um 1-Kern OCaml / JavaScript / etc. zu schlagen
- große praktische Einschränkungen (int24, kein IO, keine Pakete)
- trotz Python-Syntax war es immer noch schwer zu benutzen
- es stellte sich heraus, dass die meisten Entwickler nicht rekursiv denken können
- inkompatibel mit fauler Auswertung (nicht β-optimal!!)
Ich war von den oben genannten Problemen enttäuscht. Gleichzeitig wurde ich zunehmend optimistisch hinsichtlich der Anwendung optimaler Auswertung auf das Problem der Programmsynthese, das ein Grundpfeiler der symbolischen KI ist - eine gescheiterte Idee, aber mit einem starken Gefühl von "Ich kann es reparieren".
Ich traf eine Entscheidung: HVM2 wegwerfen (💀) und zu den Wurzeln von HVM1 zurückkehren, das auf meinem "Interaktionskalkül" basierte und β-Optimalität aufwies. Ich habe es stark poliert und verbessert, was zu HVM3 führte, einem Prototyp, der in Haskell geschrieben wurde. Ich nutzte es dann, um Programmsynthese auf optimalen Auswertern zu verstehen und zu erforschen. Das war SCHWIERIG und kostete etwa ein Jahr meines Lebens, aber die Ergebnisse waren positiv, und unser System schlägt jetzt alle veröffentlichten Alternativen in Effizienz und Fähigkeiten.
Jetzt nehmen wir all das und festigen es, indem wir die Laufzeit / den Compiler in reinem C implementieren, damit es so effizient wie möglich auf unserem bescheidenen Mac Mini-Cluster (🥹) laufen kann und es der Welt über eine API zur Verfügung stellen kann.
Ich hatte erwartet, im Oktober zu starten, aber es gibt immer noch einige Herausforderungen, die mich mehr Zeit gekostet haben, als ich erwartet hatte. Zum einen erfordert das Finden von Lean-Beweisen mit SupGen eine sehr sorgfältige Handhabung von Superpositionen, und das auf C zu machen, ist tatsächlich SAU SCHWIERIG - aber die Dinge bewegen sich stetig und wir haben bereits viel geschafft, und ich erwarte immer noch, Bend2 / HVM4 in diesem Jahr oder im Q1 2026 zu starten.
Bend2 wird haben:
- parallele CPU-Laufzeit mit faul/optimalem Modus (!!!)
- 16 / 32 / 64 Bit ints, uints und floats (endlich)
- beliebiges IO über leichtgewichtige C-Interop (wie Zig!)
- noch kein CUDA, aufgrund von Zeitmangel, aber sehr machbar
- am wichtigsten: SupGen-Integration
SupGen ist etwas Neues und die Hauptneuheit hinter Bend2. Es ist *keine* traditionelle KI, es ist etwas ganz Neues, das in der Lage ist, Code basierend auf Beispielen und Spezifikationen zu generieren. Ich denke, viele (insbesondere die im Deep Learning) werden völlig überrascht sein, wie viel wir mit rein symbolischer Suche erreichen können, und mehr als alles andere kann ich es kaum erwarten, diese Reaktion zu beobachten.
3,78K
Top
Ranking
Favoriten



