1/ Gedecentraliseerde AI-training verschuift van onmogelijk naar onvermijdelijk. Het tijdperk van gecentraliseerde AI-monopolies wordt uitgedaagd door baanbrekende protocollen die collaboratieve modeltraining mogelijk maken over gedistribueerde netwerken.
2/ Primer Alert: Qwen 3 Coder is net uitgebracht en het is een game changer. Het nieuwe 480B-parameter MoE-model met 35B actieve parameters behaalt state-of-the-art prestaties in agentic coding taken, rivaliserend met Claude Sonnet 4. Deze volledig open-source coder ondersteunt 256K context inheems en 1M met extrapolatie.
3/ Pluralis is pionierend in "Protocol Learning", een radicale benadering waarbij modellen collaboratief worden getraind maar nooit volledig gematerialiseerd zijn op één enkele locatie. $7,6 miljoen seedronde van USV en CoinFund ondersteunt hun visie van echt open AI waarbij bijdragers economische voordelen delen zonder de controle over het model op te geven.
@PluralisHQ 4/ Nous Research haalde $ 50 miljoen op om OpenAI uit te dagen met door de gemeenschap bestuurde modellen. Hun aankomende 40B-parameter "Consilience"-model maakt gebruik van het Psyche-framework met JPEG-geïnspireerde compressie om efficiënte gedistribueerde training over heterogene hardware mogelijk te maken.
5/ Gensyn heeft tot nu toe ~$51M veiliggesteld om de "wereldwijde machine learning cluster" te bouwen. Hun protocol verbindt onderbenutte rekencapaciteit wereldwijd, van datacenters tot gaming laptops, en creëert een gedecentraliseerd cloudalternatief dat unit economics kan bereiken die de gecentraliseerde aanbieders overtreffen.
@gensynai 6/ Prime Intellect bewees dat gedecentraliseerde training werkt met INTELLECT-2. Hun 32B-parametermodel werd getraind via wereldwijd gedistribueerde RL met behulp van het PRIME-RL-framework, wat aantoont dat frontier-modellen op verschillende continenten kunnen worden gebouwd zonder in te boeten aan prestaties.
@PrimeIntellect 7/ Bittensor-subnetten zijn gespecialiseerd voor AI-workloads: - Subnet 3 (Tempelier) richt zich op gedistribueerde trainingsvalidatie. - Subnet 9 (Macrocosmos) maakt gezamenlijke modelontwikkeling mogelijk, waardoor economische prikkels worden gecreëerd voor deelnemers aan het neurale netwerk.
8/ De gedecentraliseerde trainingsthesis: Verzamel meer rekenkracht dan welke enkele entiteit dan ook, democratiseer de toegang tot AI-ontwikkeling en voorkom concentratie van macht. Naarmate redeneermodellen de kosten voor inferentie hoger maken dan die voor training, kunnen gedistribueerde netwerken essentiële infrastructuur worden in de AI-economie.
8,53K