R.I.P Google Scholar.
Jeg skal dele de 10 Perplexity-oppfordringene som gjør forskning fra et ork til en superkraft.
Kopier og lim inn disse i Perplexity akkurat nå:
Fy faen... NVIDIA gjorde bare det umulige 🤯
De trente en 12B-parameter LLM på 10 billioner tokens ved å bruke bare 4-bits presisjon.
Den kalles NVFP4, og den matcher FP8-nøyaktigheten samtidig som den halverer data- og minnekostnadene.
Dette er ikke trinnvis forbedring. Dette er et fullstendig paradigmeskifte.
Slik knekte de det:
→ Random Hadamard forvandles for å eliminere uteliggere
→ 2D-skalering som bevarer gradientflyt
→ Stokastisk avrunding for objektive oppdateringer
→ Selektive lag med høy presisjon der det betyr noe
Resultatene er absurde:
Samme nøyaktighet som FP8. Halvparten av ressursene. Rekordstor effektivitet.
Mens alle har kappløpt om å skalere opp, beviste NVIDIA nettopp at du kan skalere NED og fortsatt vinne.
Dette kan omdefinere hvordan hver grensemodell blir trent.
4-bit-æraen har nettopp startet.
Fy faen 🤯
LLM-er begynner å danne samfunn.
En ny artikkel "Emergent Coordination in Multi-Agent Language Models" beviste nettopp at når du kobler flere AI-er sammen, begynner de å organisere seg selv.
Ingen delt minne. Ingen eksplisitt kommunikasjon. Bare lette tilbakemeldingssløyfer.
Og plutselig utvikler de roller, samarbeid og felles mål.
Forskere kaller det emergent koordinering. Øyeblikket da gruppen spår fremtiden "bedre enn noen individuell AI" kunne.
Da hver agent ble bedt om å «tenke på hva andre kunne gjøre»,
De begynte å vise «identitetsknyttet spesialisering»-ledere, planleggere, støttespillere som om en sosial struktur ble dannet ut av løse luften.
> "LLM-samfunn kan utvikle seg fra rene aggregater til høyere ordens kollektiver bare ved å endre spørsmålene deres."
Det betyr at vi kanskje ikke trenger større modeller for å få smartere AI.
Vi trenger bare bedre samtaler mellom dem.
Glem enkeltagenter. Det virkelige gjennombruddet er fremvoksende intelligens gjennom samarbeid.