Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ny AI-teknologi bruker 1 % av kraften til dagens teknologi!
Ny artikkel: Øker AI-effektiviteten ved hjelp av menneskelig Brian-lignende teknologi
Topografisk sparsom kartlegging forklart
AI-modeller vokser seg større og bruker mer energi, noe som vekker bekymring for bærekraft. En ny artikkel fra University of Surrey, publisert i Neurocomputing, introduserer en metode inspirert av den menneskelige hjernen for å gjøre AI mer effektiv. Med tittelen "Topographical Sparse Mapping: A Neuro-Inspired Sparse Training Framework for Deep Learning Models", viser den hvordan du kan redusere tilkoblinger i nevrale nettverk samtidig som nøyaktigheten opprettholdes eller forbedres.
Å trene store AI-modeller kan koste millioner og bruke like mye strøm som hundrevis av hjem. Innen 2030 kan datasentre matche et lands energibruk. Forskerne Mohsen Kamelian Rad, Ferrante Neri, Sotiris Moschoyiannis og Bauer trakk fra hjernens organiserte ledninger i det visuelle systemet.
De skapte Topographical Sparse Mapping (TSM), som kobler inngangsfunksjoner, som bildepiksler, bare til nærliggende nevroner i neste lag. Dette kutter unødvendige koblinger fra starten, fremskynder treningen og forbedrer resultatene.
De utviklet også Enhanced TSM (ETSM), som beskjærer svake forbindelser under trening, som hjernens raffineringsbaner.
Dette fører til 99 prosent sparsomhet – fjerner de fleste lenker – mens de matcher eller slår tette modeller på tester som MNIST (håndskrevne sifre), Fashion-MNIST (klær), CIFAR-10 (enkle bilder) og CIFAR-100 (detaljerte kategorier). På CIFAR-100 forbedret ETSM nøyaktigheten med 14 prosent i forhold til andre sparsomme metoder, og brukte færre ressurser.
Den viktigste fordelen er energibesparelser: Disse modellene bruker mindre enn 1 prosent av kraften til standardmodeller, med raskere trening og lavere minnebehov. Dette kan bidra til å bygge hjernelignende maskinvare og redusere AIs miljøpåvirkning.
Viktige punkter...
1. Hjerneinspirert design: TSM begrenser forbindelser til lokale nevroner, reduserer avfall og hjelper til med generalisering uten ekstra trinn.
2. Beskjæring i ETSM: Fjerner lenker med lav verdi under trening, og når 99 prosent sparsomhet uten å miste nøyaktigheten.
3. Sterke resultater: Matcher eller overgår tette modeller på benchmarks, med store gevinster på komplekse oppgaver som CIFAR-100.
4. Effektivitetsgevinster: Kutter energien til under 1 prosent av normene, fremskynder treningen og reduserer minnebruken.
5. Fremtidig potensial: Kan gjelde for andre AI-typer, som støtter bærekraftig vekst og ny maskinvare.
...

Topp
Rangering
Favoritter

