Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
A nova tecnologia de IA usa 1% do poder da tecnologia atual!
Novo artigo: aumenta a eficiência da IA usando tecnologia humana semelhante a Brian
Mapeamento topográfico esparso explicado
Os modelos de IA estão crescendo e usando mais energia, levantando preocupações sobre a sustentabilidade. Um novo artigo da Universidade de Surrey, publicado na Neurocomputing, apresenta um método inspirado no cérebro humano para tornar a IA mais eficiente. Intitulado "Mapeamento esparso topográfico: uma estrutura de treinamento esparsa neuro-inspirada para modelos de aprendizado profundo", ele mostra como reduzir conexões em redes neurais, mantendo ou melhorando a precisão.
O treinamento de grandes modelos de IA pode custar milhões e usar tanta energia quanto centenas de residências. Até 2030, os data centers podem corresponder ao uso de energia de um país. Os pesquisadores Mohsen Kamelian Rad, Ferrante Neri, Sotiris Moschoyiannis e Bauer se basearam na fiação organizada do cérebro no sistema visual.
Eles criaram o Mapeamento Topográfico Esparso (TSM), que conecta recursos de entrada, como pixels de imagem, apenas a neurônios próximos na próxima camada. Isso corta links desnecessários desde o início, acelerando o treinamento e melhorando os resultados.
Eles também desenvolveram o Enhanced TSM (ETSM), que poda conexões fracas durante o treinamento, como as vias de refinamento do cérebro.
Isso leva a 99% de esparsidade - removendo a maioria dos links - enquanto combina ou supera modelos densos em testes como MNIST (dígitos manuscritos), Fashion-MNIST (roupas), CIFAR-10 (imagens simples) e CIFAR-100 (categorias detalhadas). No CIFAR-100, o ETSM melhorou a precisão em 14% em relação a outros métodos esparsos, usando menos recursos.
O principal benefício é a economia de energia: esses modelos usam menos de 1% da energia dos modelos padrão, com treinamento mais rápido e menor necessidade de memória. Isso pode ajudar a construir hardware semelhante ao cérebro e reduzir o impacto ambiental da IA.
Pontos-chave...
1. Design inspirado no cérebro: o TSM limita as conexões aos neurônios locais, reduzindo o desperdício e auxiliando na generalização sem etapas extras.
2. Poda no ETSM: Remove links de baixo valor durante o treinamento, atingindo 99% de dispersão sem perder a precisão.
3. Resultados fortes: Corresponde ou excede modelos densos em benchmarks, com grandes ganhos em tarefas complexas como CIFAR-100.
4. Ganhos de eficiência: Reduz a energia para menos de 1% das normas, acelera o treinamento e reduz o uso de memória.
5. Potencial futuro: Pode ser aplicado a outros tipos de IA, apoiando o crescimento sustentável e novos hardwares.
...

Melhores
Classificação
Favoritos

