Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Nova Tecnologia de IA Usa 1% da Energia da Tecnologia Atual!
Novo Artigo: Aumenta a Eficiência da IA Usando Tecnologia Inspirada no Cérebro Humano
Mapeamento Espacial Topográfico Explicado
Os modelos de IA estão a crescer em tamanho e a usar mais energia, levantando preocupações sobre a sustentabilidade. Um novo artigo da Universidade de Surrey, publicado na Neurocomputing, introduz um método inspirado no cérebro humano para tornar a IA mais eficiente. Intitulado "Mapeamento Espacial Topográfico: Uma Estrutura de Treinamento Esparsa Inspirada no Neuro para Modelos de Aprendizagem Profunda," mostra como reduzir conexões em redes neurais enquanto mantém ou melhora a precisão.
Treinar grandes modelos de IA pode custar milhões e usar tanta energia quanto centenas de lares. Até 2030, os centros de dados podem igualar o consumo de energia de um país. Os pesquisadores Mohsen Kamelian Rad, Ferrante Neri, Sotiris Moschoyiannis e Bauer basearam-se na fiação organizada do cérebro no sistema visual.
Eles criaram o Mapeamento Espacial Topográfico (TSM), que conecta características de entrada, como pixels de imagem, apenas a neurônios próximos na próxima camada. Isso corta ligações desnecessárias desde o início, acelerando o treinamento e melhorando os resultados.
Eles também desenvolveram o TSM Aprimorado (ETSM), que elimina conexões fracas durante o treinamento, como o cérebro refinando caminhos.
Isso leva a 99 por cento de esparsidade—removendo a maioria das ligações—enquanto iguala ou supera modelos densos em testes como MNIST (dígitos manuscritos), Fashion-MNIST (roupas), CIFAR-10 (imagens simples) e CIFAR-100 (categorias detalhadas). No CIFAR-100, o ETSM melhorou a precisão em 14 por cento em relação a outros métodos esparsos, usando menos recursos.
O principal benefício é a economia de energia: Esses modelos usam menos de 1 por cento da energia dos modelos padrão, com treinamento mais rápido e menores necessidades de memória. Isso pode ajudar a construir hardware semelhante ao cérebro e reduzir o impacto ambiental da IA.
Pontos-chave…
1. Design inspirado no cérebro: O TSM limita as conexões a neurônios locais, reduzindo desperdícios e ajudando na generalização sem etapas extras.
2. Poda no ETSM: Remove ligações de baixo valor durante o treinamento, alcançando 99 por cento de esparsidade sem perder precisão.
3. Resultados fortes: Igualam ou superam modelos densos em benchmarks, com grandes ganhos em tarefas complexas como CIFAR-100.
4. Ganhos de eficiência: Reduz energia para menos de 1 por cento dos padrões, acelera o treinamento e diminui o uso de memória.
5. Potencial futuro: Pode ser aplicado a outros tipos de IA, apoiando o crescimento sustentável e novo hardware.
...

Top
Classificação
Favoritos

