Nova Tecnologia de IA Usa 1% da Energia da Tecnologia Atual! Novo Artigo: Aumenta a Eficiência da IA Usando Tecnologia Inspirada no Cérebro Humano Mapeamento Espacial Topográfico Explicado Os modelos de IA estão a crescer em tamanho e a usar mais energia, levantando preocupações sobre a sustentabilidade. Um novo artigo da Universidade de Surrey, publicado na Neurocomputing, introduz um método inspirado no cérebro humano para tornar a IA mais eficiente. Intitulado "Mapeamento Espacial Topográfico: Uma Estrutura de Treinamento Esparsa Inspirada no Neuro para Modelos de Aprendizagem Profunda," mostra como reduzir conexões em redes neurais enquanto mantém ou melhora a precisão. Treinar grandes modelos de IA pode custar milhões e usar tanta energia quanto centenas de lares. Até 2030, os centros de dados podem igualar o consumo de energia de um país. Os pesquisadores Mohsen Kamelian Rad, Ferrante Neri, Sotiris Moschoyiannis e Bauer basearam-se na fiação organizada do cérebro no sistema visual. Eles criaram o Mapeamento Espacial Topográfico (TSM), que conecta características de entrada, como pixels de imagem, apenas a neurônios próximos na próxima camada. Isso corta ligações desnecessárias desde o início, acelerando o treinamento e melhorando os resultados. Eles também desenvolveram o TSM Aprimorado (ETSM), que elimina conexões fracas durante o treinamento, como o cérebro refinando caminhos. Isso leva a 99 por cento de esparsidade—removendo a maioria das ligações—enquanto iguala ou supera modelos densos em testes como MNIST (dígitos manuscritos), Fashion-MNIST (roupas), CIFAR-10 (imagens simples) e CIFAR-100 (categorias detalhadas). No CIFAR-100, o ETSM melhorou a precisão em 14 por cento em relação a outros métodos esparsos, usando menos recursos. O principal benefício é a economia de energia: Esses modelos usam menos de 1 por cento da energia dos modelos padrão, com treinamento mais rápido e menores necessidades de memória. Isso pode ajudar a construir hardware semelhante ao cérebro e reduzir o impacto ambiental da IA. Pontos-chave… 1. Design inspirado no cérebro: O TSM limita as conexões a neurônios locais, reduzindo desperdícios e ajudando na generalização sem etapas extras. 2. Poda no ETSM: Remove ligações de baixo valor durante o treinamento, alcançando 99 por cento de esparsidade sem perder precisão. 3. Resultados fortes: Igualam ou superam modelos densos em benchmarks, com grandes ganhos em tarefas complexas como CIFAR-100. 4. Ganhos de eficiência: Reduz energia para menos de 1 por cento dos padrões, acelera o treinamento e diminui o uso de memória. 5. Potencial futuro: Pode ser aplicado a outros tipos de IA, apoiando o crescimento sustentável e novo hardware. ...