A nova tecnologia de IA usa 1% do poder da tecnologia atual! Novo artigo: aumenta a eficiência da IA usando tecnologia humana semelhante a Brian Mapeamento topográfico esparso explicado Os modelos de IA estão crescendo e usando mais energia, levantando preocupações sobre a sustentabilidade. Um novo artigo da Universidade de Surrey, publicado na Neurocomputing, apresenta um método inspirado no cérebro humano para tornar a IA mais eficiente. Intitulado "Mapeamento esparso topográfico: uma estrutura de treinamento esparsa neuro-inspirada para modelos de aprendizado profundo", ele mostra como reduzir conexões em redes neurais, mantendo ou melhorando a precisão. O treinamento de grandes modelos de IA pode custar milhões e usar tanta energia quanto centenas de residências. Até 2030, os data centers podem corresponder ao uso de energia de um país. Os pesquisadores Mohsen Kamelian Rad, Ferrante Neri, Sotiris Moschoyiannis e Bauer se basearam na fiação organizada do cérebro no sistema visual. Eles criaram o Mapeamento Topográfico Esparso (TSM), que conecta recursos de entrada, como pixels de imagem, apenas a neurônios próximos na próxima camada. Isso corta links desnecessários desde o início, acelerando o treinamento e melhorando os resultados. Eles também desenvolveram o Enhanced TSM (ETSM), que poda conexões fracas durante o treinamento, como as vias de refinamento do cérebro. Isso leva a 99% de esparsidade - removendo a maioria dos links - enquanto combina ou supera modelos densos em testes como MNIST (dígitos manuscritos), Fashion-MNIST (roupas), CIFAR-10 (imagens simples) e CIFAR-100 (categorias detalhadas). No CIFAR-100, o ETSM melhorou a precisão em 14% em relação a outros métodos esparsos, usando menos recursos. O principal benefício é a economia de energia: esses modelos usam menos de 1% da energia dos modelos padrão, com treinamento mais rápido e menor necessidade de memória. Isso pode ajudar a construir hardware semelhante ao cérebro e reduzir o impacto ambiental da IA. Pontos-chave... 1. Design inspirado no cérebro: o TSM limita as conexões aos neurônios locais, reduzindo o desperdício e auxiliando na generalização sem etapas extras. 2. Poda no ETSM: Remove links de baixo valor durante o treinamento, atingindo 99% de dispersão sem perder a precisão. 3. Resultados fortes: Corresponde ou excede modelos densos em benchmarks, com grandes ganhos em tarefas complexas como CIFAR-100. 4. Ganhos de eficiência: Reduz a energia para menos de 1% das normas, acelera o treinamento e reduz o uso de memória. 5. Potencial futuro: Pode ser aplicado a outros tipos de IA, apoiando o crescimento sustentável e novos hardwares. ...