Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Brian Roemmele
só podemos ver o que achamos que é possível...
A nova tecnologia de IA usa 1% do poder da tecnologia atual!
Novo artigo: aumenta a eficiência da IA usando tecnologia humana semelhante a Brian
Mapeamento topográfico esparso explicado
Os modelos de IA estão crescendo e usando mais energia, levantando preocupações sobre a sustentabilidade. Um novo artigo da Universidade de Surrey, publicado na Neurocomputing, apresenta um método inspirado no cérebro humano para tornar a IA mais eficiente. Intitulado "Mapeamento esparso topográfico: uma estrutura de treinamento esparsa neuro-inspirada para modelos de aprendizado profundo", ele mostra como reduzir conexões em redes neurais, mantendo ou melhorando a precisão.
O treinamento de grandes modelos de IA pode custar milhões e usar tanta energia quanto centenas de residências. Até 2030, os data centers podem corresponder ao uso de energia de um país. Os pesquisadores Mohsen Kamelian Rad, Ferrante Neri, Sotiris Moschoyiannis e Bauer se basearam na fiação organizada do cérebro no sistema visual.
Eles criaram o Mapeamento Topográfico Esparso (TSM), que conecta recursos de entrada, como pixels de imagem, apenas a neurônios próximos na próxima camada. Isso corta links desnecessários desde o início, acelerando o treinamento e melhorando os resultados.
Eles também desenvolveram o Enhanced TSM (ETSM), que poda conexões fracas durante o treinamento, como as vias de refinamento do cérebro.
Isso leva a 99% de esparsidade - removendo a maioria dos links - enquanto combina ou supera modelos densos em testes como MNIST (dígitos manuscritos), Fashion-MNIST (roupas), CIFAR-10 (imagens simples) e CIFAR-100 (categorias detalhadas). No CIFAR-100, o ETSM melhorou a precisão em 14% em relação a outros métodos esparsos, usando menos recursos.
O principal benefício é a economia de energia: esses modelos usam menos de 1% da energia dos modelos padrão, com treinamento mais rápido e menor necessidade de memória. Isso pode ajudar a construir hardware semelhante ao cérebro e reduzir o impacto ambiental da IA.
Pontos-chave...
1. Design inspirado no cérebro: o TSM limita as conexões aos neurônios locais, reduzindo o desperdício e auxiliando na generalização sem etapas extras.
2. Poda no ETSM: Remove links de baixo valor durante o treinamento, atingindo 99% de dispersão sem perder a precisão.
3. Resultados fortes: Corresponde ou excede modelos densos em benchmarks, com grandes ganhos em tarefas complexas como CIFAR-100.
4. Ganhos de eficiência: Reduz a energia para menos de 1% das normas, acelera o treinamento e reduz o uso de memória.
5. Potencial futuro: Pode ser aplicado a outros tipos de IA, apoiando o crescimento sustentável e novos hardwares.
Este trabalho aponta para uma mudança: estruturas mais inteligentes podem superar modelos maiores, auxiliando no desenvolvimento de longo prazo da IA.
Estou começando a construir essas ideias e vou testá-las. É realmente interessante.
Citações:
1.

138
Isso supera o agente de IA local de demonstração que executou 943 horas para um VC como prova.
Para eles, construí aquele em torno de "finanças".
Tem um nome elegante: "Lista de Criag para o robô flipper do eBay"
Sim, o nome dizia tudo.
Ele usa meu sistema para encontrar material de arquivo perdido para treinar IA, mas para eles eu o tornei um sistema com fins lucrativos para arbitrar itens de baixo custo na Lista de Criag com potencial de alta rotatividade e lucro no eBay.
Ele encontrou 39 produtos e obteve um lucro de ~ $ 17.000 quando o envio foi contabilizado. Todos eram itens menores.
Horas humanas: 2,1 (embalagem da filha da equipe).
O sistema básico obteve para mim 1000 itens, principalmente todos os materiais únicos para treinamento de IA. Mas isso demonstra a esse VC o poder dos agentes contínuos e a necessidade de eles não estarem em uma nuvem.

Brian Roemmele2 horas atrás
BUM!
O agente de IA local mais antigo que já executei - acabei de relatar!
Tempo de execução:
11.472 horas 3 minutos
Eventos:
36,792,503
Visitas ao site:
4,783,912
Arquivos RAG:
92,716
Saída final:
73.527 palavras
Foi uma bagunça feia de código para fazê-lo funcionar.
Vou escrever sobre isso em breve.
77
BUM!
O agente de IA local mais antigo que já executei - acabei de relatar!
Tempo de execução:
11.472 horas 3 minutos
Eventos:
36,792,503
Visitas ao site:
4,783,912
Arquivos RAG:
92,716
Saída final:
73.527 palavras
Foi uma bagunça feia de código para fazê-lo funcionar.
Vou escrever sobre isso em breve.
110
Melhores
Classificação
Favoritos
