Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
1/ O treinamento de IA descentralizada está a passar de impossível a inevitável.
A era dos monopólios de IA centralizados está a ser desafiada por protocolos inovadores que permitem o treinamento colaborativo de modelos em redes distribuídas.

2/ Alerta Primer: O Qwen 3 Coder acaba de ser lançado e é um divisor de águas.
O novo modelo MoE com 480B de parâmetros e 35B de parâmetros ativos alcança um desempenho de ponta em tarefas de codificação agentiva, rivalizando com o Claude Sonnet 4.
Este coder totalmente open-source suporta 256K de contexto nativamente e 1M com extrapolação.

3/ A Pluralis está a liderar o "Protocol Learning", uma abordagem radical onde os modelos são treinados de forma colaborativa, mas nunca totalmente materializados em nenhum local único.
Uma ronda de seed de $7.6M da USV e CoinFund apoia a sua visão de uma IA verdadeiramente aberta, onde os contribuintes partilham o potencial económico sem renunciar ao controlo do modelo.

@PluralisHQ 4/ A Nous Research levantou 50 milhões de dólares para desafiar a OpenAI com modelos governados pela comunidade.
O seu próximo modelo "Consilience" de 40 bilhões de parâmetros utiliza a estrutura Psyche com compressão inspirada em JPEG para permitir um treinamento distribuído eficiente em hardware heterogêneo.

5/ A Gensyn garantiu cerca de ~$51M até agora para construir o "cluster global de aprendizagem de máquina."
O seu protocolo conecta computação subutilizada em todo o mundo, desde centros de dados a laptops de jogos, criando uma alternativa de nuvem descentralizada que pode alcançar economias de escala superiores às dos provedores centralizados.

@gensynai 6/ O Prime Intellect provou que o treinamento descentralizado funciona com o INTELLECT-2.
O seu modelo de 32B parâmetros foi treinado através de RL distribuído globalmente usando a estrutura PRIME-RL, demonstrando que modelos de ponta podem ser construídos em diferentes continentes sem sacrificar o desempenho.

@PrimeIntellect 7/ As sub-redes Bittensor estão a especializar-se em cargas de trabalho de IA:
- A Sub-rede 3 (Templar) foca na validação de treino distribuído.
- A Sub-rede 9 (Macrocosmos) permite o desenvolvimento colaborativo de modelos, criando incentivos económicos para os participantes na rede neural.


8/ A tese de formação descentralizada: Agregar mais capacidade de computação do que qualquer entidade única, democratizar o acesso ao desenvolvimento de IA e prevenir a concentração de poder.
À medida que os modelos de raciocínio elevam os custos de inferência acima dos de formação, redes distribuídas podem se tornar uma infraestrutura essencial na economia da IA.
8,48K
Top
Classificação
Favoritos