1/ O treinamento de IA descentralizada está a passar de impossível a inevitável. A era dos monopólios de IA centralizados está a ser desafiada por protocolos inovadores que permitem o treinamento colaborativo de modelos em redes distribuídas.
2/ Alerta Primer: O Qwen 3 Coder acaba de ser lançado e é um divisor de águas. O novo modelo MoE com 480B de parâmetros e 35B de parâmetros ativos alcança um desempenho de ponta em tarefas de codificação agentiva, rivalizando com o Claude Sonnet 4. Este coder totalmente open-source suporta 256K de contexto nativamente e 1M com extrapolação.
3/ A Pluralis está a liderar o "Protocol Learning", uma abordagem radical onde os modelos são treinados de forma colaborativa, mas nunca totalmente materializados em nenhum local único. Uma ronda de seed de $7.6M da USV e CoinFund apoia a sua visão de uma IA verdadeiramente aberta, onde os contribuintes partilham o potencial económico sem renunciar ao controlo do modelo.
@PluralisHQ 4/ A Nous Research levantou 50 milhões de dólares para desafiar a OpenAI com modelos governados pela comunidade. O seu próximo modelo "Consilience" de 40 bilhões de parâmetros utiliza a estrutura Psyche com compressão inspirada em JPEG para permitir um treinamento distribuído eficiente em hardware heterogêneo.
5/ A Gensyn garantiu cerca de ~$51M até agora para construir o "cluster global de aprendizagem de máquina." O seu protocolo conecta computação subutilizada em todo o mundo, desde centros de dados a laptops de jogos, criando uma alternativa de nuvem descentralizada que pode alcançar economias de escala superiores às dos provedores centralizados.
@gensynai 6/ O Prime Intellect provou que o treinamento descentralizado funciona com o INTELLECT-2. O seu modelo de 32B parâmetros foi treinado através de RL distribuído globalmente usando a estrutura PRIME-RL, demonstrando que modelos de ponta podem ser construídos em diferentes continentes sem sacrificar o desempenho.
@PrimeIntellect 7/ As sub-redes Bittensor estão a especializar-se em cargas de trabalho de IA: - A Sub-rede 3 (Templar) foca na validação de treino distribuído. - A Sub-rede 9 (Macrocosmos) permite o desenvolvimento colaborativo de modelos, criando incentivos económicos para os participantes na rede neural.
8/ A tese de formação descentralizada: Agregar mais capacidade de computação do que qualquer entidade única, democratizar o acesso ao desenvolvimento de IA e prevenir a concentração de poder. À medida que os modelos de raciocínio elevam os custos de inferência acima dos de formação, redes distribuídas podem se tornar uma infraestrutura essencial na economia da IA.
8,48K