Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Todos estão a observar os LLMs dominarem os holofotes.
Mas se olharmos um pouco mais de perto, algo mais está a surgir.
Os Modelos de Linguagem Pequenos (SLMs) são mais leves, rápidos e acessíveis.
Para IA agentiva e sistemas descentralizados, podem ser uma melhor opção.
Aqui está o porquê 🧵

2/ Os LLMs são apenas "grandes".
Trilhões de parâmetros, generalistas poderosos e caros de operar.
Eles funcionam muito bem para tarefas amplas e abertas. Mas são centralizados, opacos e difíceis de personalizar.
Os SLMs são compactos, transparentes e flexíveis. Você pode ajustá-los e operá-los nos seus termos.
3/ Os SLMs brilham em cenários do mundo real:
São eficientes, rápidos a responder e não precisam de uma infraestrutura pesada. Perfeitos para dispositivos de borda e casos de uso sensíveis à privacidade.
Com ferramentas como destilação, poda e raciocínio em tempo de teste, eles oferecem um desempenho sério a uma fração do custo.
4/ Nova pesquisa prova isso.
O Alan Turing Institute executou um modelo de 3 bilhões de parâmetros em um laptop. Com um ajuste inteligente, ele quase igualou os modelos de ponta em tarefas de raciocínio em saúde.
Esta onda está crescendo: Phi, Nemotron-H, Qwen3, Mu, SmolLLM, todos empurrando os SLMs para o mainstream.

5/ Mais detalhes desta pesquisa:
6/ Acreditamos na construção de IA que seja aberta, local e descentralizada.
Os SLMs tornam isso possível. Eles não são apenas alternativas leves, são a base para sistemas modulares e escaláveis.
Pequeno não é um compromisso.
Pequeno é uma escolha de design poderosa.
7/ Leia o nosso blog completo sobre este tópico 👇
1,6K
Top
Classificação
Favoritos