Todos estão a observar os LLMs dominarem os holofotes. Mas se olharmos um pouco mais de perto, algo mais está a surgir. Os Modelos de Linguagem Pequenos (SLMs) são mais leves, rápidos e acessíveis. Para IA agentiva e sistemas descentralizados, podem ser uma melhor opção. Aqui está o porquê 🧵
2/ Os LLMs são apenas "grandes". Trilhões de parâmetros, generalistas poderosos e caros de operar. Eles funcionam muito bem para tarefas amplas e abertas. Mas são centralizados, opacos e difíceis de personalizar. Os SLMs são compactos, transparentes e flexíveis. Você pode ajustá-los e operá-los nos seus termos.
3/ Os SLMs brilham em cenários do mundo real: São eficientes, rápidos a responder e não precisam de uma infraestrutura pesada. Perfeitos para dispositivos de borda e casos de uso sensíveis à privacidade. Com ferramentas como destilação, poda e raciocínio em tempo de teste, eles oferecem um desempenho sério a uma fração do custo.
4/ Nova pesquisa prova isso. O Alan Turing Institute executou um modelo de 3 bilhões de parâmetros em um laptop. Com um ajuste inteligente, ele quase igualou os modelos de ponta em tarefas de raciocínio em saúde. Esta onda está crescendo: Phi, Nemotron-H, Qwen3, Mu, SmolLLM, todos empurrando os SLMs para o mainstream.
5/ Mais detalhes desta pesquisa:
6/ Acreditamos na construção de IA que seja aberta, local e descentralizada. Os SLMs tornam isso possível. Eles não são apenas alternativas leves, são a base para sistemas modulares e escaláveis. Pequeno não é um compromisso. Pequeno é uma escolha de design poderosa.
7/ Leia o nosso blog completo sobre este tópico 👇
1,6K