Então, deixe-me ver se entendi. A inferência tem: 1. Uma rede descentralizada que fornece inferência LLM ao preço da eletricidade 2. O treinamento do modelo e as costeletas de serviço para fazer modelos baratos super, especialmente para tarefas especializadas 3. Lida com data centers para alugar capacidade subutilizada a taxas com grandes descontos 4. Uma API de inferência em lote projetada para escalar para bilhões de solicitações E @paulg ainda não nos segue? Isso é um pouco b.s.
3,18K