Alors laissez-moi clarifier cela. Inference a : 1. Un réseau décentralisé qui fournit l'inférence LLM au prix de l'électricité 2. Les compétences en formation et en service de modèles pour rendre les modèles super bon marché, surtout pour des tâches spécialisées 3. Des accords avec des centres de données pour louer de la capacité sous-utilisée à des tarifs massivement réduits 4. Une API d'inférence par lot conçue pour évoluer jusqu'à des milliards de requêtes Et @paulg ne nous suit toujours pas ? C'est du n'importe quoi.
3,17K