la raison pour laquelle Cursor et Windsurf ont publié des modèles optimisés pour la vitesse, c'est parce que c'est beaucoup plus faisable que de construire un modèle fondamental qui pousse l'intelligence 1. prenez Qwen3 et affinez-le via RL sur votre harnais 2. mettez-le sur du matériel Cerebras (ou GPU optimisé) 3. laissez ce modèle moyen-intelligent et super-rapide mijoter pour les entreprises d'agents de codage, si vous voulez apporter quelque chose de valeur sur le marché, construire un nouveau modèle fondamental est de plusieurs ordres de grandeur plus difficile que d'affiner un modèle ouvert et d'optimiser l'inférence. franchement, c'est la manière efficace de sortir quelque chose qui s'approche de la frontière de Pareto et j'aime que les entreprises d'agents de codage commencent à participer. mais ne confondez pas cela avec les entreprises d'agents de codage déclarant "moyennement intelligent mais rapide > très intelligent mais lent"