Mon impression initiale sur le modèle OSS d'OpenAI est en accord avec ce qu'ils ont annoncé. On a vraiment l'impression que c'est plus proche de o3 que des autres modèles ouverts, sauf que c'est beaucoup plus rapide et moins cher. Certains fournisseurs l'offrent à 3000 tokens/s, ce qui est fou. Il est définitivement plus intelligent que Kimi K2, R1 et Qwen 3. J'ai testé tous les modèles pendant un moment et j'ai obtenu des résultats très décisifs en faveur d'OpenAI-OSS-120b. Malheureusement, il y a une chose que ces modèles ne peuvent pas encore faire - mon putain de travail. Donc, j'espère que vous vous amuserez. Je reviendrai pour déboguer l'évaluation du λ-calcul superposé 😭 à bientôt.
Parfois, mes premières impressions ne vieillissent pas si bien (c'est pourquoi je partage mes prompts), mais je peux garantir que gpt-oss a objectivement surpassé les autres modèles lors de mes tests initiaux. Par exemple, considérons : Étant donné un fichier Haskell bogué, gpt-oss pointe exactement le problème dans la toute première phrase (parseLst étant récursif à gauche), tandis que les autres modèles OSS racontent des âneries et ne *mentionnent même pas* le problème. Peut-être que le modèle est bon en débogage, ou peut-être que mon impression changera avec le temps, mais mes premiers tests étaient objectivement en faveur de gpt-oss 🤷‍♂️
dax
dax6 août 2025
tout le monde que je connais et qui est légitime passe un mauvais moment avec gpt-oss jusqu'à présent c'est utile parce que maintenant, quand je vois des comptes populaires dire "c'est tellement bien, wow", je sais qu'ils racontent des conneries
417,36K