Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Wow, j'ai enfin pris le temps d'essayer la nouvelle version de l'interface en ligne de commande Codex d'OpenAI (leur réponse à Claude Code).
La dernière fois que j'ai essayé d'utiliser Codex (notez que c'est différent de leur agent de codage hébergé également appelé Codex, ce qui est extrêmement déroutant ; je parle maintenant de l'outil que vous exécutez localement sur votre machine dans le terminal), c'était écrit comme une application Nodejs/Typescript, et c'était vraiment assez mauvais :
- je ne pouvais accéder qu'à des modèles plus faibles comme o4-mini ou leur variante pour Codex, déroutant également appelée Codex (sérieusement ?)
- une interface utilisateur/expérience utilisateur bien pire que Claude Code
- bien moins efficace en matière de codage en raison d'un modèle moins performant, d'outils moins bons, d'un flux d'agent moins efficace.
- il vous forçait ennuyeusement à donner la permission pour tout, donc vous deviez le surveiller tout le temps, ce qui le rendait beaucoup moins utile car vous ne pouviez pas facilement exécuter plusieurs d'entre eux en parallèle.
- peut-être que c'était une bonne chose, car de loin le plus gros problème était qu'il faisait des choses super imprudentes et destructrices ; il était beaucoup plus cavalier que CC.
C'est finalement pourquoi j'ai immédiatement arrêté de l'utiliser, car il a décidé de faire un "git reset --hard HEAD" sans d'abord faire de stash, et j'ai perdu un peu de travail. Plus jamais, pensais-je.
Eh bien, j'ai enfin pris le temps d'essayer la toute nouvelle version en rust qui utilise GPT-5 et qui peut utiliser votre abonnement GPT Pro existant au lieu d'une clé API, et c'est tellement mieux que c'est choquant.
Tout d'abord, il n'y a tout simplement pas de substitut à un code compilé rapide quand il s'agit d'outils interactifs comme celui-ci.
Le fait qu'il soit écrit en rust signifie qu'il n'y a aucun retard avec l'entrée au clavier, et aussi pas d'artefacts étranges comme vous en avez dans CC où la touche de retour arrière ne fonctionne pas correctement et l'entrée est saccadée et lente parce qu'elle est écrite dans un langage interprété qui est cent fois plus lent pour ce genre de choses.
Faire face à un retard constant et à des saccades n'est pas seulement plus lent, c'est mentalement et peut-être même émotionnellement épuisant et lassant, du moins pour moi quand j'utilise ces choses pendant des heures. C'est un horrible sentiment de détester et de ressentir du ressentiment envers vos outils même si vous dépendez d'eux pour faire votre travail.
J'espère vraiment que cela élèvera le niveau pour tous ces outils et convaincra Anthropic, Google et d'autres d'utiliser également rust (ou C++, Zig, peu importe).
Mais la véritable grande amélioration est évidemment le modèle ; avec un modèle moins performant qui est peu fiable pour appeler des outils et qui perd sa cohérence sur des tâches plus longues, aucune des réactivités du Rust ne vaudrait un sou.
Mais si vous me suivez ici, alors vous savez que j'ai été en admiration devant les capacités de codage et la maîtrise des appels d'outils de GPT-5 Thinking depuis environ 15 minutes après sa sortie, bien que je l'utilise principalement depuis l'onglet agent de Cursor.
En fin de compte, ce nouveau Codex en rust est soudainement devenu un concurrent vraiment redoutable pour CC, et vous devriez absolument l'essayer.
Je vais devoir voir combien d'utilisation ils me laissent faire avec mon abonnement GPT Pro à 200 $/mois, mais si je dois en obtenir quelques autres, cela en vaudra vraiment la peine.
Notez que je n'ai pas arrêté d'utiliser CC. J'aime utiliser les deux ensemble. Et croyez-le ou non, j'utilise encore aussi Cursor.
Les gens devraient arrêter de chercher l'outil unique qui remplace tous les autres et accepter que différents outils ont différentes forces et faiblesses, et que vous obtenez les meilleurs résultats en apprenant tout cela de manière intuitive grâce à une utilisation constante.
Quoi qu'il en soit, faites-vous une faveur et procurez-vous cela maintenant. Le moyen le plus simple est de faire cette commande (notez que cela vous obtiendra la version rust, malgré la confusion d'utiliser bun/npm pour cela) :
bun i -g @openai/codex
8,46K
Meilleurs
Classement
Favoris