J'ai constaté que la valeur marginale d'utiliser l'IA tout en travaillant à partir de la même base de code diminue beaucoup avec le temps. C'est toujours utile, mais cela converge assez rapidement. Je pense que ce n'est pas tant une question de priorisation du contexte. C'est plutôt que cela demande beaucoup plus d'efforts pour décrire les choses les unes par rapport aux autres. Chaque fonctionnalité a le potentiel d'interagir avec chaque autre fonctionnalité. Donc, il y a une complexité de n^2 à la limite. Le travail converge vers la description de tout cela et les tests associés, ce qui devient de plus en plus formel avec le temps. L'IA représente vraiment un pas dramatique pour s'attaquer aux 80% initiaux. Et cela force à penser en abstractions de niveau supérieur pour limiter le nombre d'interactions par paires. Mais comme toujours, les 20% restants sont là où se trouvent tout le temps et la valeur.