Les LLMs ne deviendront probablement jamais de l'AGI—ils sont intrinsèquement vulnérables aux exploits d'injection de prompt, ils ne peuvent pas faire de raisonnement abstrait et, peut-être le plus important, ils sont mauvais pour la généralisation : @skdh explique pourquoi ces trois limitations sont difficiles à surmonter :