LLM tidak mungkin menjadi AGI — mereka secara inheren rentan terhadap eksploitasi injeksi yang cepat, mereka tidak dapat melakukan penalaran abstrak dan, mungkin yang paling penting, mereka buruk dalam menggeneralisasi: @skdh menjelaskan mengapa ketiganya adalah batasan yang sulit untuk dipecahkan: