Este puțin probabil ca LLM-urile să devină vreodată AGI – sunt în mod inerent vulnerabile la exploit-urile de injecție promptă, nu pot face raționamente abstracte și, poate cel mai important, sunt proaste la generalizare: @skdh explică de ce aceste trei limitări sunt dificil de spart: