Os LLMs são improváveis de se tornarem AGI—são inerentemente vulneráveis a explorações de injeção de prompt, não conseguem fazer raciocínio abstrato e, talvez o mais importante, são péssimos em generalizar: @skdh explica por que essas três são limitações difíceis de superar: