Det är osannolikt att LLM:er någonsin kommer att bli AGI – de är i sig sårbara för snabba injektionsexploateringar, de kan inte göra abstrakta resonemang och, kanske viktigast av allt, de är usla på att generalisera: @skdh förklarar varför dessa tre är svåra att knäcka: