LLM:istä ei todennäköisesti koskaan tule AGI:tä – ne ovat luonnostaan alttiita nopealle injektiohyökkäykselle, ne eivät osaa tehdä abstraktia päättelyä ja, mikä ehkä tärkeintä, he ovat surkeita yleistämään: @skdh selittää, miksi nämä kolme ovat vaikeita rajoituksia murrettavaksi: