Spontane tanker om AI, energi, databehandling osv., som jeg forventer at ingen skal lese, men som jeg kommer tilbake til om noen år for å se om jeg hadde rett: - LLM-er er det verste AI noensinne vil være når det gjelder energiforbruk, og er ikke veien til AGI - LLM-ytelsen kan stagnere nær dagens nivåer, men fortsatt levere massiv verdi og gjenoppfinne store deler av økonomien - Utbygging av energi og datasenter vil massivt overskride etterspørselen - innen 10 år vil ny modellarkitektur og dataunderlag fullstendig undergrave AI-energietterspørselsekstrapoleringer. Overbygd infrastruktur vil subsidiere mange andre ting og fortsatt bli brukt. - Noe sånt som AGI kan kjøre på 100 watt med riktig arkitektur + substrat. Mennesker bruker 20W. - Noe som ASI kommer lettere fra et stort antall mindre AGI-er som kommuniserer med hverandre, akkurat som det menneskelige samfunnet. Kall dette Techno-Core - Langsiktig energiforbruk dominert mer av robotikk, produksjon, transport enn AI. Dette er for det meste fra å observere tidligere sykluser med investeringsvanvidd og infrastrukturutbygging, og tenke gjennom det grunnleggende energigulvet på beregning, og vår eneste kjente AGI / ASI: mennesker og samfunn.