Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dwarkesh Patel
Was vooral benieuwd om @karpathy te vragen waarom zelfrijdende auto's meer dan een decennium nodig hadden van geweldige demonstratieritten tot zelfs enigszins ingezet. Andrej leidde AI bij Tesla gedurende 5 jaar.
Ik wilde echt weten of deze fricties onze AGI-tijdlijnen zouden verlengen, of dat ze idiosyncratisch waren voor zelfrijden.
Rijden heeft een zeer hoge kostprijs bij falen. Mensen zijn verrassend betrouwbare chauffeurs - we hebben elke 400.000 mijl/7 jaar een ernstig ongeluk. En zelfrijdende auto's moeten dit veiligheidsprofiel evenaren of overtreffen voordat ze kunnen worden ingezet.
Maar zijn de meeste domeinen zo? Voor het interview leek het me dat bijna elk domein waarin we AGI zouden willen integreren een veel lagere kostprijs bij falen heeft. Als volledig autonome software-engineers 7 jaar lang geen fout mochten maken, zou de inzet inderdaad super langzaam zijn.
Andrej maakte een interessant punt dat ik nog niet eerder had gehoord: vergeleken met zelfrijden heeft software-engineering een hogere (en potentieel onbeperkte) kostprijs bij falen:
> Als je echte productieklare code schrijft, kan elke soort fout leiden tot een beveiligingskwetsbaarheid. Honderden miljoenen persoonlijke Social Security-nummers van mensen kunnen gelekt worden.
> In zelfrijden, als er iets misgaat, kun je gewond raken. Er zijn ergere uitkomsten. Maar in software is het bijna onbeperkt hoe verschrikkelijk iets kan zijn.
> In sommige opzichten is software-engineering een veel moeilijker probleem [dan zelfrijden]. Zelfrijden is slechts een van de duizenden dingen die mensen doen. Het is bijna als een enkele verticale. Terwijl we het hebben over algemene software-engineering, is er meer oppervlakte.
Er is mogelijk nog een reden waarom de overgang van LLM -> wijdverspreide AGI veel sneller kan gebeuren: LLM's geven ons perceptie, representaties en gezond verstand (om om te gaan met voorbeelden buiten de distributie) gratis, terwijl deze vanaf nul moesten worden gevormd voor zelfrijdende auto's. Ik vroeg Andrej hierover:
> Ik weet niet hoeveel we gratis krijgen. LLM's zijn nog steeds behoorlijk feilbaar en ze hebben veel hiaten die nog moeten worden opgevuld. Ik denk niet dat we magische generalisatie volledig uit de doos krijgen.
> Het andere aspect waar ik op terug wilde komen is dat zelfrijdende auto's nog lang niet af zijn. De inzetten zijn behoorlijk minimaal. Zelfs Waymo heeft heel weinig auto's. Ze hebben iets gebouwd dat in de toekomst leeft. Ze hebben de toekomst moeten terugtrekken, maar ze moesten het onbetaalbaar maken.
> Ook, als je naar deze auto's kijkt en er rijdt niemand, is er meer mens-in-de-lus dan je zou verwachten. In zekere zin hebben we de persoon niet echt verwijderd, we hebben ze verplaatst naar een plek waar je ze niet kunt zien.

Dwarkesh Patel18 okt, 01:16
Het @karpathy interview
0:00:00 – AGI is nog een decennium verwijderd
0:30:33 – LLM cognitieve tekortkomingen
0:40:53 – RL is verschrikkelijk
0:50:26 – Hoe leren mensen?
1:07:13 – AGI zal samensmelten met 2% BBP-groei
1:18:24 – ASI
1:33:38 – Evolutie van intelligentie & cultuur
1:43:43 - Waarom zelfrijdend zo lang duurde
1:57:08 - Toekomst van onderwijs
Zoek Dwarkesh Podcast op YouTube, Apple Podcasts, Spotify, enz. Geniet ervan!
119,88K
Boven
Positie
Favorieten
