Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dwarkesh Patel
Byłem szczególnie ciekawy, aby zapytać @karpathy, dlaczego samochody autonomiczne potrzebowały ponad dekady od znakomitych demonstracji do jakiejkolwiek wdrożonej wersji. Andrej kierował AI w Tesli przez 5 lat.
Naprawdę chciałem wiedzieć, czy te tarcia powinny wydłużyć nasze harmonogramy AGI, czy też były one idiosynkratyczne dla autonomicznych pojazdów.
Prowadzenie pojazdu wiąże się z naprawdę wysokim kosztem błędu. Ludzie są zaskakująco niezawodnymi kierowcami - mamy poważny wypadek co 400 000 mil/7 lat. A samochody autonomiczne muszą dorównać lub przewyższyć ten profil bezpieczeństwa, zanim będą mogły zostać wdrożone.
Ale czy większość dziedzin jest taka? Przed wywiadem wydawało mi się, że prawie każda dziedzina, do której chcielibyśmy wprowadzić AGI, ma znacznie niższy koszt błędu. Gdyby w pełni autonomiczni inżynierowie oprogramowania nie mogli popełnić błędu przez 7 lat, wdrożenie rzeczywiście byłoby bardzo wolne.
Andrej zwrócił uwagę na interesujący punkt, którego wcześniej nie słyszałem: w porównaniu do autonomicznego prowadzenia, inżynieria oprogramowania ma wyższy (i potencjalnie nieograniczony) koszt błędu:
> Jeśli piszesz rzeczywisty kod produkcyjny, każdy rodzaj błędu może prowadzić do luki w zabezpieczeniach. Setki milionów osobistych numerów ubezpieczenia społecznego mogą zostać ujawnione.
> W przypadku autonomicznego prowadzenia, jeśli coś pójdzie źle, możesz doznać obrażeń. Są gorsze konsekwencje. Ale w oprogramowaniu, to prawie nieograniczone, jak straszne coś może być.
> W pewnym sensie, inżynieria oprogramowania jest znacznie trudniejszym problemem [niż autonomiczne prowadzenie]. Autonomiczne prowadzenie to tylko jedna z tysięcy rzeczy, które ludzie robią. To prawie jak jeden pion. Natomiast gdy mówimy o ogólnej inżynierii oprogramowania, jest więcej powierzchni.
Może być jeszcze jeden powód, dla którego przejście z LLM -> szeroko wdrożone AGI może nastąpić znacznie szybciej: LLM dają nam percepcję, reprezentacje i zdrowy rozsądek (aby radzić sobie z przykładami spoza rozkładu) za darmo, podczas gdy te musiały być formowane od podstaw dla samochodów autonomicznych. Zapytałem Andreja o to:
> Nie wiem, ile dostajemy za darmo. LLM są nadal dość omylne i mają wiele luk, które wciąż muszą być wypełnione. Nie sądzę, że dostajemy magiczną generalizację całkowicie z pudełka.
> Inny aspekt, do którego chciałem wrócić, to fakt, że samochody autonomiczne wciąż są dalekie od ukończenia. Wdrożenia są dość minimalne. Nawet Waymo ma bardzo mało samochodów. Zbudowali coś, co żyje w przyszłości. Musieli cofnąć przyszłość, ale musieli uczynić ją nieekonomiczną.
> Ponadto, gdy patrzysz na te samochody i nie ma nikogo za kierownicą, jest więcej ludzi w pętli, niż mogłoby się wydawać. W pewnym sensie, nie usunęliśmy faktycznie osoby, przenieśliśmy ją w miejsce, gdzie nie możesz jej zobaczyć.

Dwarkesh Patel18 paź, 01:16
Wywiad z @karpathy
0:00:00 – AGI wciąż jest oddalone o dekadę
0:30:33 – Deficyty poznawcze LLM
0:40:53 – RL jest okropne
0:50:26 – Jak uczą się ludzie?
1:07:13 – AGI wtopi się w wzrost PKB o 2%
1:18:24 – ASI
1:33:38 – Ewolucja inteligencji i kultury
1:43:43 - Dlaczego autonomiczne pojazdy zajęły tak długo
1:57:08 - Przyszłość edukacji
Szukaj podcastu Dwarkesh na YouTube, Apple Podcasts, Spotify itd. Miłego słuchania!
90
Najlepsze
Ranking
Ulubione
