Tenía especial curiosidad por preguntar a @karpathy por qué los coches autónomos tardaron más de una década desde las impresionantes demostraciones hasta su implementación, aunque sea parcial. Andrej lideró la IA en Tesla durante 5 años. Realmente quería saber si estas fricciones deberían alargar nuestras líneas de tiempo para la AGI, o si eran idiosincráticas del auto-conducción. Conducir tiene un costo de fallo realmente alto. Los humanos son conductores sorprendentemente fiables: tenemos un accidente grave cada 400,000 millas/7 años. Y los coches autónomos necesitan igualar o superar este perfil de seguridad antes de poder ser desplegados. ¿Pero son la mayoría de los dominios así? Antes de la entrevista, me parecía que casi todos los dominios en los que quisiéramos integrar la AGI tienen un costo de fallo mucho más bajo. Si los ingenieros de software totalmente autónomos no pudieran cometer un error durante 7 años, el despliegue sería, de hecho, muy lento. Andrej hizo un punto interesante que no había escuchado antes: comparado con la auto-conducción, la ingeniería de software tiene un costo de fallo más alto (y potencialmente ilimitado): > Si estás escribiendo código de producción real, cualquier tipo de error podría llevar a una vulnerabilidad de seguridad. Los números de Seguro Social de cientos de millones de personas podrían filtrarse. > En la auto-conducción, si las cosas salen mal, podrías resultar herido. Hay peores resultados. Pero en software, es casi ilimitado lo terrible que podría ser algo. > En algunos aspectos, la ingeniería de software es un problema mucho más difícil [que la auto-conducción]. La auto-conducción es solo una de miles de cosas que las personas hacen. Es casi como un único vertical. Mientras que cuando hablamos de ingeniería de software general, hay más área de superficie. Potencialmente hay otra razón por la que la transición de LLM -> AGI ampliamente desplegada podría suceder mucho más rápido: los LLMs nos dan percepción, representaciones y sentido común (para lidiar con ejemplos fuera de distribución) de forma gratuita, mientras que estos tuvieron que ser moldeados desde cero para los coches autónomos. Le pregunté a Andrej sobre esto: > No sé cuánto estamos obteniendo gratis. Los LLMs todavía son bastante falibles y tienen muchas lagunas que aún necesitan ser llenadas. No creo que estemos obteniendo una generalización mágica completamente lista para usar. > El otro aspecto al que quería volver es que los coches autónomos aún están lejos de estar terminados. Los despliegues son bastante mínimos. Incluso Waymo tiene muy pocos coches. Han construido algo que vive en el futuro. Han tenido que retroceder en el futuro, pero tuvieron que hacerlo antieconómico. > Además, cuando miras estos coches y no hay nadie conduciendo, hay más humano en el bucle de lo que podrías esperar. En cierto sentido, en realidad no hemos eliminado a la persona, la hemos movido a un lugar donde no puedes verla.