Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tenía especial curiosidad por preguntar @karpathy por qué los autos autónomos tardaron una década + desde paseos de demostración estelares hasta incluso algo implementados. Andrej dirigió la IA en Tesla durante 5 años.
Realmente quería saber si estas fricciones deberían alargar nuestros plazos de AGI o si eran idiosincrásicos para la conducción autónoma.
Conducir tiene un costo de fracaso realmente alto. Los humanos son conductores sorprendentemente confiables: tenemos un accidente grave cada 400,000 millas / 7 años. Y los automóviles autónomos deben igualar o superar este perfil de seguridad antes de que puedan implementarse.
Pero, ¿la mayoría de los dominios son así? Antes de la entrevista, me parecía que casi todos los dominios en los que querríamos conectar AGI tienen un costo de falla mucho menor. Si no se permitiera a los ingenieros de software totalmente autónomos cometer un error durante 7 años, la implementación sería muy lenta.
Andrej hizo un punto interesante que no había escuchado antes: en comparación con la conducción autónoma, la ingeniería de software tiene un costo de falla más alto (y potencialmente ilimitado):
> Si está escribiendo código de nivel de producción real, cualquier tipo de error podría conducir a una vulnerabilidad de seguridad. Los números de Seguro Social personales de cientos de millones de personas podrían filtrarse.
> En la conducción autónoma, si las cosas salen mal, puede lesionarse. Hay peores resultados. Pero en el software, es casi ilimitado lo terrible que puede ser algo.
> De alguna manera, la ingeniería de software es un problema mucho más difícil [que la conducción autónoma]. La conducción autónoma es solo una de las miles de cosas que hace la gente. Es casi como una sola vertical. Mientras que cuando hablamos de ingeniería de software general, hay más superficie.
Potencialmente hay otra razón por la que la transición a AGI ampliamente implementada de LLM -> podría ocurrir mucho más rápido: los LLM nos brindan percepción, representaciones y sentido común (para lidiar con ejemplos fuera de distribución) de forma gratuita, mientras que estos tuvieron que ser moldeados desde cero para automóviles autónomos. Le pregunté a Andrej sobre esto:
> no sé cuánto obtendremos gratis. Los LLM siguen siendo bastante falibles y tienen muchos vacíos que aún deben llenarse. No creo que estemos obteniendo una generalización mágica completamente fuera de la caja.
> El otro aspecto al que quería volver es que los autos autónomos aún no están cerca de terminar. Los despliegues son bastante mínimos. Incluso Waymo tiene muy pocos autos. Han construido algo que vive en el futuro. Han tenido que hacer retroceder el futuro, pero tenían que hacerlo antieconómico.
> Además, cuando miras estos autos y no hay nadie conduciendo, hay más humanos en el circuito de lo que cabría esperar. En cierto sentido, no hemos eliminado a la persona, la hemos trasladado a un lugar donde no se puede ver.
Populares
Ranking
Favoritas

