Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Más datos no siempre son mejores.
Cuando un sistema automatizado tiene que tomar una decisión rápidamente, quieres que tenga el conjunto de datos relevantes más reducido posible necesario para tomar la decisión correcta.
Analizar más cosas solo te hace más lento.
Puedes ver esto en los humanos. El campo de la inteligencia artificial está copiando constantemente la tarea de la evolución, y por una buena razón. ¿Por qué desechar todos esos millones de años de resultados emergentes y tratar de empezar de nuevo desde cero?
Los humanos en realidad no tienen cinco sentidos (más bien alrededor de 22), pero una cosa que no vemos mucho en esos sentidos es la superposición.
Parece que el proceso evolutivo ha llegado a la noción, una y otra vez, de que es mejor afinar tus ojos para lo que necesitas ver, en lugar de desarrollar dos o tres tipos diferentes de ojos para mirar la misma cosa.
Claro, los enfoques multicanal no son imposibles, y quizás se podría hacer funcionar un sistema solo con lidar.
Pero lo que pasa con el uso de cámaras que son análogas a la visión humana, es que puedes aprovechar todo lo que sabemos sobre la visión humana.
Y si estás usando eso para conducir coches, entonces puedes aprovechar todo lo que sabemos o podemos descubrir sobre cómo los humanos conducen coches.
Si eres algún tipo de ingeniero, esto es obvio, y, a pesar de lo que Lexxie pueda pensar, o pretender pensar mientras las cámaras están grabando, Elon Musk es todo ingeniero, 100% ingeniero y muy poco más, y cualquier otro ingeniero puede notar esto solo por cómo habla.
El lidar es bueno para muchas cosas, probablemente incluyendo naves espaciales, pero cuando lo pones en un coche, es solo una admisión pública de que no tienes las habilidades, o simplemente no te has molestado, en desarrollar la capacidad de IA para apuntar una cámara a algo y realmente caracterizar lo que estás mirando.

25 ago, 13:59
No estoy seguro de que esto tenga sentido. Es cierto que Elon es mucho más inteligente que yo, pero aquí están mis dos centavos:
No creo que la fusión de sensores sea imposible, solo hace que el sistema sea mucho más complicado. Puedo ver un objeto, tocarlo, olerlo, y mi cerebro puede fusionar todo eso de manera natural. No creo que la fusión de sensores sea inherentemente menos segura, pero aumenta la complejidad del sistema y el número de puntos de fallo. El principal problema de Tesla era que su radar en el coche tenía una resolución tan baja.
Waymo aún no puede conducir en autopistas con clientes, en parte debido al alcance de los sensores LIDAR y la calibración para la conducción a alta velocidad. Y por el riesgo adicional de las altas velocidades. Pero ahora están realmente circulando por autopistas sin nadie en el asiento del conductor y dejando que los empleados jueguen con eso. Así que no creo que sea justo decir que no pueden conducir en autopistas, simplemente no se sienten cómodos dejándole a los clientes usarlo todavía.
Mi argumento favorito de por qué el aprendizaje profundo supera un enfoque de múltiples sensores es que el conjunto de datos a gran escala que puedes construir con una única modalidad de sensor de bajo costo es extremadamente poderoso para aumentar la precisión predictiva del modelo. Puedes tener todos estos sensores elegantes, pero si eso significa que tu conjunto de datos es una fracción del tamaño, diversidad, etc., entonces un modelo solo de visión podría superar en precisión predictiva y, por lo tanto, en seguridad.
Estoy de acuerdo con él en que solo la visión es mejor, pero no creo que la clave de eso sea la fusión de sensores.

20,82K
Parte superior
Clasificación
Favoritos