No estoy seguro de que esto tenga sentido. De acuerdo, Elon es mucho más inteligente que yo, pero aquí están mis 2 centavos: No creo que la fusión de sensores sea imposible, solo hace que el sistema sea mucho más complicado. Puedo ver un objeto, tocarlo, olerlo, y mi cerebro puede fusionar todo eso de forma natural. No creo que la fusión de sensores sea intrínsecamente menos segura, pero aumenta la complejidad del sistema y aumenta el número de puntos de falla. El principal problema de Tesla era que su radar en el automóvil era de muy baja resolución. Waymo aún no puede conducir en carreteras con clientes, en parte debido al alcance de los sensores LIDAR y al ajuste de eso para la conducción a alta velocidad. Y por el riesgo adicional de las altas velocidades. Pero en realidad ahora están corriendo en las carreteras sin nadie en el asiento del conductor y dejando que los empleados jueguen con eso. Así que no creo que sea justo decir que no pueden conducir en las autopistas, simplemente no se sienten cómodos dejando que los clientes lo usen todavía. Mi argumento favorito de por qué el aprendizaje profundo supera a un enfoque multisensor es que el conjunto de datos a gran escala que puede crear con una sola modalidad de sensor de bajo costo es extremadamente poderoso para aumentar la precisión predictiva del modelo. Es posible que tenga todos estos sensores sofisticados, pero si eso significa que su conjunto de datos es una fracción del tamaño, la diversidad, etc., entonces un modelo de solo visión podría superar en precisión predictiva y, por lo tanto, seguridad. Estoy de acuerdo con él en que solo la visión es mejor, pero no creo que el quid de eso sea la fusión de sensores
232.24K