Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Mehr Daten sind nicht immer besser.
Wenn ein automatisiertes System schnell eine Entscheidung treffen muss, möchtest du, dass es über den schlankesten möglichen Satz relevanter Daten verfügt, die notwendig sind, um die richtige Wahl zu treffen.
Mehr Dinge zu analysieren macht dich einfach langsamer.
Das sieht man auch bei Menschen. Das Feld der künstlichen Intelligenz kopiert für immer die Hausaufgaben der Evolution, und das aus gutem Grund. Warum all diese Millionen Jahre an emergenten Ergebnissen wegwerfen und versuchen, von vorne zu beginnen?
Menschen haben tatsächlich nicht fünf Sinne (eher etwa 22), aber eines, was wir in diesen Sinnen nicht oft sehen, ist Überlappung.
Es scheint, als hätte der evolutionäre Prozess immer wieder die Vorstellung getroffen, dass es besser ist, deine Augen für das, was du sehen musst, fein abzustimmen, anstatt zwei oder drei verschiedene Arten von Augen zu entwickeln, um dasselbe zu betrachten.
Sicher, Multi-Channel-Ansätze sind nicht unmöglich, und vielleicht könnte ein Lidar-Only-System zum Funktionieren gebracht werden.
Aber das Ding an der Verwendung von Kameras, die dem menschlichen Sehen ähnlich sind, ist, dass du von allem profitieren kannst, was wir über das menschliche Sehen wissen.
Und wenn du das benutzt, um Autos zu steuern, dann profitierst du von allem, was wir wissen oder entdecken können, wie Menschen Autos fahren.
Wenn du irgendeine Art von Ingenieur bist, ist das ein Kinderspiel, und trotz dessen, was Lexxie denken mag oder vorgeben mag zu denken, während die Kameras laufen, ist Elon Musk ein Ingenieur durch und durch, 100% Ingenieur und sehr wenig anderes, und jeder andere Ingenieur kann das allein daran erkennen, wie er spricht.
Lidar ist für viele Dinge gut, wahrscheinlich auch für Raumfahrzeuge, aber wenn du es in ein Auto einbaust, ist das einfach ein öffentliches Eingeständnis, dass du nicht die Fähigkeiten hast oder einfach nicht die Mühe gemacht hast, die KI-Fähigkeit zu entwickeln, um eine Kamera auf etwas zu richten und wirklich zu charakterisieren, was du ansiehst.

25. Aug., 13:59
Ich bin mir nicht sicher, ob das Sinn macht. Zugegeben, Elon ist viel schlauer als ich, aber hier sind meine 2 Cent:
Ich denke nicht, dass Sensorfusion unmöglich ist, sie macht das System nur viel komplizierter. Ich kann ein Objekt sehen, es berühren, es riechen, und mein Gehirn kann das alles ganz natürlich zusammenfügen. Ich denke nicht, dass Sensorfusion von Natur aus weniger sicher ist, aber sie erhöht die Komplexität des Systems und die Anzahl der Fehlerquellen. Teslas Hauptproblem war, dass ihr Radar im Auto eine so niedrige Auflösung hatte.
Waymo kann noch nicht mit Kunden auf Autobahnen fahren, teilweise wegen der Reichweite der LIDAR-Sensoren und der Abstimmung für das Fahren mit hoher Geschwindigkeit. Und wegen des zusätzlichen Risikos bei hohen Geschwindigkeiten. Aber sie fahren tatsächlich jetzt auf Autobahnen, ohne dass jemand am Steuer sitzt, und lassen Mitarbeiter damit experimentieren. Daher denke ich, dass es unfair ist zu sagen, sie können nicht auf Autobahnen fahren, sie fühlen sich nur noch nicht wohl dabei, Kunden das zu erlauben.
Mein Lieblingsargument, warum Deep Learning einen Multi-Sensor-Ansatz übertrifft, ist, dass der groß angelegte Datensatz, den man mit einer einzigen kostengünstigen Sensormodality aufbauen kann, extrem leistungsstark ist, um die Vorhersagegenauigkeit des Modells zu erhöhen. Vielleicht habt ihr all diese schicken Sensoren, aber wenn das bedeutet, dass euer Datensatz nur einen Bruchteil der Größe, Vielfalt usw. hat, könnte ein rein visuelles Modell tatsächlich in der Vorhersagegenauigkeit und damit in der Sicherheit überlegen sein.
Ich stimme ihm zu, dass nur Vision besser ist, aber ich denke nicht, dass der Kern davon die Sensorfusion ist.

19,98K
Top
Ranking
Favoriten