Kürzlich ließ Musk beim AI Day von Tesla seine Muskeln spielen. Das Auftauchen humanoider Roboter, des Supercomputers Dojo und die Demonstration der Funktionsprinzipien der rein visuellen Route zeigten sein Vertrauen in die Technologie. Während sich viele Hersteller für Lidar-Lösungen als Lösung für die visuelle Wahrnehmung entschieden haben, besteht Tesla weiterhin auf dem rein visuellen Weg, hat die Fahne höher gehisst und ist tiefer gegangen. Wir wissen, dass das zugrunde liegende Prinzip des autonomen Fahrens die Kombination von drei Schritten ist: Wahrnehmung, Entscheidungsfindung und Ausführung. Die Wahrnehmungsebene nutzt visuelle Sensoren, um Informationen über die Straßenbedingungen in der Umgebung zu erhalten, verarbeitet Daten über die Geräteseite der Karosserie und die Cloud und erhält Ausführungsbefehle, wodurch das Auto die Fähigkeit erlangt, autonom zu fahren. Von den drei grundlegenden Schritten ist die Wahrnehmung der erste Schritt und spielt eine Voraussetzung für die anschließende Entscheidungsfindung und Ausführung. Auf der Wahrnehmungsebene gibt es derzeit zwei technische Ansätze auf dem Markt: visuelle Wahrnehmung und Lidar-Wahrnehmung. Die Laserradar-Fraktion ist der Ansicht, dass die visuelle Wahrnehmungsgenauigkeit von Kameras nicht ausreicht. Wenn sich das autonome Fahren bis zur Stufe L3 oder höher weiterentwickeln soll, sollte Laserradar zum Einsatz kommen. Die Schule der visuellen Wahrnehmung geht davon aus, dass die von der Kamera wahrgenommenen Umgebungsinformationen reich an Daten sind und Objekte später klassifiziert und leicht beschriftet werden können. Am wichtigsten sind die niedrigen Kosten, was Lidar nicht leisten kann. Unabhängig davon, ob die beiden Lösungen aus technischer oder Kostenperspektive betrachtet werden, liegt der Hauptunterschied darin, ob die Unterstützung durch Lidar erforderlich ist, um ein hochgradig autonomes Fahren zu erreichen. Die beiden Fraktionen stritten endlos darüber, welche besser sei. Welche der beiden technischen Routen wird also zuletzt lachen? Vergleich der Leistung von LiDAR und visueller Wahrnehmung Die LiDAR-Sensortechnologie wird von LiDAR dominiert, ergänzt durch Millimeterwellenradar, Ultraschallsensoren und Kameras. Das Funktionsprinzip von LiDAR bei der Umgebungserfassung besteht darin, einen Laserstrahl durch das LiDAR auszusenden und die Zeitdifferenz und Phasendifferenz zwischen dem Aussende- und Wiederherstellungsprozess zu messen, um die relative Entfernung zwischen dem Fahrzeug und dem Objekt zu bestimmen und so eine Echtzeit-Umgebungswahrnehmung und Hindernisvermeidungsfunktionen zu realisieren. LiDAR verfügt über eine große Erfassungsreichweite, eine hohe Genauigkeit und eine starke Entstörungsfähigkeit. Es kann aktiv mehrere Objekte in der Umgebung erkennen, die Punktwolke der Umgebung abrufen und ein 3D-Umgebungsmodell erstellen. Auch bei schwachem Licht in der Nacht wird der Erkennungseffekt nicht beeinträchtigt. Obwohl LiDAR keine Angst vor dunklem Licht hat, ist es wetterempfindlich. Regen, Schnee, Staub, Nebel und andere Wetterbedingungen können die Erkennungswirkung von LiDAR beeinträchtigen. Die hochpräzise Kartenlösung mit LiDAR-Fusion kann die Mängel der visuellen Lösung hinsichtlich starker Umgebungsabhängigkeit und hohem Rechenleistungsbedarf wirksam ausgleichen. Aufgrund seiner Leistungsvorteile bezeichnen die meisten Automobilhersteller LiDAR als unverzichtbares Wahrnehmungsgerät für autonomes Fahren der Stufe 3 und höher. Die visuelle Wahrnehmung ist eine kameradominierte Lösung und die Kosten für Kameras sind im Vergleich zu Lidar deutlich geringer. Der Preis einer Kamera liegt bei einigen zehn Dollar, während der Preis eines Lidars mehrere Hundert Dollar beträgt, also ein Vielfaches davon. Darüber hinaus hat sich die Kameratechnologie allmählich weiterentwickelt und hochauflösende Bildgebungstechnologien mit hoher Bildfrequenz ermöglichen eine umfassendere Wahrnehmung von Umgebungsinformationen. Allerdings ist die Wahrnehmung der Kamera in dunklen Umgebungen eingeschränkt und ihre Genauigkeit und Sicherheit haben nachgelassen. Beispielsweise tritt Teslas am häufigsten kritisiertes Geisterbremsproblem im Schatten einiger Tunnel und Brücken auf. Aufgrund der Struktur der Kamera behandelt der Algorithmus die plötzlich auftretenden Schatten als Hindernisse, was dazu führt, dass das Fahrzeug automatisch plötzlich langsamer wird und somit ein Sicherheitsrisiko darstellt. Beim Vergleich der Hardwareleistung in der visuellen Lösung wird die Kamerafunktion sofort übertroffen. Dank der Ergänzung von Softwarealgorithmen können visuelle Lösungen auf leistungsstarke Algorithmen zurückgreifen, um die normalen Funktionen der Bildverarbeitung und Entscheidungsausführung sicherzustellen. Im Vergleich zu Lidar weist die visuelle Wahrnehmung offensichtlichere Schwächen auf: Kameras sind von den Lichtverhältnissen abhängig, haben eine geringe Wahrnehmungsgenauigkeit, sind in hohem Maße von Algorithmen und Rechenleistung abhängig und erfordern diese, und es bestehen hohe Hürden bei der Datenerfassung und Algorithmusiteration. In puncto Leistung ist Lidar klar überlegen. Tesla hat enorme Kosten für Rechenleistung und Algorithmen aufgewendet und viel investiert. Allerdings wurde stets auf den Weg der visuellen Wahrnehmung bestanden. Was sind die Überlegungen? Tesla konzentriert sich auf eine rein visuelle Routenlogik Aus Musks Sicht ist „die reine visuelle Wahrnehmung der Weg zur KI in der realen Welt“, und dies ist auch sein Ansatz zur Lösung von Problemen. Die Grundidee des ersten Prinzips besteht darin, zu den grundlegendsten Bedingungen der Dinge zurückzukehren, diese für eine Strukturanalyse in verschiedene Elemente zu zerlegen und so den optimalen Weg zum Ziel zu finden. Beim Autofahren erfassen wir mit unseren Augen Informationen über den Straßenzustand und verarbeiten diese mit Hilfe unseres Gehirns. Theoretisch sollte autonomes Fahren auch durch visuelle Wahrnehmung, ergänzt durch algorithmische Verarbeitung, sicher fahren können. Tesla möchte die visuelle Fähigkeit des Menschen zur Informationsbeschaffung nachahmen, um autonomes Fahren zu ermöglichen. Da die Wahrnehmungsmethode visueller Kameras eine geringe Genauigkeit aufweist, verlässt sich Tesla auf seine einzigartigen Datenvorteile und seine Fähigkeit, Rechenleistung und Algorithmen zu entwickeln, um diesen Mangel zu beheben. Was die Daten angeht, so sind andere Hersteller autonom fahrender Fahrzeuge noch dabei, Daten während der Testphase auf der Straße zu sammeln. Tesla hingegen hat dank der Millionen weltweit verkaufter Autos mit Kameras bereits eine riesige Menge an Daten über die tatsächlichen Straßenbedingungen angesammelt. Die zum Trainieren der Deep-Learning-Modelle verwendeten Daten stellen für Teslas Algorithmen schon seit langem eine Hürde dar. Die Geschwindigkeit, mit der sich diese Datenproben ansammeln, und die Effizienz der Algorithmen können von anderen Herstellern nicht reproduziert werden, die nur hilflos zusehen können. In Bezug auf die Rechenleistung verfügt Teslas neu gebauter Supercomputer Dojo über eine enorme Rechenleistung. Dieser Supercomputer ist für das autonome Fahrsystem von Tesla eingerichtet und konzentriert sich auf das Training des gesamten autonomen Fahrsystems einschließlich des Autopiloten. Auch auf der technischen Ebene der Kameras hat Tesla technologische Neuerungen vorgenommen und nutzt stattdessen die „Pseudo-Lidar“-Technologie, um eine Tiefenschätzung der Pixel in der Kamera durchzuführen. Die Lidar-ähnliche Punktwolkenfunktion ermöglicht im Allgemeinen eine 3D-Zielerkennung, die die Genauigkeit der Tiefenschätzung verbessert. Die Lücke zwischen Lidar und Kameras beginnt sich zu verringern. Beim Autofahren verlassen sich die Menschen auf ihre Sehkraft. Unsere neuronalen Netzwerke können Signale wie Entfernung und Geschwindigkeit in visuellen Informationen verarbeiten, und Teslas neuronale Netzwerke scheinen dazu nach und nach auch in der Lage zu sein. Teslas Weg zur visuellen Wahrnehmung verringert allmählich die Lücke zur Lidar-Lösung, aber der dafür gezahlte Preis macht es Nachzüglern unmöglich, ihm zu folgen und ihn zu kopieren, was auch für Tesla eine starke Barriere darstellt. Die reine Bildverarbeitungslösung wird durch Training und Lernen mit umfangreichen Beispieldaten sowie durch die Rechenleistung fortschrittlicher Bildverarbeitungsalgorithmen unterstützt und dürfte eine schwierige Route sein, für die sich nur wenige Kletterer entscheiden werden. Teslas leitender KI-Wissenschaftler Karpathy sagte auf dem diesjährigen CVPR 2021-Seminar zum autonomen Fahren, dass rein auf Sicht basierende autonome Fahrlösungen technisch schwieriger umzusetzen seien, da sie neuronale Netzwerke erforderten, die ausschließlich auf Videoeingaben basieren und daher sehr gut funktionieren müssten. Der Vorteil besteht jedoch darin, dass „es sich um ein universelles Bildverarbeitungssystem handelt, das überall auf der Welt eingesetzt werden kann, sobald es tatsächlich funktioniert.“ Visuelle Wahrnehmungssysteme werden künftig nicht nur in Autos, sondern auch in allen anderen Produkten eingesetzt, die visuelle Systemfunktionen erfordern, wie etwa Roboter, Drohnen, AR/VR usw., und werden zu einer universellen Fähigkeit, die auch Teslas zukünftige Überlegung und Ambition ist. Obwohl Teslas Vision für die Zukunft vielversprechend ist, besteht in der Realität immer noch eine Lücke zwischen den aktuellen Lösungen zur visuellen Wahrnehmung und den Lidar-Lösungen. In den Nachrichten sehen wir immer noch von Sicherheitsunfällen mit Tesla-Autos, die aufgrund von Erkennungs- und Wahrnehmungsproblemen zu Autounfällen führen. Derzeit ist die LiDAR-Fraktion in puncto Sicherheit noch führend. Wird LiDAR zuletzt lachen? Welche der beiden Schulen zuletzt lachen wird, hängt auch davon ab, welche von ihnen über eine schnellere Massenproduktion oder Iteration der visuellen Technologie verfügt. Anhand der Daten können wir feststellen, dass immer mehr neue Radarunternehmen registriert werden. Daten zeigen, dass es in meinem Land derzeit 14.000 Radarunternehmen gibt, wobei im Jahr 2020 2.640 Unternehmen neu registriert wurden, was einem Anstieg von 29,3 % gegenüber dem Vorjahr entspricht. Die kostengünstigen Lidar-Produkte der börsennotierten Unternehmen Hesai Technology und des Riesen Huawei sind bereit für die Massenproduktion. Der Wachstumstrend auf der Angebotsseite wird durch die enorme Nachfrage auf der Nachfrageseite getrieben. Die meisten Unternehmen, die sich mit autonomem Fahren der Stufen L3 und L4 beschäftigen, darunter Start-ups und große Unternehmen, haben Lidar eingeführt, und die meisten von ihnen kaufen Lidar, anstatt es selbst zu entwickeln. Die LiDAR-Lösung kann trotz ihrer vorübergehend hohen Kosten aufgrund der Sicherheitsvorteile, die die hochpräzise Hardwareleistung mit sich bringt, vom Markt akzeptiert werden. Die meisten Akteure akzeptieren die LiDAR-Lösung, was zu einer großen Nachfrage führt. Auch die Produktionskapazität wird entsprechend erweitert und die Massenproduktion im großen Maßstab ist auf dem Weg. Durch den Skalenvorteil werden die Kosten künftig noch weiter gesenkt, sodass ein positiver Kreislauf entsteht. Nach mehr als zehn Jahren Entwicklung hat sich Lidar als unverzichtbarer Sensor für die Verwirklichung autonomen Fahrens auf hohem Niveau erwiesen. Unter diesen Umständen ist Tesla auch bestrebt, es weiterzuentwickeln und gleichzeitig seine Muskeln spielen zu lassen und Leute anzuwerben. Zuvor hatte die Nachricht, dass Tesla einen Vertrag mit dem Lidar-Technologieunternehmen Luminar zur Nutzung von Lidar für Tests und Entwicklung unterzeichnet hatte, bei allen Spekulationen ausgelöst. Obwohl Tesla später klarstellte, dass es beim rein visuellen Ansatz bleiben würde, sind seine Absichten hinsichtlich der Verwendung von Lidar schwer vorherzusagen. Bei der reinen Sichtkameravariante sind die Kameras zwar günstig, ihre Sicherheit ist jedoch fraglich. Es ist mit Algorithmen und Rechenleistung verknüpft. Tesla verlässt sich auf seine eigenen riesigen Datenmengen und Supercomputer, ein Vorteil, den niemand nachahmen kann. Dies bedeutet, dass der rein visuelle Weg entweder weit voraus sein oder ebenbürtig sein wird, andere Unternehmen auf dem Markt jedoch unabhängig vom Ergebnis nicht in der Lage sein werden, dem Weg der visuellen Wahrnehmung zu folgen. Ohne die nötigen Fähigkeiten wird es ein nervenaufreibendes Spiel. Auf lange Sicht werden die beiden visuellen Wahrnehmungswege aus Kosten- und Sicherheitsgründen weiterhin umstritten sein. Derzeit ist noch unklar, wie schnell sich die groß angelegte Entwicklung von Lidar und die Entwicklung von Teslas reiner Bildverarbeitungstechnologie entwickeln werden. Daher ist schwer zu sagen, ob Lidar das letzte Wort haben wird. Doch im Vergleich zur noch unbekannten Entwicklung der visuellen Wahrnehmungstechnologie ist die Lidar-Lösung bereits auf dem Weg zur Massenproduktion im großen Maßstab, und ihre vielversprechende Entwicklungstendenz gibt dieser Fraktion die Zuversicht, der Zukunft mit einem Lächeln entgegenzusehen. |
>>: Technologie-Morgennachrichten | Der schnellste Asteroid im Sonnensystem ist aufgetaucht;
Auf der Suche nach einem perfekten Körper legen M...
Durch korrektes Praktizieren von Yoga können Sie ...
Kürzlich postete der bekannte Crosstalk-Künstler ...
Ich weiß nicht, was passiert, wenn ich während me...
Heutzutage wird die körperliche Fitness von Freun...
Sit-ups sind eine sehr einfache Übung und bei vie...
FBI-Direktor James Comey äußerte diese Woche sein...
Mit der Ankunft des Sommers entscheiden sich viel...
Experten in diesem Artikel: Sun Xueqiong, Masters...
Bizeps und Trizeps sind wichtige Körperteile und ...
Am 11. Dezember 2024 veröffentlichte das Magazin ...
„Auf dieser Insel können wir sieben Arten von Aff...
Für manche Feinschmecker ist das Kochen selbst sa...
Wenn Sie Muskeln aufbauen und gleichzeitig Gewich...
Jede Mutter hat nach der Geburt etwas Fett am Bau...