Vor nicht allzu langer Zeit gab Tesla bekannt, dass die Autopilotsysteme der neuen Modelle Model 3 und Model Y in Nordamerika vollständig auf Radartechnologie verzichten und stattdessen Kameras verwenden werden, um einen rein visuellen Autopiloten zu erreichen. Wie erwartet löste die Nachricht unmittelbar nach ihrem Erscheinen einen Aufruhr aus. Der Grund ist einfach. Heute betrachtet der gesamte Markt für intelligente Autos Lidar als unverzichtbare Kernkomponente für die Realisierung echter autonomer Fahrtechnologie. Allerdings widerspricht Tesla als Vorreiter im Bereich des autonomen Fahrens tatsächlich der Wahrnehmung der Branche, was zwangsläufig zu einiger Verwirrung führen wird. Doch Tesla, das bereits seit vielen Jahren im Bereich des autonomen Fahrens arbeitet, hat diese Entscheidung sicher nicht aus einer Laune heraus getroffen. Was also genau hat Tesla dazu bewogen, die Radartechnologie vollständig aufzugeben und nur noch Kameras als Kernkomponenten der autonomen Fahrfunktion zu verwenden? Wohin wird sich die Technologie für autonomes Fahren entwickeln? Kameras vs. LiDAR: Unterschiedliche Wege, jeder mit seinen eigenen Stärken Bevor wir über den Wettbewerb zwischen rein visuellen Erkennungslösungen von Kameras und Lidar-Lösungen sprechen, sollten wir zunächst verstehen, welche Hardwarelösungen derzeit in Autos mit autonomen Fahrfunktionen verwendet werden. Derzeit basieren alle Mainstream-Modelle von Ideal und NIO, die mit autonomer Fahrtechnologie ausgestattet sind, auf der Fusionslösung „Kamera + Radar“, wobei Kameras die Hauptmethode und die Radarentfernungsmessung die Hilfsmethode ist. Nach mehreren Jahren der Aktualisierungen und Iterationen ist diese Lösung derzeit die ausgereifteste, zuverlässigste und relativ kostengünstigste Mainstream-Lösung. Die seit kurzem beliebte LiDAR-Lösung wird auf Basis dieser Fusionslösung weiterentwickelt. Es verwendet LiDAR, das räumliche Entfernungsfunktionen höherer Ordnung als Kern der Lösung erreichen kann, ergänzt durch Kameras zur Objekterkennung, und erreicht durch räumliche Wahrnehmung autonomes Fahren auf hohem Niveau. Der im April dieses Jahres auf den Markt gebrachte Xiaopeng P5 ist das weltweit erste Modell, das mit einer Laserradarlösung ausgestattet ist. Tesla hat kürzlich angekündigt, dass das Unternehmen zur Realisierung des autonomen Fahrens vollständig auf die Radartechnologie verzichten und nur noch Kameras zur visuellen Erkennung und Entfernungsmessung einsetzen werde. Aktuell hat nur Tesla diesen Weg zur Entwicklung autonomer Fahrfunktionen gewählt. Es ist offensichtlich, dass es sich bei der Debatte über reine Kameralösungen und Lidarlösungen eigentlich um eine Debatte zwischen visuellen Wahrnehmungswegen und räumlichen Wahrnehmungswegen handelt. Warum also hat sich Tesla für den Weg der reinen visuellen Wahrnehmung entschieden, der sich von dem anderer Hersteller intelligenter Autos wie Xiaopeng und NIO unterscheidet? Die Geschäftsphilosophie von Tesla bestand schon immer darin, den Markt in großem Maßstab zu besetzen, indem man die Produktionskosten seiner überlegenen Produkte senkte, dann durch hohe Marktanteile preisgünstige Komponenten beschaffte und dann den Vorgang der Kostensenkung wiederholte. Der Grund für den vollständigen Verzicht auf Radartechnologie ist einfach: Die Kosten für visuelle Wahrnehmungslösungen, die ausschließlich Kameras zur Identifizierung verwenden, sind sehr gering. Die derzeit von Tesla verwendete Monokularkamera kostet nur 150 bis 600 Yuan, und die maximalen Kosten für die Ausstattung eines einzelnen Fahrzeugs mit 8 Kameras betragen nur 4.800 Yuan. Daher kann Tesla durch reine visuelle Erkennungslösungen die Herstellungskosten erheblich senken und dadurch den Verkaufspreis des gesamten Fahrzeugs senken, den Markt schnell zu einem niedrigen Preis erobern und einen Wettbewerbsvorteil schaffen. Dies ist natürlich auch untrennbar mit der extremen Bewunderung des Tesla-CEO Musk für die „ersten Prinzipien“ verbunden. Er ist davon überzeugt, dass derselbe Effekt wie beim Fahren durch Menschen erzielt werden kann, ohne dass zusätzlich teure Radartechnologie eingesetzt werden muss, da Menschen mit ihren Augen beobachten und entsprechend den Fahrbedingungen fahren können. Voraussetzung ist, dass die Kamera durch Beobachtung der Umgebung Informationen über die Straßenverhältnisse sammelt. Obwohl die Lidar-Lösung offensichtliche Vorteile bei der räumlichen Entfernungsmessung bietet und durch die sehr kurze Laserreflexionszeit eine äußerst genaue Entfernungsmessung im Zentimeterbereich erreichen kann und das autonome Fahrsystem die Straßenbedingungen genauer beurteilen kann, ist es aufgrund der hohen Kosten schwierig, sie bei jedem Verbraucher populär zu machen. Obwohl sich die beiden technischen Wege in ihren Implementierungsmethoden stark unterscheiden, ist klar zu erkennen, dass sie sich nicht gegenseitig ersetzen und beide die Entwicklungsrichtungen der autonomen Fahrtechnologie darstellen. Die Lidar-Technologie der drei heimischen Smart-Car-Giganten NIO, Xpeng und Ideal ist präziser und bietet temporäre Reaktionsmöglichkeiten für einzelne unerwartete Situationen als die von Tesla verwendete reine Sichttechnologie mit Kameras, ist aber auch mit hohen Kosten verbunden. Auf der offiziellen Website von Xiaopeng Motors heißt es eindeutig, dass das beste 64-Zeilen-LiDAR in China bis zu 80.000 US-Dollar kostet. Solch hohe Kosten dürften für herkömmliche Autos unerschwinglich sein. Darüber hinaus erfordert autonomes Fahren der Stufe L2+ einen LiDAR mit einem Kabelbaum von über 100. Können Automobilhersteller also Kosten senken, indem sie die Forschungs- und Entwicklungsziele für die Kamerafunktionen von Lidar-Lösungen senken oder wie Tesla einfach eine rein auf Sicht basierende autonome Fahrlösung einführen? Eine einzige Route ist unzuverlässig, die Fahrzeug-Straßen-Kooperation ist der richtige Weg Obwohl sowohl die LiDAR-Lösung als auch die reine Kamerasichtlösung sehr gute Wege zur autonomen Fahrtechnologie darstellen, ist es nicht möglich, die schnelle Popularisierung der LiDAR-Technologie dadurch zu erreichen, dass man den Forschungs- und Entwicklungsstand hinsichtlich der Kamerafähigkeit der LiDAR-Lösung reduziert oder einen Weg der reinen visuellen Wahrnehmung wählt. Erstens gibt es immer noch große Probleme mit der Fähigkeit der Lidar-Punktwolkenbildgebung, mit extremen Straßenbedingungen zurechtzukommen. Bei stark reflektierenden Objekten oder starkem Licht wird die Leistung von LiDAR erheblich reduziert, was zu Fehleinschätzungen des autonomen Fahrsystems und damit zu Verkehrsunfällen führen kann. Daher ist die Erzielung einer kostengünstigen LiDAR-Lösung durch Reduzierung des Kameraerkennungsgrads keine sichere und zuverlässige Lösung für autonomes Fahren. Rein visuelle Lösungen, die nur auf Kameras basieren, sind sogar noch gefährlicher. Die Pure-Vision-Lösung basiert auf dem System, das die von der Kamera erfassten Bilder identifiziert, analysiert und lernt und dann beim zweiten Passieren derselben Straßenbedingungen einen zuverlässigen autonomen Fahreffekt erzielt. Es ist jedoch zu beachten, dass die vom System erfassten Fahrbedingungen nicht alle Notfälle jedes Benutzers im tatsächlichen Fahrbetrieb vollständig abdecken können. Daher ist die Leistung der rein visuellen Wahrnehmungsroute bei gelegentlichen Straßenbedingungen schlecht. Außerdem erfordert das rein visuelle automatische Fahren von Tesla, dass das Fernlicht ständig eingeschaltet ist, was offensichtlich nicht mit der sozialen Gewohnheit vereinbar ist, nachts anderen Fahrzeugen zu begegnen. Nachdem Tesla angekündigt hatte, das Radarsystem aus den Modellen 3 und Y bald zu entfernen, äußerten auch viele Bewertungsagenturen, darunter Consumer Reports, ihr Misstrauen gegenüber Teslas aktueller direkter Einführung einer reinen Sichtlösung, indem sie die Sicherheitsbewertungen der Tesla-Modelle herabstuften. Dies allein zeigt, dass eine rein visuelle autonome Fahrlösung keine zuverlässige Option ist. Es ist offensichtlich, dass die Technologie für autonomes Fahren auch in Zukunft noch lange auf Kamera- und Radarfusionslösungen basieren wird. Rein visuelle Wahrnehmungswege und räumliche Wahrnehmungslösungen können technisch und kostenmäßig kein gutes Gleichgewicht erreichen. In der Zwischenzeit gibt es für intelligente Autos jedoch immer noch eine Abkürzung, um ihr autonomes Fahrniveau schnell zu verbessern. Im Jahr 2019 hat mein Land eine Verkehrsbaupolitik zur „Zusammenarbeit zwischen Fahrzeug und Straße“ vorgeschlagen. Im Gegensatz zur Intelligenz einzelner Fahrzeuge basiert die Fahrzeug-Straßen-Zusammenarbeit darauf und ermöglicht eine bessere Erfassung von Informationen zum Straßenzustand. Informationen werden nicht nur über die Kameras und Radargeräte eines einzelnen Fahrzeugs gewonnen. Auch Fußgänger am Straßenrand, Gebäudeeinrichtungen, Ampeln und andere Geräte können mit dem autonomen Fahrsystem des Autos verbunden werden, um dem Auto in Echtzeit Informationen über die Straßenverhältnisse zu übermitteln und ihm so die Möglichkeit zu geben, Informationen aus dem gesamten Raum zu sammeln. Durch räumliche Informationen über die Straße, die es befahren wird, kann das autonome Fahrsystem nicht nur die Straßenbedingungen im Voraus vorhersagen, sondern auch Informationen über die Fahrzeug-zu-Fahrzeug-Konnektivität austauschen und so eine groß angelegte Verkehrsplanung auf der Grundlage von Fahrzeugen als Einheiten und Straßenbereichen als Karten ermöglichen. Dadurch werden nicht nur die städtischen Verkehrsbedingungen deutlich verbessert, sondern auch die Sicherheit beim autonomen Fahren deutlich gesteigert. Zuvor hatte Baidu in Changsha sein erstes Fahrzeug-Straße-Kooperationsprojekt gestartet – den Taxidienst RobotTaxi – und anschließend mit fünf Städten, darunter Changsha, eine Zusammenarbeit bei intelligenten Transportprojekten vereinbart. In der Praxis gestaltet sich die Erfassung und Übertragung von Informationen zum Straßenzustand jedoch immer noch sehr schwierig. Daher räumte Baidu-CEO Robin Li auch ein, dass es mindestens 15 Jahre dauern werde, bis die Fahrzeug-Straßen-Zusammenarbeit in meinem Land vollständig populär sei. Generell ist die derzeitige autonome Fahrtechnologie, sei es visuelle oder räumliche Wahrnehmung, nicht die beste Wahl, da sie nicht das beste Gleichgewicht zwischen autonomer Fahrtechnologie und Kosten erreichen kann. Die Kombination aus beidem ist möglicherweise die beste Option. Als Gewinner des Qingyun-Plans von Toutiao und des Bai+-Plans von Baijiahao, des Baidu-Digitalautors des Jahres 2019, des beliebtesten Autors von Baijiahao im Technologiebereich, des Sogou-Autors für Technologie und Kultur 2019 und des einflussreichsten Schöpfers des Baijiahao-Vierteljahrs 2021 hat er viele Auszeichnungen gewonnen, darunter den Sohu Best Industry Media Person 2013, den dritten Platz beim China New Media Entrepreneurship Competition Beijing 2015, den Guangmang Experience Award 2015, den dritten Platz im Finale des China New Media Entrepreneurship Competition 2015 und den Baidu Dynamic Annual Powerful Celebrity 2018. |
Die seit einem Tag kursierende Nachricht wurde nun...
Im Alltag sind die meisten Menschen mit Hanteln v...
Es gab eine Zeit, in der die Klatschtherapie sehr...
Autor: Shurui Chen von der Universität Nagoya Die...
Vom 19. bis 22. November wird eine neue Kaltluftw...
Viele Menschen besteigen gern Berge, gerne in Gru...
Instant-Messaging-Apps und soziale Netzwerke – we...
Die hundertjährige Martha wurde durch Kleinstunte...
Nach der Rückkehr von einer Reise bekam die 76-jä...
Apropos Mistkäfer: Jeder kennt sie wahrscheinlich...
Produziert von: Science Popularization China Auto...
KI ist in der Branche zu einem heißen Thema gewor...
Während wir die köstlichen Aromen moderner Lebens...
Wie wir alle wissen, hängt die Kampfkraft eines F...
Prüfungsexperte: Luo Huachun Chefredakteur von Ci...