Heutzutage wird die Technologie des unbemannten Fahrens üblicherweise in drei Teile unterteilt: Umgebungswahrnehmung und Positionierung, Entscheidungsplanung und Bewegungssteuerung. Mithilfe der Umgebungswahrnehmung und der Positionierung können Sie feststellen, wo sich Autos oder Fußgänger um das Auto herum befinden und ob die Ampel vor Ihnen rot oder grün ist. Sie bestimmen also den Status der Umgebung und des Autos. Die Entscheidungsplanung ist dafür verantwortlich, was das Auto tun soll, ob es folgen oder ausweichen soll, ob es beschleunigen oder verlangsamen soll und welche Route es nehmen soll, die sicher, effizient und relativ komfortabel ist. Die Bewegungssteuerung erfordert eine elektronische Umwandlung der Aktuatoren herkömmlicher Fahrzeuge. Nachdem die Entscheidungsanweisungen und die Flugbahn an den Controller ausgegeben wurden, müssen Aktuatoren wie Motoren, Lenkung und Bremsen die geplante Flugbahn so schnell und mit möglichst geringer Abweichung einhalten, genau wie ein starker Körper die Anweisungen des Gehirns ausführen kann. Die Umweltwahrnehmung ist das „Auge“ des autonomen Fahrens In selbstfahrenden Autos bilden Sensoren ein Wahrnehmungsmodul, das die Sinnesorgane des Fahrers ersetzt. Sie erfassen schnell und präzise Informationen zum Umgebungszustand, darunter den Abstand zu Hindernissen, die Anzeige vorausliegender Ampeln, die Zahlen auf Geschwindigkeitsbegrenzungsschildern sowie die Position, Geschwindigkeit und andere Fahrzeugbedingungen des Fahrzeugs und gewährleisten so eine sichere Fahrt des Fahrzeugs. Zu den häufig verwendeten Sensoren zur Erkennung von Umgebungsbedingungen gehören Kameras, Lidar, Millimeterwellenradar, Ultraschallsensoren usw. Zu den Sensoren zur Bestimmung des Fahrzeugstatus gehören GPS/Trägheitsnavigation, Raddrehzahlsensoren usw. Selbstfahrende Autos benötigen die Zusammenarbeit mehrerer Sensoren Die Kamera kann Hindernisse anhand der Objekteigenschaften klassifizieren. Wenn Tiefeninformationen über das Hindernis gewonnen werden müssen, sind zwei Kameras erforderlich. Dies wird allgemein als binokulares Stereosehen bezeichnet. Die beiden Kameras der binokularen Kamera halten einen bestimmten Abstand ein, genau wie die binokulare Parallaxe des Menschen, und der Versatz zwischen den Pixeln wird durch das Prinzip der Triangulation berechnet, um die dreidimensionalen Informationen des Objekts zu erhalten. Die Hauptfunktion der Binokularkamera besteht nicht nur darin, dem Auto bei der Bestimmung seiner eigenen Position und Geschwindigkeit zu helfen, sondern auch darin, Ampeln und Signalschilder auf der Straße zu erkennen, um sicherzustellen, dass das autonome Fahren den Straßenverkehrsregeln entspricht. Allerdings sind Binokularkameras stark von wechselnden Wetter- und Lichtverhältnissen abhängig und auch der Rechenaufwand ist recht groß, was sehr hohe Leistungsanforderungen an die Recheneinheit stellt. Die in unbemannten Fahrzeugen üblicherweise verwendeten Radargeräte sind Lidar und Millimeterwellenradar. Lidar erfasst hauptsächlich durch die Aussendung von Laserstrahlen die Position, Geschwindigkeit und andere charakteristische Größen des Ziels. LiDAR verfügt über einen größeren Erfassungsbereich und eine höhere Erfassungsgenauigkeit für Entfernung und Position und wird daher häufig zur Hinderniserkennung, Erfassung dreidimensionaler Umgebungsinformationen, Einhaltung des Fahrzeugabstands und Vermeidung von Fahrzeughindernissen eingesetzt. Allerdings ist Lidar anfällig für Witterungseinflüsse und weist bei Regen, Schnee und Nebel eine schlechte Leistung auf. Darüber hinaus gilt: Je mehr Strahlen ein Lasersender hat, desto mehr Punktwolken können pro Sekunde erfasst werden und desto besser ist die Erkennungsleistung. Allerdings gilt: Je mehr Kabelbäume vorhanden sind, desto teurer wird das LiDAR. Ein LiDAR mit 64 Kabelbäumen kostet zehnmal so viel wie ein LiDAR mit 16 Kabelbäumen. Derzeit sind die selbstfahrenden Autos von Baidu und Google mit 64-Zeilen-Laserradaren ausgestattet. Schematische Darstellung der LiDAR-Punktwolke Millimeterwellenradar verfügt über einen schmalen Strahl, eine hohe Auflösung, eine starke Entstörungsfähigkeit und eine starke Fähigkeit des Suchers, Nebel, Rauch und Staub zu durchdringen. Es verfügt über eine bessere Anpassungsfähigkeit an die Umgebung als Lidar und Wetterbedingungen wie Regen, Nebel oder Nacht haben nahezu keinen Einfluss auf die Millimeterwellenübertragung. Darüber hinaus zeichnet sich sein Führungskopf durch geringe Größe, geringes Gewicht und hohe räumliche Auflösung aus. Mit der Entwicklung der Technologie monolithischer integrierter Mikrowellenschaltkreise sind Preis und Größe von Millimeterwellenradaren erheblich gesunken. Allerdings wird die Erfassungsreichweite durch den Frequenzbandverlust direkt begrenzt und es ist außerdem nicht möglich, Fußgänger zu erkennen und alle Hindernisse in der Umgebung genau zu modellieren. Die Datenverarbeitung von Ultraschallsensoren ist einfach und schnell. Sie werden hauptsächlich zur Hinderniserkennung im Nahbereich eingesetzt. Die allgemeine Erkennungsdistanz beträgt etwa 1 bis 5 Meter, detaillierte Standortinformationen können jedoch nicht erkannt werden. Darüber hinaus kann die Ultraschall-Entfernungsmessung bei hoher Geschwindigkeit eines Autos nicht mit den Echtzeitänderungen des Abstands zwischen den Autos Schritt halten, was zu großen Fehlern führt. Andererseits haben Ultraschallwellen einen großen Streuwinkel und eine schlechte Richtwirkung. Beim Messen von Zielen in großer Entfernung sind deren Echosignale relativ schwach, was die Messgenauigkeit beeinträchtigt. Bei Messungen mit niedriger Geschwindigkeit und über kurze Distanzen bieten Ultraschall-Entfernungsmesser jedoch große Vorteile. Ultraschallsensoren Zur Bestimmung der Position des Fahrzeugs selbst werden vor allem GPS/Trägheitsnavigation und Raddrehzahlsensoren eingesetzt und deren Daten üblicherweise zur Verbesserung der Positionsgenauigkeit fusioniert. Die Multisensorfusion ist ein sehr verbreiteter Algorithmus in Modulen zur Umweltwahrnehmung. Es kann Fehler reduzieren. Beispielsweise treten an den Bildrändern häufig Unstetigkeiten in der Tiefe auf. Durch Extrahieren der Kanten des zweidimensionalen Bildes (das von der Kamera aufgenommen wurde) und Abgleichen dieser mit den Tiefeninformationen, die das Lidar durch Co-Point-Mapping liefert, kann der Fluchtpunkt der Straße im zweidimensionalen Perspektivbild mit den dreidimensionalen Radarinformationen abgeglichen werden. Dadurch lässt sich genauer abgrenzen, wo sich die Straßenoberfläche und wo sich die umliegenden Gebäude befinden. Darüber hinaus sind hochpräzise Karten auch eine starke Unterstützung für das autonome Fahren. Wenn sehr genaue Karteninformationen vorliegen, können die Fahrbahnlinien direkt anhand der Karte geplant werden, wodurch sich der Aufwand für die visuelle Identifizierung der Fahrbahnlinien verringern kann. Entscheidungsfindung und Planung sind das „Gehirn“ des autonomen Fahrens Werfen wir einen Blick darauf, wie der Grafikkartengigant NVIDA Verhaltensentscheidungen für autonomes Fahren trifft. Der derzeit gängige Rahmen für die Entscheidungsfindung ist in zwei Arten von Algorithmen unterteilt: Entscheidungsfindung auf der Grundlage von Expertenalgorithmen und Entscheidungsfindung auf der Grundlage von maschinellem Lernen, wobei letztere zunehmend geschätzt und untersucht wird. Beispielsweise verwendet NVIDIA ein Convolutional Neural Network (CNN), um die Richtungssteuerungsbefehle des Autos aus den ursprünglichen Pixelbildern auszugeben, die von der Frontkamera des Autos über ein trainiertes Convolutional Neural Network aufgenommen wurden. Seine selbstfahrenden Autos können auf unbefestigten Straßen wie Bergstraßen und Baustellen fahren. Diese Straßenbedingungen lassen sich nur schwer aufzählen. Daher ist es unrealistisch, sich bei der Einteilung sich ändernder Situationen auf herkömmliche Expertenalgorithmen zu verlassen, die bedingte Urteile verwenden. Das Lernframework von NVIDIA sieht wie folgt aus: Die Trainingsdaten umfassen aus dem Video entnommene Einzelbildvideos und die dazugehörigen Richtungssteuerbefehle. Der vorhergesagte Richtungssteuerbefehl wird mit dem idealen Steuerbefehl verglichen. Anschließend werden die Gewichte des CNN-Modells durch den Backpropagation-Algorithmus angepasst, um den vorhergesagten Wert so nah wie möglich an den Idealwert zu bringen. Das trainierte Modell kann mithilfe der Daten der direkt davor befindlichen Kamera Richtungssteuerbefehle generieren. Die kritischste Struktur eines Convolutional Neural Network (CNN) ist wie folgt: Die Ausgabe ist der Kehrwert des Wenderadius und die Eingabe ist ein Bild. Nach den fünf Faltungsschichten werden drei vollständig verbundene Schichten hinzugefügt, um die neuronale Entscheidungsfindung des Gehirns zu simulieren. Die Faltungsschicht (Convolutional Feature Map) wird verwendet, um Merkmale zu extrahieren und den Sehnerv zu simulieren, um verschiedene Objekte zu unterscheiden. Die erste Schicht des Netzwerks (normalisierte Eingabeebenen) normalisiert das Eingabebild. Durch die Normalisierung im Netzwerkmodell kann der Normalisierungsprozess entsprechend der Netzwerkstruktur angepasst werden und der Verarbeitungsprozess kann durch die GPU beschleunigt werden. Die technische Lösung von NVIDIA, die End-to-End-Entscheidungsmethode vom Bildeingang bis zur Steuerungsausgabe (Lenkradwinkel), ist ein Blackbox-System. Wenn ein Problem auftritt, ist es unmöglich, die Ursache der falschen Entscheidung wie ein Expertenalgorithmus herauszufinden. Eine praktikablere Lösung besteht daher darin, neuronale Netzwerke zur Wahrnehmung und Kognition der Umgebung zu verwenden, beispielsweise zum Erkennen von Ampeln, der Körperhaltung von Menschen und Autos, der befahrbaren Bereiche von Bergpfaden usw., und die verarbeiteten Umgebungsinformationen dann zur Beurteilung an die Entscheidungsträger zu senden. Bei der Art der Umgebungsinformationen kann es sich um eine Karte handeln, die Informationen zu verschiedenen Hindernissen integriert, oder um eine Fahrsituationskarte (d. h., sie gibt nur an, welcher Bereich relativ sicher oder gefährlich ist, ohne spezifische Informationen zu allen Hindernissen bereitzustellen). Es gibt viele Optionen, die Sie ausprobieren können. Welchen Weg soll ich wählen? Routenplanung ist wichtig! Die Pfadplanung ist die Grundlage intelligenter Fahrzeugnavigation und -steuerung. Es wird aus der Perspektive der Trajektorienentscheidung betrachtet und kann in lokale und globale Pfadplanung unterteilt werden. Die Aufgabe der globalen Pfadplanung besteht darin, anhand der Informationen der globalen Kartendatenbank einen kollisionsfreien, befahrbaren Weg vom Startpunkt zum Zielpunkt zu planen, allerdings handelt es sich dabei nur um einen groben Weg vom Startpunkt zum Zielpunkt. Während des eigentlichen Fahrvorgangs eines unbemannten Fahrzeugs wird es von Faktoren wie Richtung, Breite, Krümmung, Straßenkreuzungen und Straßensperren des Weges sowie der Unsicherheit der örtlichen Umgebung und des Fahrzeugzustands beeinflusst und stößt daher auf verschiedene unvorhersehbare Situationen. Es ist notwendig, auf Grundlage lokaler Umgebungsinformationen und Fahrzeugstatusinformationen einen idealen lokalen Weg ohne Kollisionen zu planen. Dies ist lokale Pfadplanung. Die lokale Pfadplanung entspricht dem „Gehirn“ eines unbemannten Fahrzeugs. Es erhält Umgebungsinformationen wie Straßen und Hindernisse vom Wahrnehmungssystem und erhält die Positionsinformationen des Startpunkts und des Zielpunkts, die durch die Entscheidungsfindung auf höherer Ebene vorgegeben werden. Nach der Verarbeitung generiert es in Echtzeit eine sichere und gleichmäßige Fahrbahn. Da es sich bei der Bahn des Fahrzeugs um eine Trajektorie mit Zeitattributen handelt, wird die Trajektorienplanung üblicherweise in eine Bahnplanung und eine Geschwindigkeitsplanung unterteilt. Bei der Pfadplanung wird häufig eine Spline-Kurvenanpassung verwendet, um die Einschränkungen hinsichtlich Hindernisvermeidung, maximaler Krümmung und Krümmungsstetigkeit zu erfüllen, während bei der Geschwindigkeitsplanung eine Geschwindigkeitsverteilung entlang des angepassten Pfads generiert wird, die Einschränkungen wie Höchstgeschwindigkeit und maximale Beschleunigung erfüllt. Der endgültige Plan wird in Form von Lenkwinkel- und Fahrzeuggeschwindigkeitsdaten an das Fahrwerkssteuerungssystem übermittelt, sodass das Fahrzeug die Funktionen Spurverfolgung und Hindernisvermeidung ausführen kann. Wenn alles entschieden ist, bleibt nur noch die Bewegung des Fahrzeugs! Im Vergleich zu herkömmlichen Steuerungen und Aktuatoren verwenden selbstfahrende Fahrzeuge bevorzugt kabelgesteuerte Aktuatoren, wie etwa kabelgesteuerte Lenkung, kabelgesteuertes Bremsen und kabelgesteuerter Antrieb, die eine präzise Steuerung ermöglichen. Bei der lokalen Pfadplanung plant das autonome Fahrzeug nach umfassender Berücksichtigung der Umgebung, des Fahrzeugstatus und anderer Einschränkungen einen idealen Spurwechselpfad und übermittelt die Anweisungen an die entsprechenden Ausführungsbehörden. Wenn der Aktuator mit den Anforderungen der Bahn an den Wendewinkel des Fahrzeugs nicht Schritt halten kann, weicht er von der geplanten Bahn ab. Daher ist auch der Bewegungssteuerungsalgorithmus von entscheidender Bedeutung. Was ist der zukünftige Entwicklungstrend bei selbstfahrenden Autos? Derzeit gibt es zwei technische Hauptwege für unbemannte Fahrzeuge. Eine davon ist die in diesem Artikel vorgestellte Methode, die die Sensoren des Fahrzeugs nutzt, um verschiedene Informationen zu erhalten. Die andere ist eine auf 5G-Kommunikationstechnologie basierende Lösung, die Umgebungsinformationen durch Werkstattkommunikation und Fahrzeug-zu-Infrastruktur-Kommunikation erhält. Im Vergleich dazu ist Ersteres nicht auf die Umgestaltung der Infrastruktur und die Prämisse angewiesen, ob andere Autos auf dem Markt intelligent sind, und daher leichter zu erreichen. Obwohl autonomes Fahren 99 % der Straßenbedingungen relativ sicher bewältigen kann, erfordert die Lösung des restlichen 1 % 99 % der Energie der Ingenieure. Noch vor 2020 sollen den Verbrauchern intelligente Autos in Form von ADAS präsentiert werden. Als Gewinner des Qingyun-Plans von Toutiao und des Bai+-Plans von Baijiahao, des Baidu-Digitalautors des Jahres 2019, des beliebtesten Autors von Baijiahao im Technologiebereich, des Sogou-Autors für Technologie und Kultur 2019 und des einflussreichsten Schöpfers des Baijiahao-Vierteljahrs 2021 hat er viele Auszeichnungen gewonnen, darunter den Sohu Best Industry Media Person 2013, den dritten Platz beim China New Media Entrepreneurship Competition Beijing 2015, den Guangmang Experience Award 2015, den dritten Platz im Finale des China New Media Entrepreneurship Competition 2015 und den Baidu Dynamic Annual Powerful Celebrity 2018. |
In unserer klinischen Arbeit begegnen wir häufig ...
Letzte Woche haben wir das Sonderthema [Smart Eye...
In den ersten beiden Junitagen veröffentlichten d...
In letzter Zeit sind Themen wie „Ein junger Mann ...
In den letzten Jahren haben die Menschen verschie...
Laut Reuters gaben Hyundai Motor und Kia Motors a...
Dank ihrer hervorragenden Benutzeroberfläche und d...
Heute, am 27. Februar, ist der Internationale Eis...
In prähistorischen Zeiten begannen die Menschen, ...
Wenn man über die Limousinen von FAW-Volkswagen s...
Sobald der Sommer kommt, wird Schwimmen zu einer ...
Welche Möglichkeiten gibt es, im Büro Sport zu tr...
Heutzutage sind viele Menschen faul und finden ve...
Der Abschied großer Persönlichkeiten wird gern al...