Autonomes Fahren realistischer simulieren

Eine realistischere Simulation soll die Sicherheit von selbstfahrenden Autos vor den Test auf der Straße verbessern. Das datenbasierte Verfahren kombiniert Fotos, Videos, tatsächliche Bewegungsabläufe und Verhaltensdaten.

Wissenschaftler der University of Maryland, von Baidu Research und der University of Hong Kong haben ein datenbasiertes Simulationsverfahren vorgestellt, das Fotos, Videos, tatsächliche Bewegungsabläufe und Verhaltensdaten in einer skalierbaren, realistischen Form aufbereitet.

Dinesh Manocha von der University of Maryland hat gemeinsam mit Forschern von Baidu Research und der University of Hong Kong eine fotorealistisches Simulationssystem für das Training und die Validierung autonomer Fahrzeuge entwickelt. Das Verfahren verspricht eine vielseitigere, authentischere Simulation als die derzeit eingesetzten Lösungen, die mit Game-Engines oder leistungsfähiger Computergrafik und mathematisch gerenderten Verkehrsmustern arbeiten.

Das Verfahren namens Augmented Autonomous Driving Simulation (AADS) soll es einfacher machen, selbstfahrende Systeme im Labor zu evaluieren und dabei die Sicherheit verlässlicher zu gewährleisten, bevor die teuren Straßentests beginnen. Die Wissenschaftler beschreiben das Verfahren in einem am 27. März im Journal Science Robotics erschienenen Beitrag.

Manocha, einer der Autoren und Professor am University of Maryland Institute for Advanced Computer Studies, konkretisiert: „Diese Arbeit steht für ein neues Simulationsparadigma, mit dem wir die Zuverlässigkeit und Sicherheit von Technologien für das autonome Fahren testen können, bevor wir entsprechende Lösungen an echten Fahrzeugen einsetzen und sie auf Land- oder Stadtstraßen ausprobieren.

Simulation statt Millionen Testkilometer

Mehr Sicherheit ist ein möglicher Vorteil selbstfahrender Autos gegenüber den von Menschen gesteuerten. Denn Unkonzentriertheit, Müdigkeit und emotionale Entscheidungen führen zu Fehlern. Aber autonome Fahrzeuge müssen ebenfalls die Verkehrssituation korrekt einschätzen und entsprechend darauf reagieren. Bei den unzähligen möglichen Situationen auf der Straße braucht es dafür Millionen gefahrene Testkilometer unter schwierigen Bedingungen, um die Sicherheit zu demonstrieren.

Das kann Jahre dauern, während vorläufige Einschätzungen schnell, effizient und sicherer in der Computersimulation möglich sind. Die Simulation stellt die reale Welt präzise nach und modelliert das Verhalten der umgebenden Objekte. Aktuelle Systeme für diesen Zweck bilden fotorealistische Umgebungen aber nur unzulänglich ab und geraten auch beim Darstellen des tatsächlichen Verkehrsflusses oder des Verhaltens anderer Fahrer nicht selten ins Schlingern, so die Wissenschaftler.

AADS ist dagegen eine datengetriebene Lösungen, die den vom selbstfahrenden Auto auf der Straße gewonnenen Input genauer widerspiegelt. Die Automatisierung beruht auf einem Wahrnehmungsmodul, das Informationen über die reale Welt empfängt und interpretiert, und einem Navigationsmodul, das basierend auf der Wahrnehmung Entscheidungen trifft, etwa beim Lenken, Bremsen und Beschleunigen.

Die Sinnesorgane selbstfahrender Autos sind dabei die Kameras und LiDAR-Sensoren, die mit Lichtpulsen die Entfernungen in der Umgebung vermessen. In den heute gebräuchlichen Simulationslösungen wird das Wahrnehmungsmodul mit computergenerierten Bildern und mathematisch modellierten Bewegungsmustern von Fußgängern, Fahrrädern und weiteren Fahrzeugen gefüttert. Es entsteht ein ziemlich grobes Bild der realen Welt, das sich zumal nur sehr kostspielig und aufwändig erzeugen lässt.

Das AADS-System kombiniert Fotos, Videos und LiDAR-Punktwolken mit den Wegen von Fußgängern, Fahrrädern und anderen Verkehrsmitteln. Mit diesen Trajektorien lassen sich das Fahrverhalten und die zukünftigen Positionen von anderen Fahrzeugen oder Fußgängern auf der Straße vorhersagen, um die Navigation sicherer zu machen.

„Wir rendern und simulieren die reale Welt visuell mit Videos und Fotos“, sagt Manocha. „Aber wir erfassen auch reales Verhalten und Bewegungsmuster. Wie Menschen fahren, ist durch mathematische Modelle und Gesetze der Physik nicht leicht zu erfassen. Daher haben wir Daten über reale Trajektorien aus dem uns zur  Verfügung stehenden Videomaterial extrahiert, und wir haben das Fahrverhalten mit sozialwissenschaftlichen Methoden modelliert. Das datengetriebene Konzept hat uns einen viel realistischeren und nützlicheren Verkehrssimulator ermöglicht.“

Dabei galt es eine schwierige Aufgabe beim Einsatz des Bildmaterials aus der realen Welt und der LiDAR-Daten zu meistern:  Jede Szene muss auf die Bewegung des selbstfahrenden Autos reagieren, obwohl die vielleicht nicht von der Kamera oder vom LiDAR-Sensor erfasst wurde. Jeder Winkel und Standpunkt, der sich nicht im Foto oder Video wiederfindet, muss mit Vorhersageverfahren gerendert oder simuliert werden. Das ist auch der Grund, warum die Simulationstechnologie so stark auf computergeneriertes Bildmaterial und physikbasierte Vorhersagemethoden verlässt.

Viele fotorealistische Szenarien

Daher haben die Forscher ein Verfahren entwickelt, das verschiedenen Komponenten in einer realen Straßenszene isoliert und sie als individuelle Elemente rendert. Diese Elemente lassen sich dann wieder zusammenfügen, und so entstehen viele fotorealistische Verkehrsszenarien.

AADS ermöglicht es, Fahrzeuge und Fußgänger exakt mit ihren Beleuchtungs- und Bewegungsmustern von einer Umgebung in eine andere zu transportieren. Straßen lassen sich mit unterschiedlichen Verkehrsdichten ausstatten. Zahlreiche Betrachtungsstandpunkte jeder Szene sorgen für realistischere Perspektiven bei Spurwechseln und Wendemanövern. Zusätzlich gelingen durch eine verbesserte Bildverarbeitung sanftere Übergänge und Bilder mit weniger Verzerrungen als mit anderen videobasierten Simulationsverfahren. Die entsprechenden Technologien kommen darüber hinaus zum Einsatz, um Trajektorien zu extrahieren und damit das Verhalten der Fahrer zu modellieren.

„Weil wir Videos und Bewegungen aus der echten Welt verwenden, verfügt unser Wahrnehmungsmodul über genauere Informationen als andere Verfahren“, sagt Manocha. „Und weil der Simulator so realistisch ist, können wir Navigationsstrategien eines autonom fahrenden Systems besser prüfen.“ Manocha hofft, dass einige der Technologieanbieter auf dem Gebiet des autonomen Fahren denselben datengetriebenen Ansatz einbauen, um ihre eigenen Simulatoren für Tests und Evaluierungen zu verbessern.

Literatur: "AADS: Augmented autonomous driving simulation using data-driven algorithms," W. Li, C. W. Pan, R. Zhang, J. P. Ren, Y. X. Ma, J. Fang, F. L. Yan, Q. C. Geng, X. Y. Huang, H. J. Gong, W. W. Xu, G. P. Wang, D. Manocha, R. G. Yang, publiziert im Journal Science Robotics, 27. März 2019.

Die Arbeit wurde unterstützt von der National Natural Science Foundation of China (Award No. 61732016).

 

Video zum Augmented Autonomous Driving Simulation (AADS): https://www.youtube.com/watch?v=OfxqXhcMH5g&feature=youtu.be

Bild: Augmented Autonomous Driving Simulation (AADS) kombiniert Fotos, Videos und LiDAR-Punktwolken für ein realistisches Rendering mit Bewegungsdaten aus der realen Welt, die für die Vorhersage des Verhaltens und der zukünftigen Position genutzt werden können. Credit: Li et. Al, 2019

0
RSS Feed

Hat Ihnen der Artikel gefallen?
Abonnieren Sie doch unseren Newsletter und verpassen Sie keinen Artikel mehr.

Mit einem * gekennzeichnete Felder sind Pflichtfelder!

CAPTCHA
Diese Frage stellt fest, ob du ein Mensch bist.

Neuen Kommentar schreiben

Entdecken Sie die Printmagazine des WIN-Verlags