Dominik Eyerly, Konrad GmbH
Auf dem Weg zum autonomen Fahren werden zunehmend Radarsensoren benötigt, die sowohl eine Redundanz als auch eine Ergänzung zu kamerabasierten Fahrerassistenzsystemen darstellen. In diesem Artikel wird ein Editor, dessen Anforderungen und Umsetzungen beleuchtet, der es erlaubt, realitätsnahe Fahrszenen zu erstellen, die mit einem auf NI-Technologie basierenden Simulator abgespielt werden können.
Auf Grundlage der Analyse realer Fahrszenen wurden Parameter zur simulatorischen Verifikation von automotiven Radarsensoren extrahiert, die mittels eines Radarzielgenerators von National Instruments an den zu testenden Radarsensor zurückgespielt werden.
Dominik Eyerly - Konrad GmbH
Niels Koch - AUDI AG
Marcus Schramm - Konrad GmbH
Michael Konrad - Konrad GmbH
Diese Kundenlösung wurde im Tagungsband 2016 des Technologie- und Anwenderkongresses „Virtuelle Instrumente in der Praxis“ veröffentlicht.
Eingesetzte Produkte: LabVIEW
Auf dem Weg zum autonomen Fahren werden zunehmend Radarsensoren benötigt, die sowohl eine Redundanz als auch eine Ergänzung zu kamerabasierten Fahrerassistenzsystemen darstellen. Eine normkonforme und sichere Testtiefe eines radarbasierten Systems lässt sich nur gewährleisten, wenn neben den komponentenspezifischen Hochfrequenzprüfungen auch die Algorithmen und das gesamte Sensorverhalten intensiven Tests unterzogen werden.
Im Gegensatz zu reinen Fahrtests, bieten simulatorische Ansätze den Vorteil einer kontrollier- und wiederholbaren Testumgebung. Befreit von zeitvarianten Einflüssen wird eine objektive Leistungsbeurteilung unterschiedlicher Sensorsysteme möglich. In dieser Veröffentlichung wird ein Lösungsansatz präsentiert, der auf dem LabVIEW Actor Framework basiert und die Konfiguration und Simulation typischer Fahrszenen im Labor erlaubt.
In modernen Kraftfahrzeugen werden zunehmend Sensoren zur Steigerung des Komforts und der Sicherheit eingesetzt. Auf dem Weg zum hochautomatisierten Fahren nehmen Radarsensoren eine Schlüsselrolle ein. Sie bieten im Vergleich zu kamera- oder ultraschallbasierten Sensoren einige Vorteile, sodass ein autonom fahrendes Auto ohne Radarsensoren undenkbar ist. Die Notwendigkeit von intensiven Radarsensortests ist nicht nur durch die funktionale Sicherheitsanforderung ASIL-C bzw. ASIL-D nach ISO 26262 gegeben, sondern auch durch die zwingende Konformität des Testens im V-Entwicklungszyklus.
Dabei müssen nicht nur die mechanischen sowie radarspezifischen Hochfrequenzeigenschaften geprüft werden, sondern auch die Wirksamkeit und das Zusammenspiel mit Algorithmen, die aus den erfassten Radar-Rohdaten bewegte und unbewegte Objekte erkennen können, auf denen wiederum Funktionen für Fahrerassistenzsysteme basieren. In der Vergangenheit sind dazu Testfahrten unternommen worden. Um jedoch die benötigte Testtiefe nach ISO 26262 zu erreichen, werden simulatorische Tests unverzichtbar.
Die Aufgabe besteht nun darin, die zu testenden Parameter abzuleiten, so dass Radarsensoren so realitätsnah wie möglich mit Signalen beaufschlagt werden, damit die Antwort aus dem Radarsensor plausibilisiert werden kann.
Eine Analyse von typischen Fahrszenen auf Deutschlands Straßen ergab, dass alle Einzelfahrten aus einer zufälligen Kombination aus kommenden und zurückfallenden Objekten, Überholvorgängen sowie einer Reihe an statischen Objekten zusammengesetzt sind. Daneben existieren noch irrelevante Objekte, die keine Gefahr für den Fahrschlauch darstellen.
Ein Überholvorgang beispielsweise ist ferner eine Kombination aus einem sich nähernden Objekt, bis es sich sehr dicht am Egofahrzeug befindet, und einer anschließender Fortbewegung des Objekts, während es aus dem Sichtbereich des Radarsensors fährt. Das Objekt durchläuft den gesamten Winkelbereich des Radarerfassungskegels in unterschiedlichen Abständen.
Um nun einen Radarsensor simulatorisch, ohne Fahrzeug und ohne Umwelteinflüsse, zu testen, ist ein Testaufbau notwendig, der Radarsignale so zurückspiegelt, dass ein valides Objekt vom Sensor erkannt und zudem der gesamte Erfassungsbereich überdeckt wird. Gelingt dies, können zeitvariante Einflussfaktoren mit hinzugenommen werden, sodass sich die Realität möglichst getreu abbilden lässt. Auch die Steigerung der Szenenkomplexität setzt den zu testenden Radarsensor zusätzlich unter Stress.
Aus den bisherigen Betrachtungen kann gefolgert werden, dass ein Signal erzeugt werden muss, das dem gleichkommt, das auch von einem realen Objekt verursacht wird. Nur so lässt sich eindeutig die Funktionsweise des Sensors und der Algorithmen prüfen. Im Folgenden wird sich auf einen aktiven Simulator konzentriert, der auf Technologien von National Instruments beruht und mittels einer Steuer-Software kontrolliert werden kann.
Der prinzipielle Aufbau findet sich in Bild 1 dargestellt.
Ein automotiver Radarsensor sendet sein eigenes Signal aus, welches über eine Empfangsantenne in den Radarzielgenerator geleitet wird. Durch Manipulation des empfangenen Signals können die gewünschten Objektreflektionen simulativ realisiert werden. Dazu wird mittels digitaler Signalprozessierung das Radarsignal verzögert, gedämpft, in der Frequenz verschoben und anschließend dem Radarsensor wieder zurückgesendet. Damit die Objektreflektionen von den Algorithmen auch korrekt erkannt werden, ist es notwendig, dass die Modifikationen der Parameter in einem physikalisch sinnvollen Zusammenhang geschehen. Diese Aufgabe ist vom Editor zu leisten.
Gelingt dies für ein oder mehrere Objekte, können bewegte und unbewegte Objekte simuliert werden. Durch das Zusammenfassen simulativ erzeugter Objekte zu Bewegungen lassen sich Szenarien standardisieren, die zur Verifikation sowie zum Vergleich verschiedener Sensoren geeignet sind. Wetterbedingte oder andere zeitlich veränderlichen Effekte treten dabei nicht auf. Solche Einflüsse spielen bei Testfahrten eine wichtige Rolle und erschweren eine objektive Leistungsbewertung der Sensoren.
Um all diesen Anforderungen gerecht zu werden, wurde mit Audi ein Graphical User Interface (GUI) entwickelt, was all den abgeleiteten Anforderungen genügt.
In Bild 2 ist der entstandene Szenarien-Editor dargestellt.
Mit diesem ist es möglich, verschiedene Objekte zu erzeugen und ihnen spezielle Parameter, wie Position, Geschwindigkeit und Radarrückstrahlfläche, zuzuweisen. Zudem lassen sich Tracks mit einer variablen Geschwindigkeit und Entfernung konfigurieren. Als Referenzpunkt dient dabei jeweils der als farbiges Quadrat gekennzeichnete Sensor. Jeder der erstellten Tracks ist in der Sequenzdarstellung auswähl- und editierbar. Unter Verwendung dieses GUIs lassen sich komplexe Szenarien auf einfache Weise generieren, speichern, laden und beliebig zusammensetzen.
Bei der Realisierung des Editors und des Simulators wurde auf das „LabVIEW Actor Framework“, zurückgegriffen, das von LabVIEW breitgestellt wird. Dieses Framework ermöglicht es, modular und strukturiert asynchrone Programmabläufe zu realisieren. Dies kommt sowohl der Bedienbarkeit als auch der Ansprechbarkeit des realisierten Editors zugute. Eine Übersicht der GUI-Framework-Interaktion ist in Bild 3 dargestellt.
Das GUI ist auf zwei unterschiedlichen Arten von Aktoren aufgebaut: denen, die auch auf dem GUI repräsentiert werden und solchen, die für die Ausführung benötigt werden. Dabei vereinfacht das Framework die Bereitstellung aller Funktionen. Die Aktoren, die keine Benutzerschnittstelle darstellen, vereinfachen beispielsweise die Kommunikation zwischen dem Interface und der Signalverarbeitung. Auf diese Weise wird eine strikte Entkopplung erreicht, was zu einem sehr modularen System führt. Hierdurch folgt, dass der Editor sich leicht an zukünftige Anforderungen anpassen lässt.
Auf Grundlage der Analyse realer Fahrszenen wurden Parameter zur simulatorischen Verifikation von automotiven Radarsensoren extrahiert, die mittels eines Radarzielgenerators von National Instruments an den zu testenden Radarsensor zurückgespielt werden. In diesem Artikel wurde ein LabVIEW-Szenarien-Editor vorgestellt, der auf das „LabVIEW Actor Framework“ von NI zurückgreift und mit einem Radarsimulator kommuniziert. Dieser Editor wird den abgeleiteten Anforderungen gerecht und erlaubt, eine Reihe von Testfällen benutzerfreundlich zu erstellen, zu visualisieren und die Ergebnisse auszuwerten.
Dominik Eyerly
Konrad GmbH
Moritzburger Weg 67
01109 Dresden
Tel: +49 (0) 351 7958019 - 233
Fax: +49 (0) 351 7958019 - 232
Dominik.Eyerly@konrad-technologies.de