Team Victor Tango mit Odin: Autonomes Fahrzeug fährt mit NI LabVIEW in der DARPA Urban Challenge

"Odin war das einzige Fahrzeug, das umfassend Gebrauch von LabVIEW machte und wir belegten den dritten Platz in der Gesamtplatzierung, nur wenige Minuten hinter den Führenden."

- Patrick Currier, Virginia Polytechnic Institute and State University

Die Aufgabe:

Entwicklung eines autonomen Fahrzeugs für die DARPA (Defense Advanced Research Projects Agency) Urban Challenge, ein Rennen autonomer Bodenfahrzeuge durch ein Stadtgebiet

Die Lösung:

Einsatz der grafischen Programmierumgebung NI LabVIEW und Hardware von National Instruments für eine schnelle Entwicklung, Prüfung und Prototypenerstellung, um den Wettbewerb erfolgreich zu absolvieren (dritter Platz von 89 Wettkämpfern und Gewinn in Höhe von 500.000 US-Dollar)

Autor(en):

Patrick Currier - Virginia Polytechnic Institute and State University
Jesse Hurdus - TORC Technologies, LLC , Virginia Polytechnic Institute and State University
Dr. Charles Reinholtz - Embry Riddle Aeronautical University
Dr. Al Wicks - Virginia Polytechnic Institute and State University

 

Bei der DARPA Urban Challenge muss ein Bodenfahrzeug autonom durch ein Stadtgebiet navigieren. Um die Strecke zu bewältigen, musste unser komplett autonomes Fahrzeug knapp 97 km in unter sechs Stunden zurücklegen und dabei durch den Verkehr auf Straßen, Kreuzungen und Parkplätzen steuern. Zu Beginn des Rennens wurden in einer Einsatzdatei feste Kontrollpunkte auf einer Straßenkarte festgelegt, die in einer bestimmten Reihenfolge abzufahren waren.

 

 

Um diese Kontrollpunkte so schnell wie möglich zu erreichen, musste das Fahrzeug Straßen unter Berücksichtigung von Geschwindigkeitsbegrenzungen, möglichen Straßensperren und Verkehrsverhältnissen wählen. Während der Fahrt hatte es die Verkehrsregeln zu befolgen und korrekt auf den regulären und autonomen Verkehr einzugehen. Die Regeln sahen auch vor, dass das Fahrzeug auf seiner Fahrbahn bleiben und sicher auf andere Fahrzeuge durch Anpassung der Geschwindigkeit oder Überholen reagieren musste. Zudem musste es Vorfahrtsregeln an Kreuzungen beachten sowie sicher und defensiv fahren und dabei feststehende und dynamische Hindernisse mit Geschwindigkeiten von etwas unter 50 km/h umfahren.

 

Unser Team, das Team Victor Tango, hatte nur 12 Monate Zeit, um ein Fahrzeug zu entwickeln, das sich dieser einzigartigen Herausforderung stellen könnte. Wir teilten die Aufgabenstellung in vier Hauptaufgaben auf: Bodenplattform, Wahrnehmung, Planung und Kommunikation.

 

Jeder Aufgabenteil nutzte die Vorteile der Funktionalität der Hard- und Software von National Instruments. NI-Hardware spielte eine wichtige Rolle bei der Anbindung der vorhandenen Systeme des Fahrzeugs und der Bereitstellung der Schnittstellen für einen menschlichen Bediener. Wir nutzten die grafische Programmierumgebung LabVIEW zur Entwicklung der Software wie z. B. die Kommunikationsarchitektur, die Algorithmen für die Sensorverarbeitung und Objekterkennung, den Laserentfernungsmesser und auf Bildverarbeitung basierende Straßenerkennung, das Fahrverhalten auf höherer Ebene und die maschinennahe Fahrzeugschnittstelle.

 

Bodenplattform

Odin ist ein Ford Escape Hybrid 2005, der für den autonomen Betrieb angepasst wurde. Ein NI-CompactRIO-System bildet die Schnittstelle zum System des Escape, um eine Drive-by-wire-Steuerung für Gas, Lenkung, Schaltung und Bremsanlage zu ermöglichen. Unser Team setzte LabVIEW und das LabVIEW Control Design and Simulation Module ein, um die Systeme für Pfadabweichung und Geschwindigkeitskontrolle zu entwickeln, die wir auf CompactRIO mithilfe der Module LabVIEW Real-Time und LabVIEW FPGA einsetzten und so eine Stand-alone-Fahrzeugplattform erstellten. Des Weiteren verwendeten wir das LabVIEW Touch Panel Module, um eine Benutzeroberfläche für den Touchpanel-Rechner NI TPC-2006 zu erstellen, den wir im Armaturenbrett installierten.

 

 

Wahrnehmung

Um die Verhaltensanforderungen der Urban Challenge zu erfüllen, musste Odin in der Lage sein, das Straßennetz in der Umgebung und die geltenden Fahrspuren zu erkennen, alle Hindernisse auf seinem Weg wahrzunehmen und diese entsprechend als Fahrzeuge zu identifizieren. Eine Reihe von Sensoren versetzte Odin in die Lage, diese Anforderungen zu erfüllen. Dazu gehörten drei Vier-Ebenen-Laserentfernungsmesser von IBEO auf Höhe der Stoßstange, vier SICK-Lasermesssysteme und zwei Bildverarbeitungskameras auf dem Dachgestell sowie ein hochgenaues Novatel-GPS/IMU-System.

 

Für jede Wahrnehmungsanforderung verwendeten wir mehrere Sensoren, um maximale Wiedergabetreue und Zuverlässigkeit zu erzielen. Zur flexibleren Sensorfusion lässt die Planungssoftware alle Sensorrohdaten unberücksichtigt und nutzt eine Reihe von sensorunabhängigen Wahrnehmungsnachrichten, die von aufgabenspezifischen Bauteilen erzeugt werden. Der Teil zur Standortbestimmung beinhaltet ein LabVIEW-Kalman-Filter, das die Fahrzeugposition und -richtung verfolgt. Das Bauteil zur Straßenerkennung verwendet das NI Vision Development Module, um Kamera und Daten des Laserentfernungsmessers zu verbinden und eine Straßennetzkarte sowie die Position einer jeden Spur in benachbarten Segmenten zu bestimmen. Die Komponente für die Objektklassifizierung nutzt LabVIEW, um IBEO-Daten zu verarbeiten und Hindernisse zu erkennen und sie als feststehend oder dynamisch zu klassifizieren. Das Vorgabesystem für dynamische Hindernisse prognostiziert dann die Pfade und Aktionen anderer Fahrzeuge.

 

Planung

Die Planungssoftware für Odin verwendet ein abwägendes reaktives Mischmodell, das die Entscheidungen höherer Ebenen und Reaktionen niedriger Ebenen auf separate Komponenten aufteilt. Diese Komponenten laufen gleichzeitig bei unabhängigen Taktraten ab, so dass es für das Fahrzeug möglich wird, auf Notfallsituationen zu reagieren, ohne eine gesamte Route neu planen zu müssen. Das Aufteilen der Entscheidungsfindung auf separate Komponenten ermöglicht, dass jedes System unabhängig getestet werden kann. Zudem wird ein paralleles Entwickeln unterstützt, das schon aufgrund der kurzen Zeitspanne der Urban Challenge erforderlich wurde.

 

Die Komponente für den Routenplaner nutzt einen A*-Suchalgorithmus, um zu bestimmen, welche Straßenabschnitte das Fahrzeug nehmen sollte, um alle Kontrollpunkte zu passieren. Die Komponente für das Fahrverhalten nutzt eine verhaltensbasierte LabVIEW-Zustandsmaschinenarchitektur, die für das Einhalten der Verkehrsregeln und Führen des Fahrzeugs entlang der geplanten Route zuständig ist. Die Komponente für die Bewegungsplanung führt eine iterative Bewegungsbahnsuche durch, um Hindernisse zu vermeiden und das Fahrzeug entlang der gewünschten Route zu führen. Das System übergibt anschließend die Bewegungsprofile an die Fahrzeugschnittstelle, damit sie in Aktuatorsteuersignale umgewandelt werden.

 

Kommunikation

Wir entwickelten unsere gesamte Kommunikationsplattform mithilfe von LabVIEW. Wir implementierten das JAUS-Protokoll (Joint Architecture for Unmanned Systems) AS-4 des SAE Committee, welches eine automatisierte, dynamische Konfiguration ermöglichte und die zukünftige Wiederverwendbarkeit und das Vermarktungspotenzial der Urban-Challenge-Software verbesserte. Unser Team implementierte zudem jedes Softwaremodul als eine JAUS-Komponente, wobei alle Interaktionen zwischen Modulen über diese LabVIEW-Plattform erfolgen. Jedes Softwaremodul arbeitet als eine Stand-alone-Komponente, die asynchron auf einem Windows- oder Linux®-Betriebssystem laufen kann. Auf dieser Grundlage ist eine Anbindung oder Wiederverwendung der LabVIEW-Softwaremodule mit Softwaremodulen, die in anderen Programmiersprachen erstellt wurden, ein Leichtes.

 

Vorteile von LabVIEW

LabVIEW stellte aus verschiedenen Gründen eine erfolgreiche Programmierumgebung für unser Team bereit. Einem Team, das in der Hauptsache aus Maschinenbauingenieuren bestand, ermöglichte LabVIEW die Entwicklung anspruchsvoller Wahrnehmung auf hoher Ebene und das Planen der Algorithmen durch Programmierer ohne Informatikhintergrund. Des Weiteren verbesserte die einfache Interaktion zwischen LabVIEW und Hardware die Möglichkeit, die zeitkritische Verarbeitung zu implementieren, die für die Sensorverarbeitung und Fahrzeugsteuerung entscheidend ist.

 

LabVIEW stellte auch eine intuitive und bedienfreundliche Umgebung für die Fehlerbehebung bereit, so dass wir Quellcode in Echtzeit ausführen und überwachen konnten, um eine einfache Hardware-in-the-Loop-Fehlerbehebung zu nutzen. Die LabVIEW-Umgebung erlaubte es dem Team, Prüfzeiten zu maximieren und förderte eine zügige Prototypenerstellung sowie eine höhere Anzahl von Designzyklen. Angesichts der kurzen Zeitachse für die Urban Challenge und die einzigartige Natur der Herausforderung spielten diese Möglichkeiten eine kritische Rolle für den Gesamterfolg des Teams.

 

Wir setzten LabVIEW und NI-Hardware erfolgreich ein, um ein autonomes Fahrzeug zu entwickeln, das die Urban Challenge absolvieren konnte – eine Aufgabenstellung in der Robotik, an die sich bisher niemand gewagt hatte. Odin war das einzige Fahrzeug, das umfassend Gebrauch von LabVIEW machte und wir belegten den dritten Platz in der Gesamtplatzierung, nur wenige Minuten hinter den Führenden.

 

Linux® ist in den USA und anderen Ländern ein eingetragenes Warenzeichen von Linus Torvalds.

 

Informationen zum Autor:

Patrick Currier
Virginia Polytechnic Institute and State University
Mechanical Engineering Department Virginia Tech M/C 0238
Blacksburg, VA 24061
United States
Tel: (540) 231-6417
Fax: (540) 231-9100
pcurrier@vt.edu

Odin drives autonomously in the DARPA Urban Challenge under the control of software based on LabVIEW.
This block diagram shows the uses of NI hardware and LabVIEW in the Victor Tango software architecture.