ÜBERSICHT     PARTNER    A9 DATASET   FORSCHUNG

 


 

A9 Dataset für die Mobilitätsforschung: Momentaufnahmen, Bildsequenzen und Szenarien von der Providentia++-Teststrecke

Datensätze des Testfelds A9

3,5 Kilometer lang, mit sieben Sensorstationen ausgestattet, die Woche für Woche etwa einen Petabyte komprimierte Daten erheben: Das „Testfeld A9“ erstreckt sich von der Autobahn A9 über die Landstraße B471 bis hinein nach Garching-Hochbrück. Mit über 60 Sensoren wie Flächenkameras, Radaren, Lidaren, Rundumkameras und Event-based Kameras wird im Forschungsprojekt Providentia++ ein breites Spektrum an Sensorik eingesetzt. Deren Daten helfen, KI-basierte Modelle zu trainieren und KI-Netzwerke zu verbessern, Verkehrsverhalten zu analysieren, den Verkehrsfluss zu optimieren, Simulationen für Smart-City-Lösungen zu entwickeln sowie Trackingalgorithmen oder Szenarien zu erforschen.

Aktuelle Releases and Registrierung

Datensätze des A9-Dataset stehen gegen Registrierung zum Download bereit. Bitte REGISTRIEREN SIE SICH HIER. Folgende Datensätze sind aktuell verfügbar:

Datensatz Beschreibung
R1 3 unterschiedliche Szenarien von der Autobahn A9
R0 Multiple Datensätze, die zufällige Sequenzen von Flächenkameras und Lidaren enthalten.

Informationen zu den Releases

Mai 2022: Das R1-Release besteht aus zeitlich synchronisierten Multi-Sensor-Daten, die von drei verschiedenen Szenarien aufgenommen wurden. Sie enthalten gelabelte „Ground Truth“-Daten von extremen Wettersituationen, die in der Regel im Winter auf der Autobahn vorkommen. Dazu gehören starke Schneefälle kombiniert mit Wind und dichtem Nebel – Szenarien, die Fahrassistenz- und automatisierte Systeme an ihre Grenzen bringen können. Mit diesem Release bieten wir Forschern und Ingenieuren neue „Ground Truth“-Daten von Extremwetter-Situationen, um robuste und wettersichere bildgestützte Systeme entwickeln zu können. Zudem enthält das R1-Release nun eine erweiterte Version des Unfallszenarios, das bereits in der ersten Serie veröffentlichter Datensätze enthalten war. Die Verkehrsentwicklung vor und nach dem Unfall kann nun detaillierter analysiert werden.

März 2022: Der R0-Datensatz enthält gelabelte Multi-Sensor-Daten mit einem Mix aus zufällig ermittelten Verkehrsszenarien von der Autobahn A9. Diese Datensätze können als „Ground Truth“ für die Entwicklung und Verifizierung von KI-basierten Detektoren sowie Tracking- und Fusionsalgorithmen verwendet werden. Damit helfen sie, die Entstehung und Folgeeffekte von Unfällen auf der Autobahn zu verstehen und zu analysieren.

Roadmap

Weitere Releases werden unter anderem Digital Twins mit Informationen über Trajektorien und Positionen enthalten sowie neue Verkehrsszenarien, längere Sequenzen und Beobachtungen neuer Orte wie beispielsweise einer Kreuzung.

Wissenschaftliche Veröffentlichung

Eine wissenschaftliche Veröffentlichung über den A9 Dataset wurde vom 33. IEEE Intelligent Vehicles Symposium akzeptiert, das zwischen dem 5. und 9. Juni 2022 in Aachen stattfinden wird. Die vorläufigen Version ist HIER verfügbar. Über Zitate unserer Arbeit in Ihren Veröffentlichungen würden wir uns freuen.

Release R1 – Verkehrsszenarien von der Autobahn


R1_S1 Dieser Datensatz enthält 30 Sekunden lange Multi-Sensor-Sequenzen, die im Winter bei starkem Schneefall aufgenommen wurden. Er besteht aus zeitlich synchronisierten Bildern mit einer Frequenz von 10 fps aus er Perspektive von vier Kameras, die jeweils eine 400 Meter lange Teststrecke von verschiedenen Perspektiven beobachten. Die Verkehrsobjekte sind gelabelt mit 3D-Kästchen ("Bounding Boxes") und eindeutigen IDs in den jeweiligen Sensorframes. So wird eine durchgehende Objektverfolgung ("Tracking") und Datenfusion möglich.
R1_S2 Dieser Datensatz enthält 30 Sekunden dauernde Multi-Sensor-Sequenzen, die in starkem Nebel aufgenommen wurden.
R1_S3 Dieser Datensatz enthält eine sechzig Sekunden dauernde Multi-Sensor-Sequenz, die die Zeit vor, während und nach einem Unfall erfasst.

R1_S1 R1_S2 R1_S3

Release R0 – Zufällig ermittelte Kamera- und Lidar-Sequenzen von der Autobahn


R0_S1 Der Datensatz enthält eine zufällig ermittelte Auswahl von rund 600 Bildern aus der Perspektive von vier Kameras, die mit zwei unterschiedlichen Linsen ausgestattet sind. Sie sind auf Schilderbrücken entlang der Autobahn A9 montiert. Die Verkehrsobjekte sind gelabelt mit 3D-Kästchen ("Bounding Boxes") und innerhalb von sieben Klassen entsprechen zugeordnet.
R0_S2 Der Datensatz enthält eine 25 Sekunden dauernde Sequenz von Bildern einer Kamera an der Autobahn A9 und erfasst zudem die Anzahl der Spurwechsel. Abgesehen von den 3D-Kästchen ("Bounding Boxes") und Informationen über Objektklassen wurden den jeweiligen Verkehrsobjekten eindeutige IDs zugeordnet.
R0_S3 and R0_S4 Dieser Datensatz enthält zwei unterschiedliche Sequenzen von Lidar-Punktwolken aus der Perspektive von Schilderbrücken an der Autobahn A9. Zudem sind 3D-Kästchen ("Bounding Boxes") gesetzt und Objektklassen bestimmt.

R0_S1 R0_S2 R0_S3 and R0_S4

Further Articles

24. November 2021

Verkehr: Mehrwert durch Big Data

Big Data sind nötig, um Pkws von Motorrädern und Radfahrern zu unterscheiden, Manöver zu erkennen, Unfälle zu analysieren und den Verkehr zu simulieren. Zudem sind auf deren Basis Simulationen des Verkehrs möglich.

MEHR >

26. September 2020

Vogelperspektive: Mehr Präzision für den digitalen Zwilling

Der digitale Zwilling des Verkehrs ist immer so gut, wie es die Präzision der Daten erlaubt. Forscherin Annkathrin Krämmer vom bayrischen Forschungsinstitut fortiss erläutert, was die „Vogelperspektive“ aus einem DLR-Hubschrauber gebracht hat.

MEHR >

2. August 2021

Mit autonomen Agenten Bewegungen vorhersagen

Um Bewegungen vorhersagen zu können, ist es nötig, viele Optionen (Trajektorien) in Erwägung zu ziehen und sie zu priorisieren. Das Modell FloMo arbeitet mit Wahrscheinlichkeiten und ist auf Basis von drei Datasets trainiert worden.

MEHR >