Traffic Signs: Berlin, 2020

1. Einführung
Die Hauptidee des Projekts ist die Gewinnung von Verkehrszeichenstandorten durch die Analyse von Videos mit einer Kombination aus künstlicher Intelligenz und Bilderkennungsmethoden. Zu jeder Videodatei gehört auch eine Geolokalisierungsdatei, die den gleichen Namen wie die Videodatei trägt und Breiten- und Längengrad sowie Zeitstempelattribute vom Anfang des Videos an enthält. Insgesamt werden 3350 Videos mit einer Gesamtreichweite von 1040 km im Bereich des Berliner S-Bahn-Rings verwendet. Die Ergebnisdatei enthält Längen- und Breitengrad (WGS84, EPSG:4326) der Verkehrszeichenstandorte und deren Typen in 43 Kategorien.

2. Datensätze
Um AI-Netzwerke zu trainieren, werden zwei öffentlich zugängliche Datensätze verwendet: für die Verkehrszeichenerkennung werden “German Traffic Sign Detection Benchmark Dataset[1]” und für die Verkehrszeichenklassifizierung “German Traffic Sign Recognition Benchmark Dataset[1]“. Weitere Informationen finden Sie hier: Detection Dataset, Classification Dataset

3. Methodik und Modelle
Für die Analyse von Videos wird das TensorFlow[2] Framework genutzt. Ein Objektdetektions[3]-Modell für die Verkehrszeichenerkennung wird mit der Transferlernmethode[4] trainiert. Um die Genauigkeit der Verkehrszeichenklassifizierung zu verbessern, wird ein benutzerdefiniertes Bildklassifizierungs[5]-Modell zur Kategorisierung von Verkehrszeichentypen trainiert. Die Ausgabe des Verkehrszeichenerkennungsmodells wird als Eingabe des Verkehrszeichen-Klassifikationsmodells verwendet.

4. Quelle
[1] Houben, S., Stallkamp, J., Salmen, J., Schlipsing, M. and Igel, C. (2013). “Detection of traffic signs in real-world images: the german traffic sign detection benchmark”, in Proceedings of the International Joint Conference on Neural Networks.10.1109/IJCNN.2013.6706807

[2] Martín A., Paul B., Jianmin C., Zhifeng C., Andy D., Jeffrey D., .... Xiaoqiang Zheng. (2016). “TensorFlow: a system for large-scale machine learning”, in Proceedings of the 12th USENIX conference on Operating Systems Design and Implementation(OSDI'16). USENIX Association, USA, 265–283

[3] Girshick, R., Donahue, J., Darrell, T., Malik, J. (2014). “Rich feature hierarchies for accurate object detection and semantic segmentation”, 2014 IEEE Conference on Computer Vision and Pattern Recognition. doi:10.1109/cvpr.2014.81

[4] Tan, C., Sun, F., Kong, T., Zhang, W., Yang, C. and Liu, C. (2018) “A survey on deep transfer learning”, Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 11141 LNCS, pp. 270–279. doi: 10.1007/978-3-030-01424-7_27.

[5] Sultana, F., Sufian, A. and Dutta, P. (2018). “Advancements in image classification using convolutional neural network”, in Proceedings - 2018 4th IEEE International Conference on Research in Computational Intelligence and Communication Networks, ICRCICN 2018, pp. 122–129. doi: 10.1109/ICRCICN.2018.8718718.

mFUND-Projekt: Mobile Mapping

mcloud_id:722EDEC3-38BA-4FE2-B087-18C0434CA34E

Links zu den Daten

Nutzungshinweise

  • Der Datensatz wird für experimentelle Zwecke erstellt. Unsere Firma ist nicht verantwortlich für das Ergebnis möglicher Datenfehler.
  • Quellenvermerk: Bliq GmbH, 2020

Links zu den Metadaten

Bereitgestellt durch

AIPARK GmbH

Kategorie
Straßen
Aktualität der Datensatzbeschreibung

Mon Mar 06 11:04:53 GMT 2023

Zeitbezug der Daten

Sat Feb 29 23:00:00 GMT 2020 — Wed Sep 30 22:00:00 GMT 2020

Aktualisierungsfrequenz

Niemals

Raumbezug der Daten
Nutzungsbestimmung

Freie Nutzung

Lizenz

Creative Commons Namensnennung - Weitergabe unter gleichen Bedingungen 4.0 International (CC-BY-SA 4.0)