Synthetische Datenerzeugung mittels 3D Computergrafik
Für moderne Computer Vision Anwendungen sind neuronale Netzwerke oft der Schlüssel zum Erfolg. Derartige Systeme werden mittels riesiger Datenmengen trainiert, mit dem Ziel verschiedenste Variationen von Objekten erlernen zu können. Je nach Domäne kann es vorkommen, dass die benötigten Trainingsmengen nicht vorhanden sind und bereits existierende Datensätze sich nicht adaptieren lassen. Ein Ansatz, um dieser Problematik entgegenzuwirken, ist die Erzeugung von künstlichen Daten. Im Kontext von Computer Vision Applikationen lassen sich derartige Daten mittels 3D-Computergrafiken erzeugen. Dies hat in der Regel den Vorteil, dass die Erstellung großer Datenmengen kostengünstiger und effizienter geschieht.
Eine Arbeitsgruppe der Professur Digital- und Schaltungstechnik untersucht verschiedene Methoden zur Erstellung von synthetischen Daten für Computer Vision Applikationen und wie diese sich im Bereich AAL (Ambient Assisted Living) oder für das autonome Fahren einsetzen lassen. Ein weiteres Forschungsgebiet ist die Optimierung der synthetischen Daten für eine realitätstreue Abstraktion.
Das Video in Abbildung 1 visualisiert mögliche Szenarien im Bereich von Aktivitäten im Innenraum sowie des autonomen Fahrens.
Abbildung 2 veranschaulicht die Generierung von Punktwolken aus synthetischen Daten, wie sie ein 3D-Kamera-System innerhalb einer Wohnung erzeugen würde. Punktwolken bieten zusätzlich zu den zwei-dimensionalen Kamerabildern räumliche Informationen und können somit eine Objektdetektion und -klassifikation unterstützen. Synthetisch erzeugte Punktwolken bereichern reale 3D-Datensätze, welche benötigt werden um Klassifikationsalgorithmen zu entwickeln und zu trainieren.
Aktuelle Forschungsschwerpunkte und offene Themen:
- Generierung von synthetischen Daten mittels Unity3D, Unreal Engine und Blender
- Domänenadaption von synthetischen Daten mittels Generative Adversarial Networks und Style Transfer Methoden
- omnidirektionale Bilder
Veröffentlichungen
Titel | Autor(en) | Jahr | |
---|---|---|---|
1 | Unsupervised Domain Adaptation from Synthetic to Real Images for Anchorless Object Detection
16th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications - Volume 5: VISAPP, 08.02.2021 - 10.02.2021, pages 319-327. - SCITEPRESS - Science and Technology Publications, 2021 |
Scheck, Tobias Perez Grassi, Ana Cecilia Hirtz, Gangolf |
2021 |
2 | A Study on the Influence of Omnidirectional Distortion on CNN-based Stereo Vision
16th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications, 08.02.2021 - 10.02.2021, Online-Konferenz, pp. 809-816. - Setúbal, Portugal : SCITEPRESS - Science and Technology Publications, 2021 |
Seuffert, Julian Perez Grassi, Ana Cecilia Scheck, Tobias Hirtz, Gangolf |
2021 |
3 | Learning from THEODORE: A Synthetic Omnidirectional Top-View Indoor Dataset for Deep Transfer Learning
2020 IEEE Winter Conference on Applications of Computer Vision (WACV), Snowmass Village, CO, USA, 1-5 March 2020, pp. 932-941. - IEEE, 2020 |
Scheck, Tobias Seidel, Roman Hirtz, Gangolf |
2020 |
4 | Where to drive: free space detection with one fisheye camera
Twelfth International Conference on Machine Vision (ICMV 2019), 16.11.2019 - 18.11.2019, pp. 777-786. - SPIE, 2020. - Volume : 11433 |
Scheck, Tobias Mallandur, Adarsh Wiede, Christian Hirtz, Gangolf |
2020 |