Springe zum Hauptinhalt
Professur Digital- und Schaltungstechnik
MOVA3D
Professur Digital- und Schaltungstechnik 

Logo mova3D

MOVA3D - Multimodaler Omnidirektionaler 3D-Sensor für die Verhaltensanalyse von Personen

Das Projekt

Problembeschreibung

Durch die Überalterung der Bevölkerung, speziell in den neuen Bundesländern, entstehen neue Herausforderungen für die Gesellschaft. Mit Hilfe von Technik kann es Menschen mit altersbedingten Einschränkungen zukünftig ermöglicht werden, länger in ihrer gewohnten Umgebung - der eigenen Wohnung - zu verbleiben. Der Wechsel in eine Pflegeeinrichtung soll nach Möglichkeit hinausgezögert oder sogar gänzlich vermieden werden.

Hierfür kommen Assistenzsysteme auf Basis der Erkennung einer Vielzahl sogenannter Aktivitäten des täglichen Lebens zum Einsatz. So kann mithilfe eines Smart-Sensor-Netzwerkes, basierend auf optischen 3D-Sensoren, eine Person zuverlässig erkannt und ihre Interaktion mit Alltagsgegenständen erfasst werden.

Dennoch gehen aktuelle Systeme nicht über die Realisierung von Labormustern hinaus. Es fehlt an einer leistungsfähigen Sensor-Technologie zur Situationserfassung bzw. Verhaltensanalyse von Personen. MOVA3D setzt sich daher zum Ziel, innerhalb der Allianz 3Dsensation, fachgruppenübergreifend einen multimodalen omnidirektionalen 3D-Sensor zur Verhaltensanalyse von Personen zu entwickeln. Das System soll mittels optischer und akustischer Messprinzipien eine 3D-Erfassung von Räumen mit nur einem einzigen intelligenten Sensor ermöglichen.

Ziel des Vorhabens

Ziel ist die Entwicklung und Erprobung eines neuartigen multimodalen, omnidirektionalen 3D-Sensors zur Verhaltensanalyse von Personen für die Anwendung im Bedarfsfeld Gesundheit.

Im Vorhaben umzusetzende Komponenten sind sowohl die omnidirektionale Video- und Audioerfassung zur multimodalen 3D-Vermessung des Raumes als auch die anschließende Verhaltensanalyse der sich im Raum aufhaltenden Personen. Die Erweiterung eines rein optischen Sensorprinzips um die Komponente Audio ermöglicht hierbei ebenfalls die Erfassung optisch verdeckter Situationen.

Wesentliche Arbeitsinhalte stellen daher neben der Entwicklung und Erforschung der Sensorprinzipien die Datenfusion der Audio- und Videosensorik sowie die daraus folgende Verhaltens-, Emotions- und Kontexterfassung dar. Für die Interaktion zwischen Sensorsystem und späterem Nutzer werden intuitive Interaktionskonzepte erarbeitet und evaluiert.

Abbildung 1: Erfassung eines gesamten Raumes mit 3D-Audio
Abbildung 2: Erfassung eines gesamten Raumes mit 3D-Video
Abbildung 3: Beispielhafte Abbildung der Sensorplattform im Bedarfsfeld Gesundheit und häusliche Assistenz
Abbildung 4: Illustration einer bedarfsfeldübergreifenden Applikation (Ausblick), in Gesundheit, Mobilität, Produktion und Sicherheit

Presse

Webseite der Allianz 3Dsensation, Fraunhofer IOF, Jena
https://www.3d-sensation.de/de/Projekte/Verbundvorhaben_MOVA3D.html

"Unternehmen Region"-Magazin, Ausgabe 2 / 2016 - "Die Zukunft des Alterns", S. 43
https://www.unternehmen-region.de/de/unternehmen-region-magazin-2-2016-erschienen-1897.html

Kontakt

Portrait: Prof. Gangolf Hirtz
Prof. Gangolf Hirtz
  • Telefon:
    +49 371 531-37378
  • E-Mail:
  • Adresse:
    Reichenhainer Straße 70, 09126 Chemnitz
  • Raum:
    C25.419 (alt: 2/W419)
BMBF Logo