Springe zum Hauptinhalt
Professur für Allgemeine Psychologie & Human Factors
Labore und Ausstattung
Professur für Allgemeine Psychologie & Human Factors 

Labore und Ausstattung

Fahrsimulator

Moderne Fahrzeuge enthalten immer mehr Technik. Damit wird die sichere und komfortable Interaktion zwischen Mensch und Technik im Fahrzeug ein wichtiger Forschungsgegenstand, welcher im Fahrsimulator unter kontrollierten Bedingungen untersucht werden kann. Die Professur für Allgemeine Psychologie I und Human Factors betreibt am Standort Erfenschlag einen statischen Fahrsimulator der Firma System Technologies Inc., Modell STISIM Drive 100W. Der Fahrsimulator wird über das Lenkrad, Gas- und Bremspedal eines 5er BMW (E39, Automatik) gesteuert. Die Simulation erlaubt eine 135° Projektion des Verkehrsszenarios auf drei Projektionsflächen mit einer jeweiligen Größe von 220 cm x 200 cm.

Fahrsimulator in der Innenansicht
Fahrsimulator in der Außenansicht

Technische Daten zum Fahrsimulator STISIM Drive 100W

Hersteller/Mod.:

  • Simulationssoftware: STISIM Drive, Modell 100W, Version 2.10.03, Firma System Technologies Inc. Fahrzeug: 5er BMW (E39, Automatikschaltung)

Merkmale/Fkt.:

  • Blickfeldabdeckung von 135°
  • Aufzeichnung aller Fahrparameter mit 60 Hz Messfrequenz
  • Open-Module-Schnittstelle zur Programmierung eigener Funktionen und Einbindung weiterer Sensorik/Ausgaben
  • Interaktiver und konfigurierbarer Umgebungsverkehr
  • Objektdatenbank für Fahrzeuge, Fußgänger, Radfahrer, Häuser, Schilder, Bäume... etc. und Möglichkeit der Einbindung beliebiger eigener 3D-Objekte
  • Einfache Skriptsprache für Szenariokonstruktion mit umfangreich konfigurierbaren Parametern für alle Objekte (Darstellung, dynamisches Verhalten, situationsabhängige Reaktionen...)

Einsatz:

  • Mensch-Technik-Interaktion, Fahrerverhalten, Fahrerablenkung, Fahrerzustand, Blickbewegungsmessung, Fahrerassistenzsysteme, Fahrzeugautomatisierung

Anwendungsgebiete

Der Fahrsimulator ermöglicht präzise und schädigungsfreie Studien zu potentiell sicherheitskritischem Verhalten wie beispielsweise Fahrerablenkung durch Smartphonenutzung oder Reaktionen auf kritische Ereignisse. Situationen (wie z.B. querende Fußgänger) können zeitgenau und reproduzierbar erstellt werden und erlauben Studien zum Verhalten verschiedener Fahrer unter verschiedenen Bedingungen. Neben exakten Fahrdaten wie Bremsreaktionszeiten kann zusätzliche Sensorik Aufschluss über den Fahrerzustand geben wie beispielsweise Blickbewegungsmessung, Erfassung physiologischer Parameter wie Herzrate und Aufzeichnung von Körperbewegungen mit Motion Tracking Systemen.

Eyetracker

An der Professur für Allgemeine Psychologie und Human Factors wird vor allem im Bereich der Grundlagenforschung mit einem stationären Eye-Tracking-System in einem schall- und lichtreduziertem Dunkellabor geforscht. Der Eye-Tracker zeichnet 1000 Bilder pro Sekunde auf und es lassen sich Blickpositionen, Sakkaden und Veränderungen in der Pupillengröße präzise und in Echtzeit detektieren. Die Eye-Tracking-Brillen mit mobiler Aufzeichnungseinheit (Tablet, 100 Bilder pro Sekunde) werden primär für anwendungsnahe Forschung in dynamischen Kontexten außerhalb des Labors eingesetzt und erlauben volle Bewegungsfreiheit.

                                              
                                              Dunkellabor: Eyelink 100 Plus mit ViewPixx-3D Monitor

Technische Daten zum EyeLink 1000 Plus (stationär) und zu den Tobii Glasses 3 (mobil)

Hersteller/Mod.:

  • Stationärer Eyetracker EyeLink 1000 Plus der Firma SR Research, Osgoode, Canada
  • Mobiler Eyetracker (Brille) Tobii Glasses 3 der Firma Tobii

Merkmale/Fkt.:

  • Kontaktlos mit Kinnstütze, Tower-Mount-Aufbau
  • RED Infrarot Sensoren für beide Augen
  • Genauigkeit: 0,15 - 0,5° Sehwinkel
  • Auflösung: 0,01 - 0,05° Sehwinkel
  • Blickfeldabdeckung: 32° hor. / 25° vert.
  • Datenübertragung: M = 1,4 ms (SD < 0,2 ms) bei 2000 Hz
  • Experimental, Aufzeichnungs- sowie Auswertungssoftware von SR Research und in Matlab (Mathworks, Natick, MA, USA)
  • Blickfeldabdeckung: 95° horizontal / 63° vertical
  • Binoculare Infrarotkameras für Blickerfassung in mobiler Brille
  • Genauigkeit: 0,6°
  • Tobii Software zu Steuerung und Auswertung

Einsatz:

  • Laborstudien zur visuellen Wahrnehmung (Grundlagenforschung)
  • Dynamische Kontexte mit größeren relevanten Blickgebieten als ein Bildschirm (Räume, Fahrzeug, Supermarkt…)

Anwendungsgebiete

Im Fokus der Forschung mit dem stationären Gerät steht vor allem die Untersuchung der peripheren und fovealen Wahrnehmung und wie periphere und foveale Informationen über Blickbewegungen hinweg vom visuellen System zusammengefügt werden. Die mobilen Brillen kommen bei größeren relevanten Blickgebieten zum Einsatz. Beispiele dafür sind Fahrstudien im Fahrsimulator / Realverkehr oder Usabilitystudien im Feld. Blickzuwendungen bzw. -abwendungen spielen eine große Rolle im Bereich der Aufmerksamkeitsforschung, der Sicherheitsforschung sowie der Mensch-Technik-Interaktion im Allgemeinen.

Wearable Devices

An der Professur für Allgemeine Psychologie I und Human Factors wird sowohl im Bereich der Verkehrspsychologie als auch in der Industriepsychologie mit tragbaren Geräten (Wearable Devices) geforscht. Im Fokus stehen dabei die Mensch-Technik-Interaktion und die Zustandsbestimmung aus psychologischer Sicht mittels Smartwatches. Hierfür werden selbstentwickelte Apps verwendet, die den vollen Funktionsumfang der verwendeten Geräte nutzbar machen für Messungen als auch Informationsdarstellung.

Samsung Gear S3
Verschiedene Microsoft Band 2 Geräte

Technische Daten zur Samsung Gear S3 und zum Microsoft Band 2

Hersteller/Mod.:

  • Samsung Gear S3
  • Microsoft Band 2

Sensoren:

  • Herzrate, Beschleunigung, Lagesensor, Barometer, Höhenmeter, Umgebungslicht
  • Herzrate, Beschleunigung, Lagesensor, Umgebungslicht, Hautleitfähigkeit, UV-Sensor, Temperatursensor, Barometer

Eingabe:

  • Touchscreen, Lünette
  • Touchscreen

Features:

  • GPS, WLAN, Bluetooth, NFC, Mikrofon, Lautsprecher, SDK
  • GPS, Mikrofon, Vibrationsmotor, Bluetooth, SDK

Anwendungsgebiete

Die Smartwatches kommen vielfältig in unserer Forschung zum Einsatz. Dabei untersuchen wir die Möglichkeiten und Potenziale zur Unterstützung bei zunehmender Digitalisierung und Automatisierung im Industriekontext. Dabei eignen sich die verwendeten Geräte sowohl zur Informationsweitergabe an die Arbeitenden als auch zur Bestimmung des Zustandes der Arbeitenden aus psychologischer Sicht. Auch im Fahrzeug bieten Wearables die Möglichkeit, psychische Zustände des Fahrers zu bestimmen und darüber das Fahrzeugverhalten, Informationspräsentation oder Warnungen individuell und kontextsensitiv zu adaptieren.

Motion Capture

Motion Capture ermöglicht die präzise Erfassung von Bewegungen jeder Art um diese aufzuzeichnen, zu analysieren und weiterzuverarbeiten. Die Professur für Allgemeine Psychologie I und Human Factors nutzt ein markerbasiertes Motion Capture System der Firma OptiTrack mit 4 Flex 13 Kameras für mittlere bis kleinräumige Bewegungserfassung. Eingesetzt wird das mobile System beispielsweise im Fahrsimulator zur präzisen Erfassung von Kopf-, Hand- und Körperbewegungen des Fahrers.

Porbanden bei der Nutzung des Motion Capture Systems
Software des Motion Capture Systems

Technische Daten von OptiTrack Flex 13

Hersteller/Mod.:

  • OptiTrack Motion Capture System mit 4 Flex 13 Kameras und verschiedenen Markersets, Software Motive:Tracker 2.0.1

Merkmale/Fkt.:

  • Mobiles und skalierbares System durch Einbindung zusätzlicher Kameras
  • Präzises Echtzeit-Tracking von Einzelmarkern und festen Markergruppen (rigid bodies) mit 6 Freiheitsgraden und bis zu 120 Hz Messfrequenz
  • Simple Kalibrierung, automatische Nachkalibrierung
  • Umfangreiche Software (Motive:Tracker) mit Kamerasteuerung, Definition von rigid bodies, Kalibrierung, Aufzeichnung, Abspielen, Nachbearbeitung sowie Analyse- und Exportfunktionen
  • Echtzeitfähiges Datenstreaming und API für Integration in eigene Anwendungen

Einsatz:

  • Rückschlüsse auf psychische Zustände auf Basis von Körperbewegungen in verschiedenen Kontexten wie Mensch-Technik-Interaktion, Usability, Fahrerverhalten, Fahrerzustand etc.

Weitere Infos:

Anwendungsgebiete

An der Professur wird Motion Capture derzeit bei Fahrstudien eingesetzt zur präzisen Erfassung von Kopf-, Hand- und Körperbewegungen des Fahrers. Weitere Einsatzmöglichkeiten ergeben sich beispielsweise für Usabilitystudien zur Interaktion mit technischen Geräten, Bewegungsanalysen beim Querungsverhalten von Fußgängern oder der Analyse von kleinräumigen Bewegungen wie Gesten.

Fahrzeug- und Fahrdatenlogger

Der Stack DVR3-440 Datenlogger mit 4 Kameras, GPS und CAN-Schnittstelle ist für Datenaufzeichnung unter schwierigen Bedingungen ausgelegt wie Vibrationen, hohe Fliehkräfte und große Temperatur/Beleuchtungsschwankungen.

Datenlogger
Software des Datenloggers

Technische Daten des Stack DVR3-440 Datenlogger

Hersteller/Mod.:

  • Stack DVR3-440 Datenlogger mit 4 digitalen Video Kanälen, 5Hz GPS Aufzeichnung, 34 Kanal Metadaten-Aufzeichnung, Kontrollmonitor

Merkmale/Fkt.:

  • Robuste synchrone Aufzeichnung von 4 Videostreams mit bis zu 20 Mbps mit GPS (5Hz), Beschleunigungsdaten und Metadaten (z.B. CAN-Daten)
  • 128GB Speicherkarte, bis zu 72 Stunden kontinuierliche Aufzeichnung
  • Event Recorder Modus mit Ringspeicher zur Speicherung von definierbaren Zeiträumen vor und nach Ereignissen wie z.B. harten Bremsungen
  • DataPro Analysis Software mit umfangreichen Möglichkeiten der Visualisierung, Datenbearbeitung und Export
  • Temperaturbereich von -20 bis 80° C

Einsatz:

  • Videoaufzeichnung von Fahrerverhalten unter Realbedingungen, GPS-Streckenaufzeichnung, Fahrdatenaufzeichnung

Weitere Infos:

Anwendungsgebiete

An der Professur wird der Stack DVR3-440 Datenlogger für Realfahrstudien im Feld eingesetzt, insbesondere für längere Fahrten und wenn CAN-Daten mit aufgezeichnet werden sollen.

  • Logo

    #wirsinddivers

    TU Chemnitz lädt am 20. Mai 2025 alle Interessierten aus der Universität und der Stadt Chemnitz zum 3. Diversity Day ein …

  • Mehrere junge Menschen stehen um einen Tisch herum, auf dem Miniroboter fahren.

    RoboDay 2025: Robotik-Talente zeigen ihr Können

    Am 17. Mai 2025 wird der regionale Vorausscheid zur „World Robot Olympiad“ und der Wettbewerb „RoboSAX“ vereint mit einem Begleitprogramm für Kinder und Jugendliche, die spielerisch den Umgang mit Robotertechnologie, KI und autonomem Fahren erleben und die TU Chemnitz kennenlernen können …

  • Ein Mann mit Helm steht vor einem Förderturm im Sonnenuntergang.

    „Rummelplatz“ – eine ganz besondere Zeitreise

    TU Chemnitz ist Kooperationspartnerin der Konferenz zur Uraufführung der Oper „Rummelplatz“ ­– Für den Science Slam „Von Atommacht bis Zonen-Pop“ können bis zum 6. Juni 2025 Kurzbewerbungen eingereicht werden …

  • Ein Mann und eine Frau stehen neben einer technischen Anlage.

    Vom Reststoff zur Ressource

    Projekt „Reformed Wool“ bringt textile Abfälle zurück in den Kreislauf – EXIST-Förderung für Gründungsteam an der TU Chemnitz …