Expertise der Juniorprofessur
Beschreibung:
Künstliche Intelligenz in der Augenmedizin zielt ab auf die Unterstützung von Befundungsprozessen und Therapieentscheidungen bei Volkskrankheiten wie der Altersbedingten Makuladegeneration, Diabetischem Makulaödem und retinalen Venenverschlüssen. Das setzt die strukturierte Aufarbeitung von augenmedizinischen Freitexten mittels Text Mining voraus. Mit KI analysiert werden aber auch Bilder aus bildgebenden Verfahren wie der Funduskopie und die Optische Koheränztomografie (OCT) auf Biomarker und pathologische Zustände.
Methoden:- Regelbasierte Expertensysteme zur Diagnose- und Therapieunterstützung
- Verlaufsmodelleriung mittels konventioneller Methoden des maschinellen Lernens wie Entscheidungsbäume, Regression, SVMs, ...
- Bilderarbeitung mittels Deep Learning, z.B. tiefe neuronale Faltungsnetze
- Text Mining und Natural Language Processing (NLP)
- Hexagonale Bildverarbeitung, speziell hexagonale neuronale Faltungsnetze
Anwendungsbeispiele:
- Recommender-System für die Vorhersage der Sehschärfe unter verschiedenen Therapie-Ansätzen
- KI-basierte Biomarker-Erkennung in Optischen Koheränztomographie-Aufnahmen
- Partizipatives Entwerfen von Nutzeroberfläche zur Diagnose-Unterstützung bei diebetischen Augenerkrankungen
Projekte:
- seit 09/2021: MIHUBx - Digitaler Fortschrittshub Medizin
- 2018-2021: OphthalVis2.0 – Entwicklung individueller Therapie-Ansätze bei AMD, DMÖ und RVV durch Analyse aufbereiteter Massendaten mit maschinellen Lernverfahren
- 2018-2021: Spektroskopie des Augenfundus
- 2016 - 2019: TOPOs – Therapievorhersage durch Analyse von Patientendaten in der Ophthalmologie
- 2015 - 2016: OphthalVis
Veröffentlichungen:
- 2024: Visual acuity prediction on real-life patient data using a machine learning based multistage system
- 2023: Improving OCT Image Segmentation of Retinal Layers by Utilizing a Machine Learning Based Multistage System of Stacked Multiscale Encoders and Decoders
- 2017: Preparing clinical ophthalmic data for research application
- 2017: Aufbereitung augenmedizinischer Bild-, Patienten-und Diagnosedaten zum Zwecke der Forschung - Ethikrichtlinien und deren praktische Umsetzung
Beschreibung:
Gemeinsam mit der Partnern aus der Industrie und der Professur Schweißtechnik der TU Chemnitz erforscht die JP Media Computing seit 2017 i.) die videobasierte Charakterisierung der Schmelzzone während des Laserschweißens und ii) die Erkennung von Fehlern in Bildern nach laserverarbeitenden Prozessen, z.B. durch laserbasiertes Schneiden (Thermal Laser Separation) von Halbleiter-Wafern.
Methoden:- klassische regelbasierten Bildverarbeitungs-Pipelines
- Deep Learning, z.B. tiefe neuronale Faltungsnetze
- Hexagonale Bildverarbeitung, speziell hexagonale neuronale Faltungsnetze
- Simulation von Bildmaterial als Augmentationsmethode für überwachte Lernverfahren
Anwendungsbeispiele:
- High-Speed-Video-basierte Schmelzzonengeomtrieüberwachung während des Laserschweißens
- Fehlererkennung beim laserbasierten Schneiden, z.B. bei Halbleiter-Wafern
Projekte:
- LocalizeIT - Lokalisierung visueller Medien
- ESF Landesinnovationspromotion von Tobias Schlosser: Robuste Objektklassifikation zur klinischen sowie industriellen Bild- und Videoverarbeitung auf Basis der hexagonalen Bildrasterung für maschinelle Lernverfahren
-
Automatic Visual Defect Inspection in Multiple Domaines using Computer Vision based on Deep Learning
Ausgewählte Veröffentlichungen:
- 2024: Attention Modules Improve Modern Image-Level Anomaly Detection: A DifferNet Case Study
- 2022: Improving automated visual fault inspection for semiconductor manufacturing using a hybrid multistage system of deep neural networks
- 2019: A Novel Visual Fault Detection and Classification System for Semiconductor Manufacturing Using Stacked Hybrid Convolutional Neural Networks
Beschreibung:
Seit 2014 wird an Themen der KI-gestützten audiobasierten Klassifikation von Geräuschen und Vogelstimmen geforscht. Gemeinsam mit der Professur Medieninformatik (TU Chemnitz) und der Cornell University werden Algorithmen entwickelt zur Erkennunf von Vogelarten anhand des Gesangs. Dabei enstand auch die mit >1 Mio. Downloads inzwischen weitweit verbreitete Birdnet App.
Ein weiteres Thema ist die intelligenten Innenraumgeräuscherkennung, welche dem Thema technikassistierten Lebens zuzuordnen ist (engl. Ambient Assited Living - AAL). Einerseits werden die zugrundeliegenden Algorithmen erforscht und verbessert, andererseits wird durch partizipatives Entwerfen mit unterschiedlichen Nutzergruppen wie bspw. der Ü60-Generation erforscht inwiefern diese Technologie bspw. für mehr Sicherheit in der häuslichen Umgebung sorgen kann. Auch die Anwendung Pflegekontexten steht hier im Raum.
Methoden:- Deep Learning, z.B. tiefe neuronale Faltungsnetze
- Nutzerzentriertes Entwerfen von Anwendungen / Mensch-Technik-Interaktion
Anwendungsbeispiele:
- Geräuscherkennung, bspw. sprechende Personen, Hundebellen, Dusche, Zähneputzen
Projekte:
- LocalizeIT - Lokalisierung visueller Medien
Ausgewählte Veröffentlichungen:
- 2024: TUC Media Computing at BirdCLEF 2024: Improving Birdsong Classification Through Single Learning Models
- 2023: Improving Learning-Based Birdsong Classification by Utilizing Combined Audio Augmentation Strategies
- 2021: TUC Media Computing at BIRDCLEF 2021: Noise augmentation strategies in bird sound classification in combination with DenseNets and ResNets
- 2019: A Real-Time Demo for Acoustic Event Classification in Ambient Assisted Living Contexts
- 2017: Large-Scale Bird Sound Classification using Convolutional Neural Networks
Beschreibung:
Das Thema befasst sich mit Software- und Methodenentwicklung und –evaluation für Einzelmolekül(video)mikroskopie und -spektroskopie zur Untersuchung von Faltungs- und Bindungsprozessen von Biomolekülen wie Ribonukleinsäuren (RNS). Konkret geht es Methodenoptimierung für die Lokalisation von Molekülen, kinetische und thermodynamische (Zeitreihen)-Analysen unter Anwendung von Hidden Markov Models, Clustering und statistischen Methoden. Wesentliche Algorithmen stehen mit optimierten Parametern als Teil einer Toolchain zur Verfügung, innerhalb der Anwendersoftware mit User-Interface „MASHFRET".
Methoden:
- Zeitreihenanalyse
- Diskretisierung mittels Hidden-Markov-Models
- Sortieren molekulare Spezies mittels maschinellen Lernens
- Statistische Methoden, z.B. Regression, Bootstrapping, Signifikanz-Tests
- Bild- und Videoverarbeitung, z.B. zur Moleküllokalisation
- Nutzerzentrierte Oberflächenentwicklung
- Realistische Simulation von Mikroskopie-Videos
Anwendungsbeispiele:
- Sortieren/Klassifizieren von Molekülen mit und ohne photophysikalischen und photochemischen Störerscheinungen
- Simulation von Mikroskopie-Aufnehmen mit hexagonalem Bild-Sensor
Ausgewählte Veröffentlichungen:
- 2021: "Sorting of Single-Molecule Trajectories by means of Machine Learning - a status update on the annotation procedure"
- 2020: Metal ions and sugar puckering balance single-molecule kinetic heterogeneity in RNA and DNA tertiary contacts
- 2018: Reliable State Identification and State Transition Detection in Fluorescence Intensity-Based Single-Molecule FRET Data
- 2018: Simulations of camera-based single-molecule fluorescence experiments
- 2016: Metal Ion Induced Heterogeneity in RNA Folding Studied by smFRET