Forschungsseminar
Das Forschungsseminar richtet sich an interessierte Studierende des Master- oder Bachelorstudiums. Andere Interessenten sind jedoch jederzeit herzlich willkommen! Die vortragenden Studenten und Mitarbeiter der Professur KI stellen aktuelle forschungsorientierte Themen vor. Vorträge werden in der Regel in Englisch gehalten. Den genauen Termin einzelner Veranstaltungen entnehmen Sie bitte den Ankündigungen auf dieser Seite.
Informationen für Bachelor- und Masterstudenten
Die im Studium enthaltenen Seminarvorträge (das "Hauptseminar" im Studiengang Bachelor-IF/AIF bzw. das "Forschungsseminar" im Master) können im Rahmen dieser Veranstaltung durchgeführt werden. Beide Lehrveranstaltungen (Bachelor-Hauptseminar und Master-Forschungsseminar) haben das Ziel, dass die Teilnehmer selbstständig forschungsrelevantes Wissen erarbeiten und es anschließend im Rahmen eines Vortrages präsentieren. Von den Kandidaten wird ausreichendes Hintergrundwissen erwartet, das in der Regel durch die Teilnahme an den Vorlesungen Neurocomputing (ehem. Maschinelles Lernen) oder Neurokognition (I+II) erworben wird. Die Forschungsthemen stammen typischerweise aus den Bereichen Künstliche Intelligenz, Neurocomputing, Deep Reinforcement Learning, Neurokognition, Neurorobotische und intelligente Agenten in der virtuellen Realität. Andere Themenvorschläge sind aber ebenso herzlich willkommen!Das Seminar wird nach individueller Absprache durchgeführt. Interessierte Studenten können unverbindlich Prof. Hamker kontaktieren, wenn sie ein Interesse haben, bei uns eine der beiden Seminarveranstaltungen abzulegen.
Vergangene Veranstaltungen
Contrastive learningRené Larisch Thu, 19. 12. 2024, 1/346 and https://webroom.hrz.tu-chemnitz.de/gl/jul-2tw-4nz Deep neural networks have shown very good performance in object recognition and object detection tasks. To perform such a task, a good representation of different input features is necessary. It has been shown that representation learning methods, such as contrastive learning, provide good feature representation when used as a pretext task. In addition, recent contrastive learning methods are trained in an unsupervised manner, allowing the network to be trained on a large corpus of data without the need for labels. By providing a useful representation of input features, contrastive learning methods are also interesting as simple models of the visual cortex, providing input to higher cortical areas. In my talk, I will give a brief overview of the basic principles of contrastive learning, present different concepts for the further development, and discuss open problems in contrastive learning. |
A Survey of Reservoir Computing for Control TasksMaximilian Titz Thu, 17. 10. 2024, 1/346 and https://webroom.hrz.tu-chemnitz.de/gl/jul-2tw-4nz Reservoir Computing has seen a noticeable increase in popularity in recent years. Reservoirs aim to leverage the complex behaviors that naturally emerge in high-dimensional, dynamical systems in response to an input. In doing this, they constitute a simple way to circumvent the vanishing/exploding gradient problem that arises when training recurrent neural networks. This makes them effective for tasks that require time series processing. Additionally, they significantly reduce the number of parameters that need training. Despite these advantages, the training of reservoirs presents unique challenges. These include, for example, finding good hyperparameters used to initialize the network. This seminar delves into recent research papers that utilize reservoir computing for control tasks. The primary goal is to showcase and compare different approaches, highlighting how reinforcement learning techniques, such as Q-learning and Proximal Policy Optimization, are used with reservoir computing. Furthermore, it explores novel methodologies, such as optimizing the hyperparameters of a reservoir using Meta-Learning and the integration of random weight Convolutional Neural Networks with reservoir computing to process video data. By examining these diverse strategies, the seminar aims to provide an overview of the current state of RC and its potential for future advancements in the field. |
Bridging Consciousness and AI: Evaluating the Global Latent Workspace in Embodied AgentsNicolas Kuske Wed, 9. 10. 2024, 1/368a In the wake of the success of attention-based transformer networks, the discussion about consciousness in artificial systems has intensified. The global neuronal workspace theory (GNWT) models consciousness computationally, suggesting the brain has specialized modules connected by long distance neuronal links. Depending on context, inputs, and tasks, content from one module is broadcasted to others, forming the global neuronal workspace representing conscious awareness. The global latent workspace (GLW) model introduces a central latent representation around which multiple modules are built. A semi-supervised training process ensures cycle consistency, enabling content translation between modules with minimal loss. The central representation integrates necessary information from each module, with access determined by transformer-like attention mechanisms. We examine the dynamics of a virtual embodied reinforcement learning agent with a minimal GLW setup, involving deep visual sensory and motor modules. The augmented PPO agent exhibits complex goal-directed behavior in the Obstacle Tower Challenge 3D environment. Latent space representations cluster into sensorimotor affordance groups. This study links GNWT with sensorimotor contingency theory, suggesting that changes in sensory input relative to motor output constitute the neuronal correlates of conscious experience. This convergence in a machine learning setup raises the question: Can such in silico representation suffice for phenomenal spatial perception? |
Development of a Hierarchical Approach for Multi-Agent Reinforcement Learning in Cooperative and Competitive EnvironmentsRobert Pfeifer Wed, 11. 9. 2024, 1/368 and https://webroom.hrz.tu-chemnitz.de/gl/jul-2tw-4nz Multi-Agent Reinforcement Learning (MARL) enables multiple agents to learn purposeful interactions in a shared environment by maximizing their own cumulative rewards. As a subject of current research MARL is getting applied in various fields, such as robotics, traffic control, autonomous vehicles and power grid management. However, these algorithms faces challenges including partial observability, non-stationarity of the environment, coordination among agents and scalability issues when incorporating a multitude of agents. This thesis explores Hierarchical Reinforcement Learning (HRL) as a potential solution to address these challenges, using the Goal-Conditional Framework to decompose complex tasks into simpler sub-tasks, which facilitates better coordination and interpretability of behavior. The Goal-Conditional Framework learns this decomposition automatically in an end-to-end fashion by assigning the respective tasks to a hierarchy of policies. The higher-level policy proposes a goal vector either in a latent state representation or directly in the state space while operating on a potentially slower time scale. The lower-level policy receives the goal as part of its observation space and obtains an intrinsic reward based on how well it achieves the goal state. Only the top-level policy receives the reward signal from the environment. The thesis implements the Multi-Agent Deep Deterministic Policy Gradient (MADDPG) algorithm proposed by (Lowe et al., 2020) and extends it for hierarchical learning using either a centralized or decentralized manager policy. It investigates the performance of this approach in various environments, focusing on diverse learning aspects such as agent coordination, fine-grained agent control, effective exploration and directed long-term behavior. Additionally, the thesis explores the influence of architecture, time horizon and intrinsic reward function on final performance, aiming to gain a deeper understanding of the possibilities and challenges associated with Goal-Conditional hierarchical algorithms. |
Entwicklung von KI-Modellen zur Adressdatenextraktion: Herausforderungen, Methoden und Empfehlungen zur Bewältigung von Vielfalt und KontextfehlernErik Seidel Tue, 27. 8. 2024, 1/368 and https://webroom.hrz.tu-chemnitz.de/gl/jul-2tw-4nz Die präzise Erkennung postalischer Adressen stellt eine zentrale Herausforderung dar, insbesondere, wenn Modelle auf die Erkennung anderer Entitäten, wie beispielsweise Personen, trainiert werden. Die dabei entstehenden Konflikte haben Einfluss auf deren Identifikation. Ein Beispiel hierfür ist die Verwechslung bei Namen wie "Professor Richard Paulik" mit "Professor Richard Paulik Ring". Aber auch die Unterscheidung zwischen Personen- und Ortsnamen sind eine Herausforderung. Zentrale Probleme stellen Komplexität, Diversität (Vielfalt) und Ambiguität (Mehrdeutigkeit) der Entitäten dar. Ausreichend annotierte Daten von Adressen oder Personen sind nur schwer zu finden. Die Arbeit untersucht, welche Ansätze sich am besten für die Erkennung von Adressen eignen. Im Fokus stehen Transformer Modelle. Für das Problem der Datenbeschaffung wird der Einsatz synthetisch erstellter Daten betrachtet. Das Ziel ist eine möglichst breite Vielfalt an Beispielsätzen für das Training und die Evaluation zu erreichen. Es werden verschiedene Metriken und Werkzeuge vorgestellt, mit dessen Hilfe sich Modelle und Daten bewerten und optimieren lassen. |
Vergleich und Verifikation von Methoden der eXplainable Artificial Intelligence anhand der Re-Identifikation von PersonenSimon Schulze Tue, 13. 8. 2024, 132 and https://webroom.hrz.tu-chemnitz.de/gl/jul-2tw-4nz Die Verifikation von Methoden der eXplainable Artificial Intelligence (XAI) ist unabdingbar, um die Vorhersagen komplexer, undurchsichtiger Modelle des maschinellen Lernens (ML) interpretier- und nachvollziehbar zu machen und die Korrektheit der Erklärungen zu testen. Besonders in kritischen Infrastrukturen ist eine Prüfung der eingesetzten Algorithmen durch XAI-Verfahren notwendig, um das Vertrauen in diese zu stärken und deren Richtigkeit nachzuweisen. Durch die zusätzliche Bestätigung der Korrektheit der XAI-Aussagen wird dies zunehmend untermauert. Im Rahmen dieser Bachelorarbeit werden drei Modelle des ML, eine Support-Vektor-Maschine (SVM), ein Multi-Layer Perzeptron (MLP) und eine Gated Recurrent Unit (GRU), eingesetzt. Eine Anwendung dieser erfolgt auf dem von Smerdov u. a. [SME+20] vorgestellten eSports-Sensor-Datensatz, in welchem zahlreiche biometrische Attribute einzelner Spieler enthalten sind. Mit Hilfe von XAI-Methoden sollen die relevantesten Eigenschaften der einzelnen Spieler analysiert werden. Eingesetzt werden dazu Local Interpretable Model-Agnostic Explanations (LIME), Shapley Werte, Gradients, Gradients-SmoothGrad (Gradients-SG) und Layer-Wise Relevance Propagation (LRP). Deren Aussagen werden mit Hilfe verschiedener Vergleichs- und Verifikationsmetriken - die Größe der Schnittmenge der relevantesten Attribute, die Stabilität von XAI-Methoden, deren deskriptive Genauigkeit, deskriptive Spärlichkeit und maximale Sensitivität - auf ihre Richtigkeit kontrolliert. Es wird gezeigt, dass sich die Aussagen verschiedener XAI-Verfahren unterscheiden und somit eine individuelle Korrektheitsprüfung dieser notwendig ist. Da biometrische Merkmale laut Payne u. a. [PAY+23] unter Umständen einen signifikanten Aufschluss über individuelle Muster und Charakteristiken einzelner Personen geben, besteht die Annahme, dass diese durch XAI-Methoden abgebildet werden können. Schlussendlich erfolgt daher eine Wiedererkennung der Individuen ausschließlich auf Basis der erhaltenen XAI-Ergebnisse. Es kann erfolgreich bestätigt werden, dass dies in einem bestimmten Rahmen möglich ist. |
Investigation of Time Series Based AI Models for Autonomous Driving Function ValidationVincent Kühn Mon, 5. 8. 2024, 1/367 and https://webroom.hrz.tu-chemnitz.de/gl/jul-2tw-4nz Bevor autonome Fahrfunktionen freigegeben werden, müssen sie während der Entwicklung ausgiebig getestet werden. Dies geschieht in der Regel in einer Simulationsumgebung, da in den frühen Phasen der Entwicklung keine geeigneten Fahrzeuge zur Verfügung stehen und eine Erprobung in der realen Welt aus verschiedensten Gründen nicht möglich ist. Abhängig von der Simulationsumgebung und den Testwerkzeugen kann die anschließende Bewertung sehr langsam sein. Um diese Testauswertungen zu beschleunigen und effizienter zu gestalten, werden verschiedene moderne Algorithmen zur Zeitreihenanalyse ausgewählt und verglichen. Im Einzelnen handelt es sich um Zeitreihenklassifizierungsmodelle zur schnellen und korrekten Klassifizierung von Testszenarien als bestanden oder nicht bestanden und um Zeitreihenprognosemodelle zur Gewinnung zusätzlicher Erkenntnisse über das zu testende Fahrverhalten. |
IntelEns - a Reinforcement Learning based Approach for automated Time Series ForecastingRobin Wagler Tue, 16. 7. 2024, 1/368 and https://webroom.hrz.tu-chemnitz.de/gl/jul-2tw-4nz Creating time series predictions and forecasts is a highly specialised process. Therefore, it is hard to automate it. On the other hand, there is a huge need for such predictions as they can tell information about the future. This thesis proposes a model called Intelligent Ensemble (IntelEns), which should be able to automate the time series forecasting process. IntelEns combines a classical forecasting ensemble with reinforcement learning (RL). The idea is to train different base learners (regression models), which create individual predictions. A RL-agent learns how to combine these individual predictions at every time step based on the actual observation of the time series. The result is an ensemble prediction for every time step. The RL-agent should learn which model to use, when and how intense. As the RL algorithms learn through trial and error, no human supervision is needed, and the forecasting could be automated. This thesis investigates intensively the properties and abilities of the proposed model. A prototype was built using Python. Experiments are done on scientific time series data with good patterns and a real-world dataset from Porsche's aftersales domain. The strengths and weaknesses of the proposed approach are presented, and the question of whether an RL-based ensemble could be used to automate the time series forecasting process will be answered. |
Deep Learning for Recognition of Type Labels on Heating Systems in 3D ScenesGoutham Ravinaidu Thu, 4. 7. 2024, https://webroom.hrz.tu-chemnitz.de/gl/jul-2tw-4nz This presentation will cover the background and working principles used in tackling the problem statement and present the achieved results. This thesis aims to detect the type labels present on the heating systems from a video sequence and extract the text present on those labels. The various object detection models used to localize the labels, the use of image quality analysis to ensure quality, and the utilization of various OCR models used in extracting the text information. This presentation also shows the results of the completed pipeline of the thesis with the combined use of object detectors, quality control and OCR models. I will finally discuss the results and provide a conclusion. |
Optimizing Neural Network Architectures for Fail-Degraded Computing Scenarios in Automated Driving ApplicationsDiksha Vijesh Maheshwari Fri, 28. 6. 2024, 1/368 and https://webroom.hrz.tu-chemnitz.de/gl/jul-2tw-4nz Neural networks (NNs) are commonly used in automated driving applications. With shrinking transistor size for denser integration, integrated circuits become increasingly susceptible to permanent faults. These permanent faults can lead to a complete loss of functionality, which is unacceptable in safety-critical applications. The thesis introduces a robust Fail Degradation-Aware Quantization (FDQ) strategy coupled with sensitivity prediction algorithms to maintain high algorithmic performance in presence of permanent faults. The FDQ method improves the optimization process by incorporating losses for both higher and lower precision to compute optimal quantization step sizes for model parameters and activations. Additionally, the thesis investigates various sensitivity prediction algorithms that identify the critical components of the model, enabling strategic computational remapping of sensitive features to insensitive features to enhance model robustness and accuracy. Experimental results with ResNet18 and VGG16 models on CIFAR-10 and GTSRB dataset showcase the effectiveness of integrating FDQ with sensitivity-driven task remapping in hardware accelerators, significantly improve the robustness of NNs against permanent faults, ensuring sustained functionality and accuracy under adverse conditions. Specifically, at the highest fault injection error rate of 6.20% for the ResNet18 model on CIFAR-10 dataset, the FDQ method along with sensitivity remapping improved the accuracy by 10% from 76.60% to 87.07%. |