| 2024 | 2023 | 2022 | 2021 | 2020 | 2019 | 2018 | 2017 | 2016 | 2015 | 2014 | 2013 | 2012 | 2011 | 2010 | 2009 | 2008 | 2007 | 2006 | 2005 | 2004 | 2003 | 2002 | 2001 | 2000 | 1999 | 1998 | 1997 |
Promotionen der Fakultät für Informatik im Jahr 2014
Lang, Jens Gutachter: Prof. Dr. Gudula Rünger (Technische Universität Chemnitz), Prof. Dr. Fred Hamker (Technische Universität Chemnitz)
|
|
Abstract deutsch: Der Energieverbrauch bei der Ausführung von Simulationen auf Rechenclustern gewinnt im wissenschaftlichen Rechnen stark an Bedeutung. Die Doktorarbeit entwickelt Methoden, um die Ausführung wissenschaftlicher Simulationen automatisch an die zugrunde liegende Hardware anzupassen und damit effizienter zu machen. „Effizient“ ist hier sowohl in Bezug auf die Ausführungszeit als auch auf die Energie zu verstehen. Konkret wird modellbasiertes Autotuning eingesetzt, um zwei Anwendungen, die Schnelle Multipolmethode (FMM) und die Methode der Finiten Elemente (FEM), zeit- und energieeffizient auszuführen. Das modellbasierte Autotuning passt die Ausführung einer Anwendung an die genutzte Hardware und die Eingabedaten an, indem es entsprechend der Vorhersage eines Modells den effizientesten mehrerer Ausführungspfade wählt. Für die FMM, eine baumbasierte Teilchensimulation, wird ein Modell entwickelt, das die Kosten des Algorithmus bei verschiedenen Tiefen des Teilchenbaums vorhersagt. Mit diesem Modell wird die Baumtiefe mit minimaler Ausführungszeit bzw. minimalem Energieverbrauch bestimmt. Für die FEM, die Deformationen von Festkörpern berechnet, wird ein Modell entwickelt, das Ausführungszeit und Energieverbrauch des Algorithmus auf CPUs und Grafikprozessoren beschreibt. Mit diesem Modell wird ermittelt, wie die Rechenlast zwischen CPUs und Grafikprozessor verteilt werden muss, um eine möglichst kurze Ausführungszeit bzw. einen niedrigen Energieverbrauch zu erzielen. |
|
Heinrich, Matthias Gutachter: Prof. Dr. Martin Gaedke (Technische Universität Chemnitz), Prof. Dr. Alexander Schill (Technische Universität Dresden), Prof. Dr. Maximilian Eibl (Technische Universität Chemnitz)
|
|
Abstract: Web applications offering real-time collaboration support (e.g. Google Docs) allow geographically dispersed users to edit the very same document simultaneously, which is appealing to end-users mainly because of two application characteristics. On the one hand, provided real-time capabilities supersede traditional document merging and document locking techniques that distract users from the content creation process. On the other hand, web applications free end-users from lengthy setup procedures and allow for instant application access. However, implementing collaborative web applications is a time-consuming and complex endeavor since offering real-time collaboration support requires two specific collaboration services. First, a concurrency control service has to ensure that documents are synchronized in real-time and that emerging editing conflicts (e.g. if two users change the very same word concurrently) are resolved automatically. Second, a workspace awareness service has to inform the local user about actions and activities of other participants (e.g. who joined the session or where are other participants working). Implementing and integrating these two collaboration services is largely inefficient due to (1) the lack of necessary collaboration functionality in existing libraries, (2) incompatibilities of collaboration frameworks with widespread web development approaches as well as (3) the need for massive source code changes to anchor collaboration support. Therefore, we propose a Generic Collaboration Infrastructure (GCI) that supports the efficient development of web-based groupware in various ways. First, the GCI provides reusable concurrency control functionality and generic workspace awareness support. Second, the GCI exposes numerous interfaces to consume these collaboration services in a flexible manner and without requiring invasive source code changes. And third, the GCI is linked to a development methodology that efficiently guides developers through the development of web-based groupware. To demonstrate the improved development efficiency induced by the GCI, we conducted three user studies encompassing developers and end-users. We show that the development efficiency can be increased in terms of development time when adopting the GCI. Moreover, we also demonstrate that implemented collaborative web applications satisfy end-user needs with respect to established software quality characteristics (e.g. usability, reliability, etc.). |
|
Ritter, Marc Gutachter: Prof. Dr. Maximilian Eibl (Technische Universität Chemnitz), Prof. Dr. Fred Hamker (Technische Universität Chemnitz)
|
|
Abstract:
Der große technologische Fortschritt im Bereich der Sensorik und den damit verbundenen Aufzeichnungsmethoden führt in fast allen Disziplinen der Wissenschaft sowie im Produzenten- und Konsumentenbereich zu stetig größer werdenden und immer schneller wachsenden Datenbeständen. Von der zunehmenden Datenflut sind auch lokale Fernsehsender betroffen, deren Datenbestände oftmals mehrere zehntausend Videokassetten und -bänder umfassen. Es werden moderne Tools und Verfahren benötigt, um derartige Datenkollektionen inhaltlich automatisiert zu erschließen und durch beschreibende Daten sinnvoll recherchierbar zu machen. Das Auffinden relevanter Objekte spielt in diesem Prozess eine übergeordnete Rolle. Aufgrund der enormen Größe der Datenbestände treten gesteigerte Anforderungen auf. Dazu gehören niedrige Fehlerraten bei hohen Detektionsraten. Diese eigentlich konträren Bedingungen sind notwendig, um einerseits eine Korruption des Suchindex durch zu viele fehlerhafte Daten zu verhindern, damit spätere Suchanfragen erfolgreich beantwortbar sind. Andererseits müssen immer noch genügend Objekte indiziert werden, um eine Aussage über den tatsächlichen Inhalt treffen zu können. Die vorliegende Arbeit geht der Frage nach, wie bestehende Detektionsverfahren an diese gesteigerten Anforderungen angepasst und optimiert werden können. Einer Auswertung des aktuellen Forschungsstandes folgt die Ableitung eines Anforderungskatalogs. Die nachfolgende Entwicklung und Umsetzung eines holistischen Frameworks stellt ein offenes und an die hohen Leistungsbedürfnisse der Bildverarbeitung angepasstes Workflow- und Prozesssystem mit dem Ziel zur Verfügung, die Entwicklung von Bilderkennungsalgorithmen, die Visualisierung von Zwischenschritten sowie deren Evaluation und Optimierung zu ermöglichen. Dazu werden einerseits Verfahren zur strukturellen Zerlegung von Videomaterialien in das System integriert, analysiert und optimiert. Andererseits steht bei der nachfolgenden inhaltlichen Analyse die Gesichtsdetektion im Vordergrund, da diese Objektklasse am häufigsten in den vorliegenden Datenbeständen auftritt. Deren Anwendbarkeit wird stellvertretend auf einem großen Datensatz der Tagesschau evaluiert und auf sehr geringe Falsch-Positiv-Raten optimiert. Um die generische Applizierbarkeit auf weiteren Objektklassen zu eruieren, untersucht eine empirische Evaluationsstudie abschließend die Kombinationsfähigkeit verschiedener Merkmale zur Fußgängerdetektion auf unterschiedlichen Datensätzen. |
|