Damit maschinelles Sehen den Markt erobert
Wissenschaftler der TU Chemnitz präsentieren auf der CeBIT 2016 eine Software für die Entwicklung von bildverarbeitenden Systemen über Betriebssystem- und Rechenarchitekturgrenzen hinweg
Ob beim teilautonomen Fahren, in der Robotik oder im intelligenten Haus: Maschinelles Sehen ist eine der Schlüsseltechnologien des Internets der Dinge. Die entsprechenden Systeme müssen mit den begrenzten Leistungs- und Energieressourcen eingebetteter und mobiler Computersysteme auskommen. Während dies durch zunehmend leistungsfähigere, energieeffizientere und kostengünstigere Prozessoren sowie intelligente Algorithmen immer besser gelingt, arbeiten Wissenschaftler der Technischen Universität Chemnitz an der Lösung einer weiteren Herausforderung: „Ein Hindernis für die Etablierung des maschinellen Sehens ist die Tatsache, dass jede einzelne Problemstellung durch eine aufwändige Entwicklung individuell gelöst werden muss“, sagt Lars Meinel, wissenschaftlicher Mitarbeiter an der Professur Digital- und Schaltungstechnik, und verdeutlicht: „Synergieeffekte zwischen verschiedenen Anwendungen wie der automatischen Passagierschleuse am Flughafen und der Warteschlangenzählung an der Supermarktkasse können trotz der Ähnlichkeit zugrundeliegender Algorithmen aktuell nicht genutzt werden.“ Die Chemnitzer Wissenschaftler präsentieren ihre Lösung – ein Cross-Platform Computer Vision (XPCV) Framework – auf der CeBIT in Hannover. Dort geben sie vom 14. bis 18. März 2016 einen Einblick in die Funktionsweise und den Nutzen der neuen Softwareumgebung. Messebesucher erhalten am Gemeinschaftsstand „Forschung für die Zukunft“ in Halle 6, Stand B24, zudem Informationen, wann und wie die Software genutzt werden kann.
Das an der Professur Digital- und Schaltungstechnik entwickelte Cross-Platform Computer Vision (XPCV) Framework ist eine Software, die eine modularisierte Entwicklung von bildverarbeitenden Systemen über Betriebssystem- und Rechenarchitekturgrenzen hinweg ermöglicht. „Ein auf dem PC entwickeltes System kann damit schnell und unkompliziert auf eine Embedded-Zielplattform übertragen und zudem über eine integrierte Kommunikationsschnittstelle fernkonfiguriert werden. Der Anteil der aufwändigen Entwicklung von Kommunikationsprotokollen und hardwareoptimierten Algorithmen wird auf ein Minimum reduziert“, sagt Meinel und ergänzt: „Eine intuitiv zu bedienende grafische Benutzeroberfläche sowie eine zunehmend wachsende Modulbibliothek helfen auch Einsteigern, zum Beispiel in Verbindung mit Einplatinencomputern wie dem Raspberry Pi erste funktionsfähige Bildverarbeitungssysteme zu realisieren. Erfahrene Entwickler profitieren von einer verbesserten Konfigurierbarkeit, Parametrisierbarkeit und Testbarkeit der Verarbeitungskette.“ Insgesamt kann die Software die Entwicklungskosten und Markteinführungszeiten für bildverarbeitende Systeme reduzieren – und macht dadurch den Weg frei für Anwendungen in Märkten wie dem Smart Home, wo der Preis eine große Rolle spielt. Dadurch erhoffen sich die Chemnitzer Wissenschaftler, dass das maschinelle Sehen auch außerhalb der aktuellen Kernmärkte der Industrieautomatisierung und Qualitätssicherung Fuß fassen kann.
Weitere Informationen: https://www.xpcv.de
Kontakt: Lars Meinel, Telefon 0371 531-33593, E-Mail lars.meinel@etit.tu-chemnitz.de
Katharina Thehos
24.02.2016