Springe zum Hauptinhalt
Rechnerarchitekturen und -systeme
Rechnerarchitekturen und -systeme
Rechnerarchitekturen und -systeme 

Teile-und-herrsche-Strategien für ressourcen-effizientes maschinelles Lernen

Methoden des maschinellen Lernens (ML) werden mittlerweile in den verschiedensten Anwendungen – darunter auch längst in eingebetteten Systemen – eingesetzt. Beispiele hierfür findet man im Automobilbereich (z.B. für die Erkennung von Verkehrsschildern und/oder -teilnehmern, etc.), aber auch in der Fabrikautomatisierung (insbesondere unter dem Begriff Industrie 4.0), etc.

Dabei sind CNNs (engl. Convolutional Neuronal Networks) die vielleicht am meisten verbreitete ML-Methode in der Praxis. Das liegt zum einen daran, dass es eine große Palette an fertigen CNN-Modellen gibt, was die Einstiegshürden größtenteils wegnimmt. Zum anderen ist es relativ einfach, problemspezifische CNN-Modelle selbst zu erstellen. Allerdings brauchen CNN-Modelle und ML-Methoden im Allgemeinen große Mengen an Daten, um trainiert zu werden (d.h., um zu lernen). Das Trainieren an sich ist aus dem Grund energetisch sehr teuer und bedarf leistungsstarker Rechner bestehend aus i.d.R. mehreren GPUs (Graphics Processing Units), die hohe Anschaffungskosten mit sich bringen. Dies ist insbesondere für kleine Unternehmen finanziell problematisch, was deren Einstieg in diese zukunftsweisende Technologie teilweise hindert.

Ungeachtet des Trends zu fortlaufendem/lebenslangem Lernen, bei dem auch zur Laufzeit trainiert werden muss, brauchen CNN-Modelle relativ viele Ressourcen (sowohl Speicher und Rechenleistung als auch Energie) zum Laufen. Das führt dazu, dass sich die dafür nötige Hardware (insbesondere im Bereich eingebettete Systeme) verteuert, was die Konkurrenzfähigkeit kleiner Unternehmen verschlechtert, die typischerweise geringe Stückzahlen produzieren.

 

Stacking Ensemble Network example

 

ESF Landesinnovationsstipendium für die Promotiom zum Thema "Teile-und-herrsche-Strategien für ressourcen-effizientes maschinelles Lernen"