Pressemitteilung vom 28.06.2019
App erkennt Vogelstimmen
Forscher der TU Chemnitz entwickelten KI-gestützte App zur Vogelstimmen-Erkennung
Die Analyse von Vogelstimmdaten wird für Ornithologinnen, Ornithologen und Hobby-Vogelforscherinnen und –forscher bedeutend einfacher. Denn die an der Technischen Universität Chemnitz entwickelte mobile App zur Aufzeichnung und Erkennung verschiedenster Stimmen von Singvögeln ist fertig und kann im Play Store von Google heruntergeladen werden.
Laut neuesten Zahlen nutzen aktuell bereits rund 180.000 Menschen die App, die Stefan Kahl, wissenschaftlicher Mitarbeiter an der Professur Medieninformatik (Prof. Dr. Maximilian Eibl) der TU Chemnitz, und sein Team entwickelt haben. Täglich zählen die Forscherinnen und Forscher aus Chemnitz rund 3.000 neue Nutzerinnen und Nutzer. Dazu zählt das Team rund 30.000 Beobachtungen durchschnittlich pro Tag. Das bedeutet, dass Nutzerinnen und Nutzer der App ihre Audio-Daten an den App-Server übertragen, wo sie durch die an der Professur Medieninformatik entwickelte Künstliche Intelligenz (KI) „BirdNET“ analysiert und die entsprechende Vogelart identifiziert wird.
Beteiligt an der App waren neben Stefan Kahl auch Wissenschaftlerinnen und Wissenschaftler der Hochschule Mittweida (Prof. Dr. Marc Ritter) und der Cornell University in Ithaca/New York (Prof. Dr. Holger Klinck).
Der Europäische Sozialfond (ESF) förderte das Projekt über einen Zeitraum von drei Jahren mit insgesamt 57.600 Euro. Darüber hinaus unterstützten die Professur Medieninformatik der TU Chemnitz und die Stiftungsjuniorprofessur Media Computing (Jun.-Prof. Dr. Danny Kowerko) der TU Chemnitz sowie ansässiger regionaler Unternehmen das Projekt.
Bessere Daten dank Citizen Science – Kooperation mit Tierpark Chemnitz
Mehrere Gigabyte an Audio-Daten wurden in das System eingespeist: „Wir verwenden die von unseren Nutzern eingespeisten Daten zur Verbesserung unseres Systems. So einen großen Datensatz aufzubauen ist nur durch die Hilfe der App-User möglich, denn nur so kommen wir an Aufnahmen von unterschiedlichen Geräten, Orten und Geräuschkulissen“, erklärt Stefan Kahl den „Citizen Science“-Ansatz seiner App. Das bedeutet, dass Nutzerinnen und Nutzer selbst aktiv am Forschungs- und Entwicklungsprozess teilnehmen können.
Ein weiterer Baustein des Citizen Science-Ansatzes sei eine Kooperation mit dem Tierpark Chemnitz. „Im Tierpark haben wir aktuell vier passive Rekorder angebracht, die rund um die Uhr Audio-Daten aufzeichnen, die wir später analysieren wollen. Dem Tierpark geht es dabei vor allem um die Frage, welche Arten frei lebend im Tierpark heimisch sind, wo sich bestimmte Arten konzentrieren und wie man diese Daten pädagogisch wertvoll nutzen kann“, erklärt Kahl.
Grenzübergreifender Erfolg
Die meisten Anfragen erreiche das Team aus Deutschland, dem Vereinigten Königreich, Frankreich und den USA, wo sich offenbar die größte Nutzerinnen- und Nutzerbasis befinde: „Wir freuen uns sehr, dass wir mit der Veröffentlichung der finalen Version unserer App einen wichtigen Beitrag für die Fachdisziplin der Ornithologie leisten können, damit Forscher noch effektiver ihre Daten auswerten können. Vor allem der grenzübergreifende Erfolg der App bereits vor der finalen Veröffentlichung zeigt uns, wie groß das Interesse ist“, sagt Kahl. Aufgrund der großen Nachfrage fertigten Kahl und sein Team eigens eine Version der App in französischer Sprache an.
Dank KI-Unterstützung Vogelstimmen auf der Spur
Der Hintergrund dieses Chemnitzer Forschungsprojektes ist denkbar einfach: Um wildlebende Tierarten wie Vögel nachhaltig schützen zu können, ist eine stetige Kontrolle und Überwachung unabdingbar. Wildtiere lassen sich aber nur eingeschränkt in freier Wildbahn dauerhaft durch den Menschen beobachten. In aller Regel werden daher Bild- und Tonrekorder eingesetzt, die Langzeitdaten aufzeichnen. Diese Daten müssen aber zuerst erhoben und ausgewertet werden, was bei wilden Tieren in der Regel mit hohem Aufwand verbunden ist.
Um die nötigen Daten für ihre App zu erhalten, legte das Team um Stefan Kahl das größte, vollständig annotierte Datenset von Geräuschkulissen (Soundscapes) an – eine besondere Herausforderung für die Forscherinnen und Forscher: „Neben den Vogelstimmen sind auch sehr viele anderen Geräusche wie Autos, Wind, Regen, andere Tiere wie Frösche und Insekten und natürlich auch Menschen enthalten“, so Kahl. Um diese Daten zu filtern, verwendet das Team Lernverfahren mit künstlichen neuronalen Netzen. Diese Netze trainierte das Forschungsteam vorab mit rund 50.000 Aufnahmen und über 350 Stunden Testmaterial bekannter Vogelarten.
Aktuell enthält die Datenbank die Stimmen der rund 500 häufigsten Vogelarten in Nordamerika und Europa. In diesen Regionen ist die App aktuell am weitesten verbreitet. Weitere Regionen können hinzukommen.
Ansatz auch in der Pädagogik einsetzbar
Darüber hinaus entwickelten die Forscherinnen und Forscher eine mobile und vollständig autonome Monitoring-Station zur Aufzeichnung von Vogelstimmen auf der Basis eines „Raspberry Pi“, einem einfach und flexibel zu programmierenden Mini-Computer.
Die Anordnung steht aktuell in den USA und analysiert die Daten in Echtzeit. Nach der Testphase soll diese Anordnung in Serienproduktion gehen und beispielsweise an Schulen aufgestellt werden: „Wir wollen Kindern und Lehrern die Möglichkeit geben, ihre Umwelt zu beobachten, sie kennen zu lernen und zu schützen. Das wollen wir, neben dem ornithologischen Wissen, dadurch erreichen, dass die Stationen Vogelfutterstellen enthalten und so einen Anlass geben, sie zu besuchen und zu pflegen“, erklärt Kahl. Der Chemnitzer Forscher sei zuversichtlich, dass die ersten Anlagen Ende dieses Jahres in Betrieb gehen können.
Und noch einen weiteren Erfolg kann Kahl verzeichnen: Waren er und sein Team im letzten Jahr lediglich Teilnehmer an der „LifeCLEF Bird recognition challenge“, organisieren sie diese Veranstaltung nun. Für das Forschungsprojekt und die App im wahrsten Sinne ein steiler Start.
Hintergrund: LifeCLEF Bird recognition challenge
Die „LifeCLEF Bird recognition challenge“ ist die umfangreichste ihre Art im Bereich der Vogelstimmenerkennung. Es ist eine internationale Veranstaltung im Rahmen des „Conference and Labs of the Evaluation Forum, formerly known as Cross-Language Evaluation Forum“ (CLEF).
Hintergrund: Funktionen der Vogelstimmen-App
- Automatische Erkennung von Vogelstimmen anhand kurzer Audio-Ausschnitte.
- Die App visualisiert die Geräusche der Umwelt, man kann also schon sehen, wie Vogelstimmen aussehen, was es leichter macht, zu entscheiden, ob in der Aufnahme tatsächlich etwas zu hören ist.
- Die App entscheidet aufgrund der Audio-Daten, aber auch anhand von Ort und Datum, ob eine bestimmte Vogelart zu hören ist.
- Wurde eine Art erkannt, kann man sich Details dazu anzeigen lassen.
- Beobachtungen können gespeichert und mit Freundinnen und Freunden geteilt werden.
- Jede Beobachtung wird registriert und zu Forschungszwecken weitergenutzt.
- Bei der Gestaltung der App und der implementierten Features ist viel Feedback von Nutzerinnen und Nutzern eingeflossen.
- Die App soll helfen, Menschen ihre Umwelt besser kennenlernen zu lassen und im Idealfall das ökologische Bewusstsein zu stärken.
Weitere Informationen erteilt Stefan Kahl (M. Sc.), Tel. +49 (0)371/531-32219, E-Mail stefan.kahl@...
Hinweis für die Medien: Im Pressebildarchiv der TU Chemnitz finden Sie zwei themenbezogene Fotos im Ordner „Forschung“: mytuc.org/zpcn
(Motive: 1) Stefan Kahl von der TU Chemnitz entwickelte die App gemeinsam mit Wissenschaftlerinnen und Wissenschaftlern der Hochschule Mittweida (Prof. Dr. Marc Ritter) und der Cornell University in Ithaca/New York (Prof. Dr. Holger Klinck). Foto: Lars Meese, 2) Die App ist fertig und kann im Play Store von Google heruntergeladen werden. Foto: privat)