Forscher der TU Chemnitz entwickelten KI-gestützte App zur Vogelstimmen-Erkennung

(15.08.2019) Die Analyse von Vogelstimmdaten wird für Ornithologinnen, Ornithologen und Hobby-Vogelforscherinnen und –forscher bedeutend einfacher.

Denn die an der Technischen Universität Chemnitz entwickelte mobile App zur Aufzeichnung und Erkennung verschiedenster Stimmen von Singvögeln ist fertig und kann im Play Store von Google heruntergeladen werden.

Laut neuesten Zahlen nutzen aktuell bereits rund 180.000 Menschen die App, die Stefan Kahl, wissenschaftlicher Mitarbeiter an der Professur Medieninformatik (Prof. Dr. Maximilian Eibl) der TU Chemnitz, und sein Team entwickelt haben.

Stefan Kahl von der TU Chemnitz entwickelte die App gemeinsam mit Wissenschaftlerinnen und Wissenschaftlern der Hochschule Mittweida und der Cornell University in Ithaca/New York; Bildquelle: Lars Meese
Stefan Kahl von der TU Chemnitz entwickelte die App gemeinsam mit Wissenschaftlerinnen und Wissenschaftlern der Hochschule Mittweida und der Cornell University in Ithaca/New York
Täglich zählen die Forscherinnen und Forscher aus Chemnitz rund 3.000 neue Nutzerinnen und Nutzer.

Dazu zählt das Team rund 30.000 Beobachtungen durchschnittlich pro Tag. Das bedeutet, dass Nutzerinnen und Nutzer der App ihre Audio-Daten an den App-Server übertragen, wo sie durch die an der Professur Medieninformatik entwickelte Künstliche Intelligenz (KI) „BirdNET“ analysiert und die entsprechende Vogelart identifiziert wird.

Beteiligt an der App waren neben Stefan Kahl auch Wissenschaftlerinnen und Wissenschaftler der Hochschule Mittweida (Prof. Dr. Marc Ritter) und der Cornell University in Ithaca/New York (Prof. Dr. Holger Klinck).

Der Europäische Sozialfond (ESF) förderte das Projekt über einen Zeitraum von drei Jahren mit insgesamt 57.600 Euro. Darüber hinaus unterstützten die Professur Medieninformatik der TU Chemnitz und die Stiftungsjuniorprofessur Media Computing (Jun.-Prof. Dr. Danny Kowerko) der TU Chemnitz sowie ansässiger regionaler Unternehmen das Projekt.

Bessere Daten dank Citizen Science – Kooperation mit Tierpark Chemnitz

Mehrere Gigabyte an Audio-Daten wurden in das System eingespeist: „Wir verwenden die von unseren Nutzern eingespeisten Daten zur Verbesserung unseres Systems.

So einen großen Datensatz aufzubauen ist nur durch die Hilfe der App-User möglich, denn nur so kommen wir an Aufnahmen von unterschiedlichen Geräten, Orten und Geräuschkulissen“, erklärt Stefan Kahl den „Citizen Science“-Ansatz seiner App.

Das bedeutet, dass Nutzerinnen und Nutzer selbst aktiv am Forschungs- und Entwicklungsprozess teilnehmen können.

Ein weiterer Baustein des Citizen Science-Ansatzes sei eine Kooperation mit dem Tierpark Chemnitz. „Im Tierpark haben wir aktuell vier passive Rekorder angebracht, die rund um die Uhr Audio-Daten aufzeichnen, die wir später analysieren wollen.

Dem Tierpark geht es dabei vor allem um die Frage, welche Arten frei lebend im Tierpark heimisch sind, wo sich bestimmte Arten konzentrieren und wie man diese Daten pädagogisch wertvoll nutzen kann“, erklärt Kahl.

Grenzübergreifender Erfolg

Die meisten Anfragen erreiche das Team aus Deutschland, dem Vereinigten Königreich, Frankreich und den USA, wo sich offenbar die größte Nutzerinnen- und Nutzerbasis befinde: „Wir freuen uns sehr, dass wir mit der Veröffentlichung der finalen Version unserer App einen wichtigen Beitrag für die Fachdisziplin der Ornithologie leisten können, damit Forscher noch effektiver ihre Daten auswerten können.

Vor allem der grenzübergreifende Erfolg der App bereits vor der finalen Veröffentlichung zeigt uns, wie groß das Interesse ist“, sagt Kahl. Aufgrund der großen Nachfrage fertigten Kahl und sein Team eigens eine Version der App in französischer Sprache an.

Dank KI-Unterstützung Vogelstimmen auf der Spur

Der Hintergrund dieses Chemnitzer Forschungsprojektes ist denkbar einfach: Um wildlebende Tierarten wie Vögel nachhaltig schützen zu können, ist eine stetige Kontrolle und Überwachung unabdingbar.

Wildtiere lassen sich aber nur eingeschränkt in freier Wildbahn dauerhaft durch den Menschen beobachten.

In aller Regel werden daher Bild- und Tonrekorder eingesetzt, die Langzeitdaten aufzeichnen. Diese Daten müssen aber zuerst erhoben und ausgewertet werden, was bei wilden Tieren in der Regel mit hohem Aufwand verbunden ist.

Um die nötigen Daten für ihre App zu erhalten, legte das Team um Stefan Kahl das größte, vollständig annotierte Datenset von Geräuschkulissen (Soundscapes) an – eine besondere Herausforderung für die Forscherinnen und Forscher: „Neben den Vogelstimmen sind auch sehr viele anderen Geräusche wie Autos, Wind, Regen, andere Tiere wie Frösche und Insekten und natürlich auch Menschen enthalten“, so Kahl.

Um diese Daten zu filtern, verwendet das Team Lernverfahren mit künstlichen neuronalen Netzen. Diese Netze trainierte das Forschungsteam vorab mit rund 50.000 Aufnahmen und über 350 Stunden Testmaterial bekannter Vogelarten.

Aktuell enthält die Datenbank die Stimmen der rund 500 häufigsten Vogelarten in Nordamerika und Europa. In diesen Regionen ist die App aktuell am weitesten verbreitet. Weitere Regionen können hinzukommen.

Ansatz auch in der Pädagogik einsetzbar

Darüber hinaus entwickelten die Forscherinnen und Forscher eine mobile und vollständig autonome Monitoring-Station zur Aufzeichnung von Vogelstimmen auf der Basis eines „Raspberry Pi“, einem einfach und flexibel zu programmierenden Mini-Computer.

Die Anordnung steht aktuell in den USA und analysiert die Daten in Echtzeit.

Nach der Testphase soll diese Anordnung in Serienproduktion gehen und beispielsweise an Schulen aufgestellt werden: „Wir wollen Kindern und Lehrern die Möglichkeit geben, ihre Umwelt zu beobachten, sie kennen zu lernen und zu schützen. Das wollen wir, neben dem ornithologischen Wissen, dadurch erreichen, dass die Stationen Vogelfutterstellen enthalten und so einen Anlass geben, sie zu besuchen und zu pflegen“, erklärt Kahl.

Der Chemnitzer Forscher sei zuversichtlich, dass die ersten Anlagen Ende dieses Jahres in Betrieb gehen können.

Und noch einen weiteren Erfolg kann Kahl verzeichnen: Waren er und sein Team im letzten Jahr lediglich Teilnehmer an der „LifeCLEF Bird recognition challenge“, organisieren sie diese Veranstaltung nun. Für das Forschungsprojekt und die App im wahrsten Sinne ein steiler Start.

LifeCLEF Bird recognition challenge

Die „LifeCLEF Bird recognition challenge“ ist die umfangreichste ihre Art im Bereich der Vogelstimmenerkennung. Es ist eine internationale Veranstaltung im Rahmen des „Conference and Labs of the Evaluation Forum, formerly known as Cross-Language Evaluation Forum“ (CLEF).


Weitere Meldungen

Prachtstaffelschwanz-Weibchen im Nest; Bildquelle: Ashton Claridge, Sonia Kleindorfer

Das Schlaflied der Vogelmutter spielt eine größere Rolle als bisher angenommen

Eine neue Studie unter der Leitung der Biologin Sonia Kleindorfer von der Universität Wien untersucht die vorgeburtliche Klangerfahrung und Klanglehre junger Singvögel
Weiterlesen

Verkehrslärm beeinträchtigt das Gesangslernen und hemmt darüber hinaus das Immunsystem von jungen Zebrafinken; Bildquelle: Sue Anne Zollinger

Verkehrslärm beeinträchtigt das Gesangslernen von Vögeln

Verkehrslärm führt bei Jungvögeln zu Ungenauigkeiten und Verzögerungen beim Erlernen ihres Gesangs. Die Jungvögel leiden auch unter einem unterdrückten Immunsystem, was ein Indikator für chronischen Stress ist
Weiterlesen

TU-Forscher Dr. Stefan Kahl ist Teil eines internationalen Forschungsteams, das die App 'BirdNET' entwickelt hat.; Bildquelle: Lars Meese/TU Chemnitz

Vogelstimmen-App bereits eine Million Mal weltweit runtergeladen und nun auch auf iOS-Geräten verfügbar

Die von einem Forschungsteam der TU Chemnitz und Cornell University entwickelte KI-gestützte Vogelstimmen-App erkennt bereits mehr als 3.000 Vogelstimmen weltweit und läuft nun auch auf iOS-Geräten
Weiterlesen

Eine Globale Studie von Singvögeln wie diesem Feldschwirl zeigt, dass Frequenzen der Gesänge vor allem von der Körpergröße abhängen.; Bildquelle: Tomáš Albrecht

Globale Studie über Frequenzen von Vogelgesängen

Die Gesangsfrequenz eines Vogels hängt vor allem von seiner Körpergröße ab, wird aber auch von der sexuellen Selektion beeinflusst
Weiterlesen

Junge Zebrafinken imitieren den Gesang eines ausgewachsenen Finken, um später Weibchen anzulocken.; Bildquelle: Richard Hahnloser, ETH/UZH

Wie Zebrafinken ihren Balzgesang lernen

Komplexe Lernprozesse wie Sprechen oder Singen laufen nach ähnlichen Mustern ab
Weiterlesen

Kolkraben, die an einer Futterstelle auf Probleme stoßen, verwenden eigene Rufe, um weitere Raben herbeizurufen.; Bildquelle: Georgine Szipl

Futter-assoziierte Laute: Was ein "Haa" über eine Futterstelle verrät

Futterrufe von Kolkraben geben Aufschluss über Alter und Geschlecht
Weiterlesen

In seinem ESF-geförderten Projekt möchte TU-Forscher Stefan Kahl eine Automatisierung in der Erkennung von Vogelstimmen erreichen.; Bildquelle: Lars Meese

Automatisierte Erkennung von Vogelstimmen mittels neuronaler Netze

TU-Chemnitz-Doktorand Stefan Kahl forscht in ESF-gefördertem Projekt zur automatisierten Erkennung von Vogelstimmen mittels neuronaler Netze – Kooperation mit US-Universität
Weiterlesen

Japanische Kohlmeisen kommunizieren nach syntaktischen Regeln.; Bildquelle: UZH

Kohlmeisen zwitschern nach sprachähnlichen Regeln

Nicht nur Menschen verbinden Wörter zu Wortgruppen und Sätzen mit spezifischer Bedeutung. Auch Japanische Kohlmeisen kommunizieren nach syntaktischen Regeln, wie Evolutionsbiologen von Tokyo, Uppsala und der Universität Zürich zeigen
Weiterlesen


Wissenschaft


Universitäten


Neuerscheinungen