
Forschende des Konstanzer Exzellenzclusters „Kollektives Verhalten“ haben ein innovatives mobiles Kamerasystem namens „3D-SOCS“ entwickelt. Dieses System soll detaillierte Daten über das Verhalten von Tieren in ihrem natürlichen Lebensraum erfassen und ermöglicht eine präzise, markerlose 3D-Nachverfolgung der Körperhaltungen und Bewegungen von mehreren Vögeln gleichzeitig. Bisher konzentrierten sich 3D-Nachverfolgungen meist auf Innenräume oder Tiere in Gefangenschaft. Das neue System wurde in der renommierten Fachzeitschrift Methods in Ecology and Evolution veröffentlicht und stellt einen Fortschritt in der Tierverhaltensforschung dar.
Der Einsatz von 3D-SOCS fand in einem Wald nahe dem Max-Planck-Institut für Verhaltensbiologie in Möggingen statt. Während eines Freilandversuchs wurden visuelle Reize, wie Mehlwürmer und ausgestopfte Vögel, präsentiert, um die Reaktionen der Vögel zu beobachten. Die gewonnenen Daten erlauben Rückschlüsse auf die Nutzung des Sehfeldes sowie auf die Lateralisation der Vögel. Mit dem System kann zudem das Körpervolumen der Tiere geschätzt werden, was als Näherungswert für deren Gewicht dient. Besonders hervorzuheben ist, dass die Datenerhebung nicht-invasiv erfolgt, was bedeutet, dass die Tiere nicht eingefangen werden müssen.
Technologische Innovationen und Ökologisches Monitoring
Das 3D-SOCS-System stellt eine offene Plattform dar. Hardware-Pläne und Software-Pipelines sind öffentlich zugänglich, was es einer breiten Wissenschaftsgemeinschaft ermöglicht, die Technologie zu nutzen. Dieses System fördert die Synergien zwischen Labor- und Feldforschung und schließt die Lücke zwischen kontrollierten Studien und ökologisch validen Freilandbeobachtungen. Es wird durch die Deutsche Forschungsgemeinschaft (DFG) und das Schweizer Staatssekretariat für Bildung, Forschung und Innovation (SBFI) gefördert und ist batteriebetrieben, sodass es für den Einsatz im Freiland konzipiert ist.
Die Autoren der zugrunde liegenden Studie, darunter Michael Chimento und Alex Hoi Hang Chan, verfolgen das Ziel, große Verhaltensdatensätze über Wildtiere in natürlichen Lebensräumen zu sammeln. Mittels modernster Sensortechnologien wie GPS und passive Transponder-Tags wird die Qualität und der Umfang der Verhaltensdaten erheblich verbessert. Der Fortschritt in den Bereichen maschinelles Lernen und Computer Vision ermöglicht besonders präzise Messungen, die mit kontrollierten Laborbedingungen konkurrieren können.
Die Rolle der Bildanalyse-Algorithmen
Zusätzlich zu den Entwicklungen in Konstanz haben Forschende des Instituts für Neuroinformatik der Universität und ETH Zürich einen Bildanalyse-Algorithmus zur Automatisierung der Analyse von Videoaufzeichnungen in Verhaltensstudien geschaffen. Dieser Algorithmus nutzt computerbasiertes Sehen und maschinelles Lernen, um individuelle Tiere zu unterscheiden und Verhaltensweisen wie Neugierde und Angst zu erkennen. Besondere Stärken des Algorithmus liegen in der schnellen und automatisierten Auswertung von Videoaufnahmen, was die Reproduzierbarkeit und Validität von Forschungsergebnissen erhöht.
Die Methode wurde sowohl mit Videoaufnahmen von Mäusen als auch von Makaken trainiert, ist jedoch universell anwendbar. Von der Überwachung abnormen Verhaltens in der Tierhaltung bis hin zur Analyse komplexer sozialer Interaktionen in Tiergemeinschaften findet dieser Algorithmus breite Anwendung. Zusammen mit dem Zoo Zürich zielt diese Initiative darauf ab, die Tierhaltung zu verbessern und eine automatisierte Verhaltensforschung zu etablieren. ETH-Professor Yanik plant, diese Technik in seiner Forschung zum Imitationslernen einzusetzen.
Die Fortschritte, die durch diese Technologien erzielt werden, könnten maßgeblich dazu beitragen, unser Verständnis des tierischen Verhaltens im Freiland zu vertiefen und somit auch die Grundlagen für den Schutz und die Erhaltung gefährdeter Arten zu verbessern.