Studierende von TU Braunschweig revolutionieren erklärbare KI!
Die TU Braunschweig veranstaltete 2025 das Deep Learning Lab, wo Studierende Erklärmodelle für KI entwickelten und praxisnah umsetzten.

Studierende von TU Braunschweig revolutionieren erklärbare KI!
Im Sommersemester 2025 fand an der Technischen Universität Braunschweig das Deep Learning Lab statt, mittlerweile die achte Auflage dieser Veranstaltung. In diesem Rahmen arbeiteten Studierende intensiv an der Entwicklung von Methoden zur Erklärbarkeit von Deep-Learning-Modellen. Ein zentrales Ziel war es, die oft als „Black Box“ kritisierten neuronalen Netze transparenter zu gestalten, insbesondere in Anwendungsbereichen wie der medizinischen Bildanalyse und dem autonomen Fahren, wo die Nachvollziehbarkeit von Entscheidungen essenziell ist. Laut TU Braunschweig wurde insbesondere die Visualisierung von Objekten untersucht, wobei ein Beispiel die Erkennung eines Busses durch Konturen, Windschutzscheibe und Frontschürze lieferte.
Im Kontext dieser Diskussion über die Erklärbarkeit von Künstlicher Intelligenz (KI) ist das Forschungsfeld „Explainable AI“ (XAI) von entscheidender Bedeutung. Fraunhofer IESE hebt hervor, dass die Interpretierbarkeit von Modellen über ihre ethischen Implikationen hinausgeht, da sie die vollständige Nutzung des Potenzials dieser Technologien unterstützt. Die Studierenden im Deep Learning Lab beschäftigten sich auch mit der Entwicklung von „Saliency Maps“, die als Heatmaps fungieren und die relevanten Bildbereiche hervorheben, die für die Klassifikation wichtig sind. Diese Technik ist besonders relevant für die Fehlerdiagnose und die Förderung innovativer Ansätze in der KI.
Praktische Anwendungen und Erfolge
Die Teilnehmer des Deep Learning Labs arbeiteten mit dem Bilddatensatz PASCAL VOC 2012 und bewerteten die Erklärungen der Modelle anhand zweier Kriterien: der Ähnlichkeit zu menschlichen Erklärungen und der Nachvollziehbarkeit der getroffenen Entscheidungen. Die Effizienz der Modelle war ebenfalls von Bedeutung, und es wurde ein Sonderpreis, der „Umweltpreis“, für besonders geringen Rechenbedarf vergeben.
Das Gewinnerteam, bestehend aus Fabian Kollhoff, Jennifer Ly und Aruhan, erzielte den Hauptpreis von 600 Euro für ihre beeindruckenden Ergebnisse. Ein weiterer Preis in Höhe von 450 Euro wurde an Mohammad Rezaei Barzani und Nils-André Forjahn für ihren geringen GPU-Rechenzeitverbrauch bei zugleich hoher Performanz vergeben. Die Abschlussveranstaltung fand am 11. Juli 2025 statt, auf der die Teilnehmenden ihre Ergebnisse präsentierten und sich mit Sponsor*innen und Expert*innen austauschten. Gespräche über die Zukunft der erklärbaren KI bildeten einen weiteren Höhepunkt der Veranstaltung.
Einblicke in die Technik
Die Erstellung von Saliency Maps erfordert ein tiefes Verständnis der zugrunde liegenden Technologien. Diese Maps messen die räumliche Unterstützung einer bestimmten Klasse in Bildern und sind ein unverzichtbares Werkzeug, um die Wahrnehmung von Convolutional Layers in Computer Vision zu verstehen. Laut Medium heben Saliency Maps entscheidende Bildbereiche hervor und bieten wertvolle Einblicke in die Funktionsweise der gewählten Modelle. Ein Beispiel hierfür ist die Entwicklung eines binären Klassifikationsmodells zur Differenzierung zwischen Katzen und Hunden, welches dank ausgeklügelter Techniken eine Genauigkeit von 87% erreichte.
Trotz der Herausforderungen, die bei der Entwicklung interpretable KI-Systeme auftreten, zeigen diese Entwicklungen nicht nur Fortschritte in der Technik, sondern auch einen klaren Weg zur ethischen Nutzung von Künstlicher Intelligenz und zur Maximierung ihrer Anwendungsbereiche. Die kreative Herangehensweise der Studierenden an diese Problematiken verdeutlicht die dynamische Entwicklung innerhalb des Forschungsfeldes und die ständige Suche nach neuen, verständlichen Ansätzen in der KI. Die Teilnehmenden des Festivaltages bewiesen durch ihre Präsentationen und Diskussionen ihr tiefes Engagement für dieses spannende und zukunftsweisende Thema.