Studenten van de TU Braunschweig zorgen voor een revolutie in verklaarbare AI!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

De TU Braunschweig was in 2025 gastheer van het Deep Learning Lab, waar studenten verklaringsmodellen voor AI ontwikkelden en in de praktijk implementeerden.

Die TU Braunschweig veranstaltete 2025 das Deep Learning Lab, wo Studierende Erklärmodelle für KI entwickelten und praxisnah umsetzten.
De TU Braunschweig was in 2025 gastheer van het Deep Learning Lab, waar studenten verklaringsmodellen voor AI ontwikkelden en in de praktijk implementeerden.

Studenten van de TU Braunschweig zorgen voor een revolutie in verklaarbare AI!

Het Deep Learning Lab vond plaats aan de Technische Universiteit van Braunschweig in het zomersemester van 2025, inmiddels de achtste editie van dit evenement. In deze context werkten studenten intensief aan het ontwikkelen van methoden om deep learning-modellen uit te leggen. Een centraal doel was om neurale netwerken, die vaak worden bekritiseerd als ‘zwarte dozen’, transparanter te maken, vooral in toepassingsgebieden zoals medische beeldanalyse en autonoom rijden, waar de traceerbaarheid van beslissingen essentieel is. Luidruchtig TU Braunschweig In het bijzonder werd gekeken naar de visualisatie van objecten, met als voorbeeld de herkenning van een bus via contouren, voorruit en voorschort.

In het kader van deze discussie over de verklaarbaarheid van kunstmatige intelligentie (AI) is het onderzoeksveld ‘Explainable AI’ (XAI) van cruciaal belang. Fraunhofer IESE benadrukt dat de interpreteerbaarheid van modellen verder gaat dan hun ethische implicaties, aangezien zij de volledige benutting van het potentieel van deze technologieën ondersteunt. De studenten in het Deep Learning Lab werkten ook aan het ontwikkelen van ‘saliency maps’, die fungeren als heatmaps en de relevante beeldgebieden benadrukken die belangrijk zijn voor classificatie. Deze techniek is met name relevant voor het diagnosticeren van fouten en het bevorderen van innovatieve benaderingen op het gebied van AI.

Praktische toepassingen en successen

De deelnemers aan het Deep Learning Lab werkten met de PASCAL VOC 2012-beelddataset en evalueerden de verklaringen van de modellen op basis van twee criteria: de gelijkenis met menselijke verklaringen en de begrijpelijkheid van de genomen beslissingen. Ook de efficiëntie van de modellen was belangrijk, en er werd een speciale prijs, de “Milieuprijs”, toegekend voor bijzonder lage computervereisten.

Het winnende team, bestaande uit Fabian Kollhoff, Jennifer Ly en Aruhan, won vanwege hun indrukwekkende resultaten de hoofdprijs van 600 euro. Een verdere prijs van 450 euro werd toegekend aan Mohammad Rezaei Barzani en Nils-André Forjahn voor hun lage GPU-rekentijdverbruik met behoud van hoge prestaties. Het slotevenement vond plaats op 11 juli 2025, waar de deelnemers hun resultaten presenteerden en ideeën uitwisselden met sponsors en experts. Discussies over de toekomst van verklaarbare AI waren een ander hoogtepunt van het evenement.

Inzichten in technologie

Het maken van saillantiekaarten vereist een diepgaand begrip van de onderliggende technologieën. Deze kaarten meten de ruimtelijke ondersteuning van een bepaalde klasse in beelden en zijn een essentieel hulpmiddel voor het begrijpen van de perceptie van convolutionele lagen in computervisie. Luidruchtig medium Saliency-kaarten benadrukken cruciale beeldgebieden en bieden waardevolle inzichten in hoe de geselecteerde modellen werken. Een voorbeeld hiervan is de ontwikkeling van een binair classificatiemodel om onderscheid te maken tussen katten en honden, dat dankzij geavanceerde technieken een nauwkeurigheid van 87% behaalde.

Ondanks de uitdagingen die inherent zijn aan de ontwikkeling van interpreteerbare AI-systemen, tonen deze ontwikkelingen niet alleen technologische vooruitgang aan, maar ook een duidelijk pad naar het ethische gebruik van kunstmatige intelligentie en het maximaliseren van de toepassingsgebieden ervan. De creatieve benadering van deze problemen door de studenten illustreert de dynamische ontwikkeling binnen het onderzoeksveld en de voortdurende zoektocht naar nieuwe, begrijpelijke benaderingen in AI. De deelnemers aan de festivaldag lieten door hun presentaties en discussies hun diepe betrokkenheid bij dit opwindende en toekomstgerichte onderwerp zien.