Studenter vid TU Braunschweig revolutionerar förklarlig AI!
TU Braunschweig var värd för Deep Learning Lab 2025, där studenter utvecklade förklaringsmodeller för AI och implementerade dem i praktiken.

Studenter vid TU Braunschweig revolutionerar förklarlig AI!
Deep Learning Lab ägde rum vid tekniska universitetet i Braunschweig sommarterminen 2025, nu den åttonde upplagan av detta evenemang. I detta sammanhang arbetade eleverna intensivt med att utveckla metoder för att förklara modeller för djupinlärning. Ett centralt mål var att göra neurala nätverk, som ofta kritiseras som "svarta lådor", mer transparenta, särskilt inom tillämpningsområden som medicinsk bildanalys och autonom körning, där spårbarheten av beslut är avgörande. Högt TU Braunschweig Speciellt undersöktes visualiseringen av föremål, där ett exempel var igenkänningen av en buss genom konturer, vindruta och främre förkläde.
I samband med denna diskussion om förklaringsbarheten av artificiell intelligens (AI) är forskningsfältet "Explainable AI" (XAI) av avgörande betydelse. Fraunhofer IESE Parlamentet framhåller att tolkbarheten av modeller går utöver deras etiska implikationer, eftersom den stöder ett fullt utnyttjande av potentialen hos dessa tekniker. Eleverna i Deep Learning Lab arbetade också med att ta fram "saliency maps", som fungerar som värmekartor och lyfter fram relevanta bildområden som är viktiga för klassificeringen. Denna teknik är särskilt relevant för att diagnostisera fel och främja innovativa metoder inom AI.
Praktiska tillämpningar och framgångar
Deltagarna i Deep Learning Lab arbetade med bilddataset PASCAL VOC 2012 och utvärderade modellernas förklaringar utifrån två kriterier: likheten med mänskliga förklaringar och begripligheten i de beslut som fattades. Effektiviteten i modellerna var också viktig och ett specialpris, ”Miljöpriset”, delades ut för särskilt låga datorkrav.
Det vinnande laget, bestående av Fabian Kollhoff, Jennifer Ly och Aruhan, vann huvudpriset på 600 euro för sina imponerande resultat. Ytterligare ett pris på 450 euro tilldelades Mohammad Rezaei Barzani och Nils-André Forjahn för deras låga GPU-beräkningstid samtidigt som de bibehöll hög prestanda. Det sista evenemanget ägde rum den 11 juli 2025, där deltagarna presenterade sina resultat och utbytte idéer med sponsorer och experter. Diskussioner om framtiden för förklarlig AI var en annan höjdpunkt under evenemanget.
Insikter i teknik
Att skapa framträdande kartor kräver en djup förståelse för de underliggande teknologierna. Dessa kartor mäter det rumsliga stödet för en given klass i bilder och är ett viktigt verktyg för att förstå uppfattningen av konvolutionella lager i datorseende. Högt medium Framträdande kartor lyfter fram viktiga bildområden och ger värdefulla insikter om hur de utvalda modellerna fungerar. Ett exempel på detta är utvecklingen av en binär klassificeringsmodell för att skilja mellan katter och hundar, som uppnådde en noggrannhet på 87 % tack vare sofistikerade tekniker.
Trots de utmaningar som är inneboende i att utveckla tolkbara AI-system, visar denna utveckling inte bara framsteg inom teknik, utan också en tydlig väg till etisk användning av artificiell intelligens och maximering av dess användningsområden. Studenternas kreativa förhållningssätt till dessa problem illustrerar den dynamiska utvecklingen inom forskningsfältet och det ständiga sökandet efter nya, begripliga angreppssätt inom AI. Deltagarna på festivaldagen visade sitt djupa engagemang för detta spännande och framåtblickande ämne genom sina presentationer och diskussioner.