Studerende på TU Braunschweig revolutionerer forklarlig AI!
TU Braunschweig var vært for Deep Learning Lab i 2025, hvor studerende udviklede forklaringsmodeller for AI og implementerede dem i praksis.

Studerende på TU Braunschweig revolutionerer forklarlig AI!
Deep Learning Lab fandt sted på det tekniske universitet i Braunschweig i sommersemesteret 2025, nu den ottende udgave af denne begivenhed. I denne sammenhæng arbejdede eleverne intensivt med at udvikle metoder til at forklare dybe læringsmodeller. Et centralt mål var at gøre neurale netværk, som ofte kritiseres som "sorte bokse", mere gennemsigtige, især inden for anvendelsesområder som medicinsk billedanalyse og autonom kørsel, hvor sporbarhed af beslutninger er afgørende. Højt TU Braunschweig Specielt blev visualiseringen af objekter undersøgt, hvor et eksempel var genkendelsen af en bus gennem konturer, forrude og frontforklæde.
I forbindelse med denne diskussion om forklarligheden af kunstig intelligens (AI) er forskningsfeltet "Explainable AI" (XAI) af afgørende betydning. Fraunhofer IESE fremhæver, at modellernes fortolkning rækker ud over deres etiske implikationer, da det understøtter den fulde udnyttelse af disse teknologiers potentiale. Eleverne i Deep Learning Lab arbejdede også med at udvikle "saliency maps", som fungerer som heatmaps og fremhæver de relevante billedområder, der er vigtige for klassificeringen. Denne teknik er især relevant til at diagnosticere fejl og fremme innovative tilgange inden for AI.
Praktiske anvendelser og succeser
Deltagerne i Deep Learning Lab arbejdede med PASCAL VOC 2012 billeddatasættet og vurderede modellernes forklaringer ud fra to kriterier: ligheden med menneskelige forklaringer og forståeligheden af de trufne beslutninger. Effektiviteten af modellerne var også vigtig, og der blev uddelt en særpris, "Miljøprisen", for særligt lave computerkrav.
Det vindende hold, bestående af Fabian Kollhoff, Jennifer Ly og Aruhan, vandt hovedpræmien på 600 euro for deres imponerende resultater. En yderligere pris på 450 euro blev tildelt Mohammad Rezaei Barzani og Nils-André Forjahn for deres lave GPU-computertidsforbrug, samtidig med at de bibeholdt høj ydeevne. Det sidste arrangement fandt sted den 11. juli 2025, hvor deltagerne præsenterede deres resultater og udvekslede ideer med sponsorer og eksperter. Diskussioner om fremtiden for forklarlig AI var endnu et højdepunkt ved begivenheden.
Indsigt i teknologi
Oprettelse af fremtrædende kort kræver en dyb forståelse af de underliggende teknologier. Disse kort måler den rumlige understøttelse af en given klasse i billeder og er et væsentligt værktøj til at forstå opfattelsen af foldningslag i computersyn. Højt medium Saliency-kort fremhæver vigtige billedområder og giver værdifuld indsigt i, hvordan de udvalgte modeller fungerer. Et eksempel på dette er udviklingen af en binær klassifikationsmodel til at skelne mellem katte og hunde, som opnåede en nøjagtighed på 87 % takket være sofistikerede teknikker.
På trods af de udfordringer, der ligger i at udvikle fortolkbare AI-systemer, viser disse udviklinger ikke kun fremskridt inden for teknologi, men også en klar vej til etisk brug af kunstig intelligens og maksimering af dens anvendelsesområder. De studerendes kreative tilgang til disse problemstillinger illustrerer den dynamiske udvikling inden for forskningsfeltet og den konstante søgen efter nye, forståelige tilgange inden for AI. Deltagerne på festivaldagen demonstrerede deres dybe engagement i dette spændende og fremadrettede emne gennem deres oplæg og diskussioner.