Studenter ved TU Braunschweig revolusjonerer forklarbar AI!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

TU Braunschweig var vertskap for Deep Learning Lab i 2025, hvor studentene utviklet forklaringsmodeller for AI og implementerte dem i praksis.

Die TU Braunschweig veranstaltete 2025 das Deep Learning Lab, wo Studierende Erklärmodelle für KI entwickelten und praxisnah umsetzten.
TU Braunschweig var vertskap for Deep Learning Lab i 2025, hvor studentene utviklet forklaringsmodeller for AI og implementerte dem i praksis.

Studenter ved TU Braunschweig revolusjonerer forklarbar AI!

Deep Learning Lab fant sted ved det tekniske universitetet i Braunschweig i sommersemesteret 2025, nå den åttende utgaven av denne begivenheten. I denne sammenhengen jobbet studentene intensivt med å utvikle metoder for å forklare dyplæringsmodeller. Et sentralt mål var å gjøre nevrale nettverk, som ofte blir kritisert som «svarte bokser», mer transparente, spesielt i bruksområder som medisinsk bildeanalyse og autonom kjøring, hvor sporbarhet av beslutninger er avgjørende. Høyt TU Braunschweig Spesielt ble visualiseringen av objekter undersøkt, med ett eksempel på gjenkjenning av en buss gjennom konturer, frontrute og frontforkle.

I sammenheng med denne diskusjonen om forklarbarheten til kunstig intelligens (AI), er forskningsfeltet «Explainable AI» (XAI) av avgjørende betydning. Fraunhofer IESE fremhever at tolkbarheten til modeller går utover deres etiske implikasjoner, da den støtter full utnyttelse av potensialet til disse teknologiene. Studentene i Deep Learning Lab jobbet også med å utvikle «saliency maps», som fungerer som varmekart og fremhever de relevante bildeområdene som er viktige for klassifisering. Denne teknikken er spesielt relevant for å diagnostisere feil og fremme innovative tilnærminger innen AI.

Praktiske anvendelser og suksesser

Deltakerne i Deep Learning Lab jobbet med PASCAL VOC 2012 bildedatasett og evaluerte modellenes forklaringer basert på to kriterier: likheten med menneskelige forklaringer og forståeligheten av beslutningene som ble tatt. Effektiviteten til modellene var også viktig, og en spesialpris, «Miljøprisen», ble delt ut for spesielt lave databehov.

Vinnerlaget, bestående av Fabian Kollhoff, Jennifer Ly og Aruhan, vant hovedpremien på 600 euro for sine imponerende resultater. En ytterligere pris på 450 euro ble tildelt Mohammad Rezaei Barzani og Nils-André Forjahn for deres lave GPU-dataforbruk samtidig som de opprettholder høy ytelse. Det siste arrangementet fant sted 11. juli 2025, hvor deltakerne presenterte sine resultater og utvekslet ideer med sponsorer og eksperter. Diskusjoner om fremtiden til forklarbar AI var et annet høydepunkt under arrangementet.

Innsikt i teknologi

Å lage fremtredende kart krever en dyp forståelse av de underliggende teknologiene. Disse kartene måler den romlige støtten til en gitt klasse i bilder og er et viktig verktøy for å forstå oppfatningen av konvolusjonslag i datasyn. Høyt medium Saliency-kart fremhever viktige bildeområder og gir verdifull innsikt i hvordan de valgte modellene fungerer. Et eksempel på dette er utviklingen av en binær klassifiseringsmodell for å skille mellom katter og hunder, som oppnådde en nøyaktighet på 87 % takket være sofistikerte teknikker.

Til tross for utfordringene som ligger i å utvikle tolkbare AI-systemer, viser denne utviklingen ikke bare fremskritt innen teknologi, men også en klar vei til etisk bruk av kunstig intelligens og maksimering av bruksområdene. Studentenes kreative tilnærming til disse problemene illustrerer den dynamiske utviklingen innenfor forskningsfeltet og den konstante jakten på nye, forståelige tilnærminger innen AI. Deltakerne på festivaldagen demonstrerte sitt dype engasjement for dette spennende og fremtidsrettede temaet gjennom sine presentasjoner og diskusjoner.