Študenti na TU Braunschweig revolucionirajo razložljivo umetno inteligenco!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

TU Braunschweig je leta 2025 gostil laboratorij za globoko učenje, kjer so študenti razvili razlagalne modele za umetno inteligenco in jih implementirali v prakso.

Die TU Braunschweig veranstaltete 2025 das Deep Learning Lab, wo Studierende Erklärmodelle für KI entwickelten und praxisnah umsetzten.
TU Braunschweig je leta 2025 gostil laboratorij za globoko učenje, kjer so študenti razvili razlagalne modele za umetno inteligenco in jih implementirali v prakso.

Študenti na TU Braunschweig revolucionirajo razložljivo umetno inteligenco!

Laboratorij za poglobljeno učenje je potekal na Tehnični univerzi v Braunschweigu v poletnem semestru 2025, zdaj že osma izdaja tega dogodka. V tem kontekstu so študentje intenzivno razvijali metode za razlago modelov globokega učenja. Osrednji cilj je bil narediti nevronske mreže, ki so pogosto kritizirane kot "črne skrinjice", bolj pregledne, zlasti na področjih uporabe, kot sta analiza medicinskih slik in avtonomna vožnja, kjer je sledljivost odločitev bistvena. Glasno TU Braunschweig Zlasti je bila preučena vizualizacija predmetov, pri čemer je bil en primer prepoznavanje avtobusa skozi obrise, vetrobransko steklo in prednji odbijač.

V kontekstu te razprave o razložljivosti umetne inteligence (AI) je raziskovalno področje »Razložljiva AI« (XAI) ključnega pomena. Fraunhofer IESE poudarja, da interpretabilnost modelov presega njihove etične posledice, saj podpira polno izkoriščanje potenciala teh tehnologij. Študenti v laboratoriju za poglobljeno učenje so delali tudi na razvoju »zemljevidov vidnosti«, ki delujejo kot toplotni zemljevidi in poudarjajo ustrezna področja slike, ki so pomembna za klasifikacijo. Ta tehnika je še posebej pomembna za diagnosticiranje napak in spodbujanje inovativnih pristopov v AI.

Praktične uporabe in uspehi

Udeleženci laboratorija za globoko učenje so delali z naborom slikovnih podatkov PASCAL VOC 2012 in ocenjevali razlage modelov na podlagi dveh kriterijev: podobnosti s človeškimi razlagami in razumljivosti sprejetih odločitev. Pomembna je bila tudi učinkovitost modelov, za posebej nizke računalniške zahteve pa je bila podeljena posebna nagrada, »Okoljska nagrada«.

Zmagovalna ekipa, ki so jo sestavljali Fabian Kollhoff, Jennifer Ly in Aruhan, je za svoje odlične rezultate osvojila glavno nagrado 600 evrov. Nadaljnjo nagrado v višini 450 evrov sta prejela Mohammad Rezaei Barzani in Nils-André Forjahn za njuno nizko porabo časa GPU ob ohranjanju visoke zmogljivosti. Zaključni dogodek je potekal 11. julija 2025, kjer so udeleženci predstavili svoje rezultate in izmenjali ideje s sponzorji in strokovnjaki. Razprave o prihodnosti razložljive umetne inteligence so bile še en vrhunec dogodka.

Vpogled v tehnologijo

Ustvarjanje zemljevidov opaznosti zahteva globoko razumevanje osnovnih tehnologij. Ti zemljevidi merijo prostorsko podporo danega razreda v slikah in so bistveno orodje za razumevanje zaznavanja konvolucijskih plasti v računalniškem vidu. Glasno srednje Zemljevidi opaznosti poudarjajo ključna področja slike in ponujajo dragocene vpoglede v delovanje izbranih modelov. Primer tega je razvoj modela binarne klasifikacije za razlikovanje med mačkami in psi, ki je zahvaljujoč sofisticiranim tehnikam dosegel natančnost 87 %.

Kljub izzivom, povezanim z razvojem sistemov umetne inteligence, ki jih je mogoče interpretirati, ta razvoj ne kaže le napredka v tehnologiji, temveč tudi jasno pot do etične uporabe umetne inteligence in maksimiranja njenih področij uporabe. Ustvarjalni pristop študentov do teh problemov ponazarja dinamičen razvoj znotraj raziskovalnega področja in nenehno iskanje novih, razumljivih pristopov v AI. Udeleženci festivalskega dne so s predstavitvami in razpravami pokazali svojo globoko predanost tej vznemirljivi in ​​v prihodnost usmerjeni temi.