Študenti na TU Braunschweig prinášajú revolúciu vo vysvetliteľnej AI!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

TU Braunschweig hostila v roku 2025 Deep Learning Lab, kde študenti vyvinuli vysvetľujúce modely pre AI a implementovali ich do praxe.

Die TU Braunschweig veranstaltete 2025 das Deep Learning Lab, wo Studierende Erklärmodelle für KI entwickelten und praxisnah umsetzten.
TU Braunschweig hostila v roku 2025 Deep Learning Lab, kde študenti vyvinuli vysvetľujúce modely pre AI a implementovali ich do praxe.

Študenti na TU Braunschweig prinášajú revolúciu vo vysvetliteľnej AI!

Laboratórium hlbokého učenia sa uskutočnilo na Technickej univerzite v Braunschweigu v letnom semestri 2025, čo je už ôsmy ročník tohto podujatia. V tejto súvislosti študenti intenzívne pracovali na vývoji metód na vysvetlenie modelov hlbokého učenia. Hlavným cieľom bolo urobiť neurónové siete, ktoré sú často kritizované ako „čierne skrinky“, transparentnejšie, najmä v oblastiach použitia, ako je analýza medicínskych obrazov a autonómne riadenie, kde je nevyhnutná sledovateľnosť rozhodnutí. nahlas TU Braunschweig Skúmala sa najmä vizualizácia objektov, pričom jedným z príkladov bolo rozpoznanie autobusu cez obrysy, čelné sklo a prednú zásteru.

V kontexte tejto diskusie o vysvetliteľnosti umelej inteligencie (AI) má kľúčový význam oblasť výskumu „Vysvetliteľná AI“ (XAI). Fraunhofer IESE zdôrazňuje, že interpretovateľnosť modelov presahuje ich etické dôsledky, keďže podporuje plné využitie potenciálu týchto technológií. Študenti v Deep Learning Lab tiež pracovali na vývoji „máp výbežkov“, ktoré fungujú ako tepelné mapy a zvýrazňujú príslušné oblasti obrázkov, ktoré sú dôležité pre klasifikáciu. Táto technika je obzvlášť dôležitá pre diagnostiku chýb a podporu inovatívnych prístupov v AI.

Praktické aplikácie a úspechy

Účastníci v Deep Learning Lab pracovali so súborom obrazových údajov PASCAL VOC 2012 a hodnotili vysvetlenia modelov na základe dvoch kritérií: podobnosť s ľudskými vysvetleniami a zrozumiteľnosť prijatých rozhodnutí. Dôležitá bola aj efektívnosť modelov a špeciálna cena „Environmental Prize“ bola udelená za mimoriadne nízke nároky na výpočtovú techniku.

Víťazný tím v zložení Fabian Kollhoff, Jennifer Ly a Aruhan získal za svoje pôsobivé výsledky hlavnú cenu 600 eur. Ďalšiu cenu 450 eur získali Mohammad Rezaei Barzani a Nils-André Forjahn za nízku spotrebu výpočtového času GPU pri zachovaní vysokého výkonu. Záverečné podujatie sa uskutočnilo 11. júla 2025, kde účastníci prezentovali svoje výsledky a vymieňali si nápady so sponzormi a odborníkmi. Diskusie o budúcnosti vysvetliteľnej AI boli ďalším vrcholom podujatia.

Pohľad do technológie

Vytváranie máp význačnosti si vyžaduje hlboké pochopenie základných technológií. Tieto mapy merajú priestorovú podporu danej triedy v obrazoch a sú základným nástrojom na pochopenie vnímania konvolučných vrstiev v počítačovom videní. nahlas stredná Mapy výbežkov zvýrazňujú kľúčové oblasti snímky a ponúkajú cenné informácie o tom, ako fungujú vybrané modely. Príkladom toho je vývoj binárneho klasifikačného modelu na rozlíšenie mačiek a psov, ktorý vďaka sofistikovaným technikám dosiahol presnosť 87 %.

Napriek výzvam spojeným s vývojom interpretovateľných systémov AI tento vývoj demonštruje nielen pokroky v technológii, ale aj jasnú cestu k etickému využívaniu umelej inteligencie a maximalizácii jej oblastí použitia. Kreatívny prístup študentov k týmto problémom ilustruje dynamický vývoj v oblasti výskumu a neustále hľadanie nových, zrozumiteľných prístupov v AI. Účastníci festivalového dňa svojimi prezentáciami a diskusiami preukázali svoju hlbokú oddanosť tejto vzrušujúcej a perspektívnej téme.