Studenti na TU Braunschweig přinášejí revoluci ve vysvětlitelné umělé inteligenci!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

TU Braunschweig hostila v roce 2025 Deep Learning Lab, kde studenti vyvinuli vysvětlující modely pro AI a implementovali je do praxe.

Die TU Braunschweig veranstaltete 2025 das Deep Learning Lab, wo Studierende Erklärmodelle für KI entwickelten und praxisnah umsetzten.
TU Braunschweig hostila v roce 2025 Deep Learning Lab, kde studenti vyvinuli vysvětlující modely pro AI a implementovali je do praxe.

Studenti na TU Braunschweig přinášejí revoluci ve vysvětlitelné umělé inteligenci!

Laboratoř hlubokého učení se konala na Technické univerzitě v Braunschweigu v letním semestru 2025, nyní jde o osmý ročník této akce. V této souvislosti studenti intenzivně pracovali na vývoji metod pro vysvětlení modelů hlubokého učení. Hlavním cílem bylo učinit neuronové sítě, které jsou často kritizovány jako „černé skříňky“, transparentnější, zejména v oblastech aplikací, jako je analýza lékařských snímků a autonomní řízení, kde je sledovatelnost rozhodnutí zásadní. Hlasitý TU Braunschweig Zejména byla zkoumána vizualizace objektů, přičemž jedním příkladem bylo rozpoznání autobusu přes obrysy, čelní sklo a přední zástěru.

V kontextu této diskuse o vysvětlitelnosti umělé inteligence (AI) má zásadní význam výzkumná oblast „Explainable AI“ (XAI). Fraunhofer IESE zdůrazňuje, že interpretovatelnost modelů přesahuje jejich etické důsledky, protože podporuje plné využití potenciálu těchto technologií. Studenti v Deep Learning Lab také pracovali na vývoji „map výběžků“, které fungují jako tepelné mapy a zvýrazňují příslušné oblasti obrázku, které jsou důležité pro klasifikaci. Tato technika je zvláště důležitá pro diagnostiku chyb a prosazování inovativních přístupů v AI.

Praktické aplikace a úspěchy

Účastníci v Deep Learning Lab pracovali se sadou obrazových dat PASCAL VOC 2012 a hodnotili vysvětlení modelů na základě dvou kritérií: podobnost s lidskými vysvětleními a srozumitelnost přijatých rozhodnutí. Důležitá byla také efektivita modelů a za zvláště nízké výpočetní nároky byla udělena zvláštní cena „Environmental Prize“.

Vítězný tým ve složení Fabian Kollhoff, Jennifer Ly a Aruhan získal za své působivé výsledky hlavní cenu 600 eur. Další cenu 450 eur získali Mohammad Rezaei Barzani a Nils-André Forjahn za nízkou spotřebu GPU výpočetního času při zachování vysokého výkonu. Závěrečná akce se konala 11. července 2025, kde účastníci prezentovali své výsledky a vyměňovali si nápady se sponzory a odborníky. Diskuse o budoucnosti vysvětlitelné umělé inteligence byly dalším vrcholem akce.

Vhled do technologie

Vytváření map význačnosti vyžaduje hluboké pochopení základních technologií. Tyto mapy měří prostorovou podporu dané třídy v obrazech a jsou nezbytným nástrojem pro pochopení vnímání konvolučních vrstev v počítačovém vidění. Hlasitý střední Mapy Saliency zvýrazňují klíčové oblasti snímku a nabízejí cenné informace o tom, jak vybrané modely fungují. Příkladem toho je vývoj binárního klasifikačního modelu pro rozlišení koček a psů, který díky sofistikovaným technikám dosáhl přesnosti 87 %.

Navzdory výzvám spojeným s vývojem interpretovatelných systémů umělé inteligence tento vývoj demonstruje nejen pokroky v technologii, ale také jasnou cestu k etickému využití umělé inteligence a maximalizaci oblastí jejího použití. Kreativní přístup studentů k těmto problémům ilustruje dynamický vývoj v oblasti výzkumu a neustálé hledání nových, srozumitelných přístupů v AI. Účastníci festivalového dne svými prezentacemi a diskusemi prokázali své hluboké odhodlání k tomuto vzrušujícímu a perspektivnímu tématu.