Studenci TU Braunschweig rewolucjonizują możliwą do wyjaśnienia sztuczną inteligencję!
W 2025 r. na Uniwersytecie Technicznym w Braunschweig odbyło się laboratorium Deep Learning Lab, podczas którego studenci opracowali modele objaśniające sztuczną inteligencję i wdrożyli je w praktyce.

Studenci TU Braunschweig rewolucjonizują możliwą do wyjaśnienia sztuczną inteligencję!
Deep Learning Lab odbyło się na Politechnice w Brunszwiku w semestrze letnim 2025 roku i jest już ósmą edycją tego wydarzenia. W tym kontekście uczniowie intensywnie pracowali nad opracowaniem metod wyjaśniania modeli głębokiego uczenia się. Głównym celem było zwiększenie przejrzystości sieci neuronowych, często krytykowanych jako „czarne skrzynki”, szczególnie w obszarach zastosowań, takich jak analiza obrazów medycznych i jazda autonomiczna, gdzie niezbędna jest identyfikowalność decyzji. Głośny TU Braunschweig W szczególności zbadano wizualizację obiektów, czego przykładem było rozpoznawanie autobusu po konturach, szybie przedniej i pasie przednim.
W kontekście dyskusji na temat wyjaśnialności sztucznej inteligencji (AI) kluczowe znaczenie ma obszar badawczy „Explainable AI” (XAI). IESE Fraunhofera Podkreśla, że interpretowalność modeli wykracza poza ich implikacje etyczne, gdyż wspiera pełne wykorzystanie potencjału tych technologii. Studenci w laboratorium Deep Learning pracowali także nad opracowaniem „map istotności”, które działają jak mapy cieplne i podkreślają odpowiednie obszary obrazu ważne dla klasyfikacji. Technika ta jest szczególnie istotna w przypadku diagnozowania błędów i promowania innowacyjnych podejść w sztucznej inteligencji.
Praktyczne zastosowania i sukcesy
Uczestnicy Deep Learning Lab pracowali ze zbiorem danych obrazowych PASCAL VOC 2012 i oceniali wyjaśnienia modeli w oparciu o dwa kryteria: podobieństwo do wyjaśnień ludzkich oraz zrozumiałość podjętych decyzji. Ważna była także wydajność modeli, dlatego za szczególnie niskie wymagania obliczeniowe przyznano nagrodę specjalną „Nagrodę Środowiskową”.
Zwycięska drużyna, w skład której weszli Fabian Kollhoff, Jennifer Ly i Aruhan, za swoje imponujące wyniki zdobyła główną nagrodę w wysokości 600 euro. Kolejną nagrodę w wysokości 450 euro otrzymali Mohammad Rezaei Barzani i Nils-André Forjahn za niskie zużycie czasu obliczeniowego procesora graficznego przy jednoczesnym zachowaniu wysokiej wydajności. Finałowe wydarzenie odbyło się 11 lipca 2025 r., podczas którego uczestnicy zaprezentowali swoje wyniki oraz wymienili się pomysłami ze sponsorami i ekspertami. Kolejnym punktem wydarzenia były dyskusje na temat przyszłości wyjaśnialnej sztucznej inteligencji.
Wgląd w technologię
Tworzenie map istotności wymaga głębokiego zrozumienia podstawowych technologii. Mapy te mierzą wsparcie przestrzenne danej klasy w obrazach i są niezbędnym narzędziem do zrozumienia percepcji warstw splotowych w wizji komputerowej. Głośny średni Mapy istotności podkreślają kluczowe obszary obrazu i oferują cenne informacje na temat działania wybranych modeli. Przykładem tego jest opracowanie binarnego modelu klasyfikacji umożliwiającego rozróżnienie kotów i psów, który dzięki wyrafinowanym technikom osiągnął dokładność na poziomie 87%.
Pomimo wyzwań związanych z rozwojem możliwych do interpretacji systemów sztucznej inteligencji, osiągnięcia te wskazują nie tylko na postęp technologiczny, ale także wyraźną ścieżkę do etycznego wykorzystania sztucznej inteligencji i maksymalizacji obszarów jej zastosowań. Twórcze podejście studentów do tych problemów ilustruje dynamiczny rozwój pola badawczego i ciągłe poszukiwanie nowych, zrozumiałych podejść do sztucznej inteligencji. Uczestnicy tego dnia festiwalu w swoich prezentacjach i dyskusjach pokazali swoje głębokie zaangażowanie w ten ekscytujący i przyszłościowy temat.