Студентите от TU Braunschweig революционизират обяснимия AI!
TU Braunschweig беше домакин на Deep Learning Lab през 2025 г., където студентите разработиха обяснителни модели за AI и ги внедриха на практика.

Студентите от TU Braunschweig революционизират обяснимия AI!
Deep Learning Lab се проведе в Техническия университет в Брауншвайг през летния семестър на 2025 г., което вече е осмото издание на това събитие. В този контекст студентите работиха интензивно върху разработването на методи за обяснение на моделите на дълбоко обучение. Основната цел беше да се направят невронните мрежи, които често са критикувани като „черни кутии“, по-прозрачни, особено в области на приложение като анализ на медицински изображения и автономно шофиране, където проследимостта на решенията е от съществено значение. Силно ТУ Брауншвайг По-специално беше изследвана визуализацията на обекти, като един пример е разпознаването на автобус чрез контури, предно стъкло и предна престилка.
В контекста на тази дискусия относно обяснимостта на изкуствения интелект (AI), изследователската област „Обясним AI“ (XAI) е от решаващо значение. Фраунхофер IESE подчертава, че интерпретируемостта на моделите надхвърля техните етични последици, тъй като подкрепя пълното използване на потенциала на тези технологии. Студентите в Deep Learning Lab също работиха върху разработването на „карти на значимостта“, които действат като топлинни карти и подчертават съответните области на изображението, които са важни за класификацията. Тази техника е особено подходяща за диагностициране на грешки и насърчаване на новаторски подходи в AI.
Практически приложения и успехи
Участниците в Deep Learning Lab работиха с набора от данни за изображения PASCAL VOC 2012 и оцениха обясненията на моделите въз основа на два критерия: сходството с човешките обяснения и разбираемостта на взетите решения. Ефективността на моделите също беше важна и беше присъдена специална награда, „Екологична награда“, за особено ниски компютърни изисквания.
Отборът победител, състоящ се от Фабиан Колхоф, Дженифър Ли и Арухан, спечели главната награда от 600 евро за впечатляващите си резултати. Допълнителна награда от 450 евро беше присъдена на Mohammad Rezaei Barzani и Nils-André Forjahn за тяхната ниска консумация на GPU изчислително време при поддържане на висока производителност. Финалното събитие се състоя на 11 юли 2025 г., където участниците представиха своите резултати и обмениха идеи със спонсори и експерти. Дискусиите за бъдещето на обяснимия AI бяха друг акцент на събитието.
Прозрения в технологиите
Създаването на карти на значимостта изисква задълбочено разбиране на основните технологии. Тези карти измерват пространствената поддръжка на даден клас в изображения и са основен инструмент за разбиране на възприемането на конволюционните слоеве в компютърното зрение. Силно среден Картите на значимостта подчертават важни области на изображението и предлагат ценна информация за това как работят избраните модели. Пример за това е разработването на двоичен класификационен модел за разграничаване на котки и кучета, който постига точност от 87% благодарение на сложни техники.
Въпреки предизвикателствата, присъщи на разработването на интерпретируеми AI системи, тези разработки демонстрират не само напредъка в технологиите, но и ясен път към етичното използване на изкуствения интелект и максимизирането на областите му на приложение. Творческият подход на студентите към тези проблеми илюстрира динамичното развитие в изследователската област и постоянното търсене на нови, разбираеми подходи в ИИ. Участниците във фестивалния ден демонстрираха своята дълбока ангажираност към тази вълнуваща и далновидна тема чрез своите презентации и дискусии.