Studenții de la TU Braunschweig revoluționează AI explicabilă!
TU Braunschweig a găzduit Deep Learning Lab în 2025, unde studenții au dezvoltat modele explicative pentru AI și le-au implementat în practică.

Studenții de la TU Braunschweig revoluționează AI explicabilă!
Deep Learning Lab a avut loc la Universitatea Tehnică din Braunschweig în semestrul de vară 2025, acum a opta ediție a acestui eveniment. În acest context, studenții au lucrat intens la dezvoltarea unor metode de explicare a modelelor de învățare profundă. Un obiectiv central a fost acela de a face rețelele neuronale, care sunt adesea criticate ca „cutii negre”, mai transparente, în special în domenii de aplicare precum analiza imaginilor medicale și conducerea autonomă, unde trasabilitatea deciziilor este esențială. Tare TU Braunschweig În special, a fost examinată vizualizarea obiectelor, un exemplu fiind recunoașterea unui autobuz prin contururi, parbriz și șorț față.
În contextul acestei discuții despre explicabilitatea inteligenței artificiale (AI), domeniul de cercetare „Explainable AI” (XAI) este de o importanță crucială. Fraunhofer IESE subliniază că interpretabilitatea modelelor depășește implicațiile lor etice, deoarece sprijină exploatarea deplină a potențialului acestor tehnologii. Studenții din Deep Learning Lab au lucrat, de asemenea, la dezvoltarea „hărților de vizibilitate”, care acționează ca hărți termice și evidențiază zonele relevante ale imaginii care sunt importante pentru clasificare. Această tehnică este deosebit de relevantă pentru diagnosticarea erorilor și promovarea abordărilor inovatoare în IA.
Aplicații practice și succese
Participanții la Deep Learning Lab au lucrat cu setul de date imagine PASCAL VOC 2012 și au evaluat explicațiile modelelor pe baza a două criterii: asemănarea cu explicațiile umane și comprehensibilitatea deciziilor luate. Eficiența modelelor a fost, de asemenea, importantă, iar un premiu special, „Premiul de mediu”, a fost acordat pentru cerințele de calcul deosebit de scăzute.
Echipa câștigătoare, formată din Fabian Kollhoff, Jennifer Ly și Aruhan, a câștigat premiul principal de 600 de euro pentru rezultatele lor impresionante. Un alt premiu de 450 de euro a fost acordat lui Mohammad Rezaei Barzani și Nils-André Forjahn pentru consumul redus de timp de calcul al GPU-ului, menținând în același timp performanța ridicată. Evenimentul final a avut loc pe 11 iulie 2025, unde participanții și-au prezentat rezultatele și au făcut schimb de idei cu sponsori și experți. Discuțiile despre viitorul IA explicabilă au fost un alt punct culminant al evenimentului.
Perspective asupra tehnologiei
Crearea hărților de proeminență necesită o înțelegere profundă a tehnologiilor subiacente. Aceste hărți măsoară suportul spațial al unei clase date în imagini și sunt un instrument esențial pentru înțelegerea percepției straturilor convoluționale în viziunea computerizată. Tare mediu Hărțile de vizibilitate evidențiază zonele esențiale ale imaginii și oferă informații valoroase asupra modului în care funcționează modelele selectate. Un exemplu în acest sens este dezvoltarea unui model de clasificare binar pentru a diferenția între pisici și câini, care a atins o precizie de 87% datorită tehnicilor sofisticate.
În ciuda provocărilor inerente dezvoltării sistemelor AI interpretabile, aceste evoluții demonstrează nu numai progrese în tehnologie, ci și o cale clară către utilizarea etică a inteligenței artificiale și maximizarea domeniilor sale de aplicare. Abordarea creativă a studenților asupra acestor probleme ilustrează dezvoltarea dinamică în domeniul cercetării și căutarea constantă a unor abordări noi, ușor de înțeles în IA. Participanții din ziua festivalului și-au demonstrat angajamentul profund față de acest subiect interesant și prospectiv prin prezentările și discuțiile lor.