Gli studenti della TU Braunschweig stanno rivoluzionando l'intelligenza artificiale spiegabile!
La TU Braunschweig ha ospitato il Deep Learning Lab nel 2025, dove gli studenti hanno sviluppato modelli esplicativi per l'intelligenza artificiale e li hanno implementati nella pratica.

Gli studenti della TU Braunschweig stanno rivoluzionando l'intelligenza artificiale spiegabile!
Nel semestre estivo del 2025 si è svolto presso l'Università Tecnica di Braunschweig il Deep Learning Lab, ormai l'ottava edizione di questo evento. In questo contesto, gli studenti hanno lavorato intensamente allo sviluppo di metodi per spiegare i modelli di deep learning. Uno degli obiettivi centrali era quello di rendere più trasparenti le reti neurali, spesso criticate come “scatole nere”, soprattutto in ambiti applicativi come l’analisi delle immagini mediche e la guida autonoma, dove la tracciabilità delle decisioni è essenziale. Forte TU Braunschweig In particolare è stata esaminata la visualizzazione di oggetti, ad esempio il riconoscimento di un autobus attraverso la sagoma, il parabrezza e la grembialatura anteriore.
Nell’ambito di questa discussione sulla spiegabilità dell’intelligenza artificiale (AI), il campo di ricerca “Explainable AI” (XAI) è di cruciale importanza. Fraunhofer IESE sottolinea che l'interpretabilità dei modelli va oltre le loro implicazioni etiche in quanto favorisce il pieno sfruttamento del potenziale di queste tecnologie. Gli studenti del Deep Learning Lab hanno anche lavorato allo sviluppo di “mappe di salienza”, che fungono da mappe di calore ed evidenziano le aree dell’immagine rilevanti che sono importanti per la classificazione. Questa tecnica è particolarmente rilevante per diagnosticare errori e promuovere approcci innovativi nell’IA.
Applicazioni pratiche e successi
I partecipanti al Deep Learning Lab hanno lavorato con il set di dati di immagini PASCAL VOC 2012 e hanno valutato le spiegazioni dei modelli sulla base di due criteri: la somiglianza con le spiegazioni umane e la comprensibilità delle decisioni prese. Importante è stata anche l'efficienza dei modelli e per i requisiti di calcolo particolarmente bassi è stato assegnato un premio speciale, il "Premio per l'ambiente".
La squadra vincitrice, composta da Fabian Kollhoff, Jennifer Ly e Aruhan, si è aggiudicata il premio principale di 600 euro per i loro risultati impressionanti. Un ulteriore premio di 450 euro è stato assegnato a Mohammad Rezaei Barzani e Nils-André Forjahn per il loro basso consumo di tempo di elaborazione della GPU pur mantenendo prestazioni elevate. L'11 luglio 2025 si è svolto l'evento finale, durante il quale i partecipanti hanno presentato i propri risultati e scambiato idee con sponsor ed esperti. Le discussioni sul futuro dell’intelligenza artificiale spiegabile sono state un altro punto forte dell’evento.
Approfondimenti sulla tecnologia
La creazione di mappe di salienza richiede una profonda comprensione delle tecnologie sottostanti. Queste mappe misurano il supporto spaziale di una determinata classe nelle immagini e sono uno strumento essenziale per comprendere la percezione degli strati convoluzionali nella visione artificiale. Forte medio Le mappe di salienza evidenziano aree cruciali dell'immagine e offrono preziose informazioni su come funzionano i modelli selezionati. Un esempio di ciò è lo sviluppo di un modello di classificazione binaria per distinguere tra cani e gatti, che ha raggiunto una precisione dell’87% grazie a tecniche sofisticate.
Nonostante le sfide inerenti allo sviluppo di sistemi di intelligenza artificiale interpretabili, questi sviluppi dimostrano non solo progressi tecnologici, ma anche un percorso chiaro verso l’uso etico dell’intelligenza artificiale e la massimizzazione delle sue aree di applicazione. L'approccio creativo degli studenti a questi problemi illustra lo sviluppo dinamico all'interno del campo di ricerca e la costante ricerca di approcci nuovi e comprensibili nell'intelligenza artificiale. I partecipanti alla giornata del festival hanno dimostrato attraverso le loro presentazioni e discussioni il loro profondo impegno verso questo argomento entusiasmante e lungimirante.