Braunšveigas TU studenti revolucionizē izskaidrojamo AI!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

TU Braunšveigā 2025. gadā notika Deep Learning Lab, kurā studenti izstrādāja mākslīgā intelekta skaidrojošos modeļus un ieviesa tos praksē.

Die TU Braunschweig veranstaltete 2025 das Deep Learning Lab, wo Studierende Erklärmodelle für KI entwickelten und praxisnah umsetzten.
TU Braunšveigā 2025. gadā notika Deep Learning Lab, kurā studenti izstrādāja mākslīgā intelekta skaidrojošos modeļus un ieviesa tos praksē.

Braunšveigas TU studenti revolucionizē izskaidrojamo AI!

Deep Learning Lab notika Braunšveigas Tehniskajā universitātē 2025. gada vasaras semestrī, nu jau astotā šī pasākuma izdevums. Šajā kontekstā studenti intensīvi strādāja, izstrādājot metodes, lai izskaidrotu dziļās mācīšanās modeļus. Galvenais mērķis bija padarīt neironu tīklus, kas bieži tiek kritizēti kā "melnās kastes", pārredzamākus, īpaši tādās lietojumprogrammu jomās kā medicīniskā attēlu analīze un autonoma braukšana, kur lēmumu izsekojamība ir būtiska. Skaļi TU Braunšveiga Īpaši tika pārbaudīta objektu vizualizācija, piemēram, autobusa atpazīšana caur kontūrām, vējstiklu un priekšējo priekšautu.

Šīs diskusijas par mākslīgā intelekta (AI) izskaidrojamības kontekstā izšķiroša nozīme ir pētniecības jomai “Izskaidrojams AI” (XAI). Fraunhofers IESE uzsver, ka modeļu interpretējamība pārsniedz to ētiskās sekas, jo tā atbalsta šo tehnoloģiju potenciāla pilnīgu izmantošanu. Deep Learning Lab studenti strādāja arī, izstrādājot “atbilstības kartes”, kas darbojas kā siltuma kartes un izceļ atbilstošās attēlu zonas, kas ir svarīgas klasifikācijai. Šī metode ir īpaši svarīga kļūdu diagnosticēšanai un inovatīvu pieeju veicināšanai AI.

Praktiski pielietojumi un panākumi

Deep Learning Lab dalībnieki strādāja ar PASCAL VOC 2012 attēlu datu kopu un vērtēja modeļu skaidrojumus, vadoties pēc diviem kritērijiem: līdzība ar cilvēku skaidrojumiem un pieņemto lēmumu saprotamība. Svarīga bija arī modeļu efektivitāte, un par īpaši zemām skaitļošanas prasībām tika piešķirta speciālbalva “Vides balva”.

Uzvarētāju komanda, kuras sastāvā bija Fabians Kollhofs, Dženifera Lī un Aruhana, par iespaidīgajiem rezultātiem ieguva galveno balvu 600 eiro apmērā. Vēl viena balva 450 eiro apmērā tika piešķirta Mohammadam Rezaei Barzani un Nils-André Forjahn par zemo GPU skaitļošanas laika patēriņu, vienlaikus saglabājot augstu veiktspēju. Noslēguma pasākums notika 2025. gada 11. jūlijā, kurā dalībnieki prezentēja savus rezultātus un apmainījās idejām ar sponsoriem un ekspertiem. Diskusijas par izskaidrojama AI nākotni bija vēl viens notikuma akcents.

Ieskats tehnoloģijās

Atpazīstamības karšu izveide prasa dziļu izpratni par pamatā esošajām tehnoloģijām. Šīs kartes mēra noteiktas klases telpisko atbalstu attēlos un ir būtisks instruments, lai izprastu konvolucionālo slāņu uztveri datorredzē. Skaļi vidējs Izcilības kartes izceļ svarīgākās attēla jomas un piedāvā vērtīgu ieskatu atlasīto modeļu darbībā. Piemērs tam ir binārā klasifikācijas modeļa izstrāde, lai atšķirtu kaķus un suņus, kas, pateicoties sarežģītām metodēm, sasniedza 87% precizitāti.

Neskatoties uz izaicinājumiem, kas ir raksturīgi interpretējamu AI sistēmu izstrādei, šie sasniegumi parāda ne tikai tehnoloģiju sasniegumus, bet arī skaidru ceļu uz mākslīgā intelekta ētisku izmantošanu un tā pielietojuma jomu maksimālu palielināšanu. Studentu radošā pieeja šīm problēmām ilustrē dinamisko attīstību pētniecības jomā un nemitīgo jaunu, saprotamu pieeju meklēšanu AI. Festivāla dienas dalībnieki savās prezentācijās un diskusijās demonstrēja savu dziļo apņemšanos risināt šo aizraujošo un uz nākotni vērsto tēmu.