TU Braunschweigin opiskelijat mullistavat selitettävän tekoälyn!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Braunschweigin yliopistossa järjestettiin vuonna 2025 Deep Learning Lab, jossa opiskelijat kehittivät tekoälylle selittäviä malleja ja toteuttivat niitä käytännössä.

Die TU Braunschweig veranstaltete 2025 das Deep Learning Lab, wo Studierende Erklärmodelle für KI entwickelten und praxisnah umsetzten.
Braunschweigin yliopistossa järjestettiin vuonna 2025 Deep Learning Lab, jossa opiskelijat kehittivät tekoälylle selittäviä malleja ja toteuttivat niitä käytännössä.

TU Braunschweigin opiskelijat mullistavat selitettävän tekoälyn!

Deep Learning Lab järjestettiin Braunschweigin teknillisessä yliopistossa kesälukukaudella 2025, nyt tämän tapahtuman kahdeksas painos. Tässä yhteydessä opiskelijat työskentelivät intensiivisesti syvien oppimismallien selittävien menetelmien kehittämiseksi. Keskeisenä tavoitteena oli tehdä "mustiksi laatikoiksi" arvostetuista hermoverkoista läpinäkyvämpiä erityisesti sovellusalueilla, kuten lääketieteellisessä kuva-analyysissä ja autonomisessa ajamisessa, joissa päätösten jäljitettävyys on olennaista. äänekäs TU Braunschweig Erityisesti tarkasteltiin esineiden visualisointia, joista yksi esimerkki oli linja-auton tunnistaminen ääriviivojen, tuulilasin ja etuesiliinan kautta.

Tämän tekoälyn (AI) selitettävyydestä käytävän keskustelun yhteydessä on erittäin tärkeä tutkimusala Explainable AI (XAI). Fraunhofer IESE korostaa, että mallien tulkittavuus ylittää niiden eettiset vaikutukset, koska se tukee näiden teknologioiden tarjoamien mahdollisuuksien täyttä hyödyntämistä. Deep Learning Labin opiskelijat kehittivät myös "näkyvyyskarttoja", jotka toimivat lämpökartoina ja korostavat luokittelun kannalta tärkeitä kuva-alueita. Tämä tekniikka on erityisen tärkeä virheiden diagnosoinnissa ja innovatiivisten lähestymistapojen edistämisessä tekoälyssä.

Käytännön sovelluksia ja onnistumisia

Deep Learning Labiin osallistujat työskentelivät PASCAL VOC 2012 -kuvaaineiston parissa ja arvioivat mallien selityksiä kahden kriteerin perusteella: samankaltaisuus ihmisen selitysten kanssa ja tehtyjen päätösten ymmärrettävyys. Tärkeää oli myös mallien tehokkuus, ja erityisen alhaisista laskentavaatimuksista myönnettiin erityispalkinto, ”Ympäristöpalkinto”.

Voittajajoukkue, johon kuuluivat Fabian Kollhoff, Jennifer Ly ja Aruhan, voitti 600 euron pääpalkinnon vaikuttavista tuloksistaan. Lisäksi 450 euron palkinto myönnettiin Mohammad Rezaei Barzanille ja Nils-André Forjahnille heidän alhaisesta GPU-ajankulutuksestaan ​​korkean suorituskyvyn säilyttämisessä. Lopputapahtuma järjestettiin 11.7.2025, jossa osallistujat esittelivät tuloksiaan ja vaihtoivat ajatuksia sponsorien ja asiantuntijoiden kanssa. Keskustelut selitettävän tekoälyn tulevaisuudesta olivat toinen tapahtuman kohokohta.

Näkemyksiä teknologiasta

Näkyvyyskarttojen luominen vaatii syvällistä ymmärtämistä taustalla olevista teknologioista. Nämä kartat mittaavat tietyn luokan avaruudellista tukea kuvissa ja ovat olennainen työkalu tietokonenäön konvoluutiokerrosten havainnoinnin ymmärtämiseen. äänekäs keskikokoinen Näkyvyyskartat korostavat tärkeitä kuva-alueita ja tarjoavat arvokasta tietoa valittujen mallien toiminnasta. Esimerkki tästä on binääriluokittelumallin kehittäminen kissojen ja koirien erottamiseksi, mikä saavutti 87 %:n tarkkuuden kehittyneiden tekniikoiden ansiosta.

Huolimatta tulkittavien tekoälyjärjestelmien kehittämiseen liittyvistä haasteista, tämä kehitys ei osoita vain teknologian edistystä, vaan myös selkeää tietä tekoälyn eettiseen käyttöön ja sen sovellusalueiden maksimointiin. Opiskelijoiden luova lähestymistapa näihin ongelmiin kuvaa tutkimusalan dynaamista kehitystä ja jatkuvaa uusien, ymmärrettävien lähestymistapojen etsimistä tekoälyyn. Festivaalipäivän osallistujat osoittivat syvällistä sitoutumistaan ​​tähän jännittävään ja tulevaisuuteen suuntautuvaan aiheeseen esityksillä ja keskusteluilla.