Braunšveigo TU studentai sukelia revoliuciją paaiškinamam AI!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

2025 m. Braunšveigo TU surengė giluminio mokymosi laboratoriją, kurioje studentai kūrė aiškinamuosius dirbtinio intelekto modelius ir įgyvendino juos praktiškai.

Die TU Braunschweig veranstaltete 2025 das Deep Learning Lab, wo Studierende Erklärmodelle für KI entwickelten und praxisnah umsetzten.
2025 m. Braunšveigo TU surengė giluminio mokymosi laboratoriją, kurioje studentai kūrė aiškinamuosius dirbtinio intelekto modelius ir įgyvendino juos praktiškai.

Braunšveigo TU studentai sukelia revoliuciją paaiškinamam AI!

2025 m. vasaros semestrą Braunšveigo technikos universitete vyko giluminio mokymosi laboratorija, jau aštuntoji šio renginio laida. Šiame kontekste studentai intensyviai dirbo kurdami gilaus mokymosi modelių paaiškinimo metodus. Pagrindinis tikslas buvo padaryti neuroninius tinklus, kurie dažnai kritikuojami kaip „juodosios dėžės“, padaryti skaidresnius, ypač tokiose taikymo srityse kaip medicininių vaizdų analizė ir autonominis vairavimas, kur labai svarbu atsekti sprendimus. Garsiai Braunšveigo TU Visų pirma buvo nagrinėjamas objektų vizualizavimas, vienas iš pavyzdžių – autobuso atpažinimas per kontūrus, priekinį stiklą ir priekinį prijuostę.

Šios diskusijos apie dirbtinio intelekto (AI) paaiškinamumą kontekste itin svarbi yra tyrimų sritis „Paaiškinamas AI“ (XAI). Fraunhoferis IESE pabrėžia, kad modelių aiškinamumas neapsiriboja jų etinėmis pasekmėmis, nes tai padeda visapusiškai išnaudoti šių technologijų potencialą. Deep Learning Lab studentai taip pat dirbo kurdami „ryškumo žemėlapius“, kurie veikia kaip šilumos žemėlapiai ir pabrėžia atitinkamas vaizdo sritis, kurios yra svarbios klasifikavimui. Šis metodas ypač svarbus diagnozuojant klaidas ir skatinant novatoriškus AI metodus.

Praktiniai pritaikymai ir sėkmė

Deep Learning Lab dalyviai dirbo su PASCAL VOC 2012 vaizdų duomenų rinkiniu ir modelių paaiškinimus vertino pagal du kriterijus: panašumą į žmogaus paaiškinimus ir priimtų sprendimų suprantamumą. Svarbus buvo ir modelių efektyvumas, o už ypač žemus skaičiavimo reikalavimus buvo įteiktas specialus prizas – „Aplinkos apsaugos prizas“.

Nugalėtojų komanda, kurią sudarė Fabianas Kollhoffas, Jennifer Ly ir Aruhanas, už įspūdingus rezultatus laimėjo pagrindinį 600 eurų prizą. Kitas 450 eurų prizas buvo įteiktas Mohammadui Rezaei Barzani ir Nils-André Forjahn už mažas GPU skaičiavimo laiko sąnaudas išlaikant aukštą našumą. 2025 m. liepos 11 d. vyko baigiamasis renginys, kuriame dalyviai pristatė savo rezultatus ir apsikeitė idėjomis su rėmėjais ir ekspertais. Dar vienas renginio akcentas buvo diskusijos apie paaiškinamo AI ateitį.

Įžvalgos apie technologijas

Kuriant aktualumo žemėlapius reikia giliai suprasti pagrindines technologijas. Šie žemėlapiai matuoja tam tikros klasės erdvinį palaikymą vaizduose ir yra esminė priemonė norint suprasti konvoliucinių sluoksnių suvokimą kompiuteriniame regėjime. Garsiai vidutinis Ryškumo žemėlapiai išryškina svarbiausias vaizdo sritis ir suteikia vertingų įžvalgų apie pasirinktų modelių veikimą. To pavyzdys yra dvejetainio klasifikavimo modelio, skirto katėms ir šunims atskirti, sukūrimas, kurio tikslumas buvo 87 % dėl sudėtingų metodų.

Nepaisant iššūkių, kylančių kuriant interpretuojamas AI sistemas, šie pokyčiai rodo ne tik technologijų pažangą, bet ir aiškų kelią į etišką dirbtinio intelekto naudojimą ir jo taikymo sritis. Kūrybiškas studentų požiūris į šias problemas iliustruoja dinamišką mokslinių tyrimų srities plėtrą ir nuolatinę naujų, suprantamų dirbtinio intelekto metodų paiešką. Festivalio dieną dalyviai savo pranešimais ir diskusijomis pademonstravo savo gilų atsidavimą šiai įdomiai ir į ateitį nukreiptai temai.