AI tyrimai: nauji būdai, kaip pagerinti aiškinimo proceso suprantamumą!
UNI Paderborn specialioje tyrimų srityje „Paaiškinamumo konstravimas“ tiria išplėstinius AI aiškinamuosius modelius.

AI tyrimai: nauji būdai, kaip pagerinti aiškinimo proceso suprantamumą!
2025 m. rugsėjo 10 d. Bylefeldo ir Paderborno universitetų Bendradarbiavimo tyrimų centras/Transregio 318 „Constructing Explainability“ po ketverius metus trukusių intensyvių tyrimų apžvelgs. Dr. Katharina Rohlfing ir prof. dr. Philipp Cimiano vadovaujami tikslo tyrinėti dirbtinio intelekto (AI) suprantamumą ir paaiškinamumą. Vartotojų įtraukimas į aiškinimo procesą taip pat ypač aktualus – tai aspektas, suteikiantis naujų impulsų tyrimams. Bendradarbiavimas apėmė iš viso 20 projektų ir šešias sintezės grupes ir baigiasi pirmuoju finansavimo etapu metų pabaigoje.
Pagrindinis tyrimo rezultatas yra išvada, kad dabartinės „paaiškinamos AI“ sistemos dažnai į paaiškinimus žiūri kaip į vienpusę gatvę. Kita vertus, supratimo procesas vis labiau vertinamas kaip abipusiai mainai. Todėl buvo sukurta nauja „Social Explainable AI“ (sXAI) sistema, kurioje pagrindinis dėmesys skiriamas paaiškinimų pritaikymui prie vartotojų reakcijos realiuoju laiku. Šiuos pokyčius skatina tarpdisciplininės komandos, jungiančios informatiką, kalbotyrą ir psichologiją.
Aiškinimo proceso analizė
Rohlfingo komanda ištyrė tikrus pokalbius, kad nustatytų, kaip veikia paaiškinimo procesas. It turned out that explanations often begin with a monologue, but the explainees are actively involved by asking questions or signaling confusion. Analizėje taip pat buvo atsižvelgta į kalbos ir gestų naudojimą siekiant parodyti supratimą. These findings have shown that the concept of “scaffolding” – gradual support for learning – is helpful in optimizing the explanation process.
Tokios plėtros pavyzdys yra SNAPE sistema, kuri buvo sukurta projekte A01. Ji jautriai reaguoja į žmogaus reakcijas ir individualiai pritaiko paaiškinimus atitinkamai situacijai. That's why researchers are increasingly focusing on cooperation, social appropriateness and the explanation process itself to make AI systems both more effective and more user-friendly.
Teisiniai ir techniniai iššūkiai
Iššūkių yra įvairių, ypač teisiniame kontekste. Didėjantys įstatymai, susiję su įmonių atsakomybe už jų AI sistemas, pavyzdžiui, Bendrasis duomenų apsaugos reglamentas (BDAR) Europoje, reikalauja skaidraus dalijimosi informacija apie sprendimų priėmimo procesus. Paaiškinamo dirbtinio intelekto (XAI) tikslas – padaryti šiuos procesus suprantamesnius, kad būtų skatinamas pasitikėjimas ir palengvintas vartotojų bendravimas.
Metodai, kaip pasiekti paaiškinamumą, pvz., savybių priskyrimo metodai, priešingi faktiniai paaiškinimai ir reikšmingumo žemėlapiai, jau yra nustatyti atliekant tyrimus. Tačiau AI modelių sudėtingumas tebėra kliūtis; Daugelis šių modelių dažnai suvokiami kaip „juodosios dėžės“, o tai labai apriboja sprendimų priėmimo skaidrumą. Be to, vis labiau aiškėja aiškių gairių, skatinančių atsakingą dirbtinio intelekto naudojimą, poreikis.
Apskritai, Bendradarbiavimo tyrimų centro tyrimai rodo, kad AI paaiškinamumas turi ne tik techninių, bet ir teisinių bei socialinių aspektų. Paaiškinamumo požiūris turi būti tobulinamas, kad būtų skatinama aktyvi vartotojų sąveika ir dėmesys būtų sutelktas į įvairius galutinių vartotojų poreikius.
