AI-uuringud: uued viisid selgitusprotsessi arusaadavuse parandamiseks!
UNI Paderborni spetsiaalne uurimisvaldkond "Seletavuse konstrueerimine" uurib tehisintellekti laiendatud selgitavaid mudeleid.

AI-uuringud: uued viisid selgitusprotsessi arusaadavuse parandamiseks!
10. septembril 2025 teeb Bielefeldi ja Paderborni ülikoolide Collaborative Research Center/Transregio 318 “Seletavuse konstrueerimine” kokkuvõtte pärast neli aastat kestnud intensiivset uurimistööd. Prof dr Katharina Rohlfingi ja prof dr Philipp Cimiano juhtimisel keskendub tehisintellekti (AI) mõistetavuse ja seletatavuse uurimisele. Eriti aktuaalne on ka kasutajate kaasamine selgitamisprotsessi, mis annab uurimistööle uut hoogu. Koostöö hõlmas kokku 20 projekti ja kuut sünteesgruppi ning lõppeb esimese rahastamisetapiga aasta lõpus.
Uuringu peamine tulemus on järeldus, et praegused "seletatavad AI" süsteemid näevad sageli selgitusi ühesuunalise tänavana. Teisest küljest nähakse mõistmise protsessi üha enam vastastikuse vahetusena. Seetõttu töötati välja uus raamistik “Social Explainable AI” (sXAI) jaoks, mis keskendub selgituste kohandamisele vastavalt kasutaja reaktsioonidele reaalajas. Neid arenguid juhivad interdistsiplinaarsed meeskonnad, mis ühendavad arvutiteaduse, lingvistika ja psühholoogia.
Seletusprotsessi analüüs
Rohlfingi meeskond uuris tõelisi vestlusi, et teha kindlaks, kuidas selgitusprotsess töötab. Selgus, et seletused algavad sageli monoloogiga, kuid seletatavad on aktiivselt kaasatud küsimuste esitamise või segadusest märku andes. Analüüsis käsitleti ka keele ja žestide kasutamist mõistmise demonstreerimiseks. Need leiud on näidanud, et „tellingute” kontseptsioon – õppimise järkjärguline toetamine – on abiks selgitusprotsessi optimeerimisel.
Sellise arenduse näiteks on SNAPE süsteem, mis loodi projekti A01 raames. Ta reageerib tundlikult inimese reaktsioonidele ja kohandab selgitusi individuaalselt vastava olukorraga. Seetõttu keskenduvad teadlased üha enam koostööle, sotsiaalsele sobivusele ja selgitusprotsessile endale, et muuta AI-süsteemid nii tõhusamaks kui ka kasutajasõbralikumaks.
Juriidilised ja tehnilised väljakutsed
Väljakutsed on mitmekesised, eriti juriidilises kontekstis. Kasvavad seadused, mis puudutavad ettevõtete vastutust oma tehisintellektisüsteemide eest, nagu Euroopa andmekaitse üldmäärus (GDPR), nõuavad läbipaistvat teabe jagamist otsustusprotsesside kohta. Explainable Artificial Intelligence (XAI) eesmärk on muuta need protsessid arusaadavamaks, et edendada usaldust ja hõlbustada kasutajate suhtlust.
Seletavuse saavutamise tehnikad, nagu funktsioonide omistamise tehnikad, kontrafaktilised seletused ja silmapaistvuse kaardid, on juba uurimistöös välja kujunenud. Kuid AI mudelite keerukus on endiselt takistuseks; Paljusid neist mudelitest peetakse sageli "mustade kastidena", mis piirab oluliselt otsuste tegemise läbipaistvust. Lisaks muutub üha selgemaks vajadus selgete juhiste järele tehisintellekti vastutustundliku kasutamise edendamiseks.
Üldiselt näitavad Collaborative Research Centeri uuringud, et tehisintellekti seletatavusel pole mitte ainult tehnilisi, vaid ka juriidilisi ja sotsiaalseid mõõtmeid. Seletavuse vaade peab arenema, et soodustada kasutajate aktiivset suhtlemist ja keskenduda lõppkasutajate erinevatele vajadustele.
