Raziskave o AI: Novi načini za izboljšanje razumljivosti v procesu razlage!
Posebno raziskovalno področje "Konstruiranje razložljivosti" na UNI Paderborn raziskuje razširjene razlagalne modele za AI.

Raziskave o AI: Novi načini za izboljšanje razumljivosti v procesu razlage!
10. septembra 2025 bo Collaborative Research Center/Transregio 318 “Constructing Explainability” na univerzah v Bielefeldu in Paderbornu opravil pregled po štirih letih intenzivnih raziskav. Pod vodstvom prof. dr. Katharine Rohlfing in prof. dr. Philippa Cimiana se osredotoča na cilj raziskovanja razumljivosti in razložljivosti umetne inteligence (AI). Posebej pomembna je tudi vključenost uporabnikov v proces razlage, vidik, ki daje nov zagon raziskovanju. Sodelovanje je vključevalo skupno 20 projektov in šest sinteznih skupin in se zaključi s prvo fazo financiranja konec leta.
Ključni rezultat raziskave je ugotovitev, da trenutni sistemi "razložljive umetne inteligence" na razlage pogosto gledajo kot na enosmerno ulico. Na drugi strani pa se proces razumevanja vedno bolj obravnava kot medsebojna izmenjava. Zato je bil razvit nov okvir za »Social Explainable AI« (sXAI), ki se osredotoča na prilagajanje razlag odzivom uporabnikov v realnem času. Ta razvoj poganjajo interdisciplinarne ekipe, ki združujejo računalništvo, lingvistiko in psihologijo.
Analiza razlagalnega procesa
Rohlfingova ekipa je preučila resnične pogovore, da bi ugotovila, kako deluje postopek razlage. Izkazalo se je, da se razlage pogosto začnejo z monologom, vendar se razlagalci aktivno vključujejo s postavljanjem vprašanj ali signaliziranjem zmede. Analiza je upoštevala tudi uporabo jezika in gest za dokazovanje razumevanja. Te ugotovitve so pokazale, da je koncept »odra« – postopna podpora učenju – koristen pri optimizaciji procesa razlage.
Primer takšnega razvoja je sistem SNAPE, ki je bil zasnovan v projektu A01. Občutljivo se odziva na reakcije osebe in razlage individualno prilagaja posamezni situaciji. Zato se raziskovalci vedno bolj osredotočajo na sodelovanje, družbeno ustreznost in sam proces razlage, da bi sistemi umetne inteligence postali učinkovitejši in uporabniku prijaznejši.
Pravni in tehnični izzivi
Izzivi so različni, zlasti v pravnem kontekstu. Vse strožji zakoni glede odgovornosti podjetij za njihove sisteme umetne inteligence, kot je Splošna uredba o varstvu podatkov (GDPR) v Evropi, zahtevajo pregledno izmenjavo informacij o postopkih odločanja. Namen razložljive umetne inteligence (XAI) je narediti te procese bolj razumljive za spodbujanje zaupanja in olajšanje interakcije med uporabniki.
Tehnike za doseganje razložljivosti, kot so tehnike dodeljevanja značilnosti, hipotetične razlage in zemljevidi opaznosti, so že uveljavljene v raziskavah. Toda zapletenost modelov AI ostaja ovira; Mnogi od teh modelov so pogosto dojeti kot »črne skrinjice«, kar bistveno omejuje transparentnost odločanja. Poleg tega postaja vse bolj jasna potreba po jasnih smernicah za spodbujanje odgovorne uporabe umetne inteligence.
Na splošno raziskave v Collaborative Research Center kažejo, da razložljivost umetne inteligence nima le tehničnih razsežnosti, temveč tudi pravne in družbene razsežnosti. Pogled na razložljivost se mora razviti, da bi spodbudil aktivno uporabniško interakcijo in se osredotočil na različne potrebe končnih uporabnikov.
