AI pētījums: jauni veidi, kā uzlabot saprotamību skaidrošanas procesā!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

UNI Paderborn īpašajā pētniecības jomā “Izskaidrojamības veidošana” tiek pētīti paplašināti mākslīgā intelekta skaidrojošie modeļi.

Der Sonderforschungsbereich „Constructing Explainability“ an der UNI Paderborn untersucht erweiterte Erklärungsmodelle für KI.
UNI Paderborn īpašajā pētniecības jomā “Izskaidrojamības veidošana” tiek pētīti paplašināti mākslīgā intelekta skaidrojošie modeļi.

AI pētījums: jauni veidi, kā uzlabot saprotamību skaidrošanas procesā!

2025. gada 10. septembrī Bīlefeldes un Paderbornas universitāšu Sadarbības pētījumu centrs/Transregio 318 “Izskaidrojamības konstruēšana” veiks izvērtējumu pēc četrus gadus ilgas intensīvas izpētes. Prof. Dr. Katharina Rohlfing un prof. Dr. Philipp Cimiano vadībā koncentrējas uz mērķi izpētīt mākslīgā intelekta (AI) saprotamību un izskaidrojamību. Īpaši aktuāla ir arī lietotāju iesaiste skaidrošanas procesā, kas dod jaunu impulsu pētniecībai. Sadarbība ietvēra kopumā 20 projektus un sešas sintēzes grupas, un tā beidzas ar pirmo finansēšanas posmu gada beigās.

Galvenais pētījuma rezultāts ir atklājums, ka pašreizējās "izskaidrojamās AI" sistēmas bieži uzskata skaidrojumus par vienvirziena ielu. No otras puses, izpratnes process arvien vairāk tiek uzskatīts par savstarpēju apmaiņu. Tāpēc tika izstrādāts jauns “Social Explainable AI” (sXAI) ietvars, kas koncentrējas uz skaidrojumu pielāgošanu lietotāju reakcijām reāllaikā. Šos notikumus virza starpdisciplināras komandas, kas apvieno datorzinātnes, valodniecību un psiholoģiju.

Skaidrojuma procesa analīze

Rohlfinga komanda pārbaudīja reālas sarunas, lai noteiktu, kā darbojas skaidrošanas process. Izrādījās, ka skaidrojumi bieži sākas ar monologu, bet skaidrojamie tiek aktīvi iesaistīti, uzdodot jautājumus vai signalizējot par neizpratni. Analīzē tika ņemta vērā arī valodas un žestu izmantošana, lai parādītu izpratni. Šie atklājumi ir parādījuši, ka “sastatņu” jēdziens – pakāpenisks atbalsts mācībām – ir noderīgs skaidrošanas procesa optimizēšanā.

Šādas attīstības piemērs ir SNAPE sistēma, kas tika izstrādāta projektā A01. Tā jūtīgi reaģē uz cilvēka reakcijām un paskaidrojumus individuāli pielāgo attiecīgajai situācijai. Tāpēc pētnieki arvien vairāk koncentrējas uz sadarbību, sociālo piemērotību un pašu skaidrošanas procesu, lai padarītu mākslīgā intelekta sistēmas gan efektīvākas, gan lietotājam draudzīgākas.

Juridiskas un tehniskas problēmas

Problēmas ir dažādas, īpaši juridiskajā kontekstā. Pieaugošie likumi par uzņēmumu atbildību par savām mākslīgā intelekta sistēmām, piemēram, Vispārīgā datu aizsardzības regula (GDPR) Eiropā, prasa pārredzamu informācijas apmaiņu par lēmumu pieņemšanas procesiem. Izskaidrojamā mākslīgā intelekta (XAI) mērķis ir padarīt šos procesus saprotamākus, lai veicinātu uzticēšanos un atvieglotu lietotāju mijiedarbību.

Izskaidrojamības sasniegšanas paņēmieni, piemēram, pazīmju attiecināšanas paņēmieni, hipotētiski skaidrojumi un pamanāmības kartes, jau ir izveidotas pētījumos. Taču AI modeļu sarežģītība joprojām ir šķērslis; Daudzi no šiem modeļiem bieži tiek uztverti kā “melnās kastes”, kas būtiski ierobežo lēmumu pieņemšanas caurspīdīgumu. Turklāt arvien skaidrāka kļūst nepieciešamība pēc skaidrām vadlīnijām, lai veicinātu atbildīgu AI izmantošanu.

Kopumā Sadarbības pētījumu centra pētījumi liecina, ka mākslīgā intelekta izskaidrojamībai ir ne tikai tehniskas dimensijas, bet arī juridiskās un sociālās dimensijas. Skaidrojamības skatījumam ir jāattīstās, lai veicinātu aktīvu lietotāju mijiedarbību un koncentrētos uz dažādajām galalietotāju vajadzībām.