Tekoälytutkimus: uusia tapoja parantaa selitysprosessin ymmärrettävyyttä!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

UNI Paderbornin erityistutkimusalue "Selittävyyden rakentaminen" tutkii tekoälyn laajennettuja selittäviä malleja.

Der Sonderforschungsbereich „Constructing Explainability“ an der UNI Paderborn untersucht erweiterte Erklärungsmodelle für KI.
UNI Paderbornin erityistutkimusalue "Selittävyyden rakentaminen" tutkii tekoälyn laajennettuja selittäviä malleja.

Tekoälytutkimus: uusia tapoja parantaa selitysprosessin ymmärrettävyyttä!

10. syyskuuta 2025 Bielefeldin ja Paderbornin yliopistojen Collaborative Research Center/Transregio 318 "Constructing Explainability" tekee katsauksen neljän vuoden intensiivisen tutkimuksen jälkeen. Professori tohtori Katharina Rohlfingin ja prof. tohtori Philipp Cimianon johdolla keskittyy tavoitteeseen tutkia tekoälyn (AI) ymmärrettävyyttä ja selitettävyyttä. Myös käyttäjien osallistuminen selitysprosessiin on erityisen olennaista, mikä antaa uutta sysäystä tutkimukselle. Yhteistyö sisälsi yhteensä 20 hanketta ja kuusi synteesiryhmää ja päättyy ensimmäiseen rahoitusvaiheeseen vuoden lopussa.

Tutkimuksen keskeinen tulos on havainto, että nykyiset "selitettävät tekoälyjärjestelmät" pitävät selityksiä usein yksisuuntaisena katuna. Toisaalta ymmärtämisprosessi nähdään yhä enemmän keskinäisenä vaihtona. Siksi kehitettiin uusi viitekehys "Social Explainable AI" (sXAI) -toiminnalle, joka keskittyy selitysten mukauttamiseen käyttäjien reaktioihin reaaliajassa. Tätä kehitystä ohjaavat tieteidenväliset tiimit, jotka yhdistävät tietojenkäsittelytieteen, kielitieteen ja psykologian.

Selitysprosessin analyysi

Rohlfingin tiimi tutki todellisia keskusteluja selvittääkseen, miten selitysprosessi toimii. Kävi ilmi, että selitykset alkavat usein monologilla, mutta selittävät ovat aktiivisesti mukana esittämällä kysymyksiä tai osoittamalla hämmennystä. Analyysissä tarkasteltiin myös kielen ja eleiden käyttöä ymmärtämisen osoittamiseksi. Nämä havainnot ovat osoittaneet, että "telineen" käsite – asteittainen oppimisen tuki – on hyödyllinen selitysprosessin optimoinnissa.

Esimerkki tällaisesta kehityksestä on SNAPE-järjestelmä, joka suunniteltiin projektissa A01. Se reagoi herkästi henkilön reaktioihin ja mukauttaa selitykset yksilöllisesti kulloiseenkin tilanteeseen. Siksi tutkijat keskittyvät yhä enemmän yhteistyöhön, sosiaaliseen tarkoituksenmukaisuuteen ja itse selitysprosessiin tehdäkseen tekoälyjärjestelmistä tehokkaampia ja käyttäjäystävällisempiä.

Oikeudelliset ja tekniset haasteet

Haasteet ovat moninaiset, varsinkin oikeudellisesti. Kasvavat lait yritysten vastuusta tekoälyjärjestelmistä, kuten yleinen tietosuoja-asetus (GDPR) Euroopassa, edellyttävät läpinäkyvää tiedon jakamista päätöksentekoprosesseista. Explainable Artificial Intelligence (XAI) pyrkii tekemään näistä prosesseista ymmärrettävämpiä luottamuksen edistämiseksi ja käyttäjien vuorovaikutuksen helpottamiseksi.

Tekniikat selitettävyyden saavuttamiseksi, kuten ominaisuusattribuutiotekniikat, kontrafaktuaaliset selitykset ja näkyvyyskartat, ovat jo vakiintuneet tutkimuksessa. Mutta tekoälymallien monimutkaisuus on edelleen este; Monia näistä malleista pidetään usein "mustina laatikoina", mikä rajoittaa merkittävästi päätöksenteon läpinäkyvyyttä. Lisäksi selkeiden ohjeiden tarve tekoälyn vastuullisen käytön edistämiseksi on käymässä yhä selvemmäksi.

Kaiken kaikkiaan Collaborative Research Centerin tutkimus osoittaa, että tekoälyn selitettavuudella ei ole vain teknisiä ulottuvuuksia, vaan myös oikeudellisia ja sosiaalisia ulottuvuuksia. Selitettävyyden näkemystä on kehitettävä niin, että se kannustaa aktiiviseen käyttäjävuorovaikutukseen ja keskittyy loppukäyttäjien monipuolisiin tarpeisiin.