Istraživanje umjetne inteligencije: Novi načini poboljšanja razumljivosti u procesu objašnjavanja!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Posebno istraživačko područje “Konstruiranje objašnjivosti” na Sveučilištu u Paderbornu istražuje proširene eksplanatorne modele za AI.

Der Sonderforschungsbereich „Constructing Explainability“ an der UNI Paderborn untersucht erweiterte Erklärungsmodelle für KI.
Posebno istraživačko područje “Konstruiranje objašnjivosti” na Sveučilištu u Paderbornu istražuje proširene eksplanatorne modele za AI.

Istraživanje umjetne inteligencije: Novi načini poboljšanja razumljivosti u procesu objašnjavanja!

10. rujna 2025. Collaborative Research Center/Transregio 318 “Constructing Explainability” na sveučilištima u Bielefeldu i Paderbornu izvršit će pregled nakon četiri godine intenzivnog istraživanja. Pod vodstvom prof. dr. Katharine Rohlfing i prof. dr. Philippa Cimiana fokusira se na cilj istraživanja razumljivosti i objašnjivosti umjetne inteligencije (AI). Posebno je važno uključivanje korisnika u proces objašnjavanja, aspekt koji daje novi poticaj istraživanju. Suradnja je obuhvatila ukupno 20 projekata i šest sinteznih grupa, a završava prvom fazom financiranja krajem godine.

Ključni rezultat istraživanja je nalaz da trenutni sustavi "objašnjive umjetne inteligencije" često gledaju na objašnjenja kao na jednosmjernu ulicu. Proces razumijevanja, s druge strane, sve se više doživljava kao međusobna razmjena. Stoga je razvijen novi okvir za “Social Explainable AI” (sXAI), koji se fokusira na prilagođavanje objašnjenja reakcijama korisnika u stvarnom vremenu. Ovaj razvoj pokreću interdisciplinarni timovi koji kombiniraju računalne znanosti, lingvistiku i psihologiju.

Analiza procesa objašnjavanja

Rohlfingov tim ispitao je stvarne razgovore kako bi utvrdio kako funkcionira proces objašnjavanja. Pokazalo se da objašnjenja često započinju monologom, ali su objašnjavači aktivno uključeni postavljanjem pitanja ili signaliziranjem zbunjenosti. Analiza je također uzela u obzir korištenje jezika i gesti za demonstraciju razumijevanja. Ovi su nalazi pokazali da je koncept "skele" - postupna podrška učenju - koristan u optimiziranju procesa objašnjavanja.

Primjer takvog razvoja je sustav SNAPE koji je dizajniran u projektu A01. Osjetljivo reagira na reakcije osobe i individualno prilagođava objašnjenja pojedinoj situaciji. Zato se istraživači sve više usredotočuju na suradnju, društvenu prikladnost i sam proces objašnjavanja kako bi sustave umjetne inteligencije učinili učinkovitijima i lakšima za korištenje.

Pravni i tehnički izazovi

Izazovi su različiti, posebice u pravnom kontekstu. Sve veći zakoni koji se odnose na odgovornost tvrtki za njihove AI sustave, kao što je Opća uredba o zaštiti podataka (GDPR) u Europi, zahtijevaju transparentno dijeljenje informacija o procesima donošenja odluka. Objašnjiva umjetna inteligencija (XAI) ima za cilj učiniti te procese razumljivijima kako bi promicala povjerenje i olakšala interakciju korisnika.

Tehnike za postizanje objašnjivosti, kao što su tehnike pripisivanja obilježja, protučinjenična objašnjenja i mape istaknutosti, već su uspostavljene u istraživanju. Ali složenost AI modela ostaje prepreka; Mnogi od ovih modela često se percipiraju kao “crne kutije”, što značajno ograničava transparentnost donošenja odluka. Osim toga, potreba za jasnim smjernicama za promicanje odgovorne uporabe umjetne inteligencije postaje sve jasnija.

Općenito, istraživanje u Collaborative Research Centeru pokazuje da objašnjivost umjetne inteligencije nema samo tehničke dimenzije, već i pravne i društvene dimenzije. Pogled na objašnjivost treba se razvijati kako bi se potaknula aktivna interakcija korisnika i usredotočilo na različite potrebe krajnjih korisnika.