Cercetare despre AI: noi modalități de îmbunătățire a înțelegerii în procesul de explicație!
Zona specială de cercetare „Constructing Explainability” de la UNI Paderborn investighează modele explicative extinse pentru AI.

Cercetare despre AI: noi modalități de îmbunătățire a înțelegerii în procesul de explicație!
Pe 10 septembrie 2025, Centrul de Cercetare Colaborativă/Transregio 318 „Constructing Explainability” de la universitățile din Bielefeld și Paderborn va face bilanțul după patru ani de cercetare intensă. Sub conducerea Prof. Dr. Katharina Rohlfing și Prof. Dr. Philipp Cimiano se concentrează pe scopul cercetării înțelegerii și explicabilității inteligenței artificiale (AI). Deosebit de relevantă este și implicarea utilizatorilor în procesul de explicație, aspect care dă un nou impuls cercetării. Colaborarea a inclus un total de 20 de proiecte și șase grupuri de sinteză și se încheie cu prima fază de finanțare la sfârșitul anului.
Un rezultat cheie al cercetării este constatarea că sistemele actuale de „IA explicabilă” văd adesea explicațiile ca pe o stradă cu sens unic. Procesul de înțelegere, pe de altă parte, este văzut din ce în ce mai mult ca un schimb reciproc. Prin urmare, a fost dezvoltat un nou cadru pentru „Social Explainable AI” (sXAI), care se concentrează pe adaptarea explicațiilor la reacțiile utilizatorilor în timp real. Aceste evoluții sunt conduse de echipe interdisciplinare care combină informatica, lingvistica și psihologia.
Analiza procesului explicativ
Echipa lui Rohlfing a examinat conversații reale pentru a determina cum funcționează procesul de explicație. S-a dovedit că explicațiile încep adesea cu un monolog, dar cei care explică sunt implicați activ punând întrebări sau semnalând confuzie. Analiza a luat în considerare și utilizarea limbajului și a gesturilor pentru a demonstra înțelegerea. Aceste constatări au arătat că conceptul de „schelă” – sprijin gradual pentru învățare – este util în optimizarea procesului de explicație.
Un exemplu de astfel de dezvoltare este sistemul SNAPE, care a fost proiectat în proiectul A01. Reactioneaza cu sensibilitate la reactiile persoanei si adapteaza explicatiile individual la situatia respectiva. De aceea, cercetătorii se concentrează din ce în ce mai mult pe cooperare, adecvarea socială și procesul de explicație în sine pentru a face sistemele AI mai eficiente și mai ușor de utilizat.
Provocări juridice și tehnice
Provocările sunt diverse, mai ales în context juridic. Legile în creștere privind responsabilitatea companiilor pentru sistemele lor de inteligență artificială, cum ar fi Regulamentul general privind protecția datelor (GDPR) în Europa, necesită partajarea transparentă a informațiilor despre procesele de luare a deciziilor. Explainable Artificial Intelligence (XAI) își propune să facă aceste procese mai ușor de înțeles pentru a promova încrederea și a facilita interacțiunea utilizatorului.
Tehnicile pentru obținerea explicabilității, cum ar fi tehnicile de atribuire a caracteristicilor, explicațiile contrafactuale și hărțile de proeminență, sunt deja stabilite în cercetare. Dar complexitatea modelelor AI rămâne un obstacol; Multe dintre aceste modele sunt adesea percepute ca „cutii negre”, ceea ce limitează semnificativ transparența luării deciziilor. În plus, necesitatea unor orientări clare pentru a promova utilizarea responsabilă a inteligenței artificiale devine din ce în ce mai clară.
În general, cercetările din Centrul de Cercetare Colaborativă arată că explicabilitatea AI nu are doar dimensiuni tehnice, ci și dimensiuni juridice și sociale. Viziunea explicabilității trebuie să evolueze pentru a încuraja interacțiunea activă a utilizatorului și pentru a se concentra pe diversele nevoi ale utilizatorilor finali.
