Badania nad sztuczną inteligencją: nowe sposoby na poprawę zrozumiałości w procesie wyjaśniania!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Specjalny obszar badawczy „Konstruowanie wyjaśnialności” na UNI Paderborn bada rozszerzone modele wyjaśniające sztuczną inteligencję.

Der Sonderforschungsbereich „Constructing Explainability“ an der UNI Paderborn untersucht erweiterte Erklärungsmodelle für KI.
Specjalny obszar badawczy „Konstruowanie wyjaśnialności” na UNI Paderborn bada rozszerzone modele wyjaśniające sztuczną inteligencję.

Badania nad sztuczną inteligencją: nowe sposoby na poprawę zrozumiałości w procesie wyjaśniania!

10 września 2025 r. w ramach Collaborative Research Centre/Transregio 318 „Constructing Understandability” na uniwersytetach w Bielefeld i Paderborn dokonane zostanie podsumowanie czterech lat intensywnych badań. Pod kierunkiem prof. dr Kathariny Rohlfing i prof. dr Philippa Cimiano koncentruje się na celu, jakim jest badanie zrozumiałości i wyjaśnialności sztucznej inteligencji (AI). Szczególnie istotne jest także zaangażowanie użytkowników w proces wyjaśniania, co nadaje nowy impuls badaniom. Współpraca obejmowała łącznie 20 projektów i sześć grup syntezy i zakończyła się pierwszą fazą finansowania pod koniec roku.

Kluczowym wynikiem badania jest odkrycie, że obecne systemy „wyjaśnialnej sztucznej inteligencji” często postrzegają wyjaśnienia jako drogę jednokierunkową. Z drugiej strony proces zrozumienia jest coraz częściej postrzegany jako wzajemna wymiana. Dlatego opracowano nowy framework dla „Społecznej Wyjaśnialnej AI” (sXAI), który koncentruje się na dostosowywaniu wyjaśnień do reakcji użytkowników w czasie rzeczywistym. Rozwój ten jest napędzany przez interdyscyplinarne zespoły łączące informatykę, językoznawstwo i psychologię.

Analiza procesu wyjaśniania

Zespół Rohlfinga zbadał prawdziwe rozmowy, aby ustalić, jak działa proces wyjaśniania. Okazało się, że wyjaśnienia często rozpoczynają się od monologu, ale osoby wyjaśniane aktywnie angażują się w dyskusję, zadając pytania lub sygnalizując zamieszanie. W analizie uwzględniono także użycie języka i gestów w celu wykazania zrozumienia. Odkrycia te pokazały, że koncepcja „rusztowania” – stopniowego wspierania uczenia się – jest pomocna w optymalizacji procesu wyjaśniania.

Przykładem takiego rozwinięcia jest system SNAPE, który został zaprojektowany w projekcie A01. Reaguje z wyczuciem na reakcje danej osoby i dostosowuje wyjaśnienia indywidualnie do danej sytuacji. Dlatego badacze w coraz większym stopniu skupiają się na współpracy, stosowności społecznej i samym procesie wyjaśniania, aby systemy sztucznej inteligencji były zarówno skuteczniejsze, jak i bardziej przyjazne dla użytkownika.

Wyzwania prawne i techniczne

Wyzwania są różnorodne, zwłaszcza w kontekście prawnym. Rosnące przepisy dotyczące odpowiedzialności firm za ich systemy AI, takie jak Ogólne rozporządzenie o ochronie danych (RODO) w Europie, wymagają przejrzystego udostępniania informacji o procesach decyzyjnych. Wyjaśnialna sztuczna inteligencja (XAI) ma na celu uczynienie tych procesów bardziej zrozumiałymi, aby promować zaufanie i ułatwiać interakcję użytkownika.

Techniki osiągania wyjaśnialności, takie jak techniki atrybucji cech, wyjaśnienia kontrfaktyczne i mapy istotności, zostały już ustalone w badaniach. Jednak złożoność modeli sztucznej inteligencji pozostaje przeszkodą; Wiele z tych modeli często postrzeganych jest jako „czarne skrzynki”, co znacząco ogranicza przejrzystość podejmowania decyzji. Ponadto coraz bardziej wyraźna staje się potrzeba jasnych wytycznych promujących odpowiedzialne korzystanie ze sztucznej inteligencji.

Ogólnie rzecz biorąc, badania przeprowadzone w Collaborative Research Center pokazują, że wyjaśnialność sztucznej inteligencji ma nie tylko wymiar techniczny, ale także wymiar prawny i społeczny. Pogląd na wyjaśnialność musi ewoluować, aby zachęcać użytkowników do aktywnej interakcji i skupiać się na różnorodnych potrzebach użytkowników końcowych.