Výskum AI: Nové spôsoby, ako zlepšiť zrozumiteľnosť v procese vysvetľovania!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Špeciálna výskumná oblasť „Constructing Explainability“ na UNI Paderborn skúma rozšírené vysvetľujúce modely pre AI.

Der Sonderforschungsbereich „Constructing Explainability“ an der UNI Paderborn untersucht erweiterte Erklärungsmodelle für KI.
Špeciálna výskumná oblasť „Constructing Explainability“ na UNI Paderborn skúma rozšírené vysvetľujúce modely pre AI.

Výskum AI: Nové spôsoby, ako zlepšiť zrozumiteľnosť v procese vysvetľovania!

10. septembra 2025 uskutoční Collaborative Research Center/Transregio 318 “Constructing Explainability” na univerzitách v Bielefelde a Paderborne bilanciu po štyroch rokoch intenzívneho výskumu. Pod vedením Prof. Dr. Kathariny Rohlfing a Prof. Dr. Philippa Cimiana sa zameriava na cieľ výskumu zrozumiteľnosti a vysvetliteľnosti umelej inteligencie (AI). Zapojenie používateľov do procesu vysvetľovania je tiež obzvlášť dôležité, čo je aspekt, ktorý dáva nový impulz výskumu. Spolupráca zahŕňala celkovo 20 projektov a šesť syntéznych skupín a končí prvou fázou financovania na konci roka.

Kľúčovým výsledkom výskumu je zistenie, že súčasné systémy „vysvetliteľnej AI“ často vnímajú vysvetlenia ako jednosmernú ulicu. Na druhej strane proces porozumenia sa čoraz viac vníma ako vzájomná výmena. Preto bol vyvinutý nový rámec pre „Social Explainable AI“ (sXAI), ktorý sa zameriava na prispôsobenie vysvetlení reakciám používateľov v reálnom čase. Tento vývoj poháňajú interdisciplinárne tímy, ktoré spájajú informatiku, lingvistiku a psychológiu.

Analýza vysvetľovacieho procesu

Rohlfingov tím skúmal skutočné rozhovory, aby zistil, ako funguje proces vysvetľovania. Ukázalo sa, že vysvetlenia často začínajú monológom, ale vysvetľovaní sa aktívne zapájajú kladením otázok alebo signalizáciou zmätku. Analýza zohľadnila aj používanie jazyka a gest na preukázanie porozumenia. Tieto zistenia ukázali, že koncept „lešenia“ – postupná podpora učenia – je nápomocný pri optimalizácii procesu vysvetľovania.

Príkladom takéhoto vývoja je systém SNAPE, ktorý bol navrhnutý v projekte A01. Citlivo reaguje na reakcie človeka a vysvetlenia individuálne prispôsobuje príslušnej situácii. Preto sa výskumníci čoraz viac zameriavajú na spoluprácu, sociálnu vhodnosť a samotný proces vysvetľovania, aby boli systémy AI efektívnejšie a užívateľsky prívetivejšie.

Právne a technické výzvy

Výzvy sú rôznorodé, najmä v právnom kontexte. Rastúce zákony týkajúce sa zodpovednosti spoločností za ich systémy AI, ako napríklad všeobecné nariadenie o ochrane údajov (GDPR) v Európe, vyžadujú transparentné zdieľanie informácií o rozhodovacích procesoch. Vysvetliteľná umelá inteligencia (XAI) sa zameriava na to, aby boli tieto procesy zrozumiteľnejšie, aby sa podporila dôvera a uľahčila interakcia používateľov.

Techniky na dosiahnutie vysvetliteľnosti, ako sú techniky pripisovania funkcií, kontrafaktuálne vysvetlenia a mapy význačnosti, sú už vo výskume zavedené. Zložitosť modelov AI však zostáva prekážkou; Mnohé z týchto modelov sú často vnímané ako „čierne skrinky“, čo výrazne obmedzuje transparentnosť rozhodovania. Okrem toho je čoraz jasnejšia potreba jasných usmernení na podporu zodpovedného používania AI.

Celkovo výskum v Collaborative Research Center ukazuje, že vysvetliteľnosť AI má nielen technické rozmery, ale aj právne a sociálne rozmery. Pohľad na vysvetliteľnosť sa musí vyvíjať, aby podporoval aktívnu interakciu používateľov a zameriaval sa na rôznorodé potreby koncových používateľov.