Forskning om AI: Nye måder at forbedre forståeligheden i forklaringsprocessen på!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Det særlige forskningsområde "Constructing Explainability" på UNI Paderborn undersøger udvidede forklaringsmodeller for AI.

Der Sonderforschungsbereich „Constructing Explainability“ an der UNI Paderborn untersucht erweiterte Erklärungsmodelle für KI.
Det særlige forskningsområde "Constructing Explainability" på UNI Paderborn undersøger udvidede forklaringsmodeller for AI.

Forskning om AI: Nye måder at forbedre forståeligheden i forklaringsprocessen på!

Den 10. september 2025 vil Collaborative Research Center/Transregio 318 "Constructing Explainability" ved universiteterne i Bielefeld og Paderborn gøre status efter fire års intensiv forskning. Under ledelse af Prof. Dr. Katharina Rohlfing og Prof. Dr. Philipp Cimiano fokuserer på målet om at forske i forståeligheden og forklarligheden af ​​kunstig intelligens (AI). Inddragelse af brugere i forklaringsprocessen er også særligt relevant, et aspekt der giver ny skub i forskningen. Samarbejdet omfattede i alt 20 projekter og seks syntesegrupper og afsluttes med første finansieringsfase ved årets udgang.

Et nøgleresultat af forskningen er opdagelsen af, at nuværende "forklarlige AI"-systemer ofte ser forklaringer som en ensrettet gade. Forståelsesprocessen ses på den anden side i stigende grad som en gensidig udveksling. Derfor blev der udviklet en ny ramme for "Social Explainable AI" (sXAI), som fokuserer på at tilpasse forklaringer til brugerreaktioner i realtid. Denne udvikling er drevet af tværfaglige teams, der kombinerer datalogi, lingvistik og psykologi.

Analyse af forklaringsprocessen

Rohlfings team undersøgte rigtige samtaler for at bestemme, hvordan forklaringsprocessen fungerer. Det viste sig, at forklaringer ofte begynder med en monolog, men de forklarede involveres aktivt ved at stille spørgsmål eller signalere forvirring. Analysen overvejede også brugen af ​​sprog og gestus for at demonstrere forståelse. Disse resultater har vist, at begrebet "stillads" - gradvis støtte til læring - er nyttigt til at optimere forklaringsprocessen.

Et eksempel på en sådan udvikling er SNAPE-systemet, som er designet i projekt A01. Den reagerer følsomt på personens reaktioner og tilpasser forklaringerne individuelt til den respektive situation. Det er derfor, forskerne i stigende grad fokuserer på samarbejde, social hensigtsmæssighed og selve forklaringsprocessen for at gøre AI-systemer både mere effektive og mere brugervenlige.

Juridiske og tekniske udfordringer

Udfordringerne er forskellige, især i den juridiske sammenhæng. Stigende love vedrørende virksomhedernes ansvar for deres AI-systemer, såsom den generelle databeskyttelsesforordning (GDPR) i Europa, kræver gennemsigtig deling af oplysninger om beslutningsprocesser. Explainable Artificial Intelligence (XAI) har til formål at gøre disse processer mere forståelige for at fremme tillid og lette brugerinteraktion.

Teknikker til at opnå forklarlighed, såsom egenskabstilskrivningsteknikker, kontrafaktiske forklaringer og fremtrædende kort, er allerede etableret i forskningen. Men kompleksiteten af ​​AI-modeller er stadig en hindring; Mange af disse modeller opfattes ofte som "sorte kasser", hvilket i væsentlig grad begrænser gennemsigtigheden af ​​beslutningstagning. Derudover bliver behovet for klare retningslinjer for at fremme ansvarlig brug af AI stadig mere tydeligt.

Samlet set viser forskning i Collaborative Research Center, at forklarligheden af ​​AI ikke kun har tekniske dimensioner, men også juridiske og sociale dimensioner. Synet på forklarlighed skal udvikles for at tilskynde til aktiv brugerinteraktion og fokusere på slutbrugernes forskellige behov.