Onderzoek naar AI: nieuwe manieren om de begrijpelijkheid van het uitlegproces te verbeteren!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Het speciale onderzoeksgebied “Constructing Exploreability” van de UNI Paderborn onderzoekt uitgebreide verklaringsmodellen voor AI.

Der Sonderforschungsbereich „Constructing Explainability“ an der UNI Paderborn untersucht erweiterte Erklärungsmodelle für KI.
Het speciale onderzoeksgebied “Constructing Exploreability” van de UNI Paderborn onderzoekt uitgebreide verklaringsmodellen voor AI.

Onderzoek naar AI: nieuwe manieren om de begrijpelijkheid van het uitlegproces te verbeteren!

Op 10 september 2025 zal het Collaborative Research Center/Transregio 318 “Constructing Exploreability” van de universiteiten van Bielefeld en Paderborn de balans opmaken na vier jaar intensief onderzoek. Onder leiding van prof. dr. Katharina Rohlfing en prof. dr. Philipp Cimiano richt zich op het doel van onderzoek naar de begrijpelijkheid en verklaarbaarheid van kunstmatige intelligentie (AI). Ook de betrokkenheid van gebruikers bij het uitlegproces is bijzonder relevant, een aspect dat een nieuwe impuls geeft aan het onderzoek. De samenwerking omvat in totaal twintig projecten en zes synthesegroepen en eindigt aan het eind van het jaar met de eerste financieringsfase.

A key result of the research is the finding that current “explainable AI” systems often view explanations as a one-way street. Het proces van begrip daarentegen wordt steeds meer gezien als een wederzijdse uitwisseling. Daarom werd een nieuw raamwerk voor ‘Social Exploreable AI’ (sXAI) ontwikkeld, dat zich richt op het in realtime aanpassen van uitleg aan gebruikersreacties. Deze ontwikkelingen worden aangedreven door interdisciplinaire teams die informatica, taalkunde en psychologie combineren.

Analyse van het uitlegproces

Het team van Rohlfing onderzocht echte gesprekken om te bepalen hoe het uitlegproces werkt. Het bleek dat uitleg vaak begint met een monoloog, maar dat de uitleggers er actief bij betrokken zijn door vragen te stellen of verwarring te signaleren. In de analyse werd ook gekeken naar het gebruik van taal en gebaren om begrip te tonen. Deze bevindingen hebben aangetoond dat het concept van ‘scaffolding’ – geleidelijke ondersteuning van het leren – nuttig is bij het optimaliseren van het uitlegproces.

Een voorbeeld van een dergelijke ontwikkeling is het SNAPE-systeem, dat is ontworpen in project A01. Het reageert gevoelig op de reacties van de persoon en past de uitleg individueel aan de betreffende situatie aan. Daarom richten onderzoekers zich steeds meer op samenwerking, sociale geschiktheid en het verklaringsproces zelf om AI-systemen zowel effectiever als gebruiksvriendelijker te maken.

Juridische en technische uitdagingen

De uitdagingen zijn divers, vooral in de juridische context. Toenemende wetten met betrekking tot de verantwoordelijkheid van bedrijven voor hun AI-systemen, zoals de Algemene Verordening Gegevensbescherming (AVG) in Europa, vereisen een transparante uitwisseling van informatie over besluitvormingsprocessen. Uitlegbare kunstmatige intelligentie (XAI) heeft tot doel deze processen begrijpelijker te maken om vertrouwen te bevorderen en gebruikersinteractie te vergemakkelijken.

Technieken om verklaarbaarheid te bereiken, zoals technieken voor kenmerkattributie, contrafeitelijke verklaringen en saliency-kaarten, zijn al in onderzoek gevestigd. Maar de complexiteit van AI-modellen blijft een hindernis; Veel van deze modellen worden vaak gezien als ‘zwarte dozen’, wat de transparantie van de besluitvorming aanzienlijk beperkt. Bovendien wordt de behoefte aan duidelijke richtlijnen om het verantwoorde gebruik van AI te bevorderen steeds duidelijker.

Over het geheel genomen laat onderzoek in het Collaborative Research Center zien dat de verklaarbaarheid van AI niet alleen technische dimensies heeft, maar ook juridische en sociale dimensies. De visie op verklaarbaarheid moet evolueren om actieve gebruikersinteractie aan te moedigen en zich te concentreren op de uiteenlopende behoeften van eindgebruikers.