Ricerca sull'intelligenza artificiale: nuovi modi per migliorare la comprensibilità del processo di spiegazione!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

L'area di ricerca speciale “Costruire Spiegabilità” presso l'UNI Paderborn indaga modelli esplicativi estesi per l'IA.

Der Sonderforschungsbereich „Constructing Explainability“ an der UNI Paderborn untersucht erweiterte Erklärungsmodelle für KI.
L'area di ricerca speciale “Costruire Spiegabilità” presso l'UNI Paderborn indaga modelli esplicativi estesi per l'IA.

Ricerca sull'intelligenza artificiale: nuovi modi per migliorare la comprensibilità del processo di spiegazione!

Il 10 settembre 2025 il Collaborative Research Center/Transregio 318 “Constructing Explainability” delle università di Bielefeld e Paderborn farà il punto dopo quattro anni di intensa ricerca. Sotto la direzione della Prof. Dr. Katharina Rohlfing e del Prof. Dr. Philipp Cimiano si concentra sull'obiettivo di ricercare la comprensibilità e la spiegabilità dell'intelligenza artificiale (AI). Particolarmente rilevante è anche il coinvolgimento degli utenti nel processo di spiegazione, aspetto che dà nuovo slancio alla ricerca. La collaborazione prevede un totale di 20 progetti e sei gruppi di sintesi e si conclude con la prima fase di finanziamento a fine anno.

Un risultato chiave della ricerca è la scoperta che gli attuali sistemi di “intelligenza artificiale spiegabile” spesso vedono le spiegazioni come una strada a senso unico. Il processo di comprensione, invece, è visto sempre più come uno scambio reciproco. Pertanto, è stato sviluppato un nuovo framework per la “Social Explainable AI” (sXAI), che si concentra sull’adattamento delle spiegazioni alle reazioni degli utenti in tempo reale. Questi sviluppi sono guidati da team interdisciplinari che combinano informatica, linguistica e psicologia.

Analisi del processo esplicativo

Il team di Rohlfing ha esaminato conversazioni reali per determinare come funziona il processo di spiegazione. Si è scoperto che le spiegazioni spesso iniziano con un monologo, ma le persone spiegate vengono coinvolte attivamente ponendo domande o segnalando confusione. L'analisi ha considerato anche l'uso del linguaggio e dei gesti per dimostrare la comprensione. Questi risultati hanno dimostrato che il concetto di “impalcatura” – supporto graduale per l’apprendimento – è utile per ottimizzare il processo di spiegazione.

Un esempio di tale sviluppo è il sistema SNAPE, progettato nel progetto A01. Reagisce in modo sensibile alle reazioni della persona e adatta le spiegazioni individualmente alla rispettiva situazione. Ecco perché i ricercatori si concentrano sempre più sulla cooperazione, sull’adeguatezza sociale e sul processo di spiegazione stesso per rendere i sistemi di intelligenza artificiale più efficaci e più facili da usare.

Sfide legali e tecniche

Le sfide sono diverse, soprattutto nel contesto giuridico. Le sempre più numerose leggi sulla responsabilità delle aziende per i loro sistemi di intelligenza artificiale, come il Regolamento generale sulla protezione dei dati (GDPR) in Europa, richiedono una condivisione trasparente delle informazioni sui processi decisionali. L'intelligenza artificiale spiegabile (XAI) mira a rendere questi processi più comprensibili per promuovere la fiducia e facilitare l'interazione dell'utente.

Le tecniche per ottenere la spiegabilità, come le tecniche di attribuzione delle caratteristiche, le spiegazioni controfattuali e le mappe di salienza, sono già stabilite nella ricerca. Ma la complessità dei modelli di intelligenza artificiale rimane un ostacolo; Molti di questi modelli sono spesso percepiti come “scatole nere”, il che limita notevolmente la trasparenza del processo decisionale. Inoltre, sta diventando sempre più evidente la necessità di linee guida chiare per promuovere l’uso responsabile dell’IA.

Nel complesso, la ricerca del Collaborative Research Center mostra che la spiegabilità dell’IA non ha solo dimensioni tecniche, ma anche dimensioni legali e sociali. La visione della spiegabilità deve evolversi per incoraggiare l’interazione attiva dell’utente e concentrarsi sulle diverse esigenze degli utenti finali.