Recherche sur l'IA : de nouvelles façons d'améliorer la compréhensibilité du processus d'explication !

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Le domaine de recherche spécial « Construire l'explicabilité » de l'UNI Paderborn étudie les modèles explicatifs étendus pour l'IA.

Der Sonderforschungsbereich „Constructing Explainability“ an der UNI Paderborn untersucht erweiterte Erklärungsmodelle für KI.
Le domaine de recherche spécial « Construire l'explicabilité » de l'UNI Paderborn étudie les modèles explicatifs étendus pour l'IA.

Recherche sur l'IA : de nouvelles façons d'améliorer la compréhensibilité du processus d'explication !

Le 10 septembre 2025, le Centre de recherche collaboratif/Transregio 318 « Construire l'explicabilité » des universités de Bielefeld et Paderborn fera le point après quatre années de recherche intensive. Sous la direction du professeur Katharina Rohlfing et du professeur Philipp Cimiano, l'objectif est de rechercher l'intelligibilité et l'explicabilité de l'intelligence artificielle (IA). L’implication des utilisateurs dans le processus d’explication est également particulièrement pertinente, un aspect qui donne un nouvel élan à la recherche. La collaboration comprenait un total de 20 projets et six groupes de synthèse et se termine par la première phase de financement à la fin de l'année.

L’un des principaux résultats de la recherche est la découverte que les systèmes actuels d’« IA explicable » considèrent souvent les explications comme une voie à sens unique. En revanche, le processus de compréhension est de plus en plus perçu comme un échange mutuel. Par conséquent, un nouveau cadre pour « Social Explainable AI » (sXAI) a été développé, qui se concentre sur l’adaptation des explications aux réactions des utilisateurs en temps réel. Ces développements sont portés par des équipes interdisciplinaires mêlant informatique, linguistique et psychologie.

Analyse du processus d'explication

L'équipe de Rohlfing a examiné de vraies conversations pour déterminer comment fonctionne le processus d'explication. Il s’est avéré que les explications commencent souvent par un monologue, mais que les personnes expliquées participent activement en posant des questions ou en signalant leur confusion. L’analyse a également pris en compte l’utilisation du langage et des gestes pour démontrer la compréhension. Ces résultats ont montré que le concept d’« échafaudage » – un soutien progressif à l’apprentissage – est utile pour optimiser le processus d’explication.

Un exemple d’un tel développement est le système SNAPE, conçu dans le cadre du projet A01. Il réagit avec sensibilité aux réactions de la personne et adapte les explications individuellement à la situation respective. C'est pourquoi les chercheurs se concentrent de plus en plus sur la coopération, l'adéquation sociale et le processus d'explication lui-même pour rendre les systèmes d'IA à la fois plus efficaces et plus conviviaux.

Défis juridiques et techniques

Les défis sont divers, notamment dans le contexte juridique. Les lois de plus en plus nombreuses concernant la responsabilité des entreprises à l'égard de leurs systèmes d'IA, comme le Règlement général sur la protection des données (RGPD) en Europe, exigent un partage transparent des informations sur les processus décisionnels. L'intelligence artificielle explicable (XAI) vise à rendre ces processus plus compréhensibles pour promouvoir la confiance et faciliter l'interaction des utilisateurs.

Les techniques permettant d’atteindre l’explicabilité, telles que les techniques d’attribution de caractéristiques, les explications contrefactuelles et les cartes de saillance, sont déjà établies dans la recherche. Mais la complexité des modèles d’IA reste un obstacle ; Beaucoup de ces modèles sont souvent perçus comme des « boîtes noires », ce qui limite considérablement la transparence de la prise de décision. En outre, la nécessité de lignes directrices claires pour promouvoir une utilisation responsable de l’IA devient de plus en plus évidente.

Dans l’ensemble, les recherches du Collaborative Research Center montrent que l’explicabilité de l’IA a non seulement des dimensions techniques, mais aussi des dimensions juridiques et sociales. La vision de l’explicabilité doit évoluer pour encourager l’interaction active des utilisateurs et se concentrer sur les divers besoins des utilisateurs finaux.