Allgemein

Forschung zu KI: Neue Wege zur besseren Verständlichkeit im Erklärprozess!

Am 10. September 2025 zieht der Sonderforschungsbereich/Transregio 318 „Constructing Explainability“ der Universitäten Bielefeld und Paderborn nach vier Jahren intensiver Forschung Bilanz. Unter der Leitung von Prof. Dr. Katharina Rohlfing und Prof. Dr. Philipp Cimiano wird das Ziel der Erforschung der Verständlichkeit und Erklärbarkeit von künstlicher Intelligenz (KI) in den Mittelpunkt gestellt. Besonders relevant ist auch die Einbindung der Nutzer*innen in den Erklärprozess, ein Aspekt, der der Forschung neue Impulse gibt. Die Zusammenarbeit umfasste insgesamt 20 Projekte und sechs Synthesegruppen und endet mit der ersten Förderphase zum Jahresende.

Ein zentrales Ergebnis der Forschungsarbeit ist die Erkenntnis, dass aktuelle „explainable AI“-Systeme oft Erklärungen als Einbahnstraße betrachten. Der Prozess des Verstehens hingegen wird immer mehr als wechselseitiger Austausch verstanden. Daher wurde ein neues Rahmenwerk für „Social Explainable AI“ (sXAI) entwickelt, das sich darauf fokussiert, Erklärungen in Echtzeit an die Reaktionen des Nutzers anzupassen. Diese Entwicklungen werden von interdisziplinären Teams, die Informatik, Linguistik und Psychologie vereinen, vorangetrieben.

Analyse des Erklärprozesses

Rohlfings Team hat echte Gespräche untersucht, um zu ermitteln, wie der Erklärprozess funktioniert. Dabei stellte sich heraus, dass Erklärungen häufig mit einem Monolog beginnen, die Explainees jedoch aktiv beteiligt sind, indem sie Nachfragen stellen oder Verwirrung signalisieren. Die Analyse berücksichtigte auch den Einsatz von Sprache und Gesten, um das Verständnis zu demonstrieren. Diese Erkenntnisse haben gezeigt, dass das Konzept des „Scaffoldings“ – schrittweise Unterstützung beim Lernen – hilfreich ist, um den Erklärungsprozess zu optimieren.

Ein Beispiel für eine solche Entwicklung ist das System SNAPE, das im Projekt A01 konzipiert wurde. Es reagiert sensibel auf die Reaktionen der Person und passt die Erklärungen individuell an die jeweilige Situation an. Deshalb setzen Forscher verstärkt auf Kooperation, soziale Angemessenheit und den Erklärungsprozess an sich, um KI-Systeme sowohl effektiver als auch benutzerfreundlicher zu gestalten.

Rechtliche und technische Herausforderungen

Die Herausforderungen sind vielfältig, insbesondere im rechtlichen Kontext. Die zunehmenden Gesetze zur Verantwortung von Unternehmen für ihre KI-Systeme, wie die Datenschutzgrundverordnung (DSGVO) in Europa, erfordern eine transparente Informationsweitergabe über Entscheidungsprozesse. Erklärbare Künstliche Intelligenz (XAI) zielt darauf ab, diese Prozesse verständlicher zu machen, um Vertrauen zu fördern und die Benutzerinteraktion zu erleichtern.

Techniken zur Erreichung der Erklärbarkeit, wie Feature-Attributionstechniken, Kontrafaktische Erklärungen und Saliency Maps, sind bereits in der Forschung etabliert. Doch die Komplexität der KI-Modelle bleibt eine Hürde; viele dieser Modelle werden oft als „Black Boxes“ wahrgenommen, was die Transparenz der Entscheidungsfindung erheblich einschränkt. Zudem wird die Notwendigkeit klarer Richtlinien zur Förderung des verantwortungsvollen KI-Einsatzes immer deutlicher.

Insgesamt zeigt die Forschung im Sonderforschungsbereich, dass die Erklärbarkeit von KI nicht nur technische, sondern auch rechtliche und soziale Dimensionen hat. Die Sichtweise auf Erklärbarkeit muss sich weiterentwickeln, um aktive Nutzerinteraktion zu fördern und die verschiedenen Bedürfnisse der Endnutzer in den Fokus zu rücken.

Statistische Auswertung

Beste Referenz
uni-paderborn.de
Weitere Infos
aktuell.uni-bielefeld.de
Mehr dazu
scisimple.com

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert