
Künstliche Intelligenz (KI) hat mittlerweile Einzug in viele Lebensbereiche gehalten, sei es in Form von Sprachassistenten oder in entscheidungsfindenden Systemen. Doch trotz ihrer weitverbreiteten Nutzung sind die Entscheidungsprozesse dieser Systeme oft schwer nachvollziehbar. Der Sonderforschungsbereich/Transregio (TRR) 318 „Constructing Explainability“ an den Universitäten Paderborn und Bielefeld widmet sich intensiven Forschungsfragen, um Erklärprozesse für Anwender*innen verständlicher zu gestalten. Insbesondere die Synthesegruppe „Understanding“ im TRR 318 stellt die zentrale Frage, welche Informationen Nutzer*innen benötigen, um die Entscheidungen von KI besser verstehen zu können (uni-paderborn.de).
Prof. Dr. Heike M. Buhl von der Universität Paderborn hebt hervor, dass das Ziel solcher Erklärungen darin besteht, den Menschen ein klares Verständnis zu vermitteln. Dies umfasst die Unterscheidung zwischen konzeptuellem Wissen, das sich auf die bloße Kenntnis von Informationen bezieht, und Handlungsfähigkeit, also dem Wissen, wie man dieses Wissen praktisch anwenden kann. Die Forschung untersucht dabei auch die Dynamiken von oberflächlichem und tiefem Verständnis, die stark vom Vorwissen und Interesse der Nutzer*innen abhängen (uni-paderborn.de).
Der Bedarf an Erklärbarkeit
Das Konzept der erklärbaren künstlichen Intelligenz (XAI) gewinnt zunehmend an Bedeutung. XAI umfasst Verfahren und Methoden, die es Nutzern ermöglichen, die Ergebnisse von maschinellen Lernalgorithmen zu verstehen und ihr Vertrauen in diese Systeme zu stärken. In vielen Fällen werden KI-Modelle als „Blackboxen“ betrachtet, deren Entscheidungsprozesse selbst für Entwickler oft undurchsichtig sind. Daher ist es entscheidend, dass Unternehmen die Entscheidungsprozesse ihrer KI-Systeme verstehen und kontinuierlich überwachen, um Verzerrungen und Leistungsabweichungen zu vermeiden. XAI fördert dabei auch die Charakterisierung von Genauigkeit, Fairness und Transparenz, was für eine verantwortungsvolle Implementierung unerlässlich ist (ibm.com).
Die Vorteile der Erklärbarkeit sind vielfältig. Sie umfasst die Sicherstellung der Systemfunktionalität, die Erfüllung gesetzlicher Vorschriften und die Möglichkeit, Entscheidungen anzufechten. Wichtige Techniken innerhalb der erklärbaren KI sind unter anderem die Rückverfolgbarkeit von Entscheidungen und die Verbesserung der Vorhersagegenauigkeit. Methoden wie Local Interpretable Model-Agnostic Explanations (LIME) und DeepLIFT werden eingesetzt, um neuronale Aktivierungen zu analysieren und damit zu einer besseren Verständlichkeit der KI-Entscheidungen beizutragen (ibm.com).
Vertrauen in KI-Systeme
Einen ebenso zentralen Aspekt in der Diskussion über KI bildet das Vertrauen in diese Technologien. Am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) wird derzeit an Methoden zur Überprüfung und Zertifizierung intelligenter Systeme gearbeitet. Ziel dabei ist es, technologische Exzellenz mit gesellschaftlicher Verantwortung in Einklang zu bringen. Dies ist besonders wichtig in sicherheitskritischen Bereichen wie dem Gesundheitswesen oder der Finanzwelt, wo Transparenz ein Grundpfeiler des Vertrauens darstellt (dfki.de).
Das DFKI entwickelt Prüfkriterien und Zertifizierungsverfahren, die darauf abzielen, vertrauenswürdige KI-Modelle zu gewährleisten. Initiativen wie MISSION KI, das die Stärkung vertrauenswürdiger Systeme durch effiziente Prüfstandards vorantreibt, ergänzen diese Bemühungen. Darüber hinaus fördert CERTAIN in Europa Standards zur Validierung und Zertifizierung von KI-Systemen. Diese Entwicklungen sind notwendig, um Unternehmen und Institutionen die Implementierung vertrauenswürdiger Technologien zu ermöglichen und letztlich die Akzeptanz von KI zu steigern (dfki.de).
Insgesamt zeigt sich, dass der kontinuierliche Entwicklungsprozess von vertrauenswürdiger KI sowohl wissenschaftliche Exzellenz als auch gesellschaftliche Verantwortung erfordert. Europa hat die Chance, mit einem menschenzentrierten Ansatz in der KI-Entwicklung eine globale Vorreiterrolle einzunehmen. Die aktive Mitgestaltung dieser Technologien ist notwendig, um den Herausforderungen der Zukunft zu begegnen und das Vertrauen der Nutzer zu gewinnen.