Förtroende för AI: Det är så artificiell intelligens blir begriplig och säker!
Med TRR 318 forskar University of Paderborn på förståeliga AI-förklaringar för att främja användarnas förtroende och förmågan att agera.

Förtroende för AI: Det är så artificiell intelligens blir begriplig och säker!
Artificiell intelligens (AI) har nu hittat sin väg till många områden i livet, vare sig det är i form av språkassistenter eller beslutssystem. Men trots deras utbredda användning är beslutsprocesserna för dessa system ofta svåra att förstå. Collaborative Research Center/Transregio (TRR) 318 "Constructing Explainability" vid universiteten i Paderborn och Bielefeld är tillägnad intensiva forskningsfrågor för att göra förklaringsprocesser mer begripliga för användarna. I synnerhet ställer syntesgruppen "Understanding" i TRR 318 den centrala frågan om vilken information användare behöver för att bättre förstå AI:s beslut ( uni-paderborn.de ).
Prof. Dr Heike M. Buhl från universitetet i Paderborn betonar att målet med sådana förklaringar är att ge människor en tydlig förståelse. Detta inkluderar distinktionen mellan konceptuell kunskap, som hänvisar till enbart kunskap om information, och agent, som är kunskapen om hur man praktiskt tillämpar denna kunskap. Forskningen undersöker också dynamiken i ytlig och djup förståelse, som i hög grad beror på användarnas förkunskaper och intresse ( uni-paderborn.de ).
Behovet av förklaring
Begreppet förklarlig artificiell intelligens (XAI) blir allt viktigare. XAI inkluderar procedurer och metoder som gör det möjligt för användare att förstå resultaten av maskininlärningsalgoritmer och öka deras förtroende för dessa system. I många fall ses AI-modeller som "svarta lådor" vars beslutsprocesser ofta är ogenomskinliga, även för utvecklare. Därför är det avgörande att företag förstår och kontinuerligt övervakar beslutsprocesserna för sina AI-system för att undvika fördomar och prestandaavvikelser. XAI främjar också karaktäriseringen av noggrannhet, rättvisa och transparens, vilket är avgörande för ett ansvarsfullt genomförande ( ibm.com ).
Fördelarna med att förklara är många. Det inkluderar att säkerställa systemfunktionalitet, efterlevnad av lagkrav och möjlighet att överklaga beslut. Viktiga tekniker inom förklarlig AI inkluderar spårbarhet av beslut och förbättrad prediktionsnoggrannhet. Metoder som Local Interpretable Model-Agnostic Explanations (LIME) och DeepLIFT används för att analysera neuronala aktiveringar och därmed bidra till en bättre förståelse av AI-beslut ( ibm.com ).
Lita på AI-system
En lika central aspekt i diskussionen om AI är förtroendet för dessa teknologier. Det tyska forskningscentret för artificiell intelligens (DFKI) arbetar för närvarande med metoder för att testa och certifiera intelligenta system. Syftet är att förena teknisk excellens med socialt ansvar. Detta är särskilt viktigt inom säkerhetskritiska områden som sjukvård eller finans, där transparens är en hörnsten för förtroende ( dfki.de ).
DFKI utvecklar testkriterier och certifieringsförfaranden som syftar till att säkerställa pålitliga AI-modeller. Initiativ som MISSION AI, som främjar stärkandet av pålitliga system genom effektiva revisionsstandarder, kompletterar dessa ansträngningar. Dessutom främjar CERTAIN standarder för validering och certifiering av AI-system i Europa. Denna utveckling är nödvändig för att göra det möjligt för företag och institutioner att implementera pålitlig teknik och i slutändan öka acceptansen för AI ( dfki.de ).
Sammantaget är det tydligt att den kontinuerliga utvecklingsprocessen av pålitlig AI kräver både vetenskaplig excellens och socialt ansvar. Europa har möjlighet att bli en global ledare med ett människocentrerat förhållningssätt till AI-utveckling. Aktivt deltagande i utformningen av dessa tekniker är nödvändigt för att möta framtidens utmaningar och vinna användarnas förtroende.