Tillit til AI: Slik blir kunstig intelligens forståelig og trygg!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Med TRR 318 forsker University of Paderborn på forståelige AI-forklaringer for å fremme brukertillit og evnen til å handle.

Die Universität Paderborn erforscht mit dem TRR 318 verständliche KI-Erklärungen, um Nutzer*innen Vertrauen und Handlungsfähigkeit zu fördern.
Med TRR 318 forsker University of Paderborn på forståelige AI-forklaringer for å fremme brukertillit og evnen til å handle.

Tillit til AI: Slik blir kunstig intelligens forståelig og trygg!

Kunstig intelligens (AI) har nå funnet veien til mange områder av livet, det være seg i form av språkassistenter eller beslutningssystemer. Til tross for utstrakt bruk, er beslutningsprosessene til disse systemene ofte vanskelige å forstå. Collaborative Research Center/Transregio (TRR) 318 "Constructing Explainability" ved universitetene i Paderborn og Bielefeld er dedikert til intensive forskningsspørsmål for å gjøre forklaringsprosesser mer forståelige for brukere. Spesielt stiller syntesegruppen "Forståelse" i TRR 318 det sentrale spørsmålet om hvilken informasjon brukere trenger for å bedre forstå AIs beslutninger ( uni-paderborn.de ).

Prof. Dr. Heike M. Buhl fra Universitetet i Paderborn understreker at målet med slike forklaringer er å gi folk en klar forståelse. Dette inkluderer skillet mellom konseptuell kunnskap, som refererer til kun kunnskap om informasjon, og byrå, som er kunnskapen om hvordan man kan anvende denne kunnskapen praktisk. Forskningen undersøker også dynamikken i overfladisk og dyp forståelse, som er sterkt avhengig av brukernes forkunnskaper og interesse ( uni-paderborn.de ).

Behovet for forklaring

Konseptet med forklarbar kunstig intelligens (XAI) blir stadig viktigere. XAI inkluderer prosedyrer og metoder som gjør det mulig for brukere å forstå resultatene av maskinlæringsalgoritmer og øke deres tillit til disse systemene. I mange tilfeller blir AI-modeller sett på som "svarte bokser" hvis beslutningsprosesser ofte er ugjennomsiktige, selv for utviklere. Derfor er det avgjørende at selskaper forstår og kontinuerlig overvåker beslutningsprosessene til deres AI-systemer for å unngå skjevheter og ytelsesavvik. XAI fremmer også karakteriseringen av nøyaktighet, rettferdighet og åpenhet, noe som er avgjørende for ansvarlig implementering ( ibm.com ).

Fordelene med forklarbarhet er mange. Det inkluderer å sikre systemfunksjonalitet, overholdelse av lovkrav og muligheten til å klage på avgjørelser. Viktige teknikker innen forklarbar AI inkluderer sporbarhet av beslutninger og forbedring av prediksjonsnøyaktighet. Metoder som Local Interpretable Model-Agnostic Explanations (LIME) og DeepLIFT brukes til å analysere nevronale aktiveringer og dermed bidra til en bedre forståelse av AI-beslutninger ( ibm.com ).

Stol på AI-systemer

Et like sentralt aspekt i diskusjonen om AI er tillit til disse teknologiene. Det tyske forskningssenteret for kunstig intelligens (DFKI) jobber for tiden med metoder for testing og sertifisering av intelligente systemer. Målet er å forene teknologisk fortreffelighet med sosialt ansvar. Dette er spesielt viktig på sikkerhetskritiske områder som helsevesen eller finans, der åpenhet er en hjørnestein for tillit ( dfki.de ).

DFKI utvikler testkriterier og sertifiseringsprosedyrer som tar sikte på å sikre pålitelige AI-modeller. Initiativer som MISSION AI, som fremmer styrkingen av pålitelige systemer gjennom effektive revisjonsstandarder, utfyller denne innsatsen. I tillegg fremmer CERTAIN standarder for validering og sertifisering av AI-systemer i Europa. Denne utviklingen er nødvendig for å gjøre det mulig for selskaper og institusjoner å implementere pålitelige teknologier og til slutt øke aksepten for AI ( dfki.de ).

Totalt sett er det klart at den kontinuerlige utviklingsprosessen for pålitelig AI krever både vitenskapelig dyktighet og sosialt ansvar. Europa har muligheten til å bli en global leder med en menneskesentrert tilnærming til AI-utvikling. Aktiv deltakelse i utformingen av disse teknologiene er nødvendig for å møte fremtidens utfordringer og vinne brukernes tillit.