Zaupanje v AI: Tako postane umetna inteligenca razumljiva in varna!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Univerza v Paderbornu s TRR 318 raziskuje razumljive razlage AI za spodbujanje zaupanja uporabnikov in zmožnosti ukrepanja.

Die Universität Paderborn erforscht mit dem TRR 318 verständliche KI-Erklärungen, um Nutzer*innen Vertrauen und Handlungsfähigkeit zu fördern.
Univerza v Paderbornu s TRR 318 raziskuje razumljive razlage AI za spodbujanje zaupanja uporabnikov in zmožnosti ukrepanja.

Zaupanje v AI: Tako postane umetna inteligenca razumljiva in varna!

Umetna inteligenca (AI) je zdaj našla pot na številna področja življenja, pa naj bo to v obliki jezikovnih pomočnikov ali sistemov odločanja. Vendar pa je kljub njihovi široki uporabi procese odločanja teh sistemov pogosto težko razumeti. Collaborative Research Center/Transregio (TRR) 318 “Constructing Explainability” na univerzah v Paderbornu in Bielefeldu je namenjen intenzivnim raziskovalnim vprašanjem, da bi bili postopki razlage bolj razumljivi za uporabnike. Zlasti sintezna skupina »Razumevanje« v TRR 318 zastavlja osrednje vprašanje, katere informacije potrebujejo uporabniki, da bi bolje razumeli odločitve AI ( uni-paderborn.de ).

Prof. dr. Heike M. Buhl z Univerze v Paderbornu poudarja, da je cilj tovrstnih razlag ljudem dati jasno razumevanje. To vključuje razliko med konceptualnim znanjem, ki se nanaša zgolj na znanje o informacijah, in agencijo, ki je znanje o tem, kako to znanje uporabiti v praksi. Raziskava preučuje tudi dinamiko površnega in globokega razumevanja, ki je močno odvisno od predznanja in zanimanja uporabnikov ( uni-paderborn.de ).

Potreba po razložljivosti

Koncept razložljive umetne inteligence (XAI) postaja vse bolj pomemben. XAI vključuje postopke in metode, ki uporabnikom omogočajo razumevanje rezultatov algoritmov strojnega učenja in povečujejo njihovo zaupanje v te sisteme. V mnogih primerih se modeli umetne inteligence obravnavajo kot »črne skrinjice«, katerih procesi odločanja so pogosto nepregledni, tudi za razvijalce. Zato je ključnega pomena, da podjetja razumejo in nenehno spremljajo procese odločanja svojih sistemov umetne inteligence, da se izognejo pristranskosti in odstopanjom v delovanju. XAI spodbuja tudi opredelitev natančnosti, pravičnosti in preglednosti, kar je bistvenega pomena za odgovorno izvajanje ( ibm.com ).

Prednosti razložljivosti so številne. Vključuje zagotavljanje funkcionalnosti sistema, skladnost z zakonskimi zahtevami in možnost pritožbe na odločitve. Pomembne tehnike znotraj razložljive umetne inteligence vključujejo sledljivost odločitev in izboljšanje natančnosti napovedi. Metode, kot sta Local Interpretable Model-Agnostic Explanations (LIME) in DeepLIFT, se uporabljajo za analizo nevronskih aktivacij in tako prispevajo k boljšemu razumevanju odločitev AI ( ibm.com ).

Zaupanje v sisteme AI

Enako osrednji vidik v razpravi o AI je zaupanje v te tehnologije. Nemški raziskovalni center za umetno inteligenco (DFKI) se trenutno ukvarja z metodami za testiranje in certificiranje inteligentnih sistemov. Cilj je uskladiti tehnološko odličnost z družbeno odgovornostjo. To je še posebej pomembno na varnostno kritičnih področjih, kot sta zdravstvo ali finance, kjer je preglednost temelj zaupanja ( dfki.de ).

DFKI razvija merila testiranja in postopke certificiranja, katerih namen je zagotoviti zaupanja vredne modele umetne inteligence. Pobude, kot je MISSION AI, ki spodbuja krepitev zaupanja vrednih sistemov z učinkovitimi revizijskimi standardi, dopolnjujejo ta prizadevanja. Poleg tega CERTAIN spodbuja standarde za potrjevanje in certificiranje sistemov umetne inteligence v Evropi. Ta razvoj je potreben, da se podjetjem in institucijam omogoči uvedba zaupanja vrednih tehnologij in na koncu poveča sprejemanje umetne inteligence ( dfki.de ).

Na splošno je jasno, da stalen razvojni proces zaupanja vredne umetne inteligence zahteva tako znanstveno odličnost kot družbeno odgovornost. Evropa ima priložnost postati vodilna v svetu s pristopom k razvoju umetne inteligence, osredotočenim na človeka. Aktivno sodelovanje pri oblikovanju teh tehnologij je nujno, da se spopademo z izzivi prihodnosti in pridobimo zaupanje uporabnikov.