Usalda tehisintellekti: nii muutub tehisintellekt arusaadavaks ja ohutuks!
TRR 318 abil uurib Paderborni ülikool arusaadavaid tehisintellekti selgitusi, et edendada kasutajate usaldust ja tegutsemisvõimet.

Usalda tehisintellekti: nii muutub tehisintellekt arusaadavaks ja ohutuks!
Tehisintellekt (AI) on nüüdseks leidnud tee paljudesse eluvaldkondadesse, olgu siis keeleassistentide või otsustussüsteemide kujul. Vaatamata nende laialdasele kasutamisele on nende süsteemide otsustusprotsessid aga sageli raskesti mõistetavad. Paderborni ja Bielefeldi ülikoolide Collaborative Research Center/Transregio (TRR) 318 “Seletavuse konstrueerimine” on pühendatud intensiivsetele uurimisküsimustele, et muuta selgitusprotsessid kasutajatele arusaadavamaks. Eelkõige esitab TRR 318 sünteesirühm "Mõistmine" keskse küsimuse, millist teavet kasutajad vajavad tehisintellekti otsuste paremaks mõistmiseks ( uni-paderborn.de ).
Prof dr Heike M. Buhl Paderborni ülikoolist rõhutab, et selliste selgituste eesmärk on anda inimestele selge arusaam. See hõlmab vahetegemist kontseptuaalse teadmise, mis viitab pelgalt teabe tundmisele, ja agentsuse, mis on teadmine selle teadmise praktilise rakendamise kohta, vahel. Uurimistöös uuritakse ka pealiskaudse ja sügava mõistmise dünaamikat, mis sõltuvad suuresti kasutajate eelnevatest teadmistest ja huvidest ( uni-paderborn.de ).
Vajadus seletatavuse järele
Seletatava tehisintellekti (XAI) kontseptsioon muutub üha olulisemaks. XAI sisaldab protseduure ja meetodeid, mis võimaldavad kasutajatel mõista masinõppe algoritmide tulemusi ja suurendada nende usaldust nende süsteemide vastu. Paljudel juhtudel peetakse tehisintellekti mudeleid "mustade kastidena", mille otsustusprotsessid on sageli isegi arendajate jaoks läbipaistmatud. Seetõttu on ülioluline, et ettevõtted mõistaksid ja jälgiksid pidevalt oma tehisintellektisüsteemide otsustusprotsesse, et vältida eelarvamusi ja tulemuslikkuse hälbeid. XAI edendab ka täpsuse, õigluse ja läbipaistvuse iseloomustamist, mis on vastutustundliku rakendamise jaoks hädavajalik ( ibm.com ).
Seletatavusest on palju kasu. See hõlmab süsteemi funktsionaalsuse tagamist, vastavust juriidilistele nõuetele ja otsuste edasikaebamise võimalust. Selgitatava tehisintellekti olulised tehnikad hõlmavad otsuste jälgitavust ja prognoosimise täpsuse parandamist. Neuronaalsete aktivatsioonide analüüsimiseks kasutatakse selliseid meetodeid nagu kohalikud tõlgendatavad mudeli-agnostilised seletused (LIME) ja DeepLIFT, mis aitavad seega paremini mõista tehisintellekti otsuseid ( ibm.com ).
Usaldage AI-süsteeme
AI-teemalises arutelus on sama keskne aspekt usaldus nende tehnoloogiate vastu. Saksamaa tehisintellekti uurimiskeskus (DFKI) töötab praegu intelligentsete süsteemide testimise ja sertifitseerimise meetodite kallal. Eesmärk on ühildada tehnoloogiline tipptase ja sotsiaalne vastutus. See on eriti oluline turvalisuse seisukohalt kriitilistes valdkondades, nagu tervishoid või rahandus, kus läbipaistvus on usalduse nurgakivi ( dfki.de ).
DFKI töötab välja testimiskriteeriume ja sertifitseerimisprotseduure, mille eesmärk on tagada usaldusväärsed AI mudelid. Sellised algatused nagu MISSION AI, mis edendab usaldusväärsete süsteemide tugevdamist tõhusate auditeerimisstandardite kaudu, täiendavad neid jõupingutusi. Lisaks edendab CERTAIN Euroopas tehisintellektisüsteemide valideerimise ja sertifitseerimise standardeid. Need arengud on vajalikud selleks, et võimaldada ettevõtetel ja asutustel rakendada usaldusväärseid tehnoloogiaid ja lõpuks suurendada tehisintellekti aktsepteerimist ( dfki.de ).
Üldiselt on selge, et usaldusväärse tehisintellekti pidev arendusprotsess nõuab nii teaduslikku tipptaset kui ka sotsiaalset vastutust. Euroopal on võimalus saada üleilmseks liidriks inimkeskse lähenemisega tehisintellekti arendamisele. Aktiivne osalemine nende tehnoloogiate väljatöötamises on vajalik, et tulla toime tuleviku väljakutsetega ja võita kasutajate usaldus.