AI saladused: miks on seletatavus ülioluline?
Prof dr Jürgen Bajorath Bonni ülikoolist uurib seletatava AI väljakutseid ja võimalusi teadustöös.

AI saladused: miks on seletatavus ülioluline?
4. aprillil 2025 tõstetakse teadusringkondades taas esile seletatava tehisintellekti (AI) tähtsus. Õppimisvõimelised arvutialgoritmid on viimastel aastatel teinud märkimisväärseid edusamme, kuid seisavad silmitsi keskse probleemiga: nende läbipaistvuse puudumine. See mõjutab eriti otsustusprotsesse, mida sageli tajutakse kui "musta kasti". Näiteks tehisintellekti abil sõidukituvastuse puhul on sageli ebaselge, milliseid funktsioone algoritmid oma otsustes kasutavad. Prof dr Jürgen Bajorath, kes juhib Lamarri instituudi bioteaduste tehisintellekti valdkonda ja Bonni ülikooli bioteaduste informaatika programmi, rõhutab, et neid mudeleid ei tohiks pimesi usaldada.
Tehisintellekti seletatavuse uurimine on kesksel kohal, et mõista, millal on algoritmid otsuste tegemisel usaldusväärsed. Seletatavus kirjeldab AI-süsteemi võimet läbipaistvalt selgitada, millised kriteeriumid on selle tulemuste jaoks üliolulised. Keemias ja ravimite avastamises on need nõuded eriti keerulised, sest keemilise keele mudelid pakuvad sageli uusi molekule, selgitamata, miks need soovitused on tehtud.
Selgitatava AI mõiste
Explainable AI (XAI) algatuse eesmärk on lahti harutada AI algoritmide sageli keerukad otsustusprotsessid. Laenutaotluste tagasilükkamine AI-süsteemi poolt tekitab sageli frustratsiooni ja usaldamatust, sest otsuse põhjus jääb ebaselgeks. XAI võib aidata nendest väljakutsetest üle saada. Olulised aspektid on läbipaistvus ja usaldus, eriti sellistes kriitilistes valdkondades nagu tervishoid, pangandus ja autonoomne sõit, kus otsustel võib olla inimestele tõsine mõju.
XAI meetodid hõlmavad ennustuste jaoks mõjukate funktsioonide tuvastamist, samuti kohalikke mudeleid, mis selgitavad konkreetseid ennustusi (nt LIME). Need meetodid on olulised AI-mudelite võimalike kõrvalekallete tuvastamiseks ja minimeerimiseks. XAI praegused rakendused ulatuvad meditsiiniliste diagnooside selgitustest kuni tootmisprotsesside läbipaistvate otsusteni.
Seletavuse väljakutsed
Kuigi edusamme on tehtud, tuleb ületada mitmeid väljakutseid. Soovitud mudeli keerukuse, mis sageli viib “musta kasti”, ja otsuste seletatavuse vahel on eesmärkide konflikt. Siin on mõjutatud ka suured keelemudelid (LLM), kuna nende keerulised struktuurid võivad muuta lihtsa selgituse võimatuks. Lisaks tuleb laialdasema kasutuselevõtu edendamiseks eraldada kasutajasõbralike XAI tööriistade arendusressursse.
Bajorath hoiatab, et funktsioonid, mida tehisintellekt peab oluliseks, ei pruugi soovitud tulemustele põhjuslikku mõju avaldada. Kavandatud molekulaarstruktuuride kinnitamiseks on keemilised katsed hädavajalikud, et mõista, kas omadused on tegelikult asjakohased. Seetõttu on usaldusväärsuse kontrollimine hädavajalik.
Kokkuvõtvalt võib öelda, et tehisintellektisüsteemide seletatavus ja läbipaistvus ei ole pelgalt tehniline nõue, vaid vajadus vastutustundlikuks ja eetiliseks kasutamiseks ühiskonnas. Nagu ranktracker.com märgib, et selged selgitused suurendavad usaldust ja on õigusnormide järgimisel üliolulised.
Adaptiivsete algoritmide kasutamine võib seega oluliselt edendada teadusuuringuid loodusteadustes. Sellegipoolest nõuab see nende tugevate ja nõrkade külgede sügavat mõistmist, et tagada arenduste eetiline ja tõhusus. Fraunhofer kirjeldab, kuidas asjakohased selgitatavuse meetodid võivad aidata mitte ainult tehnoloogiaid täiustada, vaid ka tagada vastutuse ülekandmine otsustusprotsessides.
Arvestades erinevaid rakendusvaldkondi, jääb arutelu tehisintellekti otsuste seletatavuse üle teadusringkondades keskseks teemaks.