AI noslēpumi: kāpēc izskaidrojamība ir ļoti svarīga!
Prof. Dr. Jirgens Bajoraths no Bonnas Universitātes pēta izskaidrojamā AI izaicinājumus un iespējas pētniecībā.

AI noslēpumi: kāpēc izskaidrojamība ir ļoti svarīga!
2025. gada 4. aprīlī zinātnieku aprindās atkal tiks uzsvērta izskaidrojama mākslīgā intelekta (AI) nozīme. Datoru algoritmi, kas spēj mācīties, pēdējos gados ir guvuši ievērojamu progresu, taču saskaras ar galveno problēmu: to pārredzamības trūkumu. Tas īpaši ietekmē lēmumu pieņemšanas procesus, kas bieži tiek uztverti kā “melnā kaste”. Piemēram, kad runa ir par transportlīdzekļu atpazīšanu, izmantojot AI, bieži vien nav skaidrs, kuras funkcijas algoritmi izmanto savos lēmumos. Prof. Dr Jirgens Bajoraths, kurš vada AI jomu dzīvības zinātnēs Lamarr institūtā un Life Science Informatics programmu Bonnas Universitātē, uzsver, ka šiem modeļiem nevajadzētu akli uzticēties.
AI izskaidrojamības izpēte ir svarīga, lai saprastu, kad algoritmi ir uzticami lēmumu pieņemšanā. Izskaidrojamība apraksta AI sistēmas spēju pārredzami izskaidrot, kuri kritēriji ir izšķiroši tās rezultātiem. Ķīmijā un zāļu atklāšanā šīs prasības ir īpaši sarežģītas, jo ķīmiskās valodas modeļi bieži iesaka jaunas molekulas, nepaskaidrojot, kāpēc šie ieteikumi tiek veikti.
Izskaidrojama AI jēdziens
Iniciatīvas Explainable AI (XAI) mērķis ir atšķetināt AI algoritmu bieži sarežģītos lēmumu pieņemšanas procesus. AI sistēmas aizdevuma pieteikumu noraidīšana bieži rada neapmierinātību un neuzticību, jo lēmuma iemesls joprojām nav skaidrs. XAI var palīdzēt pārvarēt šīs problēmas. Svarīgi aspekti ir pārredzamība un uzticēšanās, jo īpaši tādās kritiskās jomās kā veselības aprūpe, banku darbība un autonoma braukšana, kur lēmumi var nopietni ietekmēt cilvēkus.
XAI metodes ietver ietekmīgu prognožu iezīmju noteikšanu, kā arī vietējos modeļus, kas izskaidro konkrētas prognozes (piemēram, LIME). Šīs metodes ir svarīgas, lai atklātu un samazinātu iespējamās novirzes AI modeļos. Pašreizējie XAI pielietojumi svārstās no medicīnisko diagnožu skaidrojumiem līdz pārredzamiem lēmumiem ražošanas procesos.
Izskaidrojamības izaicinājumi
Lai gan progress ir panākts, ir vairākas problēmas, kas jāpārvar. Pastāv mērķu konflikts starp vēlamo modeļa sarežģītību, kas bieži noved pie “melnās kastes”, un lēmumu izskaidrojamību. Šeit tiek ietekmēti arī lielie valodu modeļi (LLM), jo to sarežģītās struktūras var padarīt vienkāršu skaidrojumu neiespējamu. Turklāt lietotājam draudzīgu XAI rīku izstrādes resursi ir jāpiešķir, lai veicinātu plašāku ieviešanu.
Bajorath brīdina, ka funkcijām, kuras AI uzskata par būtiskām, ne vienmēr ir cēloņsakarība uz vēlamo rezultātu. Lai apstiprinātu ierosinātās molekulārās struktūras, ķīmiskie eksperimenti ir būtiski, lai saprastu, vai pazīmes patiešām ir būtiskas. Tāpēc ticamības pārbaudes ir būtiskas.
Rezumējot, AI sistēmu izskaidrojamība un caurskatāmība nav tikai tehniska prasība, bet gan nepieciešamība atbildīgai un ētiskai lietošanai sabiedrībā. Kā ranktracker.com piezīmes, skaidri paskaidrojumi veicina uzticēšanos un ir ļoti svarīgi, lai nodrošinātu atbilstību juridiskajiem standartiem.
Tāpēc adaptīvo algoritmu izmantošana var ievērojami veicināt pētniecību dabaszinātnēs. Tomēr tas prasa dziļu izpratni par viņu stiprajām un vājajām pusēm, lai nodrošinātu, ka attīstība ir gan ētiska, gan efektīva. Fraunhofers aprakstīts, kā atbilstošas izskaidrojamības metodes var palīdzēt ne tikai pilnveidot tehnoloģijas, bet arī nodrošināt atbildības nodošanu lēmumu pieņemšanas procesos.
Ņemot vērā dažādās piemērošanas jomas, diskusija par AI lēmumu izskaidrojamību joprojām ir galvenā tēma zinātnieku aprindās.