AI riskid on fookuses: Bielefeldi töötuba tõstab esile turvateemad!
AI turvalisuse töötuba Bielefeldi ülikoolis: eksperdid arutavad riske ja lahendusi 24.–26. septembril 2025.

AI riskid on fookuses: Bielefeldi töötuba tõstab esile turvateemad!
Järgmisel nädalal toimub Bielefeldi ülikooli interdistsiplinaarsete uuringute keskuses (ZiF) oluline tehisintellekti (AI) töötuba. 24.-26. septembrini tulevad kokku erinevate erialade eksperdid, et arutada tehisintellektiga seotud riske ja turvaaspekte. Börsi juhib koos dr Benjamin Paaßeni ja Elizabeth Herbertiga tunnustatud krüptograafiaekspert ja IT-turbe konsultant dr Alexander Koch. Töötoa eesmärk on anda praktiline ülevaade tänapäevaste tehisintellektisüsteemidega kaasnevatest väljakutsetest, nagu ebaõiglased otsused või segane tehisintellekti loodud sisu.
Töötuba toob kokku 15 teadlast kaheksast riigist, kes on pärit sellistest valdkondadest nagu masinõpe, neuroteadus, politoloogia ja eetika. Üheskoos tahavad nad luua kõikehõlmava tehisintellekti riskimaastiku kaardi. See ei peaks mitte ainult kaardistama olulisi ohte, vaid näitama ka võimalikke meetmeid riskide vähendamiseks. Eesmärk on aidata inimestel ja institutsioonidel teha tehisintellekti turvalisuse osas teadlikke otsuseid. Dr Koch ja Dr. Paaßen on stipendiaadid võrgustikus "Young ZiF", mis on edendanud interdistsiplinaarset vahetust teadusuuringute valdkonnas alates 2002. aastast.
Tehisintellekt igapäevaelus
AI-tööstus on viimastel aastatel teinud kiireid edusamme, eriti tänu sellistele arengutele nagu ChatGPT tarkvararakendus. Ettevõtted toetuvad üha enam AI-toega vestlusrobotidele, mis suudavad suhelda loomulikus keeles. Need süsteemid ei mängi mitte ainult IT-turvalisuses võtmerolli, tuvastades ja tõrjudes ohte kiiremini, vaid neid kasutatakse ka turvalisuse loomisel. Seal aitavad need minimeerida sissemurdmisi ja muid ohte, nagu tulekahju.
Tehisintellekti kasutamine toob aga kaasa ka riske. Valehäired võivad põhjustada stressi ja ettevõtte turvalisuses võivad AI-süsteemid olla halvasti rakendatud, mis võib põhjustada rahalist kahju või juriidilisi probleeme. Selles rõhutatakse, et tehisintellektiga seotud riskide minimeerimiseks on vaja tugevaid turvameetmeid ja regulaarseid auditeid. Algoritmide läbipaistvus on ülioluline, sest tehisintellektisüsteemide tehtud otsused peavad olema arusaadavad.
Ohutus- ja eetilised kaalutlused
Arutelu AI üle pole mitte ainult tehniline, vaid ka eetiline. AI-süsteemide tulemused sõltuvad oluliselt kasutatavatest andmetest ja nende disainist. Andmetes esinevatel moonutustel võivad olla soovimatud, kuid tõsised tagajärjed, näiteks diskrimineerivad otsused töökoha rentimisel või laenutamisel. Sellised meetodid nagu nn matemaatikapesu võivad muuta tehisintellekti faktipõhiseks, kuigi see on vigane või kallutatud.
Tähelepanuta ei saa jätta ka muret andmekaitse ja privaatsuse pärast. Sellised tehnoloogiad nagu näotuvastus või veebis jälgimine võivad ohustada kodanikuõigusi. Seetõttu nõuab uus tehisintellekti seadus täielikke ja täpseid andmekogumeid tehisintellektisüsteemide koolitamiseks ning reguleerib teatud potentsiaalselt kahjulike rakenduste kasutamist.
Ajal, mil tehisintellekti kaudu tehtavad autonoomsed otsused leiavad üha enam teed igapäevaellu, on ülioluline, et nii avalikkust kui ka ettevõtte sidusrühmi teavitataks tehisintellektisüsteemide võimalustest ja riskidest. Eksperdid rõhutavad tugevalt vastutustundliku kasutamise ja reguleerimise tähtsust. See on ainus viis tagada, et tehisintellekti arendused teenivad ühiskonna heaolu ega muutuks kontrollimatuteks ohtudeks.
Seetõttu on tehisintellekti maastiku ja sellega seotud riskide põhjalik mõistmine tehnoloogiate teadliku ja vastutustundliku kasutamise edendamiseks hädavajalik. Eelseisev ZiF-i seminar on järgmine samm selles suunas. Eesmärgiga leida praktilisi lahendusi, toob ta esiplaanile nii turvalisuse kui ka eetilised küsimused tehisintellekti valdkonnas.
Bielefeldi ülikool teatab, et töötuba on oluline foorum tehisintellekti turvalisuse teemadel. Gerhard Link rõhutab samas turvamehhanismide tähtsust Euroopa Parlament analüüsis tehisintellekti eetilisi mõõtmeid.