Rizici umjetne inteligencije u fokusu: Radionica u Bielefeldu naglašava sigurnosne teme!
Radionica o sigurnosti umjetne inteligencije na Sveučilištu Bielefeld: stručnjaci će raspravljati o rizicima i rješenjima od 24. do 26. rujna 2025.

Rizici umjetne inteligencije u fokusu: Radionica u Bielefeldu naglašava sigurnosne teme!
Sljedeći tjedan bit će održana važna radionica o umjetnoj inteligenciji (AI) u Centru za interdisciplinarna istraživanja (ZiF) na Sveučilištu Bielefeld. Od 24. do 26. rujna okupit će se stručnjaci iz različitih disciplina kako bi raspravljali o rizicima i sigurnosnim aspektima umjetne inteligencije. Dr. Alexander Koch, poznati stručnjak za kriptografiju i konzultant za IT sigurnost, vodi razmjenu zajedno s dr. Benjaminom Paaßenom i Elizabeth Herbert. Cilj radionice je pružiti praktičan pregled izazova povezanih s modernim AI sustavima, kao što su nepravedne odluke ili zbunjujući sadržaj generiran umjetnom inteligencijom.
Radionica okuplja 15 istraživača iz osam zemalja, koji dolaze iz područja poput strojnog učenja, neuroznanosti, političkih znanosti i etike. Zajedno žele stvoriti sveobuhvatnu kartu krajolika rizika od umjetne inteligencije. Ovo ne bi trebalo samo mapirati važne opasnosti, već i pokazati moguće mjere za smanjenje rizika. Cilj je pomoći pojedincima i institucijama da donesu informirane odluke o sigurnosti umjetne inteligencije. Dr. Koch i dr. Paaßen stipendisti su “Young ZiF”, mreže koja promiče interdisciplinarnu razmjenu u području istraživanja od 2002. godine.
Umjetna inteligencija u svakodnevnom životu
Industrija umjetne inteligencije postigla je brzi napredak posljednjih godina, osobito kroz razvoj kao što je softverska aplikacija ChatGPT. Tvrtke se sve više oslanjaju na chatbotove podržane umjetnom inteligencijom koji mogu komunicirati prirodnim jezikom. Ovi sustavi ne samo da igraju ključnu ulogu u IT sigurnosti bržim otkrivanjem i sprječavanjem prijetnji, već se također koriste za izgradnju sigurnosti. Tamo pomažu u smanjenju provala i drugih opasnosti poput požara.
Međutim, korištenje umjetne inteligencije nosi i rizike. Lažni alarmi mogu uzrokovati stres, au korporativnoj sigurnosti sustavi umjetne inteligencije mogu biti loše implementirani, što može dovesti do financijskih gubitaka ili pravnih problema. Naglašava da su snažne sigurnosne mjere i redovite revizije neophodne kako bi se rizici od umjetne inteligencije sveli na minimum. Transparentnost algoritama je ključna jer odluke koje donose AI sustavi moraju biti razumljive.
Sigurnosna i etička razmatranja
Rasprava o umjetnoj inteligenciji nije samo tehnička, već i etička. Rezultati AI sustava uvelike ovise o korištenim podacima i njihovom dizajnu. Iskrivljavanje podataka može imati nenamjerne, ali ozbiljne posljedice, kao što su diskriminirajuće odluke pri zapošljavanju ili kreditiranju. Metode poput takozvanog "mathwashinga" mogu učiniti da umjetna inteligencija izgleda utemeljena na činjenicama iako je manjkava ili pristrana.
Ne mogu se zanemariti ni brige o zaštiti podataka i privatnosti. Tehnologije kao što su prepoznavanje lica ili online praćenje mogu ugroziti građanska prava. Novi zakon o umjetnoj inteligenciji stoga zahtijeva potpune i točne skupove podataka za obuku sustava umjetne inteligencije i regulira korištenje određenih aplikacija koje bi potencijalno mogle biti štetne.
U vrijeme kada autonomne odluke putem umjetne inteligencije sve više pronalaze put do svakodnevnog života, ključno je da i javnost i dionici poduzeća budu informirani o mogućnostima i rizicima sustava umjetne inteligencije. Stručnjaci snažno naglašavaju važnost odgovornog korištenja i regulacije. To je jedini način da se osigura da razvoj umjetne inteligencije služi dobrobiti društva i da ne postane nekontrolirana prijetnja.
Sveobuhvatno razumijevanje AI krajolika i njegovih rizika stoga je ključno za promicanje informirane i odgovorne uporabe tehnologija. Nadolazeća radionica na ZiF-u bit će daljnji korak u tom smjeru. S ciljem iznalaženja praktičnih rješenja, u prvi će plan staviti sigurnosna i etička pitanja u području umjetne inteligencije.
Sveučilište Bielefeld izvješćuje da radionica predstavlja bitan forum za razmjenu o sigurnosti umjetne inteligencije. Gerhard Link ističe važnost sigurnosnih mehanizama dok Europski parlament analizirao etičke dimenzije umjetne inteligencije.