Povjerenje u AI: Ovako umjetna inteligencija postaje razumljiva i sigurna!
Uz TRR 318, Sveučilište u Paderbornu istražuje razumljiva objašnjenja umjetne inteligencije za promicanje povjerenja korisnika i sposobnosti djelovanja.

Povjerenje u AI: Ovako umjetna inteligencija postaje razumljiva i sigurna!
Umjetna inteligencija (AI) sada je pronašla svoj put u mnoga područja života, bilo u obliku jezičnih asistenata ili sustava za donošenje odluka. Međutim, unatoč njihovoj širokoj upotrebi, procese donošenja odluka ovih sustava često je teško razumjeti. Collaborative Research Center/Transregio (TRR) 318 “Constructing Explainability” na sveučilištima u Paderbornu i Bielefeldu posvećen je intenzivnim istraživačkim pitanjima kako bi proces objašnjavanja učinio razumljivijim za korisnike. Konkretno, grupa sinteze "Razumijevanje" u TRR 318 postavlja središnje pitanje koje su informacije potrebne korisnicima kako bi bolje razumjeli odluke umjetne inteligencije ( uni-paderborn.de ).
Prof. dr. Heike M. Buhl sa Sveučilišta u Paderbornu naglašava da je cilj ovakvih objašnjenja dati ljudima jasno razumijevanje. To uključuje razliku između konceptualnog znanja, koje se odnosi na puko znanje informacija, i djelovanja, što je znanje o tome kako to znanje primijeniti u praksi. Istraživanje također ispituje dinamiku površnog i dubinskog razumijevanja koje uvelike ovisi o predznanju i interesu korisnika ( uni-paderborn.de ).
Potreba za objašnjivošću
Koncept objašnjive umjetne inteligencije (XAI) postaje sve važniji. XAI uključuje procedure i metode koje korisnicima omogućuju razumijevanje rezultata algoritama strojnog učenja i povećavaju njihovo povjerenje u te sustave. U mnogim slučajevima, AI modeli se promatraju kao "crne kutije" čiji su procesi donošenja odluka često neprozirni, čak i za programere. Stoga je ključno da tvrtke razumiju i kontinuirano prate procese donošenja odluka svojih AI sustava kako bi izbjegle pristranosti i odstupanja u performansama. XAI također promovira karakterizaciju točnosti, pravednosti i transparentnosti, što je bitno za odgovornu provedbu ( ibm.com ).
Prednosti objašnjivosti su brojne. To uključuje osiguranje funkcionalnosti sustava, usklađenost sa zakonskim zahtjevima i mogućnost žalbe na odluke. Važne tehnike unutar objašnjive AI uključuju sljedivost odluka i poboljšanje točnosti predviđanja. Metode kao što su Local Interpretable Model-Agnostic Explanations (LIME) i DeepLIFT koriste se za analizu neuronskih aktivacija i na taj način doprinose boljem razumijevanju odluka umjetne inteligencije ( ibm.com ).
Povjerenje u AI sustave
Jednako središnji aspekt u raspravi o umjetnoj inteligenciji je povjerenje u te tehnologije. Njemački istraživački centar za umjetnu inteligenciju (DFKI) trenutno radi na metodama testiranja i certificiranja inteligentnih sustava. Cilj je pomiriti tehnološku izvrsnost s društvenom odgovornošću. Ovo je osobito važno u područjima kritičnim za sigurnost kao što su zdravstvo ili financije, gdje je transparentnost kamen temeljac povjerenja ( dfki.de ).
DFKI razvija kriterije testiranja i postupke certifikacije kojima je cilj osigurati pouzdane modele umjetne inteligencije. Inicijative kao što je MISSION AI, koja unapređuje jačanje pouzdanih sustava kroz učinkovite revizijske standarde, nadopunjuju te napore. Osim toga, CERTAIN promovira standarde za validaciju i certifikaciju AI sustava u Europi. Ovaj razvoj je neophodan kako bi se tvrtkama i institucijama omogućilo da implementiraju pouzdane tehnologije i u konačnici povećaju prihvaćanje umjetne inteligencije ( dfki.de ).
Sve u svemu, jasno je da kontinuirani razvojni proces pouzdane umjetne inteligencije zahtijeva i znanstvenu izvrsnost i društvenu odgovornost. Europa ima priliku postati globalni lider s pristupom razvoju umjetne inteligencije usmjerenom na čovjeka. Aktivno sudjelovanje u osmišljavanju ovih tehnologija nužno je kako bismo odgovorili na izazove budućnosti i osvojili povjerenje korisnika.