Bízz az AI-ban: Így válik érthetővé és biztonságossá a mesterséges intelligencia!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

A TRR 318 segítségével a Paderborni Egyetem érthető mesterséges intelligencia-magyarázatokat kutat a felhasználók bizalmának és cselekvési képességének előmozdítása érdekében.

Die Universität Paderborn erforscht mit dem TRR 318 verständliche KI-Erklärungen, um Nutzer*innen Vertrauen und Handlungsfähigkeit zu fördern.
A TRR 318 segítségével a Paderborni Egyetem érthető mesterséges intelligencia-magyarázatokat kutat a felhasználók bizalmának és cselekvési képességének előmozdítása érdekében.

Bízz az AI-ban: Így válik érthetővé és biztonságossá a mesterséges intelligencia!

A mesterséges intelligencia (AI) mára az élet számos területére utat talált, legyen szó nyelvi asszisztensek vagy döntéshozó rendszerek formájában. Széles körben elterjedt használatuk ellenére azonban e rendszerek döntéshozatali folyamatai gyakran nehezen érthetők. A paderborni és a bielefeldi egyetemen működő Collaborative Research Center/Transregio (TRR) 318 „Magyarázatosság felépítése” intenzív kutatási kérdéseknek szentelődik annak érdekében, hogy a magyarázati folyamatokat érthetőbbé tegye a felhasználók számára. A TRR 318 „Megértése” szintézis csoportja különösen azt a központi kérdést teszi fel, hogy milyen információra van szükségük a felhasználóknak ahhoz, hogy jobban megértsék az AI döntéseit ( uni-paderborn.de ).

Prof. Dr. Heike M. Buhl, a Paderborni Egyetem munkatársa hangsúlyozza, hogy az ilyen magyarázatok célja az, hogy az emberek világos megértést adjanak. Ez magában foglalja a fogalmi tudás megkülönböztetését, amely az információ puszta ismeretére utal, és az ágencia, amely az ismeretek gyakorlati alkalmazásának ismerete. A kutatás a felületes és mély megértés dinamikáját is vizsgálja, ami nagymértékben függ a felhasználók előzetes tudásától és érdeklődésétől ( uni-paderborn.de ).

A magyarázhatóság igénye

A megmagyarázható mesterséges intelligencia (XAI) koncepciója egyre fontosabbá válik. Az XAI olyan eljárásokat és módszereket tartalmaz, amelyek lehetővé teszik a felhasználók számára, hogy megértsék a gépi tanulási algoritmusok eredményeit, és növeljék e rendszerekbe vetett bizalmukat. Sok esetben az AI-modelleket „fekete dobozoknak” tekintik, amelyek döntéshozatali folyamatai gyakran még a fejlesztők számára is átláthatatlanok. Ezért kulcsfontosságú, hogy a vállalatok megértsék és folyamatosan figyeljék AI-rendszereik döntéshozatali folyamatait, hogy elkerüljék a torzításokat és a teljesítménybeli eltéréseket. Az XAI emellett elősegíti a pontosság, méltányosság és átláthatóság jellemzését, ami elengedhetetlen a felelős végrehajtáshoz ( ibm.com ).

A megmagyarázhatóságnak számos előnye van. Ez magában foglalja a rendszer működésének biztosítását, a jogi követelményeknek való megfelelést és a döntések megfellebbezésének lehetőségét. A megmagyarázható mesterséges intelligencia fontos technikái közé tartozik a döntések nyomon követhetősége és az előrejelzési pontosság javítása. Az olyan módszerek, mint a helyi értelmezhető modell-agnosztikus magyarázatok (LIME) és a DeepLIFT, a neuronális aktivációk elemzésére szolgálnak, és ezáltal hozzájárulnak az AI-döntések jobb megértéséhez ( ibm.com ).

Bízzon az AI-rendszerekben

Ugyanilyen központi szempont az AI-ról szóló vitában az ezekbe a technológiákba vetett bizalom. A Német Mesterséges Intelligencia Kutatóközpont (DFKI) jelenleg az intelligens rendszerek tesztelésének és tanúsításának módszerein dolgozik. A cél a technológiai kiválóság összeegyeztetése a társadalmi felelősségvállalással. Ez különösen fontos a biztonság szempontjából kritikus területeken, például az egészségügyben vagy a pénzügyekben, ahol az átláthatóság a bizalom sarokköve ( dfki.de ).

A DFKI tesztelési kritériumokat és tanúsítási eljárásokat dolgoz ki, amelyek célja a megbízható AI-modellek biztosítása. Az olyan kezdeményezések, mint a MISSION AI, amely hatékony auditálási szabványok révén elősegíti a megbízható rendszerek megerősítését, kiegészítik ezeket az erőfeszítéseket. Ezenkívül a CERTAIN támogatja az AI-rendszerek érvényesítésének és tanúsításának szabványait Európában. Ezekre a fejlesztésekre azért van szükség, hogy a vállalatok és intézmények megbízható technológiákat vezessenek be, és végső soron növeljék az AI elfogadottságát ( dfki.de ).

Összességében egyértelmű, hogy a megbízható mesterséges intelligencia folyamatos fejlesztése tudományos kiválóságot és társadalmi felelősségvállalást is igényel. Európának lehetősége nyílik arra, hogy a mesterséges intelligencia fejlesztésének emberközpontú megközelítésével világelsővé váljon. E technológiák tervezésében való aktív részvétel szükséges ahhoz, hogy megfeleljünk a jövő kihívásainak, és elnyerjük a felhasználók bizalmát.