Kutatás a mesterséges intelligenciáról: Új módszerek a magyarázati folyamat érthetőségének javítására!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Az UNI Paderborn „Magyarázatosság megalkotása” speciális kutatási területe az AI kiterjesztett magyarázó modelljeit vizsgálja.

Der Sonderforschungsbereich „Constructing Explainability“ an der UNI Paderborn untersucht erweiterte Erklärungsmodelle für KI.
Az UNI Paderborn „Magyarázatosság megalkotása” speciális kutatási területe az AI kiterjesztett magyarázó modelljeit vizsgálja.

Kutatás a mesterséges intelligenciáról: Új módszerek a magyarázati folyamat érthetőségének javítására!

2025. szeptember 10-én a Bielefeldi és a Paderborni Egyetemen működő Collaborative Research Center/Transregio 318 „Magyarázatosság felépítése” négy év intenzív kutatás után számba veszi. Prof. Dr. Katharina Rohlfing és Prof. Dr. Philipp Cimiano irányításával a mesterséges intelligencia (AI) érthetőségének és magyarázhatóságának kutatása a cél. Különösen fontos a felhasználók bevonása a magyarázati folyamatba, amely új lendületet ad a kutatásnak. Az együttműködés összesen 20 projektet és hat szintéziscsoportot foglalt magában, és az év végén az első finanszírozási szakaszban ér véget.

A kutatás egyik kulcsfontosságú eredménye az a megállapítás, hogy a jelenlegi „magyarázható AI” rendszerek gyakran egyirányú utcának tekintik a magyarázatokat. A megértés folyamatát viszont egyre inkább kölcsönös cserének tekintik. Ezért a „Social Explainable AI” (sXAI) új keretrendszerét fejlesztették ki, amely a magyarázatok valós idejű felhasználói reakciókhoz való igazítására összpontosít. Ezeket a fejlesztéseket olyan interdiszciplináris csapatok hajtják, amelyek ötvözik a számítástechnikát, a nyelvészetet és a pszichológiát.

A magyarázati folyamat elemzése

Rohlfing csapata valódi beszélgetéseket vizsgált, hogy meghatározza, hogyan működik a magyarázati folyamat. Kiderült, hogy a magyarázatok gyakran monológgal kezdődnek, de a magyarázottak aktívan részt vesznek kérdések feltevésével vagy zavartság jelzésével. Az elemzés figyelembe vette a nyelv és gesztusok használatát is a megértés bizonyítására. Ezek az eredmények azt mutatták, hogy az „állványzat” fogalma – a tanulás fokozatos támogatása – hasznos a magyarázati folyamat optimalizálásához.

Egy ilyen fejlesztésre példa a SNAPE rendszer, amelyet az A01 projektben terveztek. Érzékenyen reagál a személy reakcióira, és a magyarázatokat egyénileg az adott helyzethez igazítja. Ezért a kutatók egyre inkább az együttműködésre, a társadalmi megfelelőségre és magára a magyarázati folyamatra helyezik a hangsúlyt, hogy az AI-rendszereket hatékonyabbá és felhasználóbarátabbá tegyék.

Jogi és technikai kihívások

A kihívások sokfélék, különösen a jogi kontextusban. A vállalatok mesterséges intelligencia-rendszereikért való felelősségére vonatkozó növekvő törvények, mint például az általános adatvédelmi rendelet (GDPR) Európában, megkövetelik a döntéshozatali folyamatokkal kapcsolatos információk átlátható megosztását. Az Explainable Artificial Intelligence (XAI) célja, hogy érthetőbbé tegye ezeket a folyamatokat a bizalom előmozdítása és a felhasználói interakció megkönnyítése érdekében.

A magyarázhatóság elérésének technikái, mint például a jellemzők hozzárendelési technikái, a tények ellentétes magyarázatai és a kiugrósági térképek, már kialakultak a kutatásban. De az AI-modellek összetettsége továbbra is akadályt jelent; Sok ilyen modellt gyakran „fekete doboznak” tekintenek, ami jelentősen korlátozza a döntéshozatal átláthatóságát. Emellett egyre nyilvánvalóbbá válik, hogy egyértelmű iránymutatásokra van szükség a mesterséges intelligencia felelős használatának előmozdításához.

Összességében az Együttműködési Kutatóközpontban végzett kutatások azt mutatják, hogy a mesterséges intelligencia magyarázhatóságának nemcsak technikai, hanem jogi és társadalmi dimenziói is vannak. A megmagyarázhatóság nézetének fejlődnie kell, hogy ösztönözze az aktív felhasználói interakciót, és a végfelhasználók sokféle igényeire összpontosítson.