Kutatás a mesterséges intelligenciáról: Új módszerek a magyarázati folyamat érthetőségének javítására!
Az UNI Paderborn „Magyarázatosság megalkotása” speciális kutatási területe az AI kiterjesztett magyarázó modelljeit vizsgálja.

Kutatás a mesterséges intelligenciáról: Új módszerek a magyarázati folyamat érthetőségének javítására!
2025. szeptember 10-én a Bielefeldi és a Paderborni Egyetemen működő Collaborative Research Center/Transregio 318 „Magyarázatosság felépítése” négy év intenzív kutatás után számba veszi. Prof. Dr. Katharina Rohlfing és Prof. Dr. Philipp Cimiano irányításával a mesterséges intelligencia (AI) érthetőségének és magyarázhatóságának kutatása a cél. Különösen fontos a felhasználók bevonása a magyarázati folyamatba, amely új lendületet ad a kutatásnak. Az együttműködés összesen 20 projektet és hat szintéziscsoportot foglalt magában, és az év végén az első finanszírozási szakaszban ér véget.
A kutatás egyik kulcsfontosságú eredménye az a megállapítás, hogy a jelenlegi „magyarázható AI” rendszerek gyakran egyirányú utcának tekintik a magyarázatokat. A megértés folyamatát viszont egyre inkább kölcsönös cserének tekintik. Ezért a „Social Explainable AI” (sXAI) új keretrendszerét fejlesztették ki, amely a magyarázatok valós idejű felhasználói reakciókhoz való igazítására összpontosít. Ezeket a fejlesztéseket olyan interdiszciplináris csapatok hajtják, amelyek ötvözik a számítástechnikát, a nyelvészetet és a pszichológiát.
A magyarázati folyamat elemzése
Rohlfing csapata valódi beszélgetéseket vizsgált, hogy meghatározza, hogyan működik a magyarázati folyamat. Kiderült, hogy a magyarázatok gyakran monológgal kezdődnek, de a magyarázottak aktívan részt vesznek kérdések feltevésével vagy zavartság jelzésével. Az elemzés figyelembe vette a nyelv és gesztusok használatát is a megértés bizonyítására. Ezek az eredmények azt mutatták, hogy az „állványzat” fogalma – a tanulás fokozatos támogatása – hasznos a magyarázati folyamat optimalizálásához.
Egy ilyen fejlesztésre példa a SNAPE rendszer, amelyet az A01 projektben terveztek. Érzékenyen reagál a személy reakcióira, és a magyarázatokat egyénileg az adott helyzethez igazítja. Ezért a kutatók egyre inkább az együttműködésre, a társadalmi megfelelőségre és magára a magyarázati folyamatra helyezik a hangsúlyt, hogy az AI-rendszereket hatékonyabbá és felhasználóbarátabbá tegyék.
Jogi és technikai kihívások
A kihívások sokfélék, különösen a jogi kontextusban. A vállalatok mesterséges intelligencia-rendszereikért való felelősségére vonatkozó növekvő törvények, mint például az általános adatvédelmi rendelet (GDPR) Európában, megkövetelik a döntéshozatali folyamatokkal kapcsolatos információk átlátható megosztását. Az Explainable Artificial Intelligence (XAI) célja, hogy érthetőbbé tegye ezeket a folyamatokat a bizalom előmozdítása és a felhasználói interakció megkönnyítése érdekében.
A magyarázhatóság elérésének technikái, mint például a jellemzők hozzárendelési technikái, a tények ellentétes magyarázatai és a kiugrósági térképek, már kialakultak a kutatásban. De az AI-modellek összetettsége továbbra is akadályt jelent; Sok ilyen modellt gyakran „fekete doboznak” tekintenek, ami jelentősen korlátozza a döntéshozatal átláthatóságát. Emellett egyre nyilvánvalóbbá válik, hogy egyértelmű iránymutatásokra van szükség a mesterséges intelligencia felelős használatának előmozdításához.
Összességében az Együttműködési Kutatóközpontban végzett kutatások azt mutatják, hogy a mesterséges intelligencia magyarázhatóságának nemcsak technikai, hanem jogi és társadalmi dimenziói is vannak. A megmagyarázhatóság nézetének fejlődnie kell, hogy ösztönözze az aktív felhasználói interakciót, és a végfelhasználók sokféle igényeire összpontosítson.
