Изследване на AI: Нови начини за подобряване на разбираемостта в процеса на обяснение!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Специалната изследователска област „Constructing Explainability“ в UNI Paderborn изследва разширени обяснителни модели за AI.

Der Sonderforschungsbereich „Constructing Explainability“ an der UNI Paderborn untersucht erweiterte Erklärungsmodelle für KI.
Специалната изследователска област „Constructing Explainability“ в UNI Paderborn изследва разширени обяснителни модели за AI.

Изследване на AI: Нови начини за подобряване на разбираемостта в процеса на обяснение!

На 10 септември 2025 г. Центърът за съвместни изследвания/Transregio 318 „Constructing Explainability“ в университетите в Билефелд и Падерборн ще направи равносметка след четири години интензивни изследвания. Под ръководството на проф. д-р Katharina Rohlfing и проф. д-р Philipp Cimiano се фокусира върху целта за изследване на разбираемостта и обяснимостта на изкуствения интелект (AI). Участието на потребителите в процеса на обяснение също е особено важно, аспект, който дава нов тласък на изследванията. Сътрудничеството включва общо 20 проекта и шест групи за синтез и завършва с първата фаза на финансиране в края на годината.

Ключов резултат от изследването е констатацията, че настоящите „обясними AI“ системи често гледат на обясненията като на еднопосочна улица. Процесът на разбиране, от друга страна, все повече се разглежда като взаимен обмен. Затова беше разработена нова рамка за „Социално обясним AI“ (sXAI), която се фокусира върху адаптирането на обясненията към реакциите на потребителите в реално време. Тези разработки се ръководят от интердисциплинарни екипи, които комбинират компютърни науки, лингвистика и психология.

Анализ на процеса на обяснение

Екипът на Ролфинг изследва реални разговори, за да определи как работи процесът на обяснение. Оказа се, че обясненията често започват с монолог, но обясняващите се включват активно, като задават въпроси или сигнализират за объркване. Анализът също така разглежда използването на език и жестове за демонстриране на разбиране. Тези открития показват, че концепцията за „скеле“ – постепенна подкрепа за учене – е полезна за оптимизиране на процеса на обяснение.

Пример за такова развитие е системата SNAPE, която е проектирана в проект A01. Чувствително реагира на реакциите на човека и адаптира обясненията индивидуално към съответната ситуация. Ето защо изследователите все повече се фокусират върху сътрудничеството, социалната целесъобразност и самия процес на обяснение, за да направят системите с изкуствен интелект едновременно по-ефективни и по-лесни за използване.

Правни и технически предизвикателства

Предизвикателствата са различни, особено в правния контекст. Увеличаващите се закони относно отговорността на компаниите за техните AI системи, като Общия регламент за защита на данните (GDPR) в Европа, изискват прозрачно споделяне на информация относно процесите на вземане на решения. Обяснимият изкуствен интелект (XAI) има за цел да направи тези процеси по-разбираеми, за да насърчи доверието и да улесни взаимодействието с потребителите.

Техники за постигане на обяснимост, като техники за приписване на характеристики, съпоставителни обяснения и карти на значимостта, вече са установени в изследванията. Но сложността на AI моделите остава пречка; Много от тези модели често се възприемат като „черни кутии“, което значително ограничава прозрачността на вземането на решения. Освен това необходимостта от ясни насоки за насърчаване на отговорното използване на ИИ става все по-ясна.

Като цяло, изследванията в Collaborative Research Center показват, че обяснимостта на AI има не само технически измерения, но и правни и социални измерения. Възгледът за обяснимостта трябва да се развие, за да насърчи активното потребителско взаимодействие и да се съсредоточи върху разнообразните нужди на крайните потребители.