البحث عن الذكاء الاصطناعي: طرق جديدة لتحسين الفهم في عملية الشرح!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

يبحث مجال البحث الخاص "بناء القابلية للتفسير" في جامعة UNI Paderborn في النماذج التوضيحية الموسعة للذكاء الاصطناعي.

Der Sonderforschungsbereich „Constructing Explainability“ an der UNI Paderborn untersucht erweiterte Erklärungsmodelle für KI.
يبحث مجال البحث الخاص "بناء القابلية للتفسير" في جامعة UNI Paderborn في النماذج التوضيحية الموسعة للذكاء الاصطناعي.

البحث عن الذكاء الاصطناعي: طرق جديدة لتحسين الفهم في عملية الشرح!

في 10 سبتمبر 2025، سيقوم مركز الأبحاث التعاونية/ترانسريجيو 318 "بناء القابلية للتفسير" في جامعتي بيليفيلد وبادربورن بتقييم الوضع بعد أربع سنوات من البحث المكثف. تحت إشراف الأستاذة الدكتورة كاثرينا رولفينج والأستاذ الدكتور فيليب سيميانو يركز على هدف البحث في فهم وتفسير الذكاء الاصطناعي (AI). إن إشراك المستخدمين في عملية الشرح له أيضًا أهمية خاصة، وهو الجانب الذي يعطي زخمًا جديدًا للبحث. وشمل التعاون ما مجموعه 20 مشروعًا وستة مجموعات تجميعية وينتهي بمرحلة التمويل الأولى في نهاية العام.

إحدى النتائج الرئيسية للبحث هي اكتشاف أن أنظمة "الذكاء الاصطناعي القابل للتفسير" الحالية غالبًا ما تنظر إلى التفسيرات على أنها طريق ذو اتجاه واحد. ومن ناحية أخرى، يُنظر إلى عملية التفاهم بشكل متزايد على أنها تبادل متبادل. ولذلك، تم تطوير إطار جديد لـ "الذكاء الاصطناعي الاجتماعي القابل للتفسير" (sXAI)، والذي يركز على تكييف التفسيرات مع ردود أفعال المستخدم في الوقت الفعلي. هذه التطورات مدفوعة بفرق متعددة التخصصات تجمع بين علوم الكمبيوتر واللغويات وعلم النفس.

تحليل عملية التفسير

قام فريق رولفينج بفحص المحادثات الحقيقية لتحديد كيفية عمل عملية الشرح. اتضح أن التفسيرات غالبًا ما تبدأ بمونولوج، لكن المفسرين يشاركون بنشاط من خلال طرح الأسئلة أو الإشارة إلى الارتباك. وأخذ التحليل أيضًا في الاعتبار استخدام اللغة والإيماءات لإظهار الفهم. وقد أظهرت هذه النتائج أن مفهوم "السقالات" - الدعم التدريجي للتعلم - مفيد في تحسين عملية الشرح.

مثال على هذا التطور هو نظام SNAPE، الذي تم تصميمه في المشروع A01. فهو يتفاعل بحساسية مع ردود أفعال الشخص ويكيف التفسيرات بشكل فردي مع الموقف المعني. ولهذا السبب يركز الباحثون بشكل متزايد على التعاون والملاءمة الاجتماعية وعملية الشرح نفسها لجعل أنظمة الذكاء الاصطناعي أكثر فعالية وأكثر سهولة في الاستخدام.

التحديات القانونية والفنية

وتتنوع التحديات، وخاصة في السياق القانوني. تتطلب زيادة القوانين المتعلقة بمسؤولية الشركات عن أنظمة الذكاء الاصطناعي الخاصة بها، مثل اللائحة العامة لحماية البيانات (GDPR) في أوروبا، تبادلًا شفافًا للمعلومات حول عمليات صنع القرار. يهدف الذكاء الاصطناعي القابل للتفسير (XAI) إلى جعل هذه العمليات أكثر قابلية للفهم لتعزيز الثقة وتسهيل تفاعل المستخدم.

إن تقنيات تحقيق القابلية للتفسير، مثل تقنيات إسناد الميزة، والتفسيرات المضادة للواقع، وخرائط البروز، قد تم وضعها بالفعل في الأبحاث. لكن تعقيد نماذج الذكاء الاصطناعي يظل يشكل عقبة؛ وكثيراً ما يُنظَر إلى العديد من هذه النماذج باعتبارها "صناديق سوداء"، الأمر الذي يحد بشكل كبير من شفافية عملية صنع القرار. بالإضافة إلى ذلك، أصبحت الحاجة إلى مبادئ توجيهية واضحة لتعزيز الاستخدام المسؤول للذكاء الاصطناعي واضحة بشكل متزايد.

بشكل عام، يُظهر البحث في مركز البحوث التعاونية أن قابلية شرح الذكاء الاصطناعي ليس لها أبعاد تقنية فحسب، بل لها أيضًا أبعاد قانونية واجتماعية. يجب أن تتطور وجهة نظر التفسير لتشجيع التفاعل النشط للمستخدم والتركيز على الاحتياجات المتنوعة للمستخدمين النهائيين.