الذكاء الاصطناعي ضد المعلومات المضللة: معركة الدكتورة فيرا شميت من أجل الحقيقة!
تجري جامعة TU Berlin بحثًا تحت إشراف الدكتورة فيرا شميت حول الأدوات المدعومة بالذكاء الاصطناعي لمكافحة المعلومات المضللة من أجل تعزيز العمليات الديمقراطية.

الذكاء الاصطناعي ضد المعلومات المضللة: معركة الدكتورة فيرا شميت من أجل الحقيقة!
في عالم تنتشر فيه المعلومات المضللة بسهولة أكبر، قامت مجموعة الأبحاث XplaiNLP في تي يو برلين يمثل خطوة حاسمة في مكافحة هذا التحدي. تحت قيادة الدكتورة فيرا شميت، جعلت المجموعة من مهمتها تعزيز قدرة المجتمع على الصمود في مواجهة المعلومات المضللة. وبتمويل من طرف ثالث يزيد عن 4 ملايين يورو، تهدف أبحاثها إلى تطوير أدوات تساعد الصحفيين والجمهور على فهم روايات المعلومات المضللة بشكل أفضل.
يركز عمل المجموعة على مشروعين رئيسيين: VeraXtract وجهاز كشف الكذب للأخبار. يهدف مشروع VeraXtract إلى تحليل روايات المعلومات المضللة المعقدة ليس فقط لتحديد المعلومات الخاطئة ولكن أيضًا لفك رموز الروايات التي تقف وراءها. يجب أن تلعب "أداة مراقبة السرد" المدعومة بالذكاء الاصطناعي دورًا مركزيًا هنا. توفر هذه التكنولوجيا تفسيرات مفهومة لتحليلاتها وبالتالي توفر الشفافية للمستخدمين.
المشاريع الحالية وأهميتها
أما المشروع الثاني، وهو جهاز كشف الكذب الإخباري، فهو موجه خصيصًا للصحفيين، وهو مصمم للعثور على معلومات كاذبة في النصوص والصور والمحتوى الصوتي والفيديو. سيتم الإعلان عن الإصدار التجريبي الأول من الأداة في شهر أبريل. ونظراً للتحديات المتمثلة في إجراء عمليات التحقق من الحقائق في كثير من الأحيان بعد فوات الأوان وبقاء المعلومات المضللة في الذاكرة الجماعية، فقد أصبح تطوير مثل هذه التقنيات أمراً ملحاً بشكل متزايد.
تضم مجموعة أبحاث XplaiNLP حاليًا 24 عضوًا، مما يجعلها واحدة من المجموعات الرائدة في مجال كشف المعلومات المضللة في ألمانيا. تكملة أهداف المجموعة هي الحاجة إلى إجراء دراسة نقدية لدور الذكاء الاصطناعي في مكافحة المعلومات المضللة. يؤكد الدكتور شميت على أهمية الذكاء الاصطناعي: فهو يمكن أن يكون بمثابة جسر بين الناس ويساعد في اختراق فقاعات الترشيح.
تحديات التضليل
إن انتشار المعلومات المضللة في كل مكان يهدد الثقة في المؤسسات الديمقراطية ويمكن أن يؤدي إلى تعميق الانقسامات الاجتماعية. إن استخدام الذكاء الاصطناعي في هذا السياق يسلط الضوء على المخاطر والفرص. بالإضافة إلى تحديد المعلومات الخاطئة، يقوم الفريق أيضًا بتحليل الخصائص الأسلوبية لتحديد المحتوى العاطفي والمشحون. ولهذه الأساليب أهمية خاصة في الفترة التي تسبق الانتخابات والصراعات، عندما يتم استخدام المعلومات المضللة بشكل استراتيجي بشكل متزايد.
تعمل المجموعة أيضًا مع شركاء مثل دويتشه فيله ومركز الأبحاث الألماني للذكاء الاصطناعي لمواصلة تطوير أساليب الكشف عن التزييف العميق وتحليل المحتوى. كما تشارك مبادرات مثل الموقعين الدوليين لتدقيق الحقائق ومدققي الحقائق المحليين بنشاط في مكافحة المعلومات المضللة. يمكن أن يلعب قانون الخدمات الرقمية (DSA) أيضًا دورًا مهمًا في تنظيم منصات الوسائط الاجتماعية عندما يتعلق الأمر بالإشراف على المحتوى.
من التنسيقات المهمة للتبادل أحداث مثل المناقشة حول التحقق من الحقائق باستخدام الذكاء الاصطناعي، والتي من المقرر إجراؤها في 10 ديسمبر 2024 في جامعة برلين التقنية. ستتم هنا مناقشة التحديات الحالية وظروف الإطار القانوني والحاجة إلى مدققي الحقائق البشرية من أجل تحسين استخدام المجتمع للذكاء الاصطناعي.
وتمتد رؤية المجموعة البحثية إلى عام 2030، عندما يكون الذكاء الاصطناعي قادرًا على اكتشاف المعلومات المضللة ووضعها في سياقها في الوقت الفعلي. ويهدف هذا إلى استعادة الثقة في المعلومات وتعزيز التماسك الاجتماعي في نهاية المطاف. إن التحديات لا لبس فيها، ولكن النهج الذي تتبعه مجموعة أبحاث XplaiNLP يقدم وجهات نظر جديدة في مكافحة طوفان المعلومات المضللة.
