ثورة في الفصول الدراسية: كيف يشكل الذكاء الاصطناعي التعليم في المستقبل!
تشارك كلية الحقوق في Bucerius بنشاط في مناقشة الذكاء الاصطناعي في أوروبا، وتعزيز التحول التعليمي والمعايير القانونية.

ثورة في الفصول الدراسية: كيف يشكل الذكاء الاصطناعي التعليم في المستقبل!
تشارك كلية الحقوق في Bucerius بنشاط في المناقشات الحالية حول الذكاء الاصطناعي (AI) والتحول الرقمي في سياسة التعليم في الاتحاد الأوروبي. ساهم ليزيل روديك، مدير التواصل باللغات الأجنبية في كلية الحقوق في بوسيريوس، بشكل كبير في تقرير "الذكاء الاصطناعي القابل للتفسير (XAI) في التعليم: تعزيز الرقابة البشرية والمسؤولية المشتركة". يعد هذا التقرير نتيجة لجهود مركز التعليم الرقمي الأوروبي (EDEH) والمفوضية الأوروبية لتعزيز الذكاء الاصطناعي الجدير بالثقة في التعليم. كلية الحقوق بوسيريوس تشير التقارير إلى أن Roddeck كان جزءًا من مجموعة العمل التي طورت هذه الإرشادات.
في فصلها "التعامل مع الامتثال لقانون الاتحاد الأوروبي للذكاء الاصطناعي واللائحة العامة لحماية البيانات والقوانين الرقمية ذات الصلة"، تسلط روديك الضوء على كيف يمكن للمؤسسات التعليمية والمطورين العثور على إرشادات قانونية فيما يتعلق بقانون الذكاء الاصطناعي للاتحاد الأوروبي واللائحة العامة لحماية البيانات (GDPR). ويؤكد التقرير على الشفافية والإنصاف وحماية حقوق المتعلمين كمبادئ أساسية لاستخدام الذكاء الاصطناعي في قطاع التعليم.
اللائحة الأوروبية للذكاء الاصطناعي
وفقا ل قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي تعتبر العديد من تطبيقات الذكاء الاصطناعي في التعليم “أنظمة عالية المخاطر”. يحدد قانون الذكاء الاصطناعي قواعد مختلفة لمقدمي ومستخدمي أنظمة الذكاء الاصطناعي اعتمادًا على مستوى المخاطر. ويلزم تقييم العديد من هذه الأنظمة قبل طرحها في الأسواق وطوال دورة حياتها. تعتبر المخاطر غير المقبولة حساسة بشكل خاص، مثل التلاعب السلوكي المعرفي للفئات الضعيفة أو التقييم الاجتماعي للأفراد.
بالإضافة إلى ذلك، تنقسم أنظمة الذكاء الاصطناعي عالية المخاطر إلى فئتين: تلك المستخدمة في المنتجات التي تغطيها تشريعات سلامة المنتجات في الاتحاد الأوروبي وتلك التي لها اختصاص في مجالات محددة مثل التعليم والصحة. يحق للمؤسسات التعليمية تقديم شكاوى بشأن أنظمة الذكاء الاصطناعي إلى السلطات الوطنية المعنية ويجب عليها الالتزام بأحدث متطلبات الشفافية.
النهج العملي والتحديات المستقبلية
في ورشة عمل مجتمع EDEH في الفترة من 17 إلى 18 أكتوبر 2024 في بروكسل، والتي حضرها أيضًا ممثلون عن كلية الحقوق في Bucerius، تم تطوير مناهج عملية لتنفيذ التفسير في السياقات التعليمية. وأظهرت نتائج ورشة العمل تطوير معايير تفسير البيانات وشفافية الذكاء الاصطناعي في قطاع التعليم بالإضافة إلى إنشاء "صناديق حماية" تنظيمية لاختبار تطبيقات الذكاء الاصطناعي.
تعد هذه المبادرات مهمة لأن استخدام الذكاء الاصطناعي في التعليم يمكن أن يغير التعلم والتدريس والعمل بشكل كبير. ومع ذلك، لا تزال العديد من حالات الاستخدام حاليًا في مرحلة الاختبار. ومن أجل تمكين التنفيذ على نطاق واسع، هناك حاجة إلى البنية التحتية التقنية والمهارات اللازمة للمعلمين والتكيف التربوي لمناهج التعلم، من بين أمور أخرى. ديلويت يسلط الضوء على أن حماية البيانات والأخلاقيات هي قضايا مركزية ستشكل المشهد التعليمي المستقبلي.
من أجل تلبية متطلبات قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي، يُطلب من المؤسسات التعليمية ضمان الامتثال ودمج مناهج الذكاء الاصطناعي وإجراء مشاريع تجريبية لاختبار تطبيقات الذكاء الاصطناعي في الممارسة العملية. وفي الوقت نفسه، يعد تعزيز مهارات الذكاء الاصطناعي بين المعلمين والمتعلمين أمرًا بالغ الأهمية لدفع التحول الرقمي في قطاع التعليم.