قرار المعضلة: السيارات ذاتية القيادة في معضلة أخلاقية!
يدرس الباحثون في جامعة أولدنبورغ القرارات الأخلاقية للسيارات ذاتية القيادة في مواقف المعضلة.

قرار المعضلة: السيارات ذاتية القيادة في معضلة أخلاقية!
في 24 يونيو 2025، قدم باحثون من قسم علم النفس بجامعة أولدنبورغ دراسة مهمة عن السيارات ذاتية القيادة، نشرت في مجلة التقارير العلمية تم نشره. ويهدف بحثها إلى زيادة قبول المركبات ذاتية القيادة، خاصة عندما يتعلق الأمر بمعضلات أخلاقية معقدة. وفي هذا السياق، تم بحث المواقف المعضلة التي يتعين فيها على السيارات ذاتية القيادة اتخاذ قرارات يمكن أن تنقذ الأرواح أو تعرضها للخطر.
ومن الأمثلة المعروفة على ذلك مسألة العربة، التي صاغها كارل إنجيش في الأصل في عام 1930. وقد اكتسبت هذه التجربة الفكرية جوانب جديدة من خلال التطورات التقنية. في دراستهم، قام علماء أولدنبورغ بتعديل اختبار الآلة الأخلاقية لمعهد ماساتشوستس للتكنولوجيا. تمت مواجهة الأشخاص الخاضعين للاختبار بالقرارات التي اتخذها الذكاء الاصطناعي من أجل جعل التناقضات بين القرارات البشرية وقرارات الآلات مرئية. وأظهرت قياسات موجات الدماغ لدى الأشخاص أنه يمكن التعرف على العمليات المعرفية المعقدة بعد حوالي 0.3 ثانية. وتعكس هذه العمليات التقييم العاطفي والمعنوي لحالة اتخاذ القرار.
المعضلات الأخلاقية في التركيز
إحدى المعضلات الرئيسية التي قام الباحثون بتقييمها تتضمن تحديد ما إذا كان يجب على السيارة ذاتية القيادة تجنب كلب أو دهس كلب عندما تفلت من مقودها. توضح مثل هذه المواقف المعضلة أنه لا يوجد غالبًا قرار صحيح بشكل واضح وأن الخوارزميات التقنية لبرمجة المركبات ذاتية القيادة تتطلب مبادئ توجيهية أخلاقية واضحة. تؤثر التأثيرات الثقافية المختلفة أيضًا على القرارات الأخلاقية: فبينما يتم إعطاء الأولوية لمبدأ "النساء والأطفال أولاً" في الثقافات الغربية، يمكن أن تسود في ثقافات أخرى قيمة مختلفة، على سبيل المثال في اليابان مع تفضيل كبار السن.
تظهر الدراسة أنه عندما تكون هناك اختلافات بين قرارات البشر والآلات، يكون هناك ما يصل إلى 2 ميكروفولت من الإثارة الدماغية الأعلى. ويستمر هذا التناقض لعدة أجزاء من الثانية، مما يشير إلى الصراع العاطفي الذي ينشأ في مثل هذه المعضلات. ولمواصلة تعزيز قبول السيارات ذاتية القيادة، يبحث العلماء في طرق لتحليل كيفية تعامل المستخدمين مع القرارات التي تتخذها سياراتهم في الحياة اليومية وما إذا كانت هذه القرارات تتوافق مع قناعاتهم الأخلاقية.
الأخلاق والتحيز في الذكاء الاصطناعي
ومع ذلك، فإن التحديات الأخلاقية المرتبطة بتطوير الذكاء الاصطناعي (AI) تذهب إلى ما هو أبعد من قضايا التحكم في المركبات ذاتية القيادة. بحسب مقال بقلم مركز كوزمو يستطيع الذكاء الاصطناعي تحليل الأحكام الأخلاقية البشرية والتنبؤ، لكنه يخضع لتحيزات كبيرة تجعل موضوعيته موضع تساؤل. غالبًا ما تستند القرارات الأخلاقية التي يتخذها الذكاء الاصطناعي إلى تحيزات تاريخية وثقافية مخبأة في بيانات التدريب.
ولمواجهة هذه التحديات، يوصى بتنويع بيانات التدريب وتنفيذ آليات الرقابة العادلة. على سبيل المثال، يمكن أن يضمن استخدام نهج الإنسان في الحلقة أخذ الاعتبارات والمسؤوليات البشرية في الاعتبار. ويتم التأكيد أيضًا على الحاجة إلى مزيد من الشفافية في عمليات صنع القرار في مجال الذكاء الاصطناعي من أجل جعل الأحكام الأخلاقية مفهومة والمساهمة في التصميم الواعي للخوارزميات.
باختصار، يثير تطوير السيارات ذاتية القيادة وبرمجة الذكاء الاصطناعي أسئلة تكنولوجية وأخلاقية. كالايدوس FH يشير إلى أن التعاون بين البشر والآلات أمر ضروري للتغلب على تحدي المعضلات الأخلاقية عند استخدام الذكاء الاصطناعي وفي نفس الوقت السؤال وتحديد القيم الخاصة بالفرد.