الذكاء الاصطناعي

ما هي الأخلاقيات التي ينبغي أن تُبرمَج عليها السيارات الذاتية القيادة؟

تم تقديم “معضلة العربة” الشهيرة لملايين الأشخاص في دراسة عالمية، كشفت عن مدى اختلاف الأخلاق من ثقافة إلى أخرى.

في عام 2014، صمم الباحثون في مختبر الوسائط بمعهد ماساتشوستس للتكنولوجيا تجربة تسمى “مورال ماشين”، وكانت الفكرة هي إنشاء منصة شبيهة بلعبة من شأنها أن تجمع قرارات الناس على كيفية إعطاء السيارات الذاتية القيادة الأولوية للحياة بمختلف أنواع “معضلة العربة”، وفي هذه العملية، ستوفر البيانات الناتجة نظرة ثاقبة للأولويات الأخلاقية الجماعية لمختلف الثقافات.

لم يتنبأ الباحثون بالإقبال الكبير على التجربة، فبعد أربع سنوات من إطلاق المنصة، سجل ملايين الأشخاص في 233 بلداً وإقليماً 40 مليون قرار، مما يجعلها واحدة من أكبر الدراسات التي أجريت على الأفضليات الأخلاقية العالمية.

وقد قدم مقال جديد منشور في Nature تحليل هذه البيانات وكشف كيف أن الأخلاقيات تختلف حسب الثقافة والاقتصاد والموقع الجغرافي.

والشكل العام للمشكلة هو: هنالك عربة الترولي (الترام) تسير باتجاه خمسة أشخاص مقيّدين (أو عاجزين عن الحركة) مُمَدّدين على السكة (المسار). أنت تقف بالقرب من العَتَلَة التي تتحكم بمحولة السكة الحديدة. إذا سحبت العَتَلَة، ستتابع العربة سيرها في المسار الثانوي الآخر وسيتمّ إنقاذ خمسة أشخاص على المسار الرئيسي. لكن يوجد شخص واحد مُمَدّد على المسار الثانوي. أنت أمام خيارين:

  1. الخيار الأول هو ألّا تفعل شيئًا وتسمح للعربة بقتل خمسة أشخاص على المسار الرئيسي.
  2. الخيار الثاني هو سحب العَتَلَة، وتحويل العربة إلى المسار الثانوي وسوف تقتل شخصا واحدا.

أي خيار هو الأكثر أخلاقيّة؟

استلهمت “مورال ماشين” من هذه الفكرة لاختبار تسع مقارنات مختلفة تستقطب الناس: هل على السيارات المستقلة أو الذاتية القيادة أن تعطي الأولوية للبشر على الحيوانات الأليفة ، للركاب على المارة، للمزيد من الأرواح على عدد أقل من الناس، للمزيد من النساء على الرجال ، للأصغر سنًا على كبار السن، للأصحاء على المرضى ، للأغنياء على ذوي الوضع الاجتماعي الصعب، والذين يحترمون القانون على الخارجين عنه؟ وأخيرًا ، هل يجب أن تنحرف السيارة (تتصرف) أو تبقي على المسار (تتقاعس)؟

وبدلاً من تقديم مقارنات فردية، قدمت التجربة للمشاركين تركيبات مختلفة، بما في ذلك ما إذا كان يجب أن تستمر سيارة مستقلة في قتل ثلاثة من كبار السن من المشاة أو التسلل لقتل ثلاثة شبان.

وجد الباحثون أن الأفضليات القطرية اختلفت كثيرًا، لكنها كانت أيضًا مرتبطةً ارتباطًا وثيقًا بالثقافة والاقتصاد، فعلى سبيل المثال، فإن المشاركين من الثقافات الجماعية مثل الصين واليابان يرجحون أن تنقذ كبار السن، فإن البلدان ذات الثقافات الفردية أكثر يرجحون أن تنقذ الشباب.

وبالمثل، فإن المشاركين من البلدان الفقيرة ذات المؤسسات الأضعف أكثر تسامحًا مع المشاة الذين يحترمون الإشارات الضوئية، ويظهر المشاركون من البلدان ذات المستوى العالي من عدم المساواة الاقتصادية وجود فجوات أكبر بين معاملة الأفراد ذوي المكانة الاجتماعية المرتفعة والمنخفضة.

وفيما يتعلق بالمسألة الأساسية لمشكلة الترام، اكتشف الباحثون أن العدد الكبير من الأشخاص المعرضين للخطر لم يكن دائمًا العامل المسيطر في اختيار المجموعة لتجنبها، وأظهرت النتائج أن المشاركين من الثقافات الفردية، مثل المملكة المتحدة والولايات المتحدة، وضعوا ركزوا بشكل أكبر على إنقاذ المزيد من الأرواح نظرا لجميع الخيارات الأخرى، ربما، وفقا للمؤلفين، بسبب الأهمية الكبرى المعطاة لقيمة كل فرد.

كما أظهرت البلدان القريبة من بعضها البعض أفضليات أخلاقية أضيق، مع ثلاث مجموعات مسيطرة إلى الغرب والشرق والجنوب.

واعترف الباحثون بأن النتائج يمكن أن تكون مُحرفة، حيث أن المشاركين في الدراسة تم اختيارهم، وبالتالي من المرجح أن يكونوا متصلين بالإنترنت، وأن يكون لهم مكانة اجتماعية عالية، وأن يكونوا على علم بالتكنولوجيا، وهذه الخصائص تنطبق أيضا على أولئك الذين يهتمون بقيادة السيارات المستقلة.

وللدراسة آثار مثيرة للاهتمام بالنسبة للدول التي تختبر السيارات المستقلة، حيث قد تلعب هذه التفضيلات دورًا في تصميم هذه المركبات وتنظيمها، فعلى سبيل المثال، قد يجد صانعي السيارات أن المستهلكين الصينيين سيصلون بسهولة أكبر إلى سيارة تحمي الركاب وليس المشاة.

ويوضح معدو الاستطلاع الأخير أن الهدف منه ليس إلزام شركات صناعة السيارات الذاتية القيادة به، بل بإعطائهم فكرة عما يجول في ذهن الناس.

وقال إدموند عوض المشارك في الدراسة “في حال كانت السيارة الذاتية القيادة مبرمجة على اختيار صدم المشاة غير المنضبطين عن غيرهم، فإنه لن يكون ذلك مقبولا في الدول التي لا يُحترم فيها قانون المرور كثيرا”.

ويأمل واضعو الدراسة من أن تساعد النتائج أيضاً خبراء التكنولوجيا على تعميق تفكيرهم حول أخلاقيات الذكاء الاصطناعي، وأن النقاش حول هذا الموضوع يجب أن يتحول إلى تحليل للمخاطر.