معضلة العربة هي تجربة فكرية في علم الأخلاق مُعترَف بها على نطاق واسع في مجال الفلسفة الأخلاقية، طُرحت لأول مرة في أوائل القرن العشرين، تفترض المعضلة وجود عربة ترام تسير تجاه خمسة أشخاص مقيّدين مُمَدّدين على السكة، وأنك -أو المتحكم- تقف بالقرب من العَتَلَة التي تتحكم في محولة السكة الحديدية. إذا سحبت العتلة، ستتابع العربة سيرها في المسار الثانوي الآخر وستنقذ خمسة أشخاص على المسار الرئيسي. لكن يوجد شخص واحد مُمَدّد على المسار الثانوي. لذا فأنت أمام خيارين، قتل خمسة أشخاص أو شخص واحد، أيهما أكثر أخلاقية؟

تثير معضلة العربة في شكلها الأصلي سؤالين رئيسيين هما: كيف سيتفاعل المتفرج على المستوى العاطفي المندفع؟ وكيف يجب أن يتفاعل على مستوى منطقي أخلاقيًا؟

يمكننا إسقاط هذه المعضلة على العديد من المواقف المشابهة، مثل أن تتعرض لموقف وأنت تقود السيارة، ويضعك القدر أمام خيارين: دهس طفل في منتصف الطريق أو مسنّ على جانب الطريق. هنا الخيار أمامك، ولديك كامل الإرادة لاتخاذ القرار. لكن السؤال: ماذا لو استبدلنا بك مركبةً ذاتية القيادة؟ كيف ستتصرف؟ وعلى أي أساس؟

تعتمد السيارات ذاتية القيادة -المعروفة أيضًا بالسيارات الآلية- على الأتمتة، وهي مركبات قادرة على استشعار البيئة المحيطة بها والملاحة دون تدخل بشري. تجمع السيارات ذاتية القيادة بين مجموعة متنوعة من أجهزة الاستشعار لإدراك ما يحيط بها، مثل الكاميرات الحرارية والرادار والليدار والسونار ونظام تحديد المواقع العالمي وقياس المسافات ووحدات القياس بالقصور الذاتي. قد تستخدم المركبات ذاتية القيادة طرق التحكم القائمة على الذكاء الاصطناعي لدعم مهام القيادة الذاتية المختلفة.

تنتقص المشكلة التي تطرحها معضلة العربة من فهم كيفية عمل السيارات ذاتية القيادة، وكيف «تفكر»، ومدى تأثير البشر في عمليات صنع القرار، والقضايا الأخلاقية الحقيقية التي تواجه من يدافعون عن تطوير السيارات ذاتية القيادة ونشرها في أنحاء العالم. 

يتمتع فريق المصممين والمبرمجين وعلماء الأخلاق والمهندسين الذين يصممون السيارة ذاتية القيادة برفاهية تحديد الحسابات المثلى في كل موقف محتمل قد يواجه السيارة، وذلك قبل فترة طويلة من تصنيعها، على عكس القرار المفاجئ المطلوب من الإنسان الواقع في معضلة العربة. وبذلك يكون فريق البرمجة بموقف المتفرج في معضلة العربة، إذ يحددون مسبقًا بفعالية متى يجب «سحب العتلة»، بترميزها في خوارزميات السيارة. لكن يبقى السؤال: من الذي يجب أن تنقذه السيارة عندما تواجه موقفًا أخلاقيًا مشابهًا فجأة؟

فور أن تكون السيارة على الطريق في وضع القيادة الذاتية، يكون «سحب العتلة» قد تحدد مسبقًا من قبل مبرمج عمل بوصفه متفرجًا مستقبليًا لمثل هذه الحالات، في حين تصبح السيارة ذاتية القيادة هي العربة. ومع أن معضلة العربة ترتبط بنتيجتين متعلقتين بالمسار، فإن المركبات ذاتية القيادة تفتح مجموعة لا نهائية تقريبًا من النتائج أمام العوامل غير المتوقعة، حيث لا مسارات ولا أحد مقيد، بل الآلاف من العربات الأخرى على الطريق، ومن بين الضحايا المحتملين سائقي السيارات الأخرى وركابها. يجب على فريق التصميم في هذه المواقف، التفكير في أفضل السبل لتقييم النتائج غير المميتة. أيضًا فإن التعقيد الأساسي مصحوب بوقت للتفكير والتأمل والبرمجة والتجربة قبل انطلاق المركبات.

قد يصمم المبرمج السيارة لتدمر نفسها إذا لزم الأمر، بدلًا من إلحاق الضرر بأحد، مثل حالة وجود طفل في الطريق لإنقاذه. قد تكون التضحيات الأخرى مفيدة، إذ يمكن لمحافظ السرعة أن يحد من الوفيات والأضرار المحتملة، لكنه يقلل من الأداء والإثارة عند زيادة السرعة. ربما يُنظر دائمًا إلى الحيوانات أنها منخفضة القيمة مقارنةً بالبشر، لكن ذلك يعني أن الكلاب في الطريق ستُدهس روتينيًا من أجل منع الحوادث الناجمة عن الانحراف لتجنبها.

هيذر إم روف، وهي زميلة غير مقيمة في برنامج السياسة الخارجية في معهد بروكينغز، وتشمل اهتماماتها البحثية القانون والسياسة وأخلاقيات التقنيات العسكرية الناشئة مثل الأسلحة المستقلة والذكاء الاصطناعي والروبوتات والأمن السيبراني، تطرح في ورقتها البحثية المتعلقة بأخلاقيات المركبات ذاتية القيادة ثلاثة أفكار:

تعتمد الفكرة الأولى على ما يُسمى قرارات عملية ماركوف(*)، التي تصف عمومًا عملية اتخاذ القرار في بيئة قابلة للملاحظة، وتستخدم نموذجًا رياضيًا مفيدًا لحل العديد من مشكلات التحكم والتخطيط في الهندسة والحوسبة، مثل ألعاب الشطرنج مثلًا، وهي النموذج الرياضي المحتمل استخدامه في حالة المركبات ذاتية القيادة، لكن تصبح هذه العمليات مرصودة جزئيًا في حالة المركبات الذاتية، إذ لا يتعرف النظام بالكامل على بيئته، رغم وجود العديد من أجهزة الاستشعار. ويتخذ الروبوت في هذه الحالة القرار باستخدام الملاحظات الحالية، إضافةً إلى تاريخ الإجراءات والملاحظات السابقة. لذا فتفعيل هذه الخاصية يكون في بيئة لا يمتلك فيها النظام معرفة كاملة أو يقينًا، فيعمل بنظام الاحتمالات. ومن الطرق المحتملة لتعرُّف النظام على الإجراء الذي يجب اتخاذه: «التعلم المعزز»، بتلقي السيارة الذاتية إشارات تعزيز، وتوجيهها نحو الإجراءات التي يجب متابعتها أو تجنبها، إلا أن هذه الإشارات تستند إلى التوزيعات الاحتمالية، التي ستؤدي إلى مزيد من إشارات التعزيز، ومن ثم مزيد من التعلم المعزز في الحالات المستقبلية. تتطلب قرارات عملية ماركوف المرصودة جزئيًا أن يختار المرء- أو المركبة- القرار الأكثر مثالية في ظل ظروف تشبه معضلة العربة، ومن ثم تُقصى القرارات غير المناسبة من حالات التعزيز المستقبلية.

تناقش الفكرة الثانية عثرات معضلات العربة، إذ يدافع باتريك لين (2017) عن استخدام معضلة العربة بوصفها «مضخة حدسية» لجعلنا نفكر في أنواع المبادئ التي يجب أن نبرمجها في المركبات ذاتية القيادة. ويشير إلى امتلاك مبرمجي السيارات المؤتمتة ومصمميها الوقت الكافي لفهمها فهمًا صحيحًا، لذا فهم يتحملون مسؤولية إضافية عن النتائج السيئة التي قد تسببها البرمجيات التي تعمل بها المركبات. في حين تتفق هيذر مع لين بأن العديد من الحالات الفلسفية ليست مصممة لسيناريوهات العالم الحقيقي.

تقترح هيذر تصميم مشكلات تشبه معضلة العربة في مجموعة متنوعة من المواقف، وتدريب الآليات على التصرف المناسب لتعليم النظام ما يجب عليه فعله في كل موقف.

تتناول الفكرة الثالثة القيم الوظيفية، أي قيمة تحليل هذه المعضلة وفوائدها في حياتنا، فإذا اتفقنا أن معضلة العربة تقدم ولو القليل من الإرشادات حول القضايا الاجتماعية والفلسفة الأخلاقية، لا سيما قيمة التغييرات في سياق المجتمع والبحث العلمي، فيمكننا عندئذ بدء البحث في المشكلات واسعة النطاق التي سيواجهها المجتمع مع السيارات ذاتية القيادة. كما أوضح كيت كروفورد وريان كالو (2016): «تعمل الأنظمة المستقلة على تغيير أماكن العمل والشوارع والمدارس. ونحن بحاجة إلى التحقق من أن هذه التغييرات مفيدة، قبل أن تُدمج بشكل أكبر في أسس الحياة اليومية». نحتاج ببساطة إلى تحديد القيم التي نريد تحقيقها بهندسة التقنيات وتصميمها ونشرها، مثل السيارات ذاتية القيادة.

خاتمة:

تمثل السيارات ذاتية القيادة عددًا من المعضلات الأخلاقية التي يجب مراعاتها بعناية مع استمرار تقدم التكنولوجيا. من ناحية أخرى، تتمتع المركبات ذاتية القيادة بإمكانية الحد بشكل كبير من عدد حوادث المرور والوفيات، فضلًا عن تحسين التنقل للأشخاص غير القادرين على القيادة بسبب العمر أو الإعاقة. من ناحية أخرى، تثير عمليات صنع القرار في السيارات ذاتية القيادة، لا سيما في المواقف التي يجب فيها إجراء مقايضات بين سلامة الركاب والمشاة، أسئلة أخلاقية معقدة.

ختامًا، تجب موازنة الاعتبارات الأخلاقية للسيارات ذاتية القيادة مع الفوائد المحتملة التي تقدمها التكنولوجيا. قد يتضمن ذلك وضع مبادئ توجيهية ولوائح لضمان تطوير المركبات المستقلة ونشرها بطريقة مسؤولة وشفافة. من المهم لجميع الأطراف المعنية بموضوع أخلاقيات المركبات ذاتية القيادة، متضمنةً الوكالات الحكومية والمصنعين وفلاسفة الأخلاق، المشاركة في حوار حول الآثار الأخلاقية للسيارات ذاتية القيادة، والعمل على إيجاد حلول تعطي الأولوية لرفاهية جميع الأفراد المتأثرين بهذه التكنولوجيا.

(*) صناعة قرارات ماركوف هي طريقة لتحليل السلوك الحالي لمتغير معين وذلك لأغراض التنبؤ بالسلوك المستقبلي لهذا المتغير، وتُنسب سلاسل ماركوف إلى اسم مكتشفها أندريا ماركوف، العالم الروسي الذي ولد عام 1856 وتوفي عام 1922، وتُعد سلاسل ماركوف أحد أدوات البرمجة الديناميكية التى تُعد أحد أساليب بحوث العمليات. ويهتم أسلوب ماركوف بدراسة عملية اتخاذ القرارات، إذ يتعامل مع احتمالات حدوث حدث معين في المستقبل مستندًا إلى تحليل بعض الاحتمالات، ما يعني أنه أسلوب علمي لدراسة ظاهرة حالية وتحليلها، من أجل التنبؤ بسلوكها في المستقبل.

المصادر

المصدر الاول 

المصدر الثاني 

المصدر الثالث

المصدر الرابع 

المصدر الخامس 

نريد أن نعيد لمنطقتنا مجدها السابق.أتريد ذلك أيضاً؟

خلال العصر الذهبي، ساهمت منطقتنا ببعض أكبر الاختراعات والعجائب العلمية في العالم الحديث. نحن نعيد إيقاد روح المعرفة والمجد والأمل التي ألهمت المنطقة خلال هذه الفترة، ونحن بحاجة إليك.

انضم إلينا