معضلة العربة هي تجربة فكرية في علم الأخلاق معترف بها على نطاق واسع في مجال الفلسفة الأخلاقية طُرحت لأول مرة في أوائل القرن العشرين، وتفترض المعضلة وجود عربة ترام تسير باتجاه خمسة أشخاص مقيّدين مُمَدّدين على السكة، وأنك (أو المتحكم) تقف بالقرب من العَتَلَة التي تتحكم بمحولة السكة الحديدة. إذا سحبت العَتَلَة، ستتابع العربة سيرها في المسار الثانوي الآخر وستنقذ خمسة أشخاص على المسار الرئيسي. لكن يوجد شخص واحد مُمَدّد على المسار الثانوي. لذا فأنت أمام خيارين، قتل خمسة أشخاص أو شخص واحد،
أيهما أكثر أخلاقية؟
تثير معضلة العربة في شكلها الأصلي سؤالين رئيسيين هما: كيف سيتفاعل المتفرج على المستوى العاطفي المندفع؟ وكيف يجب أن يتفاعل على مستوى منطقي أخلاقيًا؟
يمكننا إسقاط هذه المعضلة على العديد من المواقف المشابهة، مثل أن تتعرض لموقف وأنت تقود السيارة ويضعك القدر أمام خيارين إما دهس طفل في منتصف الطريق أو مسنّ على طرف الطريق، فهنا الخيار أمامك، ولديك كامل الإرادة لاتخاذ القرار، ولكن السؤال،
ماذا لو استبدلناك بمركبة ذاتية القيادة؟
كيف ستتصرف؟
وعلى أي أساس؟
تعتمد السيارات ذاتية القيادة والمعروفة أيضًا بالسيارات الآلية على الأتمتة، وهي مركبات قادرة على استشعار البيئة المحيطة بها والملاحة دون تدخل بشري. تجمع السيارات ذاتية القيادة بين مجموعة متنوعة من أجهزة الاستشعار لإدراك ما يحيط بها، مثل الكاميرات الحرارية والرادار والليدار والسونار ونظام تحديد المواقع العالمي وقياس المسافات ووحدات القياس بالقصور الذاتي. يمكن أن تستخدم المركبات ذاتية القيادة طرق التحكم القائمة على الذكاء الصنعي لدعم مهام القيادة الذاتية المختلفة.
تنتقص المشكلة التي تطرحها معضلة العربة من فهم كيفية عمل السيارات ذاتية القيادة، وكيف «تفكر»، ومدى تأثير البشر على عمليات صنع القرار، والقضايا الأخلاقية الحقيقية التي تواجه أولئك الذين يدافعون عن تطوير ونشر السيارات ذاتية القيادة في جميع أنحاء العالم.
يتمتع فريق المصممين والمبرمجين وعلماء الأخلاق والمهندسين الذين يصممون السيارة ذاتية القيادة برفاهية تحديد الحسابات المثلى في كل موقف محتمل قد يواجه السيارة، وذلك قبل فترة طويلة من تصنيعها، على عكس القرار المفاجئ المطلوب من الإنسان الواقع في معضلة العربة. وبهذه الطريقة، يكون فريق البرمجة بموقف المتفرج في معضلة العربة، إذ إنهم يحددون مسبقًا بشكل فعال متى يجب «سحب العتلة» عن طريق ترميزها في خوارزميات السيارة. ولكن يبقى السؤال الأساسي:
من الذي يجب على السيارة أن تنقذه عندما تواجه موقفًا أخلاقيًا مفاجئًا مشابهًا؟
بمجرد أن تكون السيارة على الطريق في وضع القيادة الذاتية، يكون «سحب العتلة» قد تحدد مسبقًا من قبل مبرمج عمل كمتفرج مستقبلي لمثل هذه الحالات، بينما تصبح السيارة ذاتية القيادة هي العربة. وفي حين أن معضلة العربة ترتبط بنتيجتين متعلقتين بالمسار، فإن المركبات ذاتية القيادة تفتح مجموعة لانهائية تقريبًا من النتائج أمام العوامل غير المتوقعة، حيث لا مسارات ولا أحد مقيد، بل الآلاف من العربات الأخرى على الطريق، ومن بين الضحايا المحتملين سائقي وركاب السيارات الأخرى. يجب على فريق التصميم في هذه المواقف، التفكير في أفضل السبل لتقييم النتائج غير المميتة. بالإضافة إلى ذلك، فإن التعقيد الأساسي مصحوب بوقت للتفكير والتأمل والبرمجة والتجربة قبل انطلاق المركبات.
قد يصمم المبرمج السيارة لتدمر نفسها إذا لزم الأمر بدلًا من إلحاق الضرر بأحد (كحالة وجود طفل في الطريق لإنقاذه). يمكن أن تكون التضحيات الأخرى مفيدة، إذ يمكن لمحافظ السرعة أن يحد من الوفيات والأضرار المحتملة ولكنه سيقلل من الأداء والإثارة عند زيادة السرعة. ربما يُنظر دائمًا إلى الحيوانات على أنها منخفضة القيمة مقارنة بالبشر، مما يعني أن الكلاب في الطريق ستُضرب بشكل روتيني من أجل منع الحوادث الناجمة عن الانحراف لتجنبها.
تطرح هيذر إم روف، وهي زميلة غير مقيمة في برنامج السياسة الخارجية في معهد بروكينغز وتشمل اهتماماتها البحثية القانون والسياسة وأخلاقيات التقنيات العسكرية الناشئة مثل الأسلحة المستقلة والذكاء الاصطناعي والروبوتات والأمن السيبراني، في ورقتها البحثية المتعلقة بأخلاقيات المركبات ذاتية القيادة ثلاثة أفكار:
تعتمد الفكرة الأولى على ما يسمى قرارات عملية ماركوف*، إذ تصف قرارات عملية ماركوف بشكل عام عملية اتخاذ القرار في بيئة قابلة للملاحظة، وتُستخدم كنموذج رياضي مفيد لحل العديد من مشاكل التحكم والتخطيط في الهندسة والحوسبة، كما هو الحال مع ألعاب الشطرنج مثلًا، وهي النموذج الرياضي المحتمل لاستخدامه في حالة المركبات ذاتية القيادة. لكن، تصبح هذه العمليات مرصودة بشكل جزئي في حالة المركبات الذاتية، إذ لا يتعرف النظام بشكل كامل على بيئته، رغم وجود العديد من أجهزة الاستشعار. ويتخذ الروبوت في هذه الحالة القرار باستخدام الملاحظات الحالية بالإضافة إلى تاريخ الإجراءات والملاحظات السابقة. لذا فتفعيل هذه الخاصية يكون في بيئة لا يمتلك فيها النظام معرفة كاملة أو يقينًا، فيعمل بنظام الاحتمالات. ومن الطرق المحتملة لتعرف النظام على الإجراء الذي يجب اتخاذه هو «التعلم المعزز» من خلال تلقي السيارة الذاتية إشارات تعزيز، وتوجيهها نحو الإجراءات التي يجب متابعتها أو تجنبها، إلا أن هذه الإشارات تستند إلى التوزيعات الاحتمالية التي ستؤدي إلى مزيد من إشارات التعزيز ومن ثم مزيد من التعلم المعزز في الحالات المستقبلية. تتطلب قرارات عملية ماركوف المرصودة جزئيًا أن يختار المرء- أو المركبة- القرار الأكثر مثالية في ظل ظروف تشابه معضلة العربة، ومن ثم تُقصى القرارات غير المناسبة من حالات التعزيز المستقبلية.
تناقش الفكرة الثانية عثرات معضلات العربة: يدافع باتريك لين (2017) عن استخدام معضلة العربة باعتبارها «مضخة حدسية» لجعلنا نفكر في أنواع المبادئ التي يجب أن نبرمجها في المركبات ذاتية القيادة. ويشير إلى امتلاك مبرمجي ومصممي السيارات المؤتمتة الوقت الكافي لفهمها بشكل صحيح، لذا فهم يتحملون مسؤولية إضافية عن النتائج السيئة التي قد تتسبب بها البرمجيات التي تعمل بها المركبات. بينما تتفق هيذر مع لين بأن العديد من الحالات في الفلسفة ليست مصممة لسيناريوهات العالم الحقيقي.
تقترح هيذر تصميم مشكلات تشبه معضلة العربة في مجموعة متنوعة من المواقف، وتدريب الآليات على التصرف بشكل مناسب لتعليم النظام ما يتوجب عليه فعله في كل موقف.
تتناول الفكرة الثالثة القيم الوظيفية، أي ما هي قيمة تحليل هذه المعضلة وفوائدها في حياتنا، فإذا اتفقنا أن معضلة العربة تقدم ولو القليل من الإرشادات حول القضايا الاجتماعية والفلسفة الأخلاقية، ولا سيما قيمة التغييرات في سياق المجتمع والبحث العلمي، فيمكننا عندئذ البدء بالبحث في المشاكل واسعة النطاق التي سيواجهها المجتمع مع السيارات ذاتية القيادة. كما أوضح كيت كروفورد وريان كالو (2016): «تعمل الأنظمة المستقلة على تغيير أماكن العمل والشوارع والمدارس. ونحن بحاجة إلى التأكد من أن هذه التغييرات مفيدة، قبل أن تُدمج بشكل أكبر في أساس الحياة اليومية». نحتاج ببساطة إلى تحديد القيم التي نريد تحقيقها من خلال هندسة وتصميم ونشر التقنيات، مثل السيارات ذاتية القيادة.
خاتمة
تمثل السيارات ذاتية القيادة عددًا من المعضلات الأخلاقية التي يجب مراعاتها بعناية مع استمرار تقدم التكنولوجيا. من ناحية أخرى، تتمتع المركبات ذاتية القيادة بإمكانية الحد بشكل كبير من عدد حوادث المرور والوفيات، فضلاً عن تحسين التنقل للأشخاص غير القادرين على القيادة بسبب العمر أو الإعاقة. من ناحية أخرى، تثير عمليات صنع القرار في السيارات ذاتية القيادة، لا سيما في المواقف التي يجب فيها إجراء مقايضات بين سلامة الركاب والمشاة، أسئلة أخلاقية معقدة.
في النهاية ، يجب موازنة الاعتبارات الأخلاقية للسيارات ذاتية القيادة مع الفوائد المحتملة التي تقدمها التكنولوجيا. قد يتضمن ذلك وضع مبادئ توجيهية ولوائح لضمان تطوير ونشر المركبات المستقلة بطريقة مسؤولة وشفافة. من المهم لجميع الأطراف المعنية بموضوع أخلاقيات المركبات ذاتية القيادة، بما في ذلك الوكالات الحكومية والمصنعين وفلاسفة الأخلاق، المشاركة في حوار حول الآثار الأخلاقية للسيارات ذاتية القيادة والعمل على إيجاد حلول تعطي الأولوية لرفاهية جميع الأفراد المتأثرين بهذه التكنولوجيا.
*صناعة قرارات ماركوف هي طريقة لتحليل السلوك الحالي لمتغير معين وذلك لأغراض التنبوء بالسلوك المستقبلي لهذا المتغير المعين ، وتنسب سلاسل ماركوف إلى إسم مكتشفها أندريا ماركوف العالم الروسي الذي ولد عام 1856م وتوفي عام 1922م ، وتعتبر سلاسل ماركوف أحد أدوات البرمجة الديناميكية التى تعد أحد أساليب بحوث العمليات. ويهتم أسلوب ماركوف بدراسة عملية إتخاذ القرارات حيث يتعامل مع احتمالات حدوث حدث معيّن في المستقبل مستنداً إلى تحليل بعض الاحتمالات، أي أنه أسلوب علميّ لدراسة وتحليل ظاهرة الفترة الحالية من أجل التنبؤ بسلوكها في المستقبل.
المصادر:
- https://fee.org/articles/the-trolley-problem-and-self-driving-cars/#:~:text=The%20problem%20asks%20what%20a,tied%20up%20on%20that%20track.
- https://www.brookings.edu/research/the-folly-of-trolleys-ethical-challenges-and-autonomous-vehicles/
- https://en.wikipedia.org/wiki/Trolley_problem
- https://en.wikipedia.org/wiki/Self-driving_car
- https://ar.wikipedia.org/wiki/%D9%82%D8%B1%D8%A7%D8%B1%D8%A7%D8%AA_%D8%B9%D9%85%D9%84%D9%8A%D8%A9_%D9%85%D8%A7%D8%B1%D9%83%D9%88%D9%81