المعضلة الأخلاقية للسيارات ذاتية القيادة - باتريك لين
-
0:07 - 0:09هذه تجربة خيالية
-
0:09 - 0:12لنقل أنه في مرحلة ما ليست بالبعيدة
-
0:12 - 0:16أنطلقت على الطريق السريق
بسيارتك ذاتية القيادة -
0:16 - 0:20ووجدت أن سيارك قد اُقفل عليها
بالسيارات الأخرى -
0:20 - 0:24وفجأة تسقط عليك مواد كبيرة
وثقيلة من الشاحنة التي أمامك -
0:24 - 0:27سيارتك لايمكنها التوقف في الوقت المناسب
لتجنب الأصطدام -
0:27 - 0:29وعليها أن تتخذ القرار
-
0:29 - 0:32تتجه إلى الأمام وتصطدم بمواد الشاحنة
-
0:32 - 0:34أو تنحرف يساراً
بإتجاه سيارات الدفع الرباعي -
0:34 - 0:37أو تنحرف يميناً بإتجاه الدراجة النارية
-
0:37 - 0:40أتكون سلامتك أولويتها
وتضرب الدراجة النارية -
0:40 - 0:43أم تقليل الخطر على الأخرين
بعدم الإنحراف -
0:43 - 0:47حتى لو كان بالإصطدام بالمواد الضخمة
والتضحية بحياتك، -
0:47 - 0:50أو أختيار الحل الأوسط
بالإصطدام بسيارات الدفع الرباعي -
0:50 - 0:53أي خيار يحمل معدل نجاة أعلى للراكبين ؟
-
0:53 - 0:56إذاً ماذا يجب على السيارة
ذاتية القيادة أن تفعل ؟ -
0:56 - 1:00إذا كنا نقود
في مثل هذا الزحام على الوضع اليدوي -
1:00 - 1:03أياً كان تصرفك
سيُفهم أنه أتُخذ هكذا ببساطة -
1:03 - 1:04ردة فعل
-
1:04 - 1:07ليس قراراً مُتعمداً
-
1:07 - 1:11سيكون تصرف مذعور
بدون أي تفكير مسبق أو تعمد أذي -
1:11 - 1:15ولكن لو برمج المبرمج السيارة
بإتخاذ نفس التصرف -
1:15 - 1:17ظروف معينة قد تُفهم في المستقبل
-
1:17 - 1:22حسناً, قد يبدو هذا قتل عمد مع سبق الإصرار
-
1:22 - 1:23والآن لنكون عادلين
-
1:23 - 1:27السيارات ذاتية القيادة
متوقع لها أن تقلل كثيراً من حوادث السيارات -
1:27 - 1:28والوفيات
-
1:28 - 1:31بأستبعاد الأخطاء البشرية من معادلة القيادة
-
1:31 - 1:34بالإضافة إلى كافة أنواع الفوائد الأخري
-
1:34 - 1:35تخفيف إزدحام الطرق
-
1:35 - 1:37وتخفيض الإنبعاثات الضارة
-
1:37 - 1:41وتقليل من وقت القيادة المتوترة الغير منتجة
-
1:41 - 1:44ولكن لاتزال هناك إمكانية لوقوع حوادث
-
1:44 - 1:45وعندما تحدث
-
1:45 - 1:49يمكن تحديد نتائجها أشهر أو سنين مقدماً
-
1:49 - 1:52من قبل المبرمجين أو المسؤولين
-
1:52 - 1:54وسيكون عليهم إتخاذ بعض القرارات الصعبة
-
1:54 - 1:57وإنه لمن المغري أن تقدم
بعض المبادئ العامة بمسألة إتخاذ القرار -
1:57 - 1:59مثل تقليل الخطر
-
1:59 - 2:02ولكن ذلك قد يقود إلى خيارات معتمة أكثر
-
2:02 - 2:04على سبيل المثال
-
2:04 - 2:06لنتخيل أننا في نفس الموقف السابق
-
2:06 - 2:09ولكن الآن يوجد هناك سائقة دراجة نارية
ترتدي خوذة إلى يسارك -
2:09 - 2:11وقائد دراجة أخر يقود دراجته بدون خوذة
-
2:11 - 2:14أي من السائقين
على سيارتك المبرمجة أن تصطدم به؟ -
2:14 - 2:18إذا إفترضنا السائقة صاحبة الخوذة
لأن إحتمالية نجاتها أعلى -
2:18 - 2:22ألست تظلم راكبة الدراجة المهتمة بالسلامة ؟
-
2:22 - 2:24وإذا بالمقابل تجنبت راكب الدراجة بدون الخوذة
-
2:24 - 2:26لأنه لم يهتم بالسلامة
-
2:26 - 2:31تكون قد أنحرفت كثيراً
عن المبدأ الأول بشأن تقليل الخطر -
2:31 - 2:35وتكون سيارتك المبرمجة
قد خالفت عدالة الشارع -
2:35 - 2:38الأعتبارات الأخلاقية قد تكون أعقد من هذا
-
2:38 - 2:40وفي كلا السيناريوهات
-
2:40 - 2:44التصميم الأساسي يعمل
وفق خوارزمية إستهدافية نوعاً ما -
2:44 - 2:45بكلمات أخرى
-
2:45 - 2:48إنها بشكل مبرمج تفضل أو تميز
-
2:48 - 2:51شخص عن أخر أو كائن للإصطدام به
-
2:51 - 2:54ومالكي المركبات المستهدفة
-
2:54 - 2:57سوف يعانوا من عواقب سلبية
بسبب هذه الخوارزمية -
2:57 - 2:59بدون أي ذنب إرتكبوه
-
2:59 - 3:03تقنياتنا الجديدة تفتح العديد
من الروايات للمعضلات الأخلاقية -
3:03 - 3:05على سبيل المثال
إذا كان عليك الإختيار بين -
3:05 - 3:10السيارة المبرمجة على الحفاظ
على أكبر قدر من الحيوات في حادث ما -
3:10 - 3:13أو تلك التي ستحافظ عليك أنت مهما كلفها
-
3:13 - 3:14أي من السيارتين ستشتري ؟
-
3:14 - 3:18ماذا سيحدث إذا بدأت السيارات بتحليل وحوسبة
-
3:18 - 3:21قائدي السيارات وتفاصيل حياتهم
-
3:21 - 3:23هل سيكون في تلك الحالة قرار إعتباطي
-
3:23 - 3:28هل سيكون قرار أفضل
من واحدة محددة سلفاً أن تقلل من الخطر -
3:28 - 3:31وعلى كل حال من سيكون المسؤول
عن صناعة هذه القرارات -
3:31 - 3:32المبرمجون
-
3:32 - 3:33الشركات
-
3:33 - 3:34الحكومات
-
3:34 - 3:38الواقع قد لايتماشى مع نتاج خبراتنا
-
3:38 - 3:39ولكن تلك ليست نقطتنا
-
3:39 - 3:44إنها مصممة لتختبر وتجهد حدسنا الأخلاقي
-
3:44 - 3:47تماماً مثل ما تصنع التجارب العلمية في العالم المادي
-
3:47 - 3:50إكتشاف مثل هذه الأخلاقيات الصعبة يبدأ الآن
-
3:50 - 3:54سيساعدنا في التعامل
مع طرق غير معتادة لأخلاقيات التكنولوجيا -
3:54 - 3:57وتساعدنا في الإنسياب بثقة وضمير
-
3:57 - 4:01نحو مستقبل جديد وشجاع
- Title:
- المعضلة الأخلاقية للسيارات ذاتية القيادة - باتريك لين
- Speaker:
- باتريك لين
- Description:
-
الدرس كاملاً هنا : http://ed.ted.com/lessons/the-ethical-dilemma-of-self-driving-cars-patrick-lin
السيارات ذاتية القيادة تجوب الشوارع بالفعل حالياً. وفي حين أن هذة السيارات أكثر أمناً ونظافة من السيارات الأخري, لكنها لا تستطيع بالكامل تجنب الحوادث. كيف لها أن يتم برمجتها إذا كانت في حادثة لا يمكن تجنبها
باتريك لين يحدثنا عن الأخلاقيات الغامضة للسيارات ذاتية القيادة..درس مقدم من باتريك لين, تحريك صور عن طريق يوكاي دو
- Video Language:
- English
- Team:
- closed TED
- Project:
- TED-Ed
- Duration:
- 04:16
Michelle Mehrtens edited Arabic subtitles for The ethical dilemma of self-driving cars | ||
Mahmoud Aghiorly approved Arabic subtitles for The ethical dilemma of self-driving cars | ||
Muhammad Samir edited Arabic subtitles for The ethical dilemma of self-driving cars | ||
Muhammad Samir accepted Arabic subtitles for The ethical dilemma of self-driving cars | ||
Muhammad Samir edited Arabic subtitles for The ethical dilemma of self-driving cars | ||
Muhammad Samir edited Arabic subtitles for The ethical dilemma of self-driving cars | ||
Abeer Darweesh edited Arabic subtitles for The ethical dilemma of self-driving cars | ||
Abeer Darweesh edited Arabic subtitles for The ethical dilemma of self-driving cars |