Return to Video

المعضلة الأخلاقية للسيارات ذاتية القيادة - باتريك لين

  • 0:07 - 0:09
    هذه تجربة خيالية
  • 0:09 - 0:12
    لنقل أنه في مرحلة ما ليست بالبعيدة
  • 0:12 - 0:16
    أنطلقت على الطريق السريق
    بسيارتك ذاتية القيادة
  • 0:16 - 0:20
    ووجدت أن سيارك قد اُقفل عليها
    بالسيارات الأخرى
  • 0:20 - 0:24
    وفجأة تسقط عليك مواد كبيرة
    وثقيلة من الشاحنة التي أمامك
  • 0:24 - 0:27
    سيارتك لايمكنها التوقف في الوقت المناسب
    لتجنب الأصطدام
  • 0:27 - 0:29
    وعليها أن تتخذ القرار
  • 0:29 - 0:32
    تتجه إلى الأمام وتصطدم بمواد الشاحنة
  • 0:32 - 0:34
    أو تنحرف يساراً
    بإتجاه سيارات الدفع الرباعي
  • 0:34 - 0:37
    أو تنحرف يميناً بإتجاه الدراجة النارية
  • 0:37 - 0:40
    أتكون سلامتك أولويتها
    وتضرب الدراجة النارية
  • 0:40 - 0:43
    أم تقليل الخطر على الأخرين
    بعدم الإنحراف
  • 0:43 - 0:47
    حتى لو كان بالإصطدام بالمواد الضخمة
    والتضحية بحياتك،
  • 0:47 - 0:50
    أو أختيار الحل الأوسط
    بالإصطدام بسيارات الدفع الرباعي
  • 0:50 - 0:53
    أي خيار يحمل معدل نجاة أعلى للراكبين ؟
  • 0:53 - 0:56
    إذاً ماذا يجب على السيارة
    ذاتية القيادة أن تفعل ؟
  • 0:56 - 1:00
    إذا كنا نقود
    في مثل هذا الزحام على الوضع اليدوي
  • 1:00 - 1:03
    أياً كان تصرفك
    سيُفهم أنه أتُخذ هكذا ببساطة
  • 1:03 - 1:04
    ردة فعل
  • 1:04 - 1:07
    ليس قراراً مُتعمداً
  • 1:07 - 1:11
    سيكون تصرف مذعور
    بدون أي تفكير مسبق أو تعمد أذي
  • 1:11 - 1:15
    ولكن لو برمج المبرمج السيارة
    بإتخاذ نفس التصرف
  • 1:15 - 1:17
    ظروف معينة قد تُفهم في المستقبل
  • 1:17 - 1:22
    حسناً, قد يبدو هذا قتل عمد مع سبق الإصرار
  • 1:22 - 1:23
    والآن لنكون عادلين
  • 1:23 - 1:27
    السيارات ذاتية القيادة
    متوقع لها أن تقلل كثيراً من حوادث السيارات
  • 1:27 - 1:28
    والوفيات
  • 1:28 - 1:31
    بأستبعاد الأخطاء البشرية من معادلة القيادة
  • 1:31 - 1:34
    بالإضافة إلى كافة أنواع الفوائد الأخري
  • 1:34 - 1:35
    تخفيف إزدحام الطرق
  • 1:35 - 1:37
    وتخفيض الإنبعاثات الضارة
  • 1:37 - 1:41
    وتقليل من وقت القيادة المتوترة الغير منتجة
  • 1:41 - 1:44
    ولكن لاتزال هناك إمكانية لوقوع حوادث
  • 1:44 - 1:45
    وعندما تحدث
  • 1:45 - 1:49
    يمكن تحديد نتائجها أشهر أو سنين مقدماً
  • 1:49 - 1:52
    من قبل المبرمجين أو المسؤولين
  • 1:52 - 1:54
    وسيكون عليهم إتخاذ بعض القرارات الصعبة
  • 1:54 - 1:57
    وإنه لمن المغري أن تقدم
    بعض المبادئ العامة بمسألة إتخاذ القرار
  • 1:57 - 1:59
    مثل تقليل الخطر
  • 1:59 - 2:02
    ولكن ذلك قد يقود إلى خيارات معتمة أكثر
  • 2:02 - 2:04
    على سبيل المثال
  • 2:04 - 2:06
    لنتخيل أننا في نفس الموقف السابق
  • 2:06 - 2:09
    ولكن الآن يوجد هناك سائقة دراجة نارية
    ترتدي خوذة إلى يسارك
  • 2:09 - 2:11
    وقائد دراجة أخر يقود دراجته بدون خوذة
  • 2:11 - 2:14
    أي من السائقين
    على سيارتك المبرمجة أن تصطدم به؟
  • 2:14 - 2:18
    إذا إفترضنا السائقة صاحبة الخوذة
    لأن إحتمالية نجاتها أعلى
  • 2:18 - 2:22
    ألست تظلم راكبة الدراجة المهتمة بالسلامة ؟
  • 2:22 - 2:24
    وإذا بالمقابل تجنبت راكب الدراجة بدون الخوذة
  • 2:24 - 2:26
    لأنه لم يهتم بالسلامة
  • 2:26 - 2:31
    تكون قد أنحرفت كثيراً
    عن المبدأ الأول بشأن تقليل الخطر
  • 2:31 - 2:35
    وتكون سيارتك المبرمجة
    قد خالفت عدالة الشارع
  • 2:35 - 2:38
    الأعتبارات الأخلاقية قد تكون أعقد من هذا
  • 2:38 - 2:40
    وفي كلا السيناريوهات
  • 2:40 - 2:44
    التصميم الأساسي يعمل
    وفق خوارزمية إستهدافية نوعاً ما
  • 2:44 - 2:45
    بكلمات أخرى
  • 2:45 - 2:48
    إنها بشكل مبرمج تفضل أو تميز
  • 2:48 - 2:51
    شخص عن أخر أو كائن للإصطدام به
  • 2:51 - 2:54
    ومالكي المركبات المستهدفة
  • 2:54 - 2:57
    سوف يعانوا من عواقب سلبية
    بسبب هذه الخوارزمية
  • 2:57 - 2:59
    بدون أي ذنب إرتكبوه
  • 2:59 - 3:03
    تقنياتنا الجديدة تفتح العديد
    من الروايات للمعضلات الأخلاقية
  • 3:03 - 3:05
    على سبيل المثال
    إذا كان عليك الإختيار بين
  • 3:05 - 3:10
    السيارة المبرمجة على الحفاظ
    على أكبر قدر من الحيوات في حادث ما
  • 3:10 - 3:13
    أو تلك التي ستحافظ عليك أنت مهما كلفها
  • 3:13 - 3:14
    أي من السيارتين ستشتري ؟
  • 3:14 - 3:18
    ماذا سيحدث إذا بدأت السيارات بتحليل وحوسبة
  • 3:18 - 3:21
    قائدي السيارات وتفاصيل حياتهم
  • 3:21 - 3:23
    هل سيكون في تلك الحالة قرار إعتباطي
  • 3:23 - 3:28
    هل سيكون قرار أفضل
    من واحدة محددة سلفاً أن تقلل من الخطر
  • 3:28 - 3:31
    وعلى كل حال من سيكون المسؤول
    عن صناعة هذه القرارات
  • 3:31 - 3:32
    المبرمجون
  • 3:32 - 3:33
    الشركات
  • 3:33 - 3:34
    الحكومات
  • 3:34 - 3:38
    الواقع قد لايتماشى مع نتاج خبراتنا
  • 3:38 - 3:39
    ولكن تلك ليست نقطتنا
  • 3:39 - 3:44
    إنها مصممة لتختبر وتجهد حدسنا الأخلاقي
  • 3:44 - 3:47
    تماماً مثل ما تصنع التجارب العلمية في العالم المادي
  • 3:47 - 3:50
    إكتشاف مثل هذه الأخلاقيات الصعبة يبدأ الآن
  • 3:50 - 3:54
    سيساعدنا في التعامل
    مع طرق غير معتادة لأخلاقيات التكنولوجيا
  • 3:54 - 3:57
    وتساعدنا في الإنسياب بثقة وضمير
  • 3:57 - 4:01
    نحو مستقبل جديد وشجاع
Title:
المعضلة الأخلاقية للسيارات ذاتية القيادة - باتريك لين
Speaker:
باتريك لين
Description:

الدرس كاملاً هنا : http://ed.ted.com/lessons/the-ethical-dilemma-of-self-driving-cars-patrick-lin

السيارات ذاتية القيادة تجوب الشوارع بالفعل حالياً. وفي حين أن هذة السيارات أكثر أمناً ونظافة من السيارات الأخري, لكنها لا تستطيع بالكامل تجنب الحوادث. كيف لها أن يتم برمجتها إذا كانت في حادثة لا يمكن تجنبها
باتريك لين يحدثنا عن الأخلاقيات الغامضة للسيارات ذاتية القيادة..

درس مقدم من باتريك لين, تحريك صور عن طريق يوكاي دو

more » « less
Video Language:
English
Team:
closed TED
Project:
TED-Ed
Duration:
04:16

Arabic subtitles

Revisions Compare revisions