Return to Video

دو راهی اخلاقی خودروهای بدون راننده - پتریک لین

  • 0:07 - 0:09
    این یک آزمایش شیوه تفکر است.
  • 0:09 - 0:12
    چطوره بگوییم در آینده ای نه چندان دور،
  • 0:12 - 0:16
    در خودرو بدون راننده خود (راننده اتوماتیک)
    در اتوبان قل خورده و می روید،
  • 0:16 - 0:20
    و وسط خودروهای دیگر
    در اطرافتان گیر افتادید.
  • 0:20 - 0:24
    ناگهان، یک شیء بزرگ سنگین
    از کامیون روبرویی جلوی شما می افتد.
  • 0:24 - 0:27
    خودرو شما نمی تواند توقفی به موقع داشته
    تا ازبرخورد جلوگیری کند،
  • 0:27 - 0:29
    بنابراین باید تصمیمی بگیرد:
  • 0:29 - 0:32
    مستقیم رفته و با شیء برخورد کند،
  • 0:32 - 0:34
    به چپ به سمت SUV (شاسی بلند)
    منحرف شود،
  • 0:34 - 0:37
    یا به راست به سمت موتور منحرف شود.
  • 0:37 - 0:40
    آیا جان شما را اولویت قرار داده
    و به موتور سوار برخورد کند،
  • 0:40 - 0:43
    با منحرف نشدن خطر را به حداقل برساند،
  • 0:43 - 0:47
    حتی اگر به معنی برخورد با شیء بزرگ
    و فدا کردن جان شما باشد،
  • 0:47 - 0:50
    یا حد وسط را در نظر گرفته
    وبا SUV برخورد کند،
    ،
  • 0:50 - 0:53
    که میزان ایمنی سرنشین بالاتری دارد؟
  • 0:53 - 0:56
    پس خودرو با رانندگی اتوماتیک
    چکار باید بکند؟
  • 0:56 - 1:00
    اگر ما در شرایط رانندگی معمولی
    در اون شرایط گیر افتاده بودیم،
  • 1:00 - 1:03
    هر راهی که عکس العمل نشان می دادیم
    قابل درک بود،
  • 1:03 - 1:04
    یک عکس العمل،
  • 1:04 - 1:07
    نه یک تصمیم سنجیده و حساب شده.
  • 1:07 - 1:11
    اون یک حرکت غریزی از روی ترس است
    بدون دوراندیشی یا بدخواهی.
  • 1:11 - 1:15
    اما اگر یک برنامه نویس قرار باشد
    عکس العملهای مشابه را به خودرو تعلیم دهد،
  • 1:15 - 1:17
    که به شرایط معین در آینده حساس باشد،
  • 1:17 - 1:22
    خُب، این یک خودکشی عمدی بنظر می آید.
  • 1:22 - 1:23
    حالا، منصفانه بگوییم،
  • 1:23 - 1:27
    پیش بینی می شود خودروهای با راننده اتوماتیک
    به میزان قابل ملاحظه ای از حوادث رانندگی
  • 1:27 - 1:28
    و جان باختن می کاهند
  • 1:28 - 1:31
    اینکار با حذف اشتباهات انسانی
    از معادله رانندگی است.
  • 1:31 - 1:34
    بعلاوه، کلی فواید دیگر نیز ممکن است:
  • 1:34 - 1:35
    کاهش تراکم جاده ای،
  • 1:35 - 1:37
    کاهش نشتی های مضر،
  • 1:37 - 1:41
    و به حداقل رساندن زمان رانندگی
    پر استرس و بی حاصل.
  • 1:41 - 1:44
    اما حوادث همچنان رخ می دهند،
  • 1:44 - 1:45
    و وقتی رخ بدهند،
  • 1:45 - 1:49
    شاید بتوان نتایج آنها را ماهها یا
    سالها جلوتر محاسبه کرد
  • 1:49 - 1:52
    توسط برنامه نویسان و سیاست گذاران.
  • 1:52 - 1:54
    و آنها میبایست تصمیمات سختی را بگیرند.
  • 1:54 - 1:57
    وسوسه انگیزه که اصول کلی
    تصمیم گیری را ارئه دهیم
  • 1:57 - 1:59
    مثل حداقل رساندن خسارت،
  • 1:59 - 2:02
    اما حتی آنهم بسرعت به تصمیمات
    مشکوک اخلاقی منجرمی شود.
  • 2:02 - 2:04
    بعنوان مثال،
  • 2:04 - 2:06
    فرض کنیم ترکیب اولیه مشابهی داریم،
  • 2:06 - 2:09
    اما حالا موتورسوار سمت چپ شما
    کلاه ایمنی دارد
  • 2:09 - 2:11
    و موتورسوار دیگری در سمت راست شما
    کلاه ایمنی ندارد.
  • 2:11 - 2:14
    خودرو رباتی شما به کدام یک
    می بایست برخورد کند؟
  • 2:14 - 2:18
    اگر بگویید موتورسوار با کلاه ایمنی
    چون شانس زنده ماندن بیشتری دارد،
  • 2:18 - 2:22
    اونوقت یک موتورسوار مسئول
    را تنبیه میکنید؟
  • 2:22 - 2:24
    اگر، در عوض، موتورسوار
    بدون کلاه ایمنی را
  • 2:24 - 2:26
    بدلیل رفتار غیرمسئولانه اش نجات دادید،
  • 2:26 - 2:31
    پس بسیار فراتر از اصول اولیه طرح
    مبنی بر حداقل رساندن خسارت رفته اید،
  • 2:31 - 2:35
    و خودرو رباتی در حال اشاعه
    عدالت در خیابانهاست.
  • 2:35 - 2:38
    ملاحظات اخلاقی در اینجا پیچیده تر می گردد.
  • 2:38 - 2:40
    در هر دو سناریوی ما،
  • 2:40 - 2:44
    طرح زیربنایی بعنوان الگوریتم پیش بینی شده،
    آنهم چه الگوریتمی، عمل می کند.
  • 2:44 - 2:45
    به بیان دیگر،
  • 2:45 - 2:48
    بطور سیستماتیکی یا به نفع یا بر ضد
  • 2:48 - 2:51
    یکنوع شیء خاص برای برخورد، عمل می کند.
  • 2:51 - 2:54
    و صاحبان وسایل نقلیه مورد هدف
  • 2:54 - 2:57
    از نتایج منفی این الگوریم لطمه می خورند
  • 2:57 - 2:59
    بدون اینکه مقصر باشند.
  • 2:59 - 3:03
    فن آوریهای جدید ما، تجلی دیگر
    محظوریتهای اخلاقی بدیع هستند.
  • 3:03 - 3:05
    بعنوان مثال، اگر قرار بود بین
    دو خودرو انتخاب کنید
  • 3:05 - 3:10
    یکی که همیشه تا حد امکان جان
    افراد بیشتری را در سانحه نجات می دهد،
  • 3:10 - 3:13
    و آن یکی که به هر قیمتی که شده
    جان شما را نجات می دهد،
  • 3:13 - 3:14
    کدامیک را می خریدید؟
  • 3:14 - 3:18
    چی اتفاقی می افتد اگر خودرو ها
    شروع به تحلیل و فاکتورسازی
  • 3:18 - 3:21
    سرنشینان خودروها و
    جزئیات زندگی آنها بپردازند؟
  • 3:21 - 3:23
    آیا امکان این وجود دارد که
    یک تصمیم اتفاقی
  • 3:23 - 3:28
    هنوز هم بهتر از یک تصمیم از پیش تعیین شده
    که برای حداقل رساندن خسارت طراحی شده، باشد؟
  • 3:28 - 3:31
    و بالاخره چه کسی باید تمامی
    این تصمیمات را انجام دهد؟
  • 3:31 - 3:32
    برنامه نویسان؟
  • 3:32 - 3:33
    شرکتها؟
  • 3:33 - 3:34
    دولتها؟
  • 3:34 - 3:38
    ممکن است واقعیت دقیقا طبق
    تجربیات ذهنی ما عمل نکند،
  • 3:38 - 3:39
    اما نکته این نیست.
  • 3:39 - 3:44
    آنها اینطور طراحی شدند تا بینش ما در
    مورد اصول اخلاقی را جدا و تست استرس کنند،
  • 3:44 - 3:47
    درست مثل آزمایشات علمی از جهان فیزیکی.
  • 3:47 - 3:50
    یافتن چنین پیچهای تند اخلاقی در حال حاضر
  • 3:50 - 3:54
    به ما کمک خواهد کرد تا مانوری در مسیرهای
    ناآشنای اصول اخلاقی تکنولوژی انجام داده،
  • 3:54 - 3:57
    و به ما اجازه خواهد داد تا
    با اطمینان خاطر و با وجدان
  • 3:57 - 4:00
    در آینده جدید بی پروای خود گشت بزنیم.
Title:
دو راهی اخلاقی خودروهای بدون راننده - پتریک لین
Speaker:
پتریک لین
Description:

مشاهده درس کامل: http://ed.ted.com/lessons/the-ethical-dilemma-of-self-driving-cars-patrick-lin

خودروهای بدون راننده در حال حاضر مشغول گشت زنی در خیابانها هستند. و به همان صورت که این خودروها در نهایت نسبت به هم نوعان خود، ایمن تر و تمیزتر خواهند شد،قادر نیستند که بطور کامل از حوادث رانندگی جلوگیری کنند. در هنگام مواجهه با یک حادثه گریز ناپذیر، آن ماشین چطور باید برنامه ریزی شده باشد؟
"پتریک لین "، اصول اخلاقی مشکوک خودروهای بدون راننده را تحلیل می کند.

درس: Patrick Lin
انیمیشن: Yukai Du

more » « less
Video Language:
English
Team:
closed TED
Project:
TED-Ed
Duration:
04:16

Persian subtitles

Revisions Compare revisions