دو راهی اخلاقی خودروهای بدون راننده - پتریک لین
-
0:07 - 0:09این یک آزمایش شیوه تفکر است.
-
0:09 - 0:12چطوره بگوییم در آینده ای نه چندان دور،
-
0:12 - 0:16در خودرو بدون راننده خود (راننده اتوماتیک)
در اتوبان قل خورده و می روید، -
0:16 - 0:20و وسط خودروهای دیگر
در اطرافتان گیر افتادید. -
0:20 - 0:24ناگهان، یک شیء بزرگ سنگین
از کامیون روبرویی جلوی شما می افتد. -
0:24 - 0:27خودرو شما نمی تواند توقفی به موقع داشته
تا ازبرخورد جلوگیری کند، -
0:27 - 0:29بنابراین باید تصمیمی بگیرد:
-
0:29 - 0:32مستقیم رفته و با شیء برخورد کند،
-
0:32 - 0:34به چپ به سمت SUV (شاسی بلند)
منحرف شود، -
0:34 - 0:37یا به راست به سمت موتور منحرف شود.
-
0:37 - 0:40آیا جان شما را اولویت قرار داده
و به موتور سوار برخورد کند، -
0:40 - 0:43با منحرف نشدن خطر را به حداقل برساند،
-
0:43 - 0:47حتی اگر به معنی برخورد با شیء بزرگ
و فدا کردن جان شما باشد، -
0:47 - 0:50یا حد وسط را در نظر گرفته
وبا SUV برخورد کند،
، -
0:50 - 0:53که میزان ایمنی سرنشین بالاتری دارد؟
-
0:53 - 0:56پس خودرو با رانندگی اتوماتیک
چکار باید بکند؟ -
0:56 - 1:00اگر ما در شرایط رانندگی معمولی
در اون شرایط گیر افتاده بودیم، -
1:00 - 1:03هر راهی که عکس العمل نشان می دادیم
قابل درک بود، -
1:03 - 1:04یک عکس العمل،
-
1:04 - 1:07نه یک تصمیم سنجیده و حساب شده.
-
1:07 - 1:11اون یک حرکت غریزی از روی ترس است
بدون دوراندیشی یا بدخواهی. -
1:11 - 1:15اما اگر یک برنامه نویس قرار باشد
عکس العملهای مشابه را به خودرو تعلیم دهد، -
1:15 - 1:17که به شرایط معین در آینده حساس باشد،
-
1:17 - 1:22خُب، این یک خودکشی عمدی بنظر می آید.
-
1:22 - 1:23حالا، منصفانه بگوییم،
-
1:23 - 1:27پیش بینی می شود خودروهای با راننده اتوماتیک
به میزان قابل ملاحظه ای از حوادث رانندگی -
1:27 - 1:28و جان باختن می کاهند
-
1:28 - 1:31اینکار با حذف اشتباهات انسانی
از معادله رانندگی است. -
1:31 - 1:34بعلاوه، کلی فواید دیگر نیز ممکن است:
-
1:34 - 1:35کاهش تراکم جاده ای،
-
1:35 - 1:37کاهش نشتی های مضر،
-
1:37 - 1:41و به حداقل رساندن زمان رانندگی
پر استرس و بی حاصل. -
1:41 - 1:44اما حوادث همچنان رخ می دهند،
-
1:44 - 1:45و وقتی رخ بدهند،
-
1:45 - 1:49شاید بتوان نتایج آنها را ماهها یا
سالها جلوتر محاسبه کرد -
1:49 - 1:52توسط برنامه نویسان و سیاست گذاران.
-
1:52 - 1:54و آنها میبایست تصمیمات سختی را بگیرند.
-
1:54 - 1:57وسوسه انگیزه که اصول کلی
تصمیم گیری را ارئه دهیم -
1:57 - 1:59مثل حداقل رساندن خسارت،
-
1:59 - 2:02اما حتی آنهم بسرعت به تصمیمات
مشکوک اخلاقی منجرمی شود. -
2:02 - 2:04بعنوان مثال،
-
2:04 - 2:06فرض کنیم ترکیب اولیه مشابهی داریم،
-
2:06 - 2:09اما حالا موتورسوار سمت چپ شما
کلاه ایمنی دارد -
2:09 - 2:11و موتورسوار دیگری در سمت راست شما
کلاه ایمنی ندارد. -
2:11 - 2:14خودرو رباتی شما به کدام یک
می بایست برخورد کند؟ -
2:14 - 2:18اگر بگویید موتورسوار با کلاه ایمنی
چون شانس زنده ماندن بیشتری دارد، -
2:18 - 2:22اونوقت یک موتورسوار مسئول
را تنبیه میکنید؟ -
2:22 - 2:24اگر، در عوض، موتورسوار
بدون کلاه ایمنی را -
2:24 - 2:26بدلیل رفتار غیرمسئولانه اش نجات دادید،
-
2:26 - 2:31پس بسیار فراتر از اصول اولیه طرح
مبنی بر حداقل رساندن خسارت رفته اید، -
2:31 - 2:35و خودرو رباتی در حال اشاعه
عدالت در خیابانهاست. -
2:35 - 2:38ملاحظات اخلاقی در اینجا پیچیده تر می گردد.
-
2:38 - 2:40در هر دو سناریوی ما،
-
2:40 - 2:44طرح زیربنایی بعنوان الگوریتم پیش بینی شده،
آنهم چه الگوریتمی، عمل می کند. -
2:44 - 2:45به بیان دیگر،
-
2:45 - 2:48بطور سیستماتیکی یا به نفع یا بر ضد
-
2:48 - 2:51یکنوع شیء خاص برای برخورد، عمل می کند.
-
2:51 - 2:54و صاحبان وسایل نقلیه مورد هدف
-
2:54 - 2:57از نتایج منفی این الگوریم لطمه می خورند
-
2:57 - 2:59بدون اینکه مقصر باشند.
-
2:59 - 3:03فن آوریهای جدید ما، تجلی دیگر
محظوریتهای اخلاقی بدیع هستند. -
3:03 - 3:05بعنوان مثال، اگر قرار بود بین
دو خودرو انتخاب کنید -
3:05 - 3:10یکی که همیشه تا حد امکان جان
افراد بیشتری را در سانحه نجات می دهد، -
3:10 - 3:13و آن یکی که به هر قیمتی که شده
جان شما را نجات می دهد، -
3:13 - 3:14کدامیک را می خریدید؟
-
3:14 - 3:18چی اتفاقی می افتد اگر خودرو ها
شروع به تحلیل و فاکتورسازی -
3:18 - 3:21سرنشینان خودروها و
جزئیات زندگی آنها بپردازند؟ -
3:21 - 3:23آیا امکان این وجود دارد که
یک تصمیم اتفاقی -
3:23 - 3:28هنوز هم بهتر از یک تصمیم از پیش تعیین شده
که برای حداقل رساندن خسارت طراحی شده، باشد؟ -
3:28 - 3:31و بالاخره چه کسی باید تمامی
این تصمیمات را انجام دهد؟ -
3:31 - 3:32برنامه نویسان؟
-
3:32 - 3:33شرکتها؟
-
3:33 - 3:34دولتها؟
-
3:34 - 3:38ممکن است واقعیت دقیقا طبق
تجربیات ذهنی ما عمل نکند، -
3:38 - 3:39اما نکته این نیست.
-
3:39 - 3:44آنها اینطور طراحی شدند تا بینش ما در
مورد اصول اخلاقی را جدا و تست استرس کنند، -
3:44 - 3:47درست مثل آزمایشات علمی از جهان فیزیکی.
-
3:47 - 3:50یافتن چنین پیچهای تند اخلاقی در حال حاضر
-
3:50 - 3:54به ما کمک خواهد کرد تا مانوری در مسیرهای
ناآشنای اصول اخلاقی تکنولوژی انجام داده، -
3:54 - 3:57و به ما اجازه خواهد داد تا
با اطمینان خاطر و با وجدان -
3:57 - 4:00در آینده جدید بی پروای خود گشت بزنیم.
- Title:
- دو راهی اخلاقی خودروهای بدون راننده - پتریک لین
- Speaker:
- پتریک لین
- Description:
-
مشاهده درس کامل: http://ed.ted.com/lessons/the-ethical-dilemma-of-self-driving-cars-patrick-lin
خودروهای بدون راننده در حال حاضر مشغول گشت زنی در خیابانها هستند. و به همان صورت که این خودروها در نهایت نسبت به هم نوعان خود، ایمن تر و تمیزتر خواهند شد،قادر نیستند که بطور کامل از حوادث رانندگی جلوگیری کنند. در هنگام مواجهه با یک حادثه گریز ناپذیر، آن ماشین چطور باید برنامه ریزی شده باشد؟
"پتریک لین "، اصول اخلاقی مشکوک خودروهای بدون راننده را تحلیل می کند.درس: Patrick Lin
انیمیشن: Yukai Du - Video Language:
- English
- Team:
- closed TED
- Project:
- TED-Ed
- Duration:
- 04:16
Michelle Mehrtens edited Persian subtitles for The ethical dilemma of self-driving cars | ||
b a approved Persian subtitles for The ethical dilemma of self-driving cars | ||
b a edited Persian subtitles for The ethical dilemma of self-driving cars | ||
b a edited Persian subtitles for The ethical dilemma of self-driving cars | ||
b a edited Persian subtitles for The ethical dilemma of self-driving cars | ||
soheila Jafari accepted Persian subtitles for The ethical dilemma of self-driving cars | ||
soheila Jafari edited Persian subtitles for The ethical dilemma of self-driving cars | ||
soheila Jafari edited Persian subtitles for The ethical dilemma of self-driving cars |