0:00:07.257,0:00:09.309 זה ניסוי מחשבתי, 0:00:09.309,0:00:11.917 בואו נדמיין נקודה בעתיד הלא כל כך רחוק, 0:00:11.917,0:00:15.505 בה אתם דוהרים במורד הכביש המהיר[br]במכונית הנוהגת בעצמה שלכם, 0:00:15.505,0:00:19.809 ואתם מוצאים את עצמכם לכודים[br]מכל הכיוונים על ידי מכוניות אחרות. 0:00:19.809,0:00:24.213 פתאום, עצם גדול וכבד נופל מהמשאית לפניכם. 0:00:24.213,0:00:27.364 המכונית שלכם לא יכולה[br]לעצור בזמן כדי להמנע מהתנגשות, 0:00:27.364,0:00:29.415 לכן היא צריכה לעשות החלטה: 0:00:29.415,0:00:31.673 להמשיך ישר ולפגוע בעצם, 0:00:31.673,0:00:33.953 לסטות שמאלה לתוך רכב שטח, 0:00:33.953,0:00:36.940 או לסטות ימינה לתוך אופנוע. 0:00:36.940,0:00:40.450 האים היא צריכה להעדיף את הבטיחות שלכם[br]על ידי פגיעה באופנוע, 0:00:40.450,0:00:43.267 להקטין את הסכנה לאחרים [br]על ידי כך שתמשיך ישר, 0:00:43.267,0:00:47.346 אפילו אם זה אומר פגיעה בעצם גדול[br]ולהקריב את חייכם, 0:00:47.346,0:00:50.104 או לקחת את הדרך האמצעית ולפגוע ברכב השטח, 0:00:50.104,0:00:53.087 שיש לו דרוג בטיחות גבוה? 0:00:53.087,0:00:56.298 אז מה מכונית הנהיגה העצמית היתה עושה? 0:00:56.298,0:00:59.505 אם אנחנו היינו נוהגים[br]במכונית הלכודה הזו במצב ידני, 0:00:59.505,0:01:03.034 בכל דרך שנגיב זה יובן בדיוק כך, 0:01:03.034,0:01:04.320 תגובה, 0:01:04.320,0:01:06.571 לא החלטה מוכוונת. 0:01:06.571,0:01:10.869 זו תהיה תנועה אינסטינקטיבית של פאניקה[br]ללא חשיבה מוקדמת או כוונת זדון. 0:01:10.869,0:01:14.519 אבל אם מתכנת היה מורה למכונית[br]לעשות את אותה פעולה, 0:01:14.519,0:01:17.316 בהתחשב בתנאים שהיא תחוש בעתיד, 0:01:17.316,0:01:21.619 ובכן, זה נראה יותר כמו רצח בכוונה תחילה. 0:01:21.619,0:01:22.637 עכשיו, כדי להיות הוגנים, 0:01:22.637,0:01:26.709 מכוניות שנוהגות בעצמן צפויות[br]להפחית באופן דרמטי את תאונות הדרכים 0:01:26.709,0:01:27.956 ואת הקורבנות 0:01:27.956,0:01:31.398 על ידי הסרת טעות אנוש ממשוואת הנהיגה. 0:01:31.398,0:01:33.512 ועוד, אולי יהיו עוד כל מיני תועלות אחרות: 0:01:33.512,0:01:35.150 הקלה בעומס בכבישים, 0:01:35.150,0:01:36.723 הפחתת פליטות מזהמות, 0:01:36.723,0:01:41.345 והפחתה בזמן נהיגה לא פרודוקטיבי ומלחיץ. 0:01:41.345,0:01:43.716 אבל תאונות יכולות עדיין להתרחש והן יתרחשו, 0:01:43.716,0:01:44.685 וכשהן יתרחשו, 0:01:44.685,0:01:49.147 התוצאה שלהן אולי תקבע חודשים או שנים מראש 0:01:49.147,0:01:51.752 על ידי מתכנתים או קובעי מדיניות. 0:01:51.752,0:01:54.252 ויהיו להם כמה החלטות קשות לעשות. 0:01:54.252,0:01:57.204 זה מפתה להציע עקרונות קבלת החלטות כלליים, 0:01:57.204,0:01:59.099 כמו להפחית פגיעה, 0:01:59.099,0:02:02.475 אבל אפילו זה מוביל במהירות[br]להחלטות עכורות מוראלית. 0:02:02.475,0:02:03.633 לדוגמה, 0:02:03.633,0:02:05.641 בואו נגיד שיש לנו את אותה נקודת התחלה, 0:02:05.641,0:02:08.512 אבל עכשיו יש אופנוענית שחובשת קסדה לשמאלכם 0:02:08.512,0:02:11.309 ואחרת בלי קסדה לימינכם. 0:02:11.309,0:02:14.360 באיזה מהם הרובוט שלכם יתנגש? 0:02:14.360,0:02:18.442 אם הייתם אומרים באופנוענית עם הקסדה[br]מפני שיש לה יותר סיכוי לשרוד, 0:02:18.442,0:02:21.771 אז אתם לא מענישים את הרוכבת האחראית? 0:02:21.771,0:02:24.115 אם במקום, תצילו את האופנוען בלי הקסדה 0:02:24.115,0:02:26.106 בגלל שהוא לא נוהג בחוסר אחריות, 0:02:26.106,0:02:31.017 אז עברתם הרבה מעבר לעקרונות[br]התכנון הראשוניים בנוגע להפחתת פגיעה, 0:02:31.017,0:02:34.871 והמכונית הרובוטית מבצעת עכשיו צדק רחוב. 0:02:34.871,0:02:38.403 השיקולים האתיים נעשים יותר מסובכים פה. 0:02:38.403,0:02:39.807 בשני המקרים, 0:02:39.807,0:02:44.400 התכנון המובנה פועל כאלגוריתם[br]כיוונון מסוג שהוא. 0:02:44.400,0:02:45.299 במילים אחרות, 0:02:45.299,0:02:47.809 זו העדפה או אפליה שיטתית 0:02:47.809,0:02:51.298 נגד סוג מסויים של עצם להתנגש בו. 0:02:51.298,0:02:53.613 והבעלים של רכב המטרה 0:02:53.613,0:02:56.662 יסבול מהתוצאות השליליות של האלגוריתם 0:02:56.662,0:02:58.747 לא באשמתם. 0:02:58.747,0:03:03.401 הטכנולוגיות החדשות פותחות[br]הרבה דילמות אתיות חדשות אחרות. 0:03:03.401,0:03:05.482 לדוגמה, אם הייתם צריכים לבחור בין 0:03:05.482,0:03:09.534 מכונית שתמיד תציל חיים[br]רבים ככל האפשר בתאונה, 0:03:09.534,0:03:12.565 או אחת שתציל אתכם בכל מחיר, 0:03:12.565,0:03:14.262 איזו תקנו? 0:03:14.262,0:03:17.577 מה קורה אם המכונית מתחילה לנתח ולשקלל 0:03:17.577,0:03:21.047 את הנוסעים של מכוניות והפרטים על חייהם? 0:03:21.047,0:03:23.219 האם זה יכול להיות המקרה שהחלטה אקראית 0:03:23.219,0:03:28.125 עדיין טובה יותר מאחת קבועה מראש[br]שמתוכננת להפחית פגיעה? 0:03:28.125,0:03:30.878 ומי צריך לעשות[br]את כל ההחלטות האלו בכל אופן? 0:03:30.878,0:03:31.972 תוכניתנים? 0:03:31.972,0:03:32.908 חברות? 0:03:32.908,0:03:34.352 ממשלות? 0:03:34.352,0:03:37.566 המציאות אולי לא תתרחש[br]בדיוק כמו הניסויים המחשבתיים שלנו, 0:03:37.566,0:03:39.232 אבל זו לא הנקודה. 0:03:39.232,0:03:43.603 הן מתוכננות לבודד ולבדוק תחת לחץ[br]את האינטואיציה שלנו והאתיקה, 0:03:43.603,0:03:46.589 ממש כמו ניסויים מדעיים בעולם האמיתי. 0:03:46.589,0:03:49.979 לזהות את הסיבובים החדים[br]המורליים האלו עכשיו 0:03:49.979,0:03:53.550 יעזור לנו לנווט בדרך הלא מוכרת[br]של אתיקה טכנולוגית, 0:03:53.550,0:03:57.301 ולאפשר לנו לשייט בבטחון ובהכרה 0:03:57.301,0:03:59.648 לעתיד האמיץ והחדש שלנו.