WEBVTT 00:00:07.257 --> 00:00:09.309 זה ניסוי מחשבתי, NOTE Paragraph 00:00:09.309 --> 00:00:11.917 בואו נדמיין נקודה בעתיד הלא כל כך רחוק, 00:00:11.917 --> 00:00:15.505 בה אתם דוהרים במורד הכביש המהיר במכונית הנוהגת בעצמה שלכם, 00:00:15.505 --> 00:00:19.809 ואתם מוצאים את עצמכם לכודים מכל הכיוונים על ידי מכוניות אחרות. 00:00:19.809 --> 00:00:24.213 פתאום, עצם גדול וכבד נופל מהמשאית לפניכם. 00:00:24.213 --> 00:00:27.364 המכונית שלכם לא יכולה לעצור בזמן כדי להמנע מהתנגשות, 00:00:27.364 --> 00:00:29.415 לכן היא צריכה לעשות החלטה: 00:00:29.415 --> 00:00:31.673 להמשיך ישר ולפגוע בעצם, 00:00:31.673 --> 00:00:33.953 לסטות שמאלה לתוך רכב שטח, 00:00:33.953 --> 00:00:36.940 או לסטות ימינה לתוך אופנוע. 00:00:36.940 --> 00:00:40.450 האים היא צריכה להעדיף את הבטיחות שלכם על ידי פגיעה באופנוע, 00:00:40.450 --> 00:00:43.267 להקטין את הסכנה לאחרים על ידי כך שתמשיך ישר, 00:00:43.267 --> 00:00:47.346 אפילו אם זה אומר פגיעה בעצם גדול ולהקריב את חייכם, 00:00:47.346 --> 00:00:50.104 או לקחת את הדרך האמצעית ולפגוע ברכב השטח, 00:00:50.104 --> 00:00:53.087 שיש לו דרוג בטיחות גבוה? 00:00:53.087 --> 00:00:56.298 אז מה מכונית הנהיגה העצמית היתה עושה? NOTE Paragraph 00:00:56.298 --> 00:00:59.505 אם אנחנו היינו נוהגים במכונית הלכודה הזו במצב ידני, 00:00:59.505 --> 00:01:03.034 בכל דרך שנגיב זה יובן בדיוק כך, 00:01:03.034 --> 00:01:04.320 תגובה, 00:01:04.320 --> 00:01:06.571 לא החלטה מוכוונת. 00:01:06.571 --> 00:01:10.869 זו תהיה תנועה אינסטינקטיבית של פאניקה ללא חשיבה מוקדמת או כוונת זדון. 00:01:10.869 --> 00:01:14.519 אבל אם מתכנת היה מורה למכונית לעשות את אותה פעולה, 00:01:14.519 --> 00:01:17.316 בהתחשב בתנאים שהיא תחוש בעתיד, 00:01:17.316 --> 00:01:21.619 ובכן, זה נראה יותר כמו רצח בכוונה תחילה. NOTE Paragraph 00:01:21.619 --> 00:01:22.637 עכשיו, כדי להיות הוגנים, 00:01:22.637 --> 00:01:26.709 מכוניות שנוהגות בעצמן צפויות להפחית באופן דרמטי את תאונות הדרכים 00:01:26.709 --> 00:01:27.956 ואת הקורבנות 00:01:27.956 --> 00:01:31.398 על ידי הסרת טעות אנוש ממשוואת הנהיגה. 00:01:31.398 --> 00:01:33.512 ועוד, אולי יהיו עוד כל מיני תועלות אחרות: 00:01:33.512 --> 00:01:35.150 הקלה בעומס בכבישים, 00:01:35.150 --> 00:01:36.723 הפחתת פליטות מזהמות, 00:01:36.723 --> 00:01:41.345 והפחתה בזמן נהיגה לא פרודוקטיבי ומלחיץ. 00:01:41.345 --> 00:01:43.716 אבל תאונות יכולות עדיין להתרחש והן יתרחשו, 00:01:43.716 --> 00:01:44.685 וכשהן יתרחשו, 00:01:44.685 --> 00:01:49.147 התוצאה שלהן אולי תקבע חודשים או שנים מראש 00:01:49.147 --> 00:01:51.752 על ידי מתכנתים או קובעי מדיניות. 00:01:51.752 --> 00:01:54.252 ויהיו להם כמה החלטות קשות לעשות. 00:01:54.252 --> 00:01:57.204 זה מפתה להציע עקרונות קבלת החלטות כלליים, 00:01:57.204 --> 00:01:59.099 כמו להפחית פגיעה, 00:01:59.099 --> 00:02:02.475 אבל אפילו זה מוביל במהירות להחלטות עכורות מוראלית. NOTE Paragraph 00:02:02.475 --> 00:02:03.633 לדוגמה, 00:02:03.633 --> 00:02:05.641 בואו נגיד שיש לנו את אותה נקודת התחלה, 00:02:05.641 --> 00:02:08.512 אבל עכשיו יש אופנוענית שחובשת קסדה לשמאלכם 00:02:08.512 --> 00:02:11.309 ואחרת בלי קסדה לימינכם. 00:02:11.309 --> 00:02:14.360 באיזה מהם הרובוט שלכם יתנגש? 00:02:14.360 --> 00:02:18.442 אם הייתם אומרים באופנוענית עם הקסדה מפני שיש לה יותר סיכוי לשרוד, 00:02:18.442 --> 00:02:21.771 אז אתם לא מענישים את הרוכבת האחראית? 00:02:21.771 --> 00:02:24.115 אם במקום, תצילו את האופנוען בלי הקסדה 00:02:24.115 --> 00:02:26.106 בגלל שהוא לא נוהג בחוסר אחריות, 00:02:26.106 --> 00:02:31.017 אז עברתם הרבה מעבר לעקרונות התכנון הראשוניים בנוגע להפחתת פגיעה, 00:02:31.017 --> 00:02:34.871 והמכונית הרובוטית מבצעת עכשיו צדק רחוב. NOTE Paragraph 00:02:34.871 --> 00:02:38.403 השיקולים האתיים נעשים יותר מסובכים פה. 00:02:38.403 --> 00:02:39.807 בשני המקרים, 00:02:39.807 --> 00:02:44.400 התכנון המובנה פועל כאלגוריתם כיוונון מסוג שהוא. 00:02:44.400 --> 00:02:45.299 במילים אחרות, 00:02:45.299 --> 00:02:47.809 זו העדפה או אפליה שיטתית 00:02:47.809 --> 00:02:51.298 נגד סוג מסויים של עצם להתנגש בו. 00:02:51.298 --> 00:02:53.613 והבעלים של רכב המטרה 00:02:53.613 --> 00:02:56.662 יסבול מהתוצאות השליליות של האלגוריתם 00:02:56.662 --> 00:02:58.747 לא באשמתם. NOTE Paragraph 00:02:58.747 --> 00:03:03.401 הטכנולוגיות החדשות פותחות הרבה דילמות אתיות חדשות אחרות. 00:03:03.401 --> 00:03:05.482 לדוגמה, אם הייתם צריכים לבחור בין 00:03:05.482 --> 00:03:09.534 מכונית שתמיד תציל חיים רבים ככל האפשר בתאונה, 00:03:09.534 --> 00:03:12.565 או אחת שתציל אתכם בכל מחיר, 00:03:12.565 --> 00:03:14.262 איזו תקנו? 00:03:14.262 --> 00:03:17.577 מה קורה אם המכונית מתחילה לנתח ולשקלל 00:03:17.577 --> 00:03:21.047 את הנוסעים של מכוניות והפרטים על חייהם? 00:03:21.047 --> 00:03:23.219 האם זה יכול להיות המקרה שהחלטה אקראית 00:03:23.219 --> 00:03:28.125 עדיין טובה יותר מאחת קבועה מראש שמתוכננת להפחית פגיעה? 00:03:28.125 --> 00:03:30.878 ומי צריך לעשות את כל ההחלטות האלו בכל אופן? 00:03:30.878 --> 00:03:31.972 תוכניתנים? 00:03:31.972 --> 00:03:32.908 חברות? 00:03:32.908 --> 00:03:34.352 ממשלות? NOTE Paragraph 00:03:34.352 --> 00:03:37.566 המציאות אולי לא תתרחש בדיוק כמו הניסויים המחשבתיים שלנו, 00:03:37.566 --> 00:03:39.232 אבל זו לא הנקודה. 00:03:39.232 --> 00:03:43.603 הן מתוכננות לבודד ולבדוק תחת לחץ את האינטואיציה שלנו והאתיקה, 00:03:43.603 --> 00:03:46.589 ממש כמו ניסויים מדעיים בעולם האמיתי. 00:03:46.589 --> 00:03:49.979 לזהות את הסיבובים החדים המורליים האלו עכשיו 00:03:49.979 --> 00:03:53.550 יעזור לנו לנווט בדרך הלא מוכרת של אתיקה טכנולוגית, 00:03:53.550 --> 00:03:57.301 ולאפשר לנו לשייט בבטחון ובהכרה 00:03:57.301 --> 00:03:59.648 לעתיד האמיץ והחדש שלנו.