זה ניסוי מחשבתי,
בואו נדמיין נקודה בעתיד הלא כל כך רחוק,
בה אתם דוהרים במורד הכביש המהיר
במכונית הנוהגת בעצמה שלכם,
ואתם מוצאים את עצמכם לכודים
מכל הכיוונים על ידי מכוניות אחרות.
פתאום, עצם גדול וכבד נופל מהמשאית לפניכם.
המכונית שלכם לא יכולה
לעצור בזמן כדי להמנע מהתנגשות,
לכן היא צריכה לעשות החלטה:
להמשיך ישר ולפגוע בעצם,
לסטות שמאלה לתוך רכב שטח,
או לסטות ימינה לתוך אופנוע.
האים היא צריכה להעדיף את הבטיחות שלכם
על ידי פגיעה באופנוע,
להקטין את הסכנה לאחרים
על ידי כך שתמשיך ישר,
אפילו אם זה אומר פגיעה בעצם גדול
ולהקריב את חייכם,
או לקחת את הדרך האמצעית ולפגוע ברכב השטח,
שיש לו דרוג בטיחות גבוה?
אז מה מכונית הנהיגה העצמית היתה עושה?
אם אנחנו היינו נוהגים
במכונית הלכודה הזו במצב ידני,
בכל דרך שנגיב זה יובן בדיוק כך,
תגובה,
לא החלטה מוכוונת.
זו תהיה תנועה אינסטינקטיבית של פאניקה
ללא חשיבה מוקדמת או כוונת זדון.
אבל אם מתכנת היה מורה למכונית
לעשות את אותה פעולה,
בהתחשב בתנאים שהיא תחוש בעתיד,
ובכן, זה נראה יותר כמו רצח בכוונה תחילה.
עכשיו, כדי להיות הוגנים,
מכוניות שנוהגות בעצמן צפויות
להפחית באופן דרמטי את תאונות הדרכים
ואת הקורבנות
על ידי הסרת טעות אנוש ממשוואת הנהיגה.
ועוד, אולי יהיו עוד כל מיני תועלות אחרות:
הקלה בעומס בכבישים,
הפחתת פליטות מזהמות,
והפחתה בזמן נהיגה לא פרודוקטיבי ומלחיץ.
אבל תאונות יכולות עדיין להתרחש והן יתרחשו,
וכשהן יתרחשו,
התוצאה שלהן אולי תקבע חודשים או שנים מראש
על ידי מתכנתים או קובעי מדיניות.
ויהיו להם כמה החלטות קשות לעשות.
זה מפתה להציע עקרונות קבלת החלטות כלליים,
כמו להפחית פגיעה,
אבל אפילו זה מוביל במהירות
להחלטות עכורות מוראלית.
לדוגמה,
בואו נגיד שיש לנו את אותה נקודת התחלה,
אבל עכשיו יש אופנוענית שחובשת קסדה לשמאלכם
ואחרת בלי קסדה לימינכם.
באיזה מהם הרובוט שלכם יתנגש?
אם הייתם אומרים באופנוענית עם הקסדה
מפני שיש לה יותר סיכוי לשרוד,
אז אתם לא מענישים את הרוכבת האחראית?
אם במקום, תצילו את האופנוען בלי הקסדה
בגלל שהוא לא נוהג בחוסר אחריות,
אז עברתם הרבה מעבר לעקרונות
התכנון הראשוניים בנוגע להפחתת פגיעה,
והמכונית הרובוטית מבצעת עכשיו צדק רחוב.
השיקולים האתיים נעשים יותר מסובכים פה.
בשני המקרים,
התכנון המובנה פועל כאלגוריתם
כיוונון מסוג שהוא.
במילים אחרות,
זו העדפה או אפליה שיטתית
נגד סוג מסויים של עצם להתנגש בו.
והבעלים של רכב המטרה
יסבול מהתוצאות השליליות של האלגוריתם
לא באשמתם.
הטכנולוגיות החדשות פותחות
הרבה דילמות אתיות חדשות אחרות.
לדוגמה, אם הייתם צריכים לבחור בין
מכונית שתמיד תציל חיים
רבים ככל האפשר בתאונה,
או אחת שתציל אתכם בכל מחיר,
איזו תקנו?
מה קורה אם המכונית מתחילה לנתח ולשקלל
את הנוסעים של מכוניות והפרטים על חייהם?
האם זה יכול להיות המקרה שהחלטה אקראית
עדיין טובה יותר מאחת קבועה מראש
שמתוכננת להפחית פגיעה?
ומי צריך לעשות
את כל ההחלטות האלו בכל אופן?
תוכניתנים?
חברות?
ממשלות?
המציאות אולי לא תתרחש
בדיוק כמו הניסויים המחשבתיים שלנו,
אבל זו לא הנקודה.
הן מתוכננות לבודד ולבדוק תחת לחץ
את האינטואיציה שלנו והאתיקה,
ממש כמו ניסויים מדעיים בעולם האמיתי.
לזהות את הסיבובים החדים
המורליים האלו עכשיו
יעזור לנו לנווט בדרך הלא מוכרת
של אתיקה טכנולוגית,
ולאפשר לנו לשייט בבטחון ובהכרה
לעתיד האמיץ והחדש שלנו.