Return to Video

האם נוכל לבנות בינה מלאכותית מבלי לאבד שליטה עליה?

  • 0:01 - 0:03
    אני אדבר על כשל באינטואיציה
  • 0:03 - 0:05
    שרבים מאיתנו סובלים ממנו.
  • 0:05 - 0:09
    זהו למעשה כשל בזיהוי
    סכנה מסוג מסויים.
  • 0:09 - 0:11
    אני אתאר תרחיש
  • 0:11 - 0:14
    שאני חושב שהוא גם מבעית
  • 0:14 - 0:16
    וגם סביר שיתרחש,
  • 0:17 - 0:18
    וזה לא שילוב טוב,
  • 0:19 - 0:20
    כפי שמסתבר.
  • 0:20 - 0:23
    ולמרות זאת, במקום לפחד, רובכם תרגישו
  • 0:23 - 0:25
    שמה שאני מדבר עליו הוא די מגניב.
  • 0:25 - 0:28
    אני אתאר איך ההתקדמויות שלנו
  • 0:28 - 0:30
    בתחום הבינה המלאכותית
  • 0:30 - 0:32
    עלולות לבסוף להשמיד אותנו.
  • 0:32 - 0:35
    ולמעשה, אני חושב שקשה מאוד
    לראות איך הם לא ישמידו אותנו,
  • 0:35 - 0:37
    או ימריצו אותנו להשמיד את עצמנו.
  • 0:37 - 0:39
    ובכל זאת, אם אתם כמוני,
  • 0:39 - 0:42
    אתם תגלו שכיף לחשוב על דברים כאלה.
  • 0:42 - 0:45
    והתגובה הזו היא חלק מהבעיה.
  • 0:45 - 0:48
    התגובה הזו צריכה להדאיג אתכם.
  • 0:48 - 0:51
    אם הייתי צריך לשכנע אתכם בשיחה הזו
  • 0:51 - 0:54
    שאנחנו צפויים לסבול מרעב עולמי,
  • 0:54 - 0:57
    בגלל שינויי אקלים או קטסטרופה אחרת,
  • 0:57 - 1:03
    ושסביר מאוד שהנכדים שלכם,
    או הנכדים שלהם, יחיו כך
  • 1:03 - 1:04
    לא הייתם חושבים,
  • 1:05 - 1:07
    "מעניין.
  • 1:07 - 1:08
    "אני אוהב את ההרצאה הזו."
  • 1:09 - 1:11
    רעב זה לא כיף.
  • 1:12 - 1:15
    מוות באמצעות מדע בדיוני,
    לעומת זאת, הוא כיף.
  • 1:15 - 1:19
    ואחד הדברים שהכי מדאיגים אותי
    בנוגע להתפתחות של בינה מלאכותית כיום,
  • 1:19 - 1:23
    הוא שאנחנו לא מסוגלים לגייס
    את התגובה הרגשית המתאימה
  • 1:23 - 1:25
    לסכנות שצפויות לנו.
  • 1:25 - 1:29
    אני לא מסוגל לגייס את התגובה הזו,
    ואני מעביר את ההרצאה הזו.
  • 1:30 - 1:33
    זה כאילו שאנחנו ניצבים בפני שתי דלתות.
  • 1:33 - 1:34
    מאחורי דלת מספר אחת,
  • 1:34 - 1:37
    אנחנו מפסיקים להתקדם
    בבניית מכונות אינטליגנטיות.
  • 1:37 - 1:41
    חומרות ותוכנות המחשב שלנו
    מפסיקות להשתפר מסיבה כלשהי.
  • 1:41 - 1:44
    עכשיו קחו לעצמכם רגע
    לשקול מדוע זה יכול לקרות.
  • 1:45 - 1:49
    בהתחשב בערך הרב של
    אינטלגינציה ואוטומציה עבורנו,
  • 1:49 - 1:52
    אנחנו נמשיך לשפר את הטכנולוגיה,
    אם נהיה מסוגלים לכך.
  • 1:53 - 1:55
    מה יכול לעצור אותנו מלעשות זאת?
  • 1:56 - 1:58
    מלחמה גרעינית כוללת?
  • 1:59 - 2:01
    מגיפה כלל-עולמית?
  • 2:02 - 2:04
    פגיעת אסטרואיד?
  • 2:06 - 2:08
    ג'סטין ביבר ממונה לנשיא ארה"ב?
  • 2:08 - 2:11
    (צחוק)
  • 2:13 - 2:17
    הנקודה היא, משהו יצטרך להשמיד
    את הציוויליזציה המוכרת לנו.
  • 2:17 - 2:22
    אתם חייבים לדמיין כמה נורא זה צריך להיות
  • 2:22 - 2:25
    בכדי למנוע מאיתנו לבצע
    שיפורים בטכנולוגיה שלנו
  • 2:25 - 2:26
    לתמיד.
  • 2:26 - 2:28
    דור אחרי דור.
  • 2:28 - 2:30
    כמעט בהגדרה, זהו הדבר הגרוע ביותר
  • 2:30 - 2:32
    שאי-פעם קרה בהיסטוריה האנושית.
  • 2:33 - 2:34
    אז האלטרנטיבה היחידה,
  • 2:34 - 2:36
    וזה מה שנמצא מאחורי דלת מספר שתיים,
  • 2:36 - 2:39
    היא שנמשיך לשפר
    את המכונות האינטליגנטיות שלנו
  • 2:39 - 2:41
    שנה אחר שנה אחר שנה.
  • 2:42 - 2:45
    ובנקודה מסוימת, נבנה מכונות
    שהן חכמות יותר מאיתנו,
  • 2:46 - 2:48
    וברגע שיהיו לנו מכונות חכמות מאיתנו,
  • 2:48 - 2:51
    הן יתחילו לשפר את עצמן.
  • 2:51 - 2:53
    ואז אנחנו מסתכנים במה
    שהמתמטיקאי איי. ג'יי. גוד קרא לו
  • 2:53 - 2:55
    "התפוצצות אינטליגנציה",
  • 2:55 - 2:57
    שהתהליך יכול לצאת משליטתנו.
  • 2:58 - 3:01
    לרוב זה מתואר כפי שנראה פה,
  • 3:01 - 3:04
    כפחד מצבאות של רובוטים זדוניים
  • 3:04 - 3:05
    שיתקפו אותנו.
  • 3:05 - 3:08
    אבל זה לא התרחיש הסביר ביותר.
  • 3:08 - 3:13
    זה לא שהמכונות שלנו
    יהפכו באופן ספונטני למרושעות.
  • 3:13 - 3:16
    החשש האמיתי הוא שנבנה מכונות
  • 3:16 - 3:18
    שמוכשרות כל כך הרבה יותר מאיתנו,
  • 3:18 - 3:22
    שהסטייה הקטנה ביותר
    בין המטרות שלנו לשלהן
  • 3:22 - 3:23
    עלולה להשמיד אותנו.
  • 3:24 - 3:26
    רק תחשבו על היחס שלנו לנמלים.
  • 3:27 - 3:28
    אנחנו לא שונאים אותן.
  • 3:28 - 3:30
    אנחנו לא עושים מאמץ מיוחד לפגוע בהן.
  • 3:30 - 3:33
    למעשה, לפעמים אנחנו מתאמצים
    כדי שלא לפגוע בהן.
  • 3:33 - 3:35
    אנחנו צועדים מעליהן במדרכות.
  • 3:35 - 3:37
    אבל ברגע שהנוכחות שלהן
  • 3:37 - 3:39
    נמצאת בקונפליקט רציני עם אחת המטרות שלנו,
  • 3:39 - 3:42
    למשל כשאנחנו בונים בנין כמו זה,
  • 3:42 - 3:44
    אנחנו משמידים אותן ללא יסורי מצפון.
  • 3:44 - 3:47
    החשש הוא שיום אחד אנחנו נבנה מכונות
  • 3:47 - 3:50
    אשר במודע או שלא,
  • 3:50 - 3:52
    יוכלו להתייחס אלינו בזלזול דומה.
  • 3:54 - 3:57
    עכשיו, אני חושד שכל זה
    נשמע מופרך עבור רבים מכם.
  • 3:57 - 4:04
    אני בטוח שיש בכם כאלה הספקנים לגבי האפשרות
    להגיע לבינה מלאכותית סופר-אינטליגנטית כזו,
  • 4:04 - 4:05
    ובוודאי לחשוב שהיא בלתי נמנעת.
  • 4:05 - 4:09
    אבל אז אתם צריכים למצוא פגם
    באחת מהנחות היסוד הבאות.
  • 4:09 - 4:11
    ויש רק שלוש מהן.
  • 4:12 - 4:17
    אינטליגנציה היא ענין של עיבוד מידע
    במערכות פיזיות.
  • 4:17 - 4:20
    למעשה, זו קצת יותר מסתם הנחה.
  • 4:20 - 4:23
    אנחנו כבר בנינו אינטליגנציה צרה
    לתוך המכונות שלנו,
  • 4:23 - 4:25
    ורבות מהמכונות האלה מתפקדות
  • 4:25 - 4:28
    ברמות של אינטליגנציה על-אנושית כבר כיום.
  • 4:29 - 4:31
    ואנחנו יודעים שחומר בלבד
  • 4:31 - 4:34
    יכול לייצר מה שנקרא "אינטליגנציה כללית",
  • 4:34 - 4:38
    היכולת לחשוב בצורה גמישה
    מעבר לתחומים רבים,
  • 4:38 - 4:41
    כי המוח שלנו מצליח לעשות זאת. נכון?
  • 4:41 - 4:45
    הרי יש כאן רק אטומים,
  • 4:45 - 4:49
    וכל עוד נמשיך לבנות מערכות של אטומים
  • 4:49 - 4:52
    שמפגינות התנהגות יותר ויותר אינטליגנטית,
  • 4:52 - 4:55
    בסוף, אלא אם כן יפריעו לנו,
  • 4:55 - 4:58
    בסוף, נבנה אינטליגנציה כללית
  • 4:58 - 4:59
    בתוך המכונות שלנו.
  • 4:59 - 5:03
    זה חיוני להבין שקצב ההתקדמות אינו משנה,
  • 5:03 - 5:06
    כיוון שכל התקדמות מספיקה
    בכדי להביא אותנו לקו הסיום.
  • 5:06 - 5:10
    אנחנו לא צריכים את חוק מור בשביל להמשיך.
    אנחנו לא צריכים התקדמות אקספוננציאלית.
  • 5:10 - 5:12
    אנחנו רק צריכים להמשיך.
  • 5:13 - 5:16
    ההנחה השניה היא שאנחנו נמשיך.
  • 5:17 - 5:20
    אנחנו נמשיך לשפר
    את המכונות האינטליגנטיות שלנו.
  • 5:21 - 5:25
    ובהתחשב בחשיבות האינטליגנציה –
  • 5:25 - 5:29
    אינטליגנציה היא המקור של כל מה שיקר לנו
  • 5:29 - 5:32
    או שאנחנו זקוקים לה בשביל
    לשמור על כל מה שיקר לנו.
  • 5:32 - 5:34
    זהו המשאב הכי יקר שלנו.
  • 5:34 - 5:36
    אז אנחנו רוצים לעשות את זה.
  • 5:36 - 5:39
    יש לנו בעיות שאנחנו צריכים לפתור נואשות.
  • 5:39 - 5:42
    אנחנו רוצים לרפא מחלות כמו אלצהיימר וסרטן.
  • 5:43 - 5:47
    אנחנו רוצים להבין מערכות כלכליות.
    אנחנו רוצים לשפר את מדעי האקלים.
  • 5:47 - 5:49
    אז אנחנו נעשה זאת, אם נוכל.
  • 5:49 - 5:52
    הרכבת כבר יצאה מהתחנה,
    ואין לה מעצור שנוכל למשוך בו.
  • 5:54 - 5:59
    לבסוף, אנחנו לא עומדים
    בפסגת האינטליגנציה,
  • 5:59 - 6:01
    או אפילו קרוב אליה, ככל הנראה.
  • 6:02 - 6:03
    וזו באמת התובנה הקריטית ביותר.
  • 6:03 - 6:06
    זה מה שהופך את המצב שלנו לכל כך מסוכן,
  • 6:06 - 6:10
    וזה מה שהופך את האינטואיציות שלנו
    לגבי הסיכון לכל כך לא אמינות.
  • 6:11 - 6:14
    עכשיו, תחשבו על האדם
    החכם ביותר שחי אי פעם.
  • 6:15 - 6:18
    כמעט כולם כאן ישימו את
    ג'ון פון נוימן איפשהו בראש הרשימה.
  • 6:18 - 6:21
    הרושם שפון נוימן עשה על האנשים סביבו,
  • 6:21 - 6:25
    וזה כולל כמה מהמתמטיקאים
    והפיזיקאים הגדולים של זמנו,
  • 6:26 - 6:27
    מתועד בצורה טובה למדי.
  • 6:27 - 6:31
    אילו חצי מהסיפורים עליו היו חצי נכונים,
  • 6:31 - 6:32
    אין ספק בכלל
  • 6:33 - 6:35
    שהוא אחד האנשים החכמים שחיו עלי אדמות.
  • 6:35 - 6:38
    אז חשבו על רצף האינטליגנציה.
  • 6:38 - 6:40
    כאן נמצא ג'ון פון נוימן.
  • 6:42 - 6:43
    וכאן נמצאים אתם ואני.
  • 6:44 - 6:45
    ופה יש לנו תרנגולת.
  • 6:45 - 6:47
    (צחוק)
  • 6:47 - 6:49
    מצטער – תרנגולת.
  • 6:49 - 6:50
    (צחוק)
  • 6:50 - 6:53
    אין סיבה שההרצאה הזו
    תהיה מדכאת יותר מהנדרש.
  • 6:53 - 6:55
    (צחוק)
  • 6:56 - 7:00
    אבל סביר מאוד שרצף האינטליגנציה
  • 7:00 - 7:03
    ממשיך הרבה מעבר למה שאנחנו מכירים כיום,
  • 7:04 - 7:07
    ושאם נבנה מכונות
    שהן יותר אינטליגנטיות מאיתנו,
  • 7:07 - 7:09
    סביר מאוד שהן יחקרו את הרצף הזה
  • 7:09 - 7:11
    בדרכים שאיננו יכולים לדמיין,
  • 7:11 - 7:14
    ולעלות עלינו בדרכים שאיננו יכולים לדמיין.
  • 7:15 - 7:19
    וחשוב להבין שזה נכון ולו רק בזכות המהירות.
  • 7:19 - 7:24
    נכון? דמיינו שנבנה בינה מלאכותית
    סופר-אינטליגנטית
  • 7:24 - 7:28
    שאינה חכמה יותר מצוות ממוצע של חוקרים
  • 7:28 - 7:30
    בסטנפורד או ב-MIT.
  • 7:30 - 7:34
    ובכן, מעגלים אלקטרוניים פועלים
    בערך פי מיליון מהר יותר ממעגלים ביוכימיים,
  • 7:35 - 7:38
    אז המכונה הזו תוכל לחשוב
    בערך פי מיליון מהר יותר
  • 7:38 - 7:39
    מהמוחות שבנו אותה.
  • 7:40 - 7:41
    אז אתם נותנים לה לרוץ שבוע,
  • 7:41 - 7:46
    והיא תבצע 20,000 שנות אדם
    של עבודה אינטלקטואלית,
  • 7:46 - 7:48
    שבוע אחרי שבוע אחרי שבוע.
  • 7:50 - 7:53
    איך נוכל להבין, לא כל שכן להגביל,
  • 7:53 - 7:55
    מוח שיכול להתקדם כך?
  • 7:57 - 8:00
    בכנות, הדבר הנוסף שמדאיג,
  • 8:00 - 8:04
    הוא שאם תדמיינו את התרחיש הטוב ביותר,
  • 8:04 - 8:08
    דמיינו שפתאום נתקלנו בתכן
    של בינה מלאכותית סופר-אינטליגנטית
  • 8:08 - 8:10
    שאין בו שום דאגות בטיחותיות.
  • 8:10 - 8:13
    יש לנו את התכן המושלם על הפעם הראשונה.
  • 8:13 - 8:15
    כאילו שקיבלנו אוֹרַקְל
  • 8:15 - 8:17
    שמתנהג בדיוק כפי שאנו מצפים.
  • 8:17 - 8:21
    אז המכונה הזו תהיה
    המכשיר המושלם לחיסכון בעבודה.
  • 8:22 - 8:24
    היא תוכל לתכנן את המכונה
    שתוכל לבנות את המכונה
  • 8:24 - 8:26
    שתעשה כל עבודה פיזית,
  • 8:26 - 8:27
    תופעל בכוח השמש,
  • 8:27 - 8:30
    פחות או יותר במחיר של חומרי הגלם.
  • 8:30 - 8:33
    אז אנחנו מדברים על סופה
    של עבודת הפרך האנושית.
  • 8:33 - 8:36
    אנחנו מדברים גם על סופה
    של רוב העבודה האינטלקטואלית.
  • 8:37 - 8:40
    אז מה קופים כמונו יעשו בנסיבות שכאלו?
  • 8:40 - 8:44
    טוב, נהיה חופשיים לשחק פריסבי
    ולהעניק אחד לשני עיסויים.
  • 8:46 - 8:49
    תוסיפו קצת אל.אס.די
    ובחירת לבוש מפוקפקת,
  • 8:49 - 8:52
    וכל העולם יראה כמו אירוע של ברנינג מאן.
  • 8:52 - 8:53
    (צחוק)
  • 8:54 - 8:56
    עכשיו, זה אולי נשמע די טוב,
  • 8:57 - 9:00
    אבל תשאלו את עצמכם מה יקרה
  • 9:00 - 9:02
    תחת הסדר הכלכלי והפוליטי שלנו היום?
  • 9:02 - 9:05
    נראה סביר שאנחנו נחזה
  • 9:05 - 9:09
    ברמות של אי-שויון כלכלי ואבטלה
  • 9:09 - 9:11
    שלא נצפו קודם לכן מעולם.
  • 9:11 - 9:13
    ללא רצון להשקיע מיד את כל העושר הזה
  • 9:13 - 9:15
    לרווחת המין האנושי כולו,
  • 9:16 - 9:19
    מספר טריליונרים יוכלו לקשט
    את השערים של כתבי העת העסקיים
  • 9:19 - 9:22
    בזמן ששאר העולם יהיה חופשי לרעוב.
  • 9:22 - 9:25
    ומה הרוסים והסינים יעשו
  • 9:25 - 9:27
    אם הם ישמעו שחברה כלשהי בעמק הסיליקון
  • 9:27 - 9:30
    עומדת להשיק בינה מלאכותית
    סופר-אינטליגנטית?
  • 9:30 - 9:33
    המכונה הזו תוכל לנהל מלחמה,
  • 9:33 - 9:35
    בין אם ארצית או במרחב הסייבר,
  • 9:35 - 9:37
    בעוצמה ללא תקדים.
  • 9:38 - 9:40
    זה תרחיש שבו המנצח לוקח הכל.
  • 9:40 - 9:43
    להקדים את התחרות הזו בשישה חודשים
  • 9:43 - 9:47
    משמעו להקדים את העולם ב-500,000 שנה לפחות.
  • 9:47 - 9:52
    אז נראה שאפילו שמועות על פריצת דרך שכזו
  • 9:52 - 9:55
    יכולות לגרום למין שלנו להשתגע.
  • 9:55 - 9:58
    עכשיו, אחד הדברים המפחידים ביותר,
  • 9:58 - 10:00
    לראות עיני, ברגע הזה,
  • 10:00 - 10:05
    אלה הדברים שחוקרי בינה מלאכותית אומרים
  • 10:05 - 10:06
    כשהם רוצים להרגיע אותנו.
  • 10:07 - 10:10
    והסיבה הנפוצה ביותר שאומרים
    לנו שאין סיבה לדאגה היא זמן.
  • 10:10 - 10:13
    זה עוד רחוק מאוד, אתם יודעים.
  • 10:13 - 10:15
    זה כנראה רחוק מאיתנו ב-50 או 100 שנים.
  • 10:16 - 10:17
    חוקר אחד אמר,
  • 10:17 - 10:19
    "לדאוג מהבטיחות של בינה מלאכותית
  • 10:19 - 10:21
    "זה כמו לדאוג מצפיפות אוכלוסין על המאדים."
  • 10:22 - 10:24
    זו הגרסה של עמק הסיליקון
  • 10:24 - 10:26
    ל"אל תטרידו את עצמכם בזה."
  • 10:26 - 10:27
    (צחוק)
  • 10:28 - 10:29
    נראה שאף אחד לא שם לב
  • 10:29 - 10:32
    שההתייחסות לאופק הזמן
  • 10:32 - 10:35
    מהווה נון סקוויטר מוחלט.
  • 10:35 - 10:38
    אם אינטליגנציה היא רק ענין של עיבוד מידע,
  • 10:38 - 10:41
    ואנחנו ממשיכים לשפר את המכונות שלנו,
  • 10:41 - 10:44
    אנחנו נייצר סוג כלשהו של סופר-אינטליגנציה.
  • 10:44 - 10:48
    ואין לנו מושג כמה זמן ייקח לנו
  • 10:48 - 10:50
    לייצר את התנאים כדי
    לעשות זאת באופן בטיחותי.
  • 10:52 - 10:53
    תרשו לי להגיד את זה שוב.
  • 10:54 - 10:57
    אין לנו מושג כמה זמן ייקח לנו
  • 10:57 - 11:00
    לייצר את התנאים כדי
    לעשות זאת באופן בטיחותי.
  • 11:01 - 11:04
    ואם לא שמתם לב,
    50 שנה זה לא מה שזה היה פעם.
  • 11:04 - 11:07
    אלה 50 שנים מחולקים לחודשים.
  • 11:07 - 11:09
    זו כמות הזמן שיש לנו אייפונים.
  • 11:09 - 11:12
    זו כמות הזמן ש"הסימפסונים"
    משודרים בטלויזיה.
  • 11:13 - 11:15
    חמישים שנים זה לא הרבה זמן
  • 11:15 - 11:18
    כדי להתמודד עם אחד האתגרים
    הגדולים ביותר שהמין שלנו יתקל בהם.
  • 11:20 - 11:24
    שוב, נראה שאנחנו לא מצליחים
    לייצר את התגובה הרגשית המתאימה
  • 11:24 - 11:26
    למשהו שאין לנו ספק שהוא מגיע.
  • 11:26 - 11:30
    למדען המחשבים סטיוארט ראסל
    יש אנלוגיה נחמדה בנושא זה.
  • 11:30 - 11:35
    הוא אמר, דמיינו שקיבלנו מסר
    מתרבות חוצנית כלשהי,
  • 11:35 - 11:37
    שאומר:
  • 11:37 - 11:39
    "תושבי כדור הארץ,
  • 11:39 - 11:41
    "אנחנו נגיע לכוכב שלכם בעוד 50 שנים.
  • 11:42 - 11:43
    תתכוננו."
  • 11:43 - 11:48
    ועכשיו אנחנו רק סופרים את החודשים
    עד שספינת האם תנחת?
  • 11:48 - 11:51
    אנחנו נרגיש קצת יותר דחיפות
    ממה שאנחנו מרגישים היום.
  • 11:53 - 11:55
    סיבה נוספת שאומרים לנו לא לדאוג
  • 11:55 - 11:58
    היא שהמכונות הללו
    בהכרח יחלֵקו את הערכים שלנו
  • 11:58 - 12:00
    כי הן יהיו, הלכה למעשה, שלוחות של עצמנו.
  • 12:00 - 12:02
    הן יושתלו למוחות שלנו,
  • 12:02 - 12:04
    ואנחנו נהפוך למעשה למערכת הלימבית שלהן.
  • 12:05 - 12:07
    קחו רגע נוסף בכדי לשקול
  • 12:07 - 12:11
    אם ההתקדמות הבטוחה והשקולה היחידה המומלצת,
  • 12:11 - 12:14
    היא להשתיל את הטכנולוגיה הזו
    ישירות לתוך המוח שלנו.
  • 12:15 - 12:18
    עכשיו, זו אולי באמת הדרך
    השקולה והבטוחה להתקדם,
  • 12:18 - 12:23
    אבל מומלץ לטפל היטב בבטיחות טכנולוגיה
  • 12:23 - 12:25
    לפני שתוקעים אותה לתוך הראש שלכם.
  • 12:25 - 12:27
    (צחוק)
  • 12:27 - 12:32
    הבעיה העמוקה יותר היא שבניית
    בינה מלאכותית סופר-אינטליגנטית לבדה
  • 12:32 - 12:34
    נראית קלה יותר
  • 12:34 - 12:36
    מבניית בינה מלאכותית סופר-אינטליגנטית
  • 12:36 - 12:38
    וגם הבנה מלאה במדעי המוח
  • 12:38 - 12:41
    שתאפשר לנו לשלב באופן מושלם
    אותה עם מוחנו.
  • 12:41 - 12:44
    ובהתחשב בכך שחברות וממשלות
    שעושות את העבודה הזו
  • 12:44 - 12:48
    כנראה יראו את עצמן במרוץ כנגד כל האחרות,
  • 12:48 - 12:51
    ובהתחשב שנצחון במרוץ הזה
    משמעותו לזכות בעולם,
  • 12:51 - 12:53
    בתנאי שלא תהרסו אותו ברגע שאחרי,
  • 12:53 - 12:56
    אז נראה סביר שמה שקל יותר לעשות
  • 12:56 - 12:58
    ייעשה קודם.
  • 12:59 - 13:01
    למרבה הצער, אין לי פתרון לבעיה הזו,
  • 13:01 - 13:04
    מלבד להמליץ שיותר מאיתנו יחשבו עליה.
  • 13:04 - 13:06
    אני חושב שאנחנו צריכים משהו
    כמו פרויקט מנהטן
  • 13:06 - 13:08
    לנושא של בינה מלאכותית.
  • 13:09 - 13:11
    לא כדי לבנות אותה, כי לדעתי
    זה בלתי נמנע שנעשה זאת,
  • 13:11 - 13:15
    אלא כדי להבין איך נמנעים ממרוץ חימוש
  • 13:15 - 13:18
    וכדי לבנות אותה באופן שעולה
    בקנה אחד עם האינטרסים שלנו.
  • 13:18 - 13:20
    כשמדברים על בינה מלאכותית סופר-אינטליגנטית
  • 13:20 - 13:23
    שיכולה לשנות את עצמה,
  • 13:23 - 13:27
    נראה שיש לנו רק הזדמנות אחת
    ליצור תנאי פתיחה נכונים,
  • 13:27 - 13:29
    ואפילו אז נצטרך לספוג
  • 13:29 - 13:32
    את ההשלכות הפוליטיות והכלכליות
    שקשורות בכך.
  • 13:34 - 13:36
    אבל ברגע שנודה בכך
  • 13:36 - 13:40
    שעיבוד מידע הוא המקור לאינטליגנציה,
  • 13:41 - 13:46
    שמערכת חישובית מתאימה
    היא הבסיס לאינטליגנציה,
  • 13:46 - 13:50
    ונקבל שאנחנו נמשיך לשפר
    את המערכות האלו ללא הפסקה,
  • 13:51 - 13:56
    ונקבל שככל הנראה אופק הקוגניציה רחוק בהרבה
  • 13:56 - 13:57
    מזה שאנו מכירים כיום,
  • 13:58 - 13:59
    אז עלינו לקבל
  • 13:59 - 14:02
    שאנחנו בתהליך של בניית אל כלשהו.
  • 14:03 - 14:05
    ועכשיו יהיה זמן טוב
  • 14:05 - 14:07
    לוודא שזה אל שנוכל לחיות איתו.
  • 14:08 - 14:10
    תודה רבה לכם.
  • 14:10 - 14:15
    (מחיאות כפיים)
Title:
האם נוכל לבנות בינה מלאכותית מבלי לאבד שליטה עליה?
Speaker:
סאם האריס
Description:

מפחדים מבינה מלאכותית סופר-אינטליגנטית? כדאי לכם. כך אומר מדען המוח והפילוסוף סאם האריס – ולא רק באופן תיאורטי. אנחנו הולכים לבנות מכונות על-אנושיות, כך אומר האריס, אבל אנחנו עוד לא הבנו את הבעיות המזוהות עם יצירת משהו שעלול להתייחס אלינו באותו אופן בו אנחנו מתייחסים לנמלים.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Hebrew subtitles

Revisions Compare revisions