האם נוכל לבנות בינה מלאכותית מבלי לאבד שליטה עליה?
-
0:01 - 0:03אני אדבר על
כשל באינטואיציה -
0:03 - 0:05שרבים מאיתנו סובלים ממנו.
-
0:05 - 0:09זהו למעשה כשל בזיהוי
סכנה מסוג מסויים. -
0:09 - 0:11אני אתאר תרחיש
-
0:11 - 0:14שאני חושב שהוא גם מבעית
-
0:14 - 0:16וגם סביר שיתרחש,
-
0:17 - 0:18וזה לא שילוב טוב,
-
0:19 - 0:20כפי שמסתבר.
-
0:20 - 0:23ולמרות זאת, במקום להיות מפוחדים,
רבים מכם ירגישו -
0:23 - 0:25שמה שאני מדבר עליו הוא די מגניב.
-
0:25 - 0:28אני אתאר איך ההתקדמויות שלנו
-
0:28 - 0:30בתחום הבינה המלאכותית
-
0:30 - 0:32עלולות לבסוף להשמיד אותנו.
-
0:32 - 0:35ולמעשה, אני חושב שקשה מאוד
לראות איך הם לא ישמידו אותנו -
0:35 - 0:37או ימריצו אותנו להשמיד את עצמנו.
-
0:37 - 0:39ובכל זאת, אם אתם כמוני,
-
0:39 - 0:42אתם תגלו שכיף
לחשוב על דברים כאלה. -
0:42 - 0:45והתגובה הזו היא חלק מהבעיה.
-
0:45 - 0:47התגובה הזו צריכה להדאיג אתכם.
-
0:48 - 0:51אם הייתי צריך לשכנע אתכם בשיחה הזו
-
0:51 - 0:54שאנחנו צפויים לסבול מרעב עולמי,
-
0:54 - 0:57בגלל שינויי אקלים או קטסטרופה אחרת,
-
0:57 - 1:01ושסביר מאוד שהנכדים שלכם,
או הנכדים שלהם, יחיו כך -
1:03 - 1:04לא הייתם חושבים,
-
1:05 - 1:07"מעניין.
-
1:07 - 1:08"אני אוהב את ההרצאה הזו."
-
1:09 - 1:11רעב זה לא כיף.
-
1:12 - 1:15מוות באמצעות מדע בדיוני,
לעומת זאת, הוא כיף, -
1:15 - 1:19ואחד הדברים שהכי מדאיגים אותי
בנוגע להתפתחות של בינה מלאכותית כיום, -
1:19 - 1:23הוא שאנחנו לא מסוגלים לגייס
את התגובה הרגשית המתאימה -
1:23 - 1:25לסכנות שצפויות לנו.
-
1:25 - 1:28אני לא מסוגל לגייס את התגובה הזו,
ואני מעביר את ההרצאה הזו. -
1:30 - 1:33זה כאילו שאנחנו ניצבים בפני שתי דלתות.
-
1:33 - 1:34מאחורי דלת מספר אחת,
-
1:34 - 1:37אנחנו מפסיקים להתקדם
בבניית מכונות אינטליגנטיות. -
1:37 - 1:41חומרות ותוכנות המחשב שלנו
פשוט מפסיקות להשתפר מסיבה כלשהי. -
1:41 - 1:44עכשיו קחו לעצמכם רגע
לשקול מדוע זה יכול לקרות. -
1:45 - 1:49כלומר, בהתחשב בערך הרב של
אינטלגינציה ואוטומציה עבורנו, -
1:49 - 1:52אנחנו נמשיך לשפר את הטכנולוגיה,
אם נהיה מסוגלים לכך. -
1:53 - 1:55מה יכול לעצור אותנו מלעשות זאת?
-
1:56 - 1:58מלחמה גרעינית כוללת?
-
1:59 - 2:01מגיפה כלל-עולמית?
-
2:02 - 2:04פגיעת אסטרואיד?
-
2:06 - 2:08ג'סטין ביבר ממונה לנשיא ארה"ב?
-
2:08 - 2:11(צחוק)
-
2:13 - 2:17הנקודה היא, משהו יצטרך להשמיד
את הציוויליזציה כפי שאנחנו מכירים אותה. -
2:17 - 2:22אתם צריכים לדמיין
כמה נורא זה צריך להיות -
2:22 - 2:25בשביל למנוע מאיתנו לבצע
שיפורים בטכנולוגיה שלנו -
2:25 - 2:26לתמיד,
-
2:26 - 2:28דור אחרי דור.
-
2:28 - 2:30כמעט בהגדרה, זהו הדבר הגרוע ביותר
-
2:30 - 2:32שאי-פעם קרה בהיסטוריה האנושית.
-
2:33 - 2:34אז האלטרנטיבה היחידה,
-
2:34 - 2:36וזה מה שנמצא מאחורי דלת מספר שתיים,
-
2:36 - 2:39היא שאנחנו נמשיך לשפר
את המכונות האינטליגנטיות שלנו -
2:39 - 2:41שנה אחר שנה אחר שנה.
-
2:42 - 2:45ובנקודה מסוימת, אנחנו נבנה
מכונות שהן חכמות יותר מאיתנו, -
2:46 - 2:48וברגע שיהיו לנו מכונות חכמות מאיתנו,
-
2:48 - 2:51הן יתחילו לשפר את עצמן.
-
2:51 - 2:53ואז אנחנו מסתכנים במה
שהמתמטיקאי איי. ג'יי. גוד קרא לו -
2:53 - 2:55"התפוצצות אינטליגנציה",
-
2:55 - 2:57שהתהליך יכול לצאת משליטתנו.
-
2:58 - 3:01עכשיו, לרוב זה מתואר,
כפי שנראה פה, -
3:01 - 3:04כפחד מצבאות של רובוטים זדוניים
-
3:04 - 3:05שיתקפו אותנו.
-
3:05 - 3:08אבל זה לא התרחיש הסביר.
-
3:08 - 3:13זה לא שהמכונות שלנו
יהפכו באופן ספוטני למרושעות. -
3:13 - 3:16החשש האמיתי הוא שנבנה מכונות
-
3:16 - 3:18שמוכשרות כל כך הרבה יותר מאיתנו,
-
3:18 - 3:22שהסטייה הקטנה ביותר
בין המטרות שלנו לשלהן -
3:22 - 3:23עלולה להשמיד אותנו.
-
3:24 - 3:26רק תחשבו על היחס שלנו לנמלים.
-
3:27 - 3:28אנחנו לא שונאים אותן.
-
3:28 - 3:30אנחנו לא עושים מאמץ מיוחד לפגוע בהן.
-
3:30 - 3:33למעשה, לפעמים, אנחנו מתאמצים
כדי שלא לפגוע בהן. -
3:33 - 3:35אנחנו צועדים מעליהן במדרכות.
-
3:35 - 3:37אבל ברגע שהנוכחות שלהן
-
3:37 - 3:39נמצאת בקונפליקט רציני עם המטרות שלנו,
-
3:39 - 3:42למשל כאשר אנחנו בונים בנין כמו זה,
-
3:42 - 3:44אנחנו משמידים אותן ללא יסורי מצפון.
-
3:44 - 3:47החשש הוא שיום אחד אנחנו נבנה מכונות
-
3:47 - 3:50אשר, בין אם במודע ובין אם לא,
-
3:50 - 3:52יוכלו להתייחס אלינו בזלזול דומה.
-
3:54 - 3:57עכשיו, אני חושד שכל זה
נראה רחוק מהמציאות עבור רבים מכם. -
3:57 - 4:04אני בטוח שיש בכם כאלה הספקנים לגבי האפשרות
להגיע לבינה מלאכותית סופר-אינטליגנטית כזו, -
4:04 - 4:05ובוודאי לחשוב שהיא בלתי נמנעת.
-
4:05 - 4:09אבל אז אתם צריכים למצוא פגם
באחת מהנחות היסוד הבאות. -
4:09 - 4:11ויש רק שלוש מהן.
-
4:12 - 4:17אינטליגנציה היא ענין של עיבוד מידע
במערכות פיזיות. -
4:17 - 4:20למעשה, זו קצת יותר מסתם הנחה.
-
4:20 - 4:23אנחנו כבר בנינו אינטליגנציה צרה
לתוך המכונות שלנו, -
4:23 - 4:25ורבות מהמכונות האלה מתפקדות
-
4:25 - 4:28ברמות של אינטליגנציה על-אנושית כבר כיום.
-
4:29 - 4:31ואנחנו יודעים שחומר בלבד
-
4:31 - 4:34יכול לייצר מה שנקרא "אינטליגנציה כללית",
-
4:34 - 4:38היכולת לחשוב בצורה גמישה
מעבר לתחומים רבים, -
4:38 - 4:41כי המוח שלנו מצליח לעשות זאת. נכון?
-
4:41 - 4:45הרי יש כאן רק אטומים,
-
4:45 - 4:49וכל עוד נמשיך לבנות מערכות של אטומים
-
4:49 - 4:52שמפגינות התנהגות יותר ויותר אינטליגנטית,
-
4:52 - 4:55בסוף, אלא אם כן יפריעו לנו,
-
4:55 - 4:58בסוף, נבנה אינטליגנציה כללית
-
4:58 - 4:59בתוך המכונות שלנו.
-
4:59 - 5:03זה חיוני להבין שקצב ההתקדמות אינו משנה,
-
5:03 - 5:06כיוון שכל התקדמות מספיקה
בכדי להביא אותנו לקו הסיום. -
5:06 - 5:10אנחנו לא צריכים את חוק מור בשביל להמשיך.
אנחנו לא צריכים התקדמות אקספוננציאלית. -
5:10 - 5:12אנחנו רק צריכים להמשיך.
-
5:13 - 5:16ההנחה השניה היא שאנחנו נמשיך.
-
5:17 - 5:20אנחנו נמשיך לשפר
את המכונות האינטליגנטיות שלנו. -
5:21 - 5:25ובהתחשב בחשיבות האינטליגנציה –
-
5:25 - 5:29אינטליגנציה היא המקור של כל מה שיקר לנו
-
5:29 - 5:32או שאנחנו זקוקים לה בשביל
לשמור על כל מה שיקר לנו. -
5:32 - 5:34זהו המשאב הכי יקר שלנו.
-
5:34 - 5:36אז אנחנו רוצים לעשות את זה.
-
5:36 - 5:39יש לנו בעיות שאנחנו צריכים לפתור נואשות.
-
5:39 - 5:42אנחנו רוצים לרפא מחלות כמו אלצהיימר וסרטן.
-
5:43 - 5:47אנחנו רוצים להבין מערכות כלכליות.
אנחנו רוצים לשפר את מדעי האקלים. -
5:47 - 5:49אז אנחנו נעשה זאת, אם נוכל.
-
5:49 - 5:52הרכבת כבר יצאה מהתחנה,
ואין לה מעצור שנוכל למשוך בו. -
5:54 - 5:59לבסוף, אנחנו לא עומדים
בפסגת האינטליגנציה, -
5:59 - 6:01או אפילו קרוב אליה, ככל הנראה.
-
6:02 - 6:03וזו באמת התובנה הקריטית ביותר.
-
6:03 - 6:06זה מה שהופך את המצב שלנו לכל כך מסוכן,
-
6:06 - 6:10וזה מה שהופך את האינטואיציות
שלנו לגבי הסיכון לכל כך לא אמינות. -
6:11 - 6:14עכשיו, תחשבו על האדם
החכם ביותר שחי אי פעם. -
6:15 - 6:18כמעט כולם כאן ישימו את
ג'ון פון נוימן איפשהו בראש הרשימה. -
6:18 - 6:21הרושם שפון נוימן עשה על האנשים סביבו,
-
6:21 - 6:25וזה כולל כמה מהמתמטיקאים
והפיזיקאים הגדולים של זמנו, -
6:26 - 6:27מתועד בצורה טובה למדי.
-
6:27 - 6:31אילו חצי מהסיפורים עליו היו חצי נכונים,
-
6:31 - 6:32אין ספק בכלל
-
6:33 - 6:35שהוא אחד האנשים החכמים שחיו עלי אדמות.
-
6:35 - 6:38אז חשבו על רצף האינטליגנציה.
-
6:38 - 6:40כאן נמצא ג'ון פון נוימן.
-
6:42 - 6:43וכאן נמצאים אתם ואני.
-
6:44 - 6:45ופה יש לנו תרנגולת.
-
6:45 - 6:47(צחוק)
-
6:47 - 6:49מצטער, תרנגולת.
-
6:49 - 6:50(צחוק)
-
6:50 - 6:53אין סיבה שההרצאה הזו
תהיה מדכאת יותר מהנדרש. -
6:53 - 6:55(צחוק)
-
6:56 - 7:00אבל סביר מאוד שרצף האינטליגנציה
-
7:00 - 7:03ממשיך הרבה מעבר למה שאנחנו מכירים כיום,
-
7:04 - 7:07ושאם אנחנו נבנה מכונות
שהן יותר אינטליגנטיות מאיתנו, -
7:07 - 7:09סביר מאוד שהן יחקרו את הרצף הזה
-
7:09 - 7:11בדרכים שאיננו יכולים לדמיין,
-
7:11 - 7:14ולעלות עלינו בדרכים שאיננו יכולים לדמיין.
-
7:15 - 7:19וחשוב להבין שזה נכון ולו רק בזכות המהירות.
-
7:19 - 7:24נכון? עכשיו דמיינו שאנחנו נבנה
בינה מלאכותית סופר-אינטליגנטית -
7:24 - 7:28שאינה חכמה יותר מצוות ממוצע של חוקרים
-
7:28 - 7:30בסטנפורד או ב-MIT.
-
7:30 - 7:33טוב, מעגלים אלקטרוניים
מתפקדים כמיליון פעמים מהר יותר -
7:33 - 7:34ממעגלים ביוכימיים,
-
7:35 - 7:38אז המכונה הזו תוכל לחשוב
בערך פי מיליון מהר יותר -
7:38 - 7:39מאשר המוחות שבנו אותה.
-
7:40 - 7:41אז אתם נותנים לה לרוץ שבוע,
-
7:41 - 7:46והיא תבצע 20,000 שנות אדם
של עבודה אינטלקטואלית, -
7:46 - 7:48שבוע אחרי שבוע אחרי שבוע.
-
7:50 - 7:53איך נוכל להבין, לא כל שכן להגביל,
-
7:53 - 7:55מוח שיכול להתקדם כך?
-
7:57 - 7:59בכנות, הדבר הנוסף שמדאיג,
-
7:59 - 8:04הוא שאם תדמיינו את התרחיש הטוב ביותר,
-
8:04 - 8:08דמיינו שפתאום נתקלנו בתכן
של בינה מלאכותית סופר-אינטליגנטית -
8:08 - 8:10שאין בו שום דאגות בטיחותיות.
-
8:10 - 8:13יש לנו את התכן המושלם על הפעם הראשונה.
-
8:13 - 8:15זה כאילו שקיבלנו אוֹרַקְל
-
8:15 - 8:17שמתנהג בדיוק כפי שאנו מצפים.
-
8:17 - 8:21אז המכונה הזו תהיה
המכשיר המושלם לחיסכון בעבודה. -
8:22 - 8:24היא תוכל לתכנן את המכונה
שתוכל לבנות את המכונה -
8:24 - 8:26שתעשה כל עבודה פיזית,
-
8:26 - 8:27תופעל בכוח השמש,
-
8:27 - 8:30פחות או יותר במחיר של חומרי הגלם.
-
8:30 - 8:33אז אנחנו מדברים על סופה
של עבודת הפרך האנושית. -
8:33 - 8:36אנחנו מדברים גם על סופה
של רוב העבודה האינטלקטואלית. -
8:37 - 8:40אז מה קופים כמונו יעשו בנסיבות שכאלו?
-
8:40 - 8:44טוב, אנחנו נהיה חופשיים לשחק מטקות
ולהעניק אחד לשני עיסויים. -
8:46 - 8:49תוסיפו קצת אל.אס.די
ובחירת לבוש מפוקפקת, -
8:49 - 8:51וכל העולם יראה כמו אירוע של ברנינג מאן.
-
8:51 - 8:53(צחוק)
-
8:54 - 8:56עכשיו, זה אולי נשמע די טוב,
-
8:57 - 9:00אבל תשאלו את עצמכם מה יקרה
-
9:00 - 9:02תחת הסדר הכלכלי והפוליטי שלנו היום?
-
9:02 - 9:05נראה סביר שאנחנו נחזה
-
9:05 - 9:09ברמות של אי-שויון כלכלי ואבטלה
-
9:09 - 9:11שלא נצפו קודם לכן מעולם.
-
9:11 - 9:13ללא רצון להשקיע מיד את כל העושר הזה
-
9:13 - 9:15לרווחת המין האנושי כולו,
-
9:16 - 9:19מספר טריליונרים יוכלו לקשט
את השערים של כתבי העת העסקיים -
9:19 - 9:22בזמן ששאר העולם יהיה חופשי לרעוב.
-
9:22 - 9:25ומה הרוסים והסינים יעשו
-
9:25 - 9:27אם הם ישמעו שחברה כלשהי בעמק הסיליקון
-
9:27 - 9:30עומדת להשיק בינה מלאכותית
סופר-אינטליגנטית? -
9:30 - 9:33המכונה הזו תוכל לנהל מלחמה,
-
9:33 - 9:35בין אם ארצית או במרחב הסייבר,
-
9:35 - 9:37בעוצמה ללא תקדים.
-
9:38 - 9:40זה תרחיש שבו המנצח לוקח הכל.
-
9:40 - 9:43להקדים את התחרות הזו בשישה חודשים
-
9:43 - 9:47משמעו להקדים את העולם ב-500,000 שנה לפחות.
-
9:47 - 9:52אז נראה שאפילו שמועות על פריצת דרך שכזו
-
9:52 - 9:55יכולות לגרום למין שלנו להשתגע.
-
9:55 - 9:58עכשיו, אחד הדברים המפחידים ביותר,
-
9:58 - 10:00לראות עיני, ברגע הזה,
-
10:00 - 10:05אלה הדברים שחוקרי בינה מלאכותית אומרים
-
10:05 - 10:06כשהם רוצים להרגיע אותנו.
-
10:07 - 10:10והסיבה הנפוצה ביותר שאומרים
לנו שאין סיבה לדאגה היא זמן. -
10:10 - 10:13זה הכל עוד רחוק מאוד, אתם יודעים.
-
10:13 - 10:15זה כנראה רחוק מאיתנו ב-50 או 100 שנים.
-
10:16 - 10:17חוקר אחד אמר,
-
10:17 - 10:19"לדאוג מהבטיחות של בינה מלאכותית
-
10:19 - 10:21"זה כמו לדאוג מצפיפות אוכלוסין על המאדים."
-
10:22 - 10:24זו הגרסה של עמק הסיליקון
-
10:24 - 10:26ל"אל תטרידו את עצמכם בזה."
-
10:26 - 10:27(צחוק)
-
10:28 - 10:29נראה שאף אחד לא שם לב
-
10:29 - 10:32שההתייחסות לאופק הזמן
-
10:32 - 10:35מהווה כשל לוגי מוחלט.
-
10:35 - 10:38אם אינטליגנציה היא רק ענין של עיבוד מידע,
-
10:38 - 10:41ואנחנו ממשיכים לשפר את המכונות שלנו,
-
10:41 - 10:44אנחנו נייצר סוג כלשהו של סופר-אינטליגנציה.
-
10:44 - 10:48ואין לנו מושג כמה זמן ייקח לנו
-
10:48 - 10:50לייצר את התנאים כדי
לעשות זאת באופן בטיחותי. -
10:52 - 10:53תרשו לי להגיד את זה שוב.
-
10:54 - 10:57אין לנו מושג כמה זמן ייקח לנו
-
10:57 - 11:00לייצר את התנאים כדי
לעשות זאת באופן בטיחותי. -
11:01 - 11:04ואם לא שמתם לב,
50 שנה זה לא מה שזה היה פעם. -
11:04 - 11:07אלה 50 שנים מחולקים לחודשים.
-
11:07 - 11:09זו כמות הזמן שיש לנו אייפונים.
-
11:09 - 11:12זו כמות הזמן ש"הסימפסונים"
משודרים בטלויזיה. -
11:13 - 11:15חמישים שנים זה לא הרבה זמן
-
11:15 - 11:18כדי להתמודד עם אחד האתגרים
הגדולים ביותר שהמין שלנו יתקל בהם. -
11:20 - 11:24שוב, נראה שאנחנו לא מצליחים
לייצר את התגובה הרגשית המתאימה -
11:24 - 11:26למשהו שאין לנו ספק שהוא מגיע.
-
11:26 - 11:30למדען המחשבים סטיוארט ראסל
יש אנלוגיה נחמדה בנושא זה. -
11:30 - 11:35הוא אמר, דמיינו שאנחנו נקבל מסר
מתרבות חוצנית כלשהי, -
11:35 - 11:37שאומר:
-
11:37 - 11:39"תושבי כדור הארץ,
-
11:39 - 11:41אנחנו נגיע לכוכב שלכם בעוד 50 שנים.
-
11:42 - 11:43תתכוננו."
-
11:43 - 11:48ועכשיו אנחנו רק סופרים את החודשים
עד שספינת האם תנחת? -
11:48 - 11:51אנחנו נרגיש קצת יותר דחיפות
ממה שאנחנו מרגישים היום. -
11:53 - 11:55סיבה נוספת שאומרים לנו לא לדאוג
-
11:55 - 11:58היא שהמכונות הללו
בהכרח יחלקו את הערכים שלנו -
11:58 - 12:00מכיוון שהן יהיו, הלכה למעשה,
שלוחות של עצמנו. -
12:00 - 12:02הם יהיו מושתלים לתוך המוחות שלנו,
-
12:02 - 12:04ואנחנו נהפוך למעשה למערכת הלימבית שלהן.
-
12:05 - 12:07קחו רגע נוסף בכדי לשקול
-
12:07 - 12:10שהדרך הבטוחה ביותר,
והיחידה שהיא שקולה, קדימה, -
12:10 - 12:11המומלצת,
-
12:11 - 12:14היא להשתיל את הטכנולוגיה הזו
ישירות לתוך המוח שלנו. -
12:15 - 12:18עכשיו, זו אולי באמת הדרך
השקולה והבטוחה קדימה, -
12:18 - 12:21אבל לרוב שיקולי הבטיחות בנוגע לטכנולוגיה
-
12:21 - 12:25צריכים להיות די מטופלים
לפני שאתם תוקעים אותה לתוך הראש שלכם. -
12:25 - 12:27(צחוק)
-
12:27 - 12:32הבעיה העמוקה יותר היא שבניית
בינה מלאכותית סופר-אינטליגנטית בפני עצמה -
12:32 - 12:34נראית קלה יותר
-
12:34 - 12:36מבניית בינה מלאכותית סופר-אינטליגנטית
-
12:36 - 12:38בנוסף ליכולת המלאה במדעי המוח
-
12:38 - 12:40בכדי לאפשר לנו לבצע
שילוב מושלם של המוח שלנו איתה. -
12:41 - 12:44ובהתחשב בכך שחברות וממשלות
שעושות את העבודה הזו -
12:44 - 12:48כנראה יראו את עצמן במרוץ כנגד כל האחרות,
-
12:48 - 12:51ובהתחשב שנצחון במרוץ הזה
משמעותו לזכות בעולם, -
12:51 - 12:53בתנאי שאתם לא תהרסו אותו ברגע שאחרי,
-
12:53 - 12:56אז נראה סביר שמה שקל יותר לעשות
-
12:56 - 12:58ייעשה קודם.
-
12:59 - 13:01עכשיו, למרבה הצער,
אין לי פתרון לבעיה הזו, -
13:01 - 13:04מלבד להמליץ שיותר מאיתנו יחשבו עליה.
-
13:04 - 13:06אני חושב שאנחנו צריכים משהו
כמו פרויקט מנהטן -
13:06 - 13:08לנושא של בינה מלאכותית.
-
13:09 - 13:11לא בכדי לבנות אותה, כי אני
חושב שבלתי נמנע שנעשה זאת, -
13:11 - 13:15אלא בכדי להבין איך
נמנעים ממרוץ חימוש -
13:15 - 13:18ובכדי לבנות אותה באופן שעולה
בקנה אחד עם האינטרסים שלנו. -
13:18 - 13:20כאשר אנחנו מדברים על
בינה מלאכותית סופר-אינטליגנטית -
13:20 - 13:23שיכולה לעשות שינויים בעצמה,
-
13:23 - 13:27נראה שיש לנו רק הזדמנות אחת
לייצר את תנאי הפתיחה נכון, -
13:27 - 13:29ואפילו אז אנחנו נצטרך לספוג
-
13:29 - 13:32את ההשלכות הפוליטיות והכלכליות
שקשורות בלייצר אותן נכון. -
13:34 - 13:36אבל ברגע שאנחנו נודה בכך
-
13:36 - 13:40שעיבוד מידע הוא המקור לאינטליגנציה,
-
13:41 - 13:46שמערכת חישובית מתאימה היא הבסיס
למה שאינטליגנציה מייצגת, -
13:46 - 13:50ואנחנו מקבלים שאנחנו נמשיך לשפר
את המערכות האלו ללא הפסקה, -
13:51 - 13:56ואנחנו מקבלים שהאופק של ההכרה
סביר מאוד שעובר בהרבה -
13:56 - 13:57את מה שאנחנו יודעים כיום,
-
13:58 - 13:59אז עלינו לקבל
-
13:59 - 14:02שאנחנו בתהליך של בניית
סוג כלשהו של אל. -
14:03 - 14:05ועכשיו יהיה זמן טוב
-
14:05 - 14:07לוודא שזה אל שאנחנו יכולים לחיות איתו.
-
14:08 - 14:10תודה רבה לכם.
-
14:10 - 14:15(מחיאות כפיים)
- Title:
- האם נוכל לבנות בינה מלאכותית מבלי לאבד שליטה עליה?
- Speaker:
- סאם האריס
- Description:
-
מפחדים מבינה מלאכותית סופר-אינטליגנטית? כדאי לכם, כך אומר מדען המוח והפילוסוף סאם האריס -- ולא רק באיזה אופן תיאורטי כלשהו. אנחנו הולכים לבנות מכונות על-אנושיות, כך אומר האריס, אבל אנחנו עוד לא הבנו את הבעיות המזוהות עם יצירת משהו שעלול להתייחס אלינו באותו אופן בו אנחנו מתייחסים לנמלים.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
Sigal Tifferet edited Hebrew subtitles for Can we build AI without losing control over it? | |
![]() |
Sigal Tifferet edited Hebrew subtitles for Can we build AI without losing control over it? | |
![]() |
Sigal Tifferet edited Hebrew subtitles for Can we build AI without losing control over it? | |
![]() |
Sigal Tifferet edited Hebrew subtitles for Can we build AI without losing control over it? | |
![]() |
Sigal Tifferet approved Hebrew subtitles for Can we build AI without losing control over it? | |
![]() |
Sigal Tifferet edited Hebrew subtitles for Can we build AI without losing control over it? | |
![]() |
Sigal Tifferet edited Hebrew subtitles for Can we build AI without losing control over it? | |
![]() |
Sigal Tifferet edited Hebrew subtitles for Can we build AI without losing control over it? |