WEBVTT 00:00:01.468 --> 00:00:06.690 ב 23 באפריל 2013, 00:00:06.714 --> 00:00:12.228 סוכנות הידיעות AP העלתה ציוץ בטוויטר. 00:00:12.252 --> 00:00:14.649 נאמר בו: "חדשות מרעישות: 00:00:14.673 --> 00:00:17.244 שני פיצוצים ארעו בבית הלבן 00:00:17.268 --> 00:00:19.601 וברק אובמה נפצע." 00:00:20.212 --> 00:00:25.637 הידיעה הזו צויצה מחדש כ-4000 פעם במשך פחות מחמש דקות, 00:00:25.661 --> 00:00:27.878 והפכה לאחר מכן לוויראלית. NOTE Paragraph 00:00:28.760 --> 00:00:33.110 הציוץ הזה לא הכיל חדשות אמיתיות שפירסמה סוכנות הידיעות AP. 00:00:33.134 --> 00:00:36.467 למעשה אלה היו חדשות כזב, או "פייק ניוז", 00:00:36.491 --> 00:00:39.316 שהופצו על ידי האקרים סורים 00:00:39.340 --> 00:00:44.034 שהסתננו לחשבון הטוויטר של AP. 00:00:44.407 --> 00:00:48.296 מטרתם היתה לשבש סדרים בחברה, אבל הם שיבשו הרבה יותר. 00:00:48.320 --> 00:00:50.796 כי אלגוריתמים אוטומטיים של מסחר 00:00:50.820 --> 00:00:54.180 הגיבו מיד לתחושה שעורר הציוץ הזה, 00:00:54.204 --> 00:00:57.172 והחל מסחר שמבוסס על האפשרות 00:00:57.196 --> 00:01:00.577 שנשיא ארה"ב נפגע או נהרג 00:01:00.601 --> 00:01:01.801 בפיצוץ זה. 00:01:02.188 --> 00:01:04.180 וברגע שהם התחילו לצייץ, 00:01:04.204 --> 00:01:07.553 הם מיד גרמו לקריסת שוק המניות, 00:01:07.577 --> 00:01:12.744 כשנמחקו 140 מיליארד דולר של שווי הון ביום אחד. NOTE Paragraph 00:01:13.062 --> 00:01:17.538 רוברט מולר, יועץ תובע מיוחד בארה"ב, 00:01:17.562 --> 00:01:21.454 הגיש כתבי אישום נגד 3 חברות רוסיות 00:01:21.478 --> 00:01:24.097 ו- 13 בני אדם רוסיים 00:01:24.121 --> 00:01:27.288 על קשירת קשר להונות את ארה"ב 00:01:27.312 --> 00:01:31.092 על ידי התערבות בבחירות 2016 לנשיאות. 00:01:31.855 --> 00:01:35.419 וכתב אישום זה מספר 00:01:35.443 --> 00:01:38.585 שסוכנות המחקר של האינטרנט 00:01:38.609 --> 00:01:42.203 היא זרוע הצללים של הקרמלין במדיה החברתית. 00:01:42.815 --> 00:01:45.592 במהלך הבחירות לנשיאות לבדו, 00:01:45.616 --> 00:01:47.505 מאמצי סוכנות האינטרנט 00:01:47.529 --> 00:01:52.696 הגיעו ל 126 מיליון בני אדם בפייסבוק, בארה"ב, 00:01:52.720 --> 00:01:55.997 שהעלו 3 מיליון ציוצים אישיים 00:01:56.021 --> 00:01:59.863 ושווי של 43 שעות תוכן ביוטיוב. 00:01:59.887 --> 00:02:01.539 שכולם היו כוזבים -- 00:02:01.563 --> 00:02:07.886 מידע כוזב שנועד לזרוע מחלוקת בבחירות לנשיאות בארה"ב. NOTE Paragraph 00:02:08.996 --> 00:02:11.646 מחקר שנערך לאחרונה על ידי אוניברסיטת אוקספורד 00:02:11.670 --> 00:02:14.940 הראה שבבחירות האחרונות בשוודיה, 00:02:14.964 --> 00:02:19.339 שליש מכל המידע שהתפשט ברשתות החברתיות 00:02:19.363 --> 00:02:20.561 אודות הבחירות 00:02:20.585 --> 00:02:22.672 היה כוזב או שגוי. NOTE Paragraph 00:02:23.037 --> 00:02:28.115 בנוסף, סוגים אלה של קמפיינים שגויים ברשתות החברתיות 00:02:28.139 --> 00:02:32.290 עלולים להפיץ את מה שנקרא "תעמולה לרצח עם," 00:02:32.314 --> 00:02:35.425 כמו למשל, נגד הרוהינגה בבורמה, 00:02:35.449 --> 00:02:37.752 ולעורר רצח בידי האספסוף בהודו. NOTE Paragraph 00:02:37.776 --> 00:02:39.270 חקרנו את חדשות הכזב 00:02:39.294 --> 00:02:42.513 והתחלנו לחקור זאת לפני שזה הפך למונח פופולרי. 00:02:43.030 --> 00:02:48.070 ולאחרונה פירסמנו את מחקר האורך הגדול ביותר שנערך אי פעם 00:02:48.094 --> 00:02:50.380 על התפשטות חדשות הכזב ברשת 00:02:50.404 --> 00:02:53.608 על השער של ה"סייאנס" במרץ השנה. 00:02:54.523 --> 00:02:58.684 חקרנו את כל סיפורי החדשות שאומתו כאמיתיים וכוזבים 00:02:58.708 --> 00:03:00.461 שהתפשטו אי פעם בטוויטר, 00:03:00.485 --> 00:03:04.303 מראשיתו ב 2006 ועד 2017. 00:03:04.612 --> 00:03:06.926 וכשחקרנו את המידע הזה, 00:03:06.950 --> 00:03:09.826 חקרנו סיפורי חדשות מאומתים 00:03:09.850 --> 00:03:13.768 שאומתו על ידי 6 ארגונים עצמאיים, שבודקים את העובדות. 00:03:13.792 --> 00:03:16.554 כך ידענו אילו סיפורים היו נכונים 00:03:16.578 --> 00:03:18.704 ואילו סיפורים היו כוזבים. 00:03:18.728 --> 00:03:20.601 אנו יכולים למדוד את ההתפשטות שלהם, 00:03:20.625 --> 00:03:22.276 את מהירות ההתפשטות שלהם, 00:03:22.300 --> 00:03:24.395 את עומקה ורוחבה של ההתפשטות, 00:03:24.419 --> 00:03:28.561 כמה אנשים הסתבכו במפל מידע זה וכו'. 00:03:28.942 --> 00:03:30.426 ומה שעשינו עם מסמך זה 00:03:30.450 --> 00:03:34.315 היה להשוות את התפשטות חדשות האמת להתפשטות חדשות הכזב. 00:03:34.339 --> 00:03:36.022 והנה מה שמצאנו. NOTE Paragraph 00:03:36.046 --> 00:03:40.025 גילינו שחדשות כזב נפוצו רחוק יותר, מהר יותר, עמוק יותר 00:03:40.049 --> 00:03:41.855 ובאופן הרבה יותר רחב מהאמת 00:03:41.879 --> 00:03:44.882 בכל קטגוריית מידע שחקרנו, 00:03:44.906 --> 00:03:47.405 לפעמים בסדר גודל. 00:03:47.842 --> 00:03:51.366 ולמעשה חדשות כזב פוליטיות היו הכי וויראליות . 00:03:51.390 --> 00:03:54.537 הן הופצו רחוק יותר, מהר יותר, עמוק ורחב יותר 00:03:54.561 --> 00:03:57.363 מכל סוג אחר של חדשות כזב. 00:03:57.387 --> 00:03:58.680 כשראינו את זה, 00:03:58.704 --> 00:04:01.545 היינו בו בזמן מודאגים, אבל גם סקרנים. 00:04:01.569 --> 00:04:02.720 מדוע? 00:04:02.744 --> 00:04:06.117 מדוע חדשות כזב מגיעות הרבה יותר רחוק, מהר, עמוק 00:04:06.141 --> 00:04:08.005 ובאופן רחב יותר מאשר האמת? NOTE Paragraph 00:04:08.339 --> 00:04:11.300 ההשערה הראשונה שהעלינו היתה, 00:04:11.324 --> 00:04:16.116 "ובכן, אולי למפיצי חדשות כזב יש יותר עוקבים או נעקבים, 00:04:16.140 --> 00:04:17.697 או שהם מצייצים יותר הרבה, 00:04:17.721 --> 00:04:21.847 או שהם לרוב משתמשי טוויטר 'מאומתים' עם אמינות רבה יותר, 00:04:21.871 --> 00:04:24.053 או שאולי הם נמצאים בטוויטר יותר זמן." 00:04:24.077 --> 00:04:26.375 אז בדקנו כל אחד מאלה בזה אחר זה. 00:04:26.691 --> 00:04:29.611 ומה שמצאנו היה בדיוק ההיפך. 00:04:29.635 --> 00:04:32.071 למפרסמי חדשות כזב היו פחות עוקבים, 00:04:32.095 --> 00:04:34.349 הם עקבו אחר פחות אנשים, היו פחות פעילים, 00:04:34.373 --> 00:04:35.833 "מאומתים" לעתים פחות קרובות 00:04:35.857 --> 00:04:38.817 והיו בטוויטר תקופת זמן קצרה יותר 00:04:38.841 --> 00:04:40.030 ועדיין, 00:04:40.054 --> 00:04:45.087 חדשות כזב צוייצו מחדש בסבירות של 70% יותר מהאמת, 00:04:45.111 --> 00:04:48.474 כשמתחשבין בכל אלה ובגורמים רבים אחרים. NOTE Paragraph 00:04:48.498 --> 00:04:51.188 אז הצטרכנו לבוא עם הסברים אחרים. 00:04:51.212 --> 00:04:54.679 והגינו משהו שקראנו לו "השערת חידוש." 00:04:55.038 --> 00:04:56.998 אם אתם קוראים את הספרות, 00:04:57.022 --> 00:05:00.776 ידוע היטב שתשומת לב אנושית נמשכת לחידושים. 00:05:00.800 --> 00:05:03.319 דברים שהם חדשים בסביבה. 00:05:03.343 --> 00:05:05.328 ואם אתם קוראים ספרות בנושאי סוציולוגיה, 00:05:05.352 --> 00:05:09.652 אתם יודעים שאנו אוהבים לשתף מידע חדשני. 00:05:09.676 --> 00:05:13.514 זה גורם לנו להיראות כמו מי שיש לו גישה למידע פנימי. 00:05:13.538 --> 00:05:17.323 ואנו זוכים במעמד על ידי הפצת מידע מסוג זה. NOTE Paragraph 00:05:17.792 --> 00:05:24.244 אז מדדנו את החידוש של ציוץ שנכנס, אמיתי או כוזב. 00:05:24.268 --> 00:05:28.323 בהשוואה לאוסף שהאדם הזה ראה 00:05:28.347 --> 00:05:31.299 בטוויטר ב 60 הימים שקדמו לציוץ. 00:05:31.323 --> 00:05:33.982 אבל זה לא הספיק, כי חשבנו לעצמנו, 00:05:34.006 --> 00:05:38.214 "אולי ידיעות כוזבות חדשניות יותר במובן של מידע תיאורטי, 00:05:38.238 --> 00:05:41.496 אבל אולי אנשים לא תופסים זאת כיותר חדשניות." NOTE Paragraph 00:05:41.849 --> 00:05:45.776 אז כדי להבין כיצד אנשים תופסים חדשות כזב, 00:05:45.800 --> 00:05:49.490 הסתכלנו על המידע והרגש 00:05:49.514 --> 00:05:53.720 שנכלל בתשובות לציוצים של אמת וכזב. 00:05:54.022 --> 00:05:55.228 ומה שמצאנו 00:05:55.252 --> 00:05:59.466 היה שלרוחב מקבץ של מדדי רגשות שונים -- 00:05:59.490 --> 00:06:02.791 הפתעה, סלידה, פחד, עצב, 00:06:02.815 --> 00:06:05.299 ציפייה, שמחה ואמון -- 00:06:05.323 --> 00:06:11.180 חדשות כזב הציגו יותר הפתעה וסלידה באופן משמעותי, 00:06:11.204 --> 00:06:14.010 בתשובות לציוצי כזב. 00:06:14.392 --> 00:06:18.181 וחדשות אמת הציגו ציפייה יותר משמעותית, 00:06:18.205 --> 00:06:19.752 שמחה ואמון 00:06:19.776 --> 00:06:22.323 בתשובות לציוצי אמת. 00:06:22.347 --> 00:06:26.133 ההפתעה מאמתת את השערת החידוש שלנו. 00:06:26.157 --> 00:06:30.766 זה חדש ומפתיע, ולכן סביר יותר שנשתף אותו. NOTE Paragraph 00:06:31.092 --> 00:06:34.017 באותו זמן הוצגה עדות בקונגרס 00:06:34.041 --> 00:06:37.077 בפני שני בתי הקונגרס בארה"ב, 00:06:37.101 --> 00:06:40.839 שבוחנת את חלקם של הבוטים בהתפשטות של מידע מוטעה. 00:06:40.863 --> 00:06:42.217 אז הסתכלנו גם על זה -- 00:06:42.241 --> 00:06:45.839 השתמשנו בכמה אלגוריתמים מזהי-בוט מתוחכמים 00:06:45.863 --> 00:06:48.937 כדי למצוא את הבוטים בנתונים שלנו ולשלוף אותם החוצה. 00:06:49.347 --> 00:06:52.006 שלפנו אותם החוצה, והחזרנו אותם פנימה 00:06:52.030 --> 00:06:55.149 והשווינו את מה שקרה למדידות שלנו. 00:06:55.173 --> 00:06:57.466 ומה שמצאנו היה שאכן, 00:06:57.490 --> 00:07:01.172 בוטים האיצו את התפשטות חדשות הכזב ברשת, 00:07:01.196 --> 00:07:03.847 אבל הם האיצו גם את הפצת החדשות האמיתיות 00:07:03.871 --> 00:07:06.276 בשיעור זהה בקירוב, 00:07:06.300 --> 00:07:09.158 מה שאומר שבוטים אינם אחראים 00:07:09.182 --> 00:07:13.895 לפיזור הדיפרנציאלי של אמת וכזב ברשת. 00:07:13.919 --> 00:07:16.768 איננו יכולים להתנער מאחריות זו, 00:07:16.792 --> 00:07:21.051 משום שאנחנו, בני האדם, אחראים להתפשטות זו. NOTE Paragraph 00:07:22.472 --> 00:07:25.806 כל מה שסיפרתי לכם עד כה, 00:07:25.830 --> 00:07:27.584 לרוע המזל של כולנו, 00:07:27.608 --> 00:07:28.869 אלה החדשות הטובות. NOTE Paragraph 00:07:30.670 --> 00:07:35.120 וזה משום שהדבר עומד להחמיר הרבה יותר. 00:07:35.850 --> 00:07:39.532 ושתי טכנולוגיות ספציפיות עומדות להחמיר את זה. 00:07:40.207 --> 00:07:45.379 אנחנו עומדים לראות עלייה של גל אדיר של מדיה סינתטית. 00:07:45.403 --> 00:07:51.434 וידאו כוזב, שמע כוזב, שמשכנעים מאוד את העין האנושית. 00:07:51.458 --> 00:07:54.212 וזה יונע על ידי שתי טכנולוגיות. NOTE Paragraph 00:07:54.236 --> 00:07:58.069 הראשונה מהן מוכרת כ"רשתות גנרטיביות יריבות." 00:07:58.093 --> 00:08:00.656 זהו מודל למידת מכונה עם שתי רשתות: 00:08:00.680 --> 00:08:02.227 מאבחן, 00:08:02.251 --> 00:08:06.451 שתפקידו להבחין אם משהו הינו אמיתי או כוזב, 00:08:06.475 --> 00:08:07.642 וגנרטור, 00:08:07.666 --> 00:08:10.816 שתפקידו להפיק מדיה סינתטית. 00:08:10.840 --> 00:08:15.942 כך שהגנרטור הסינתטי מפיק וידאו או אודיו סינתטיים, 00:08:15.966 --> 00:08:20.641 והמאבחן מנסה לומר, "האם זה אמיתי או כוזב?" 00:08:20.665 --> 00:08:23.539 ולמעשה זה תפקידו של הגנרטור 00:08:23.563 --> 00:08:27.998 למקסם את הדמיון שישטה במאבחן 00:08:28.022 --> 00:08:31.609 לחשוב שהווידאו והאודיו הסינתטיים שהוא יוצר 00:08:31.633 --> 00:08:33.363 הם למעשה אמיתיים. 00:08:33.387 --> 00:08:35.760 דמיינו מכונה בהייפרלופ, 00:08:35.784 --> 00:08:38.587 מנסה להשתפר יותר ויותר בלשטות בנו. NOTE Paragraph 00:08:39.114 --> 00:08:41.614 זאת בשילוב עם הטכנולוגיה השנייה, 00:08:41.638 --> 00:08:47.360 שהיא בעצם הדמוקרטיזציה של בינה מלאכותית לעם, 00:08:47.384 --> 00:08:49.573 היכולת של כל אחד, 00:08:49.597 --> 00:08:52.427 ללא שום רקע בבינה מלאכותית 00:08:52.451 --> 00:08:53.633 או למידת מכונה, 00:08:53.657 --> 00:08:57.760 להשתמש בסוגים אלה של אלגוריתמים כדי לייצר מדיה סינתטית 00:08:57.784 --> 00:09:02.331 הופך את יצירת סרטוני הוידאו, בסופו של דבר, הרבה יותר קלה . NOTE Paragraph 00:09:02.355 --> 00:09:06.776 הבית הלבן פירסם סרטון וידאו מזויף 00:09:06.800 --> 00:09:11.088 על אינטראקציה בין עיתונאי למתמחה שניסה לקחת את המיקרופון שלו. 00:09:11.427 --> 00:09:13.426 הם הסירו פריימים מהסרטון הזה. 00:09:13.450 --> 00:09:16.737 כדי לגרום לפעולותיו להיראות יותר תוקפניות. 00:09:17.157 --> 00:09:20.542 וכאשר צלמי וידאו מקצועיים פעלולנים, וכפילים וכפילות 00:09:20.566 --> 00:09:22.993 התראיינו על סוג זה של טכניקה, 00:09:23.017 --> 00:09:26.845 הם אמרו, "כן, אנחנו משתמשים בזה בסרטים כל הזמן 00:09:26.869 --> 00:09:31.632 כדי להפוך את האגרופים והבעיטות שלנו להיראות יותר סוערים ויותר אגרסיביים." 00:09:32.268 --> 00:09:34.135 לאחר מכן הם פירסמו את הוידאו 00:09:34.159 --> 00:09:36.659 ובמידת מה השתמשו בו כהצדקה 00:09:36.683 --> 00:09:40.682 לשלול מהעיתונאי ג'ים אקוסטה את תעודת הכניסה לעיתונאים 00:09:40.706 --> 00:09:42.045 לבית הלבן. 00:09:42.069 --> 00:09:46.878 ו- CNN נאלצו לתבוע כדי שתעודת העיתונאי הזו תונפק מחדש. NOTE Paragraph 00:09:48.538 --> 00:09:54.141 אני יכול לחשוב על כחמש דרכים שונות שנוכל בעזרתן 00:09:54.165 --> 00:09:57.904 לנסות ולטפל בכמה מהבעיות הקשות ביותר. 00:09:58.379 --> 00:10:00.189 בכל אחת מהן יש הבטחה, 00:10:00.213 --> 00:10:03.212 אבל לכל אחת מהן יש אתגרים משלה. 00:10:03.236 --> 00:10:05.244 הראשונה היא תיוג, 00:10:05.268 --> 00:10:06.625 חישבו על זה כך: 00:10:06.649 --> 00:10:10.260 כשאתם הולכים לקנות מוצרי מזון במכולת, 00:10:10.284 --> 00:10:12.188 הם מתויגים בהרחבה. 00:10:12.212 --> 00:10:14.204 ניתן לדעת כמה קלוריות יש בהם, 00:10:14.228 --> 00:10:16.029 כמה שומן הם מכילים -- 00:10:16.053 --> 00:10:20.331 אבל כשאנו צורכים מידע עדיין אין לנו תוויות כלשהן. 00:10:20.355 --> 00:10:22.283 מה כלול במידע הזה? 00:10:22.307 --> 00:10:23.760 האם המקור אמין? 00:10:23.784 --> 00:10:26.101 מהיכן המידע הזה נאסף? 00:10:26.125 --> 00:10:27.950 אין לנו שום דבר מסוג זה 00:10:27.974 --> 00:10:30.077 כשאנו צורכים מידע. 00:10:30.101 --> 00:10:33.339 זוהי דרך שיש בה פוטנציאל, אבל גם אתגרים משלה. 00:10:33.363 --> 00:10:39.814 למשל, מי המחליט בחברה, מה נכון ומה כוזב? 00:10:40.387 --> 00:10:42.029 האם הממשלות? 00:10:42.053 --> 00:10:43.203 האם זה פייסבוק? 00:10:43.601 --> 00:10:47.363 האם זה מַאֲגָד עצמאי של בודקי עובדות? 00:10:47.387 --> 00:10:49.853 ומי בודק את בודקי העובדות? NOTE Paragraph 00:10:50.427 --> 00:10:53.511 דרך פוטנציאלית נוספת היא תמריצים. 00:10:53.535 --> 00:10:56.169 אנו יודעים שבמהלך הבחירות לנשיאות ארה"ב 00:10:56.193 --> 00:10:59.883 הגיע ממקדוניה גל של מידע כוזב 00:10:59.907 --> 00:11:02.244 שלא היה לו כל מניע פוליטי 00:11:02.268 --> 00:11:04.728 אבל לעומת זה היה לו מניע כלכלי. 00:11:04.752 --> 00:11:06.900 והמניע הכלכלי הזה היה קיים, 00:11:06.924 --> 00:11:10.448 כי חדשות כזב מתפשטות הרבה יותר רחוק, ומהר 00:11:10.472 --> 00:11:12.482 ועמוק יותר מהאמת, 00:11:12.506 --> 00:11:17.466 וכשהם מושכים תשומת לב ניתן להרוויח מהפרסום 00:11:17.490 --> 00:11:19.450 של סוג כזה של מידע. 00:11:19.474 --> 00:11:23.307 אבל אם נוכל לדכא את התפשטות המידע הזה, 00:11:23.331 --> 00:11:26.228 אולי הדבר יצמצם את התמריץ הכלכלי 00:11:26.252 --> 00:11:28.942 לייצר אותו בכלל, מלכתחילה. NOTE Paragraph 00:11:28.966 --> 00:11:31.466 כדרך שלישית, אפשר לחשוב על רגולציה, 00:11:31.490 --> 00:11:33.815 וכמובן שעלינו לחשוב על אפשרות זו. 00:11:33.839 --> 00:11:35.450 בארצות הברית, נכון לעכשיו, 00:11:35.474 --> 00:11:40.322 אנו חוקרים מה עלול לקרות אם פייסבוק ואחרים, יהיו תחת רגולציה. 00:11:40.346 --> 00:11:44.147 בעוד שלוקחים בחשבון דברים כמו הסדרת השיחה הפוליטי, 00:11:44.171 --> 00:11:46.679 תיוג העובדה שזה שיח פוליטי, 00:11:46.703 --> 00:11:50.522 מוודאים ששחקנים זרים לא יכולים לממן שיח פוליטי, 00:11:50.546 --> 00:11:53.093 יש לזה גם סכנות משלו. 00:11:53.522 --> 00:11:58.400 למשל, מלזיה זה עתה חוקקה עונש מאסר של 6 שנים 00:11:58.424 --> 00:12:01.158 לכל מי שנמצא מפיץ מידע כוזב. 00:12:01.696 --> 00:12:03.775 ובמשטרים אוטוריטריים, 00:12:03.799 --> 00:12:08.465 שימוש במדיניות מסוג זה יכול לשמש לדיכוי דעות של מיעוטים 00:12:08.489 --> 00:12:11.997 ולהמשיך להרחיב את הדיכוי. NOTE Paragraph 00:12:12.680 --> 00:12:16.223 האופציה הרביעית האפשרית היא שקיפות. 00:12:16.843 --> 00:12:20.557 אנו רוצים לדעת כיצד פועלים האלגוריתמים של פייסבוק. 00:12:20.581 --> 00:12:23.461 איך הנתונים משתלבים עם האלגוריתמים 00:12:23.485 --> 00:12:26.323 כדי לייצר את התוצאות שאנחנו רואים? 00:12:26.347 --> 00:12:28.696 אנו רוצים שהם יחשפו מידע פנימי 00:12:28.720 --> 00:12:32.934 ויראו לנו בדיוק את הפעולות הפנימיות לפיהן פייסבוק עובדת, 00:12:32.958 --> 00:12:35.737 ואם נרצה לדעת מהי השפעתה של המדיה החברתית, 00:12:35.761 --> 00:12:37.847 נזדקק שלמדענים, חוקרים ואחרים 00:12:37.871 --> 00:12:41.014 תהיה גישה לסוג זה של מידע. 00:12:41.038 --> 00:12:42.585 אבל באותו זמן, 00:12:42.609 --> 00:12:46.410 אנחנו מבקשים מפייסבוק לנעול את הכל, 00:12:46.434 --> 00:12:48.607 כדי לשמור על אבטחת כל הנתונים. NOTE Paragraph 00:12:48.631 --> 00:12:51.790 וכך פייסבוק ופלטפורמות מדיה חברתית אחרות 00:12:51.814 --> 00:12:54.948 עומדות בפני מה שאני מכנה פרדוקס שקיפות. 00:12:55.266 --> 00:12:57.940 אנחנו מבקשים מהם בה בעת, 00:12:57.964 --> 00:13:02.773 להיות פתוחים ושקופים ובו בזמן מאובטחים. 00:13:02.797 --> 00:13:05.488 יהיה קשה לנווט במיומנות בדרך עקלקלה 00:13:05.512 --> 00:13:07.425 אבל הם יצטרכו לעשות זאת אם ירצו 00:13:07.449 --> 00:13:11.236 להגשים את יעדי הטכנולוגיה החברתית 00:13:11.260 --> 00:13:12.902 תוך הימנעות מהסיכונים. NOTE Paragraph 00:13:12.926 --> 00:13:17.617 הדבר האחרון שיכולנו לחשוב עליו הוא אלגוריתמים ולמידת מכונה. 00:13:17.641 --> 00:13:22.918 טכנולוגיה שתבין את התפשטות חדשות הכזב 00:13:22.942 --> 00:13:25.273 ותשרש אותן. ותנסה לדכא את זרימתן. 00:13:25.824 --> 00:13:28.721 צריך להיות מעודכנים בכל מה שנוגע לטכנולוגיה זו, 00:13:28.745 --> 00:13:31.023 כי לעולם לא נוכל לברוח מכך 00:13:31.047 --> 00:13:35.085 שבבסיס כל פיתרון או גישה טכנולוגית 00:13:35.109 --> 00:13:39.156 מונחת שאלה אתית או פילוסופית בסיסית 00:13:39.180 --> 00:13:42.450 כיצד אנו מגדירים אמיתי וכוזב. 00:13:42.474 --> 00:13:45.654 למי אנו נותנים את הכוח להגדיר אמת או שקר. 00:13:45.678 --> 00:13:48.138 ואילו דעות הן לגיטימיות, 00:13:48.162 --> 00:13:51.868 איזה סוג של דיבור צריך להיות מותר, וכו'. 00:13:51.892 --> 00:13:54.220 טכנולוגיה אינה הפיתרון לכך. 00:13:54.244 --> 00:13:57.942 אתיקה ופילוסופיה הן הפתרון לזה. NOTE Paragraph 00:13:58.950 --> 00:14:02.268 כמעט בכל תיאוריה של קבלת החלטות אנושית 00:14:02.292 --> 00:14:05.053 שיתוף פעולה אנושי ותיאום אנושי 00:14:05.077 --> 00:14:08.751 יש תחושה מסוימת של אמת בבסיסה. 00:14:09.347 --> 00:14:11.403 אבל עם עלייתן של חדשות הכזב, 00:14:11.427 --> 00:14:12.870 עליית הסרטונים המזויפים, 00:14:12.894 --> 00:14:14.776 עלייתו של האודיו המזויף, 00:14:14.800 --> 00:14:18.724 אנחנו מתנודדים על סף סופה של המציאות, 00:14:18.748 --> 00:14:22.637 שבה איננו יכולים להבדיל בין אמיתי למזויף 00:14:22.661 --> 00:14:25.700 וזה עלול להיות מסוכן מאין כמוהו. NOTE Paragraph 00:14:26.931 --> 00:14:30.879 עלינו להיות ערניים בהגנה על האמת 00:14:30.903 --> 00:14:32.437 כנגד מידע מזויף. 00:14:32.919 --> 00:14:36.355 עם הטכנולוגיות שלנו, עם המדיניות שלנו 00:14:36.379 --> 00:14:38.299 ואולי, הכי חשוב, 00:14:38.323 --> 00:14:41.537 עם האחריות האישית שלנו, 00:14:41.561 --> 00:14:45.116 וההחלטות, ההתנהגות והמעשים. NOTE Paragraph 00:14:45.553 --> 00:14:46.990 תודה רבה לכם. NOTE Paragraph 00:14:47.014 --> 00:14:50.531 (מחיאות כפיים)