1 00:00:01,468 --> 00:00:06,690 ב 23 באפריל 2013, 2 00:00:06,714 --> 00:00:12,228 סוכנות הידיעות AP העלתה ציוץ בטוויטר. 3 00:00:12,252 --> 00:00:14,649 נאמר בו: "חדשות מרעישות: 4 00:00:14,673 --> 00:00:17,244 שני פיצוצים ארעו בבית הלבן 5 00:00:17,268 --> 00:00:19,601 וברק אובמה נפצע." 6 00:00:20,212 --> 00:00:25,637 הידיעה הזו צויצה מחדש כ-4000 פעם במשך פחות מחמש דקות, 7 00:00:25,661 --> 00:00:27,878 והפכה לאחר מכן לוויראלית. 8 00:00:28,760 --> 00:00:33,110 הציוץ הזה לא הכיל חדשות אמיתיות שפירסמה סוכנות הידיעות AP. 9 00:00:33,134 --> 00:00:36,467 למעשה אלה היו חדשות כזב, או "פייק ניוז", 10 00:00:36,491 --> 00:00:39,316 שהופצו על ידי האקרים סורים 11 00:00:39,340 --> 00:00:44,034 שהסתננו לחשבון הטוויטר של AP. 12 00:00:44,407 --> 00:00:48,296 מטרתם היתה לשבש סדרים בחברה, אבל הם שיבשו הרבה יותר. 13 00:00:48,320 --> 00:00:50,796 כי אלגוריתמים אוטומטיים של מסחר 14 00:00:50,820 --> 00:00:54,180 הגיבו מיד לתחושה שעורר הציוץ הזה, 15 00:00:54,204 --> 00:00:57,172 והחל מסחר שמבוסס על האפשרות 16 00:00:57,196 --> 00:01:00,577 שנשיא ארה"ב נפגע או נהרג 17 00:01:00,601 --> 00:01:01,801 בפיצוץ זה. 18 00:01:02,188 --> 00:01:04,180 וברגע שהם התחילו לצייץ, 19 00:01:04,204 --> 00:01:07,553 הם מיד גרמו לקריסת שוק המניות, 20 00:01:07,577 --> 00:01:12,744 כשנמחקו 140 מיליארד דולר של שווי הון ביום אחד. 21 00:01:13,062 --> 00:01:17,538 רוברט מולר, יועץ תובע מיוחד בארה"ב, 22 00:01:17,562 --> 00:01:21,454 הגיש כתבי אישום נגד 3 חברות רוסיות 23 00:01:21,478 --> 00:01:24,097 ו- 13 בני אדם רוסיים 24 00:01:24,121 --> 00:01:27,288 על קשירת קשר להונות את ארה"ב 25 00:01:27,312 --> 00:01:31,092 על ידי התערבות בבחירות 2016 לנשיאות. 26 00:01:31,855 --> 00:01:35,419 וכתב אישום זה מספר 27 00:01:35,443 --> 00:01:38,585 שסוכנות המחקר של האינטרנט 28 00:01:38,609 --> 00:01:42,203 היא זרוע הצללים של הקרמלין במדיה החברתית. 29 00:01:42,815 --> 00:01:45,592 במהלך הבחירות לנשיאות לבדו, 30 00:01:45,616 --> 00:01:47,505 מאמצי סוכנות האינטרנט 31 00:01:47,529 --> 00:01:52,696 הגיעו ל 126 מיליון בני אדם בפייסבוק, בארה"ב, 32 00:01:52,720 --> 00:01:55,997 שהעלו 3 מיליון ציוצים אישיים 33 00:01:56,021 --> 00:01:59,863 ושווי של 43 שעות תוכן ביוטיוב. 34 00:01:59,887 --> 00:02:01,539 שכולם היו כוזבים -- 35 00:02:01,563 --> 00:02:07,886 מידע כוזב שנועד לזרוע מחלוקת בבחירות לנשיאות בארה"ב. 36 00:02:08,996 --> 00:02:11,646 מחקר שנערך לאחרונה על ידי אוניברסיטת אוקספורד 37 00:02:11,670 --> 00:02:14,940 הראה שבבחירות האחרונות בשוודיה, 38 00:02:14,964 --> 00:02:19,339 שליש מכל המידע שהתפשט ברשתות החברתיות 39 00:02:19,363 --> 00:02:20,561 אודות הבחירות 40 00:02:20,585 --> 00:02:22,672 היה כוזב או שגוי. 41 00:02:23,037 --> 00:02:28,115 בנוסף, סוגים אלה של קמפיינים שגויים ברשתות החברתיות 42 00:02:28,139 --> 00:02:32,290 עלולים להפיץ את מה שנקרא "תעמולה לרצח עם," 43 00:02:32,314 --> 00:02:35,425 כמו למשל, נגד הרוהינגה בבורמה, 44 00:02:35,449 --> 00:02:37,752 ולעורר רצח בידי האספסוף בהודו. 45 00:02:37,776 --> 00:02:39,270 חקרנו את חדשות הכזב 46 00:02:39,294 --> 00:02:42,513 והתחלנו לחקור זאת לפני שזה הפך למונח פופולרי. 47 00:02:43,030 --> 00:02:48,070 ולאחרונה פירסמנו את מחקר האורך הגדול ביותר שנערך אי פעם 48 00:02:48,094 --> 00:02:50,380 על התפשטות חדשות הכזב ברשת 49 00:02:50,404 --> 00:02:53,608 על השער של ה"סייאנס" במרץ השנה. 50 00:02:54,523 --> 00:02:58,684 חקרנו את כל סיפורי החדשות שאומתו כאמיתיים וכוזבים 51 00:02:58,708 --> 00:03:00,461 שהתפשטו אי פעם בטוויטר, 52 00:03:00,485 --> 00:03:04,303 מראשיתו ב 2006 ועד 2017. 53 00:03:04,612 --> 00:03:06,926 וכשחקרנו את המידע הזה, 54 00:03:06,950 --> 00:03:09,826 חקרנו סיפורי חדשות מאומתים 55 00:03:09,850 --> 00:03:13,768 שאומתו על ידי 6 ארגונים עצמאיים, שבודקים את העובדות. 56 00:03:13,792 --> 00:03:16,554 כך ידענו אילו סיפורים היו נכונים 57 00:03:16,578 --> 00:03:18,704 ואילו סיפורים היו כוזבים. 58 00:03:18,728 --> 00:03:20,601 אנו יכולים למדוד את ההתפשטות שלהם, 59 00:03:20,625 --> 00:03:22,276 את מהירות ההתפשטות שלהם, 60 00:03:22,300 --> 00:03:24,395 את עומקה ורוחבה של ההתפשטות, 61 00:03:24,419 --> 00:03:28,561 כמה אנשים הסתבכו במפל מידע זה וכו'. 62 00:03:28,942 --> 00:03:30,426 ומה שעשינו עם מסמך זה 63 00:03:30,450 --> 00:03:34,315 היה להשוות את התפשטות חדשות האמת להתפשטות חדשות הכזב. 64 00:03:34,339 --> 00:03:36,022 והנה מה שמצאנו. 65 00:03:36,046 --> 00:03:40,025 גילינו שחדשות כזב נפוצו רחוק יותר, מהר יותר, עמוק יותר 66 00:03:40,049 --> 00:03:41,855 ובאופן הרבה יותר רחב מהאמת 67 00:03:41,879 --> 00:03:44,882 בכל קטגוריית מידע שחקרנו, 68 00:03:44,906 --> 00:03:47,405 לפעמים בסדר גודל. 69 00:03:47,842 --> 00:03:51,366 ולמעשה חדשות כזב פוליטיות היו הכי וויראליות . 70 00:03:51,390 --> 00:03:54,537 הן הופצו רחוק יותר, מהר יותר, עמוק ורחב יותר 71 00:03:54,561 --> 00:03:57,363 מכל סוג אחר של חדשות כזב. 72 00:03:57,387 --> 00:03:58,680 כשראינו את זה, 73 00:03:58,704 --> 00:04:01,545 היינו בו בזמן מודאגים, אבל גם סקרנים. 74 00:04:01,569 --> 00:04:02,720 מדוע? 75 00:04:02,744 --> 00:04:06,117 מדוע חדשות כזב מגיעות הרבה יותר רחוק, מהר, עמוק 76 00:04:06,141 --> 00:04:08,005 ובאופן רחב יותר מאשר האמת? 77 00:04:08,339 --> 00:04:11,300 ההשערה הראשונה שהעלינו היתה, 78 00:04:11,324 --> 00:04:16,116 "ובכן, אולי למפיצי חדשות כזב יש יותר עוקבים או נעקבים, 79 00:04:16,140 --> 00:04:17,697 או שהם מצייצים יותר הרבה, 80 00:04:17,721 --> 00:04:21,847 או שהם לרוב משתמשי טוויטר 'מאומתים' עם אמינות רבה יותר, 81 00:04:21,871 --> 00:04:24,053 או שאולי הם נמצאים בטוויטר יותר זמן." 82 00:04:24,077 --> 00:04:26,375 אז בדקנו כל אחד מאלה בזה אחר זה. 83 00:04:26,691 --> 00:04:29,611 ומה שמצאנו היה בדיוק ההיפך. 84 00:04:29,635 --> 00:04:32,071 למפרסמי חדשות כזב היו פחות עוקבים, 85 00:04:32,095 --> 00:04:34,349 הם עקבו אחר פחות אנשים, היו פחות פעילים, 86 00:04:34,373 --> 00:04:35,833 "מאומתים" לעתים פחות קרובות 87 00:04:35,857 --> 00:04:38,817 והיו בטוויטר תקופת זמן קצרה יותר 88 00:04:38,841 --> 00:04:40,030 ועדיין, 89 00:04:40,054 --> 00:04:45,087 חדשות כזב צוייצו מחדש בסבירות של 70% יותר מהאמת, 90 00:04:45,111 --> 00:04:48,474 כשמתחשבין בכל אלה ובגורמים רבים אחרים. 91 00:04:48,498 --> 00:04:51,188 אז הצטרכנו לבוא עם הסברים אחרים. 92 00:04:51,212 --> 00:04:54,679 והגינו משהו שקראנו לו "השערת חידוש." 93 00:04:55,038 --> 00:04:56,998 אם אתם קוראים את הספרות, 94 00:04:57,022 --> 00:05:00,776 ידוע היטב שתשומת לב אנושית נמשכת לחידושים. 95 00:05:00,800 --> 00:05:03,319 דברים שהם חדשים בסביבה. 96 00:05:03,343 --> 00:05:05,328 ואם אתם קוראים ספרות בנושאי סוציולוגיה, 97 00:05:05,352 --> 00:05:09,652 אתם יודעים שאנו אוהבים לשתף מידע חדשני. 98 00:05:09,676 --> 00:05:13,514 זה גורם לנו להיראות כמו מי שיש לו גישה למידע פנימי. 99 00:05:13,538 --> 00:05:17,323 ואנו זוכים במעמד על ידי הפצת מידע מסוג זה. 100 00:05:17,792 --> 00:05:24,244 אז מדדנו את החידוש של ציוץ שנכנס, אמיתי או כוזב. 101 00:05:24,268 --> 00:05:28,323 בהשוואה לאוסף שהאדם הזה ראה 102 00:05:28,347 --> 00:05:31,299 בטוויטר ב 60 הימים שקדמו לציוץ. 103 00:05:31,323 --> 00:05:33,982 אבל זה לא הספיק, כי חשבנו לעצמנו, 104 00:05:34,006 --> 00:05:38,214 "אולי ידיעות כוזבות חדשניות יותר במובן של מידע תיאורטי, 105 00:05:38,238 --> 00:05:41,496 אבל אולי אנשים לא תופסים זאת כיותר חדשניות." 106 00:05:41,849 --> 00:05:45,776 אז כדי להבין כיצד אנשים תופסים חדשות כזב, 107 00:05:45,800 --> 00:05:49,490 הסתכלנו על המידע והרגש 108 00:05:49,514 --> 00:05:53,720 שנכלל בתשובות לציוצים של אמת וכזב. 109 00:05:54,022 --> 00:05:55,228 ומה שמצאנו 110 00:05:55,252 --> 00:05:59,466 היה שלרוחב מקבץ של מדדי רגשות שונים -- 111 00:05:59,490 --> 00:06:02,791 הפתעה, סלידה, פחד, עצב, 112 00:06:02,815 --> 00:06:05,299 ציפייה, שמחה ואמון -- 113 00:06:05,323 --> 00:06:11,180 חדשות כזב הציגו יותר הפתעה וסלידה באופן משמעותי, 114 00:06:11,204 --> 00:06:14,010 בתשובות לציוצי כזב. 115 00:06:14,392 --> 00:06:18,181 וחדשות אמת הציגו ציפייה יותר משמעותית, 116 00:06:18,205 --> 00:06:19,752 שמחה ואמון 117 00:06:19,776 --> 00:06:22,323 בתשובות לציוצי אמת. 118 00:06:22,347 --> 00:06:26,133 ההפתעה מאמתת את השערת החידוש שלנו. 119 00:06:26,157 --> 00:06:30,766 זה חדש ומפתיע, ולכן סביר יותר שנשתף אותו. 120 00:06:31,092 --> 00:06:34,017 באותו זמן הוצגה עדות בקונגרס 121 00:06:34,041 --> 00:06:37,077 בפני שני בתי הקונגרס בארה"ב, 122 00:06:37,101 --> 00:06:40,839 שבוחנת את חלקם של הבוטים בהתפשטות של מידע מוטעה. 123 00:06:40,863 --> 00:06:42,217 אז הסתכלנו גם על זה -- 124 00:06:42,241 --> 00:06:45,839 השתמשנו בכמה אלגוריתמים מזהי-בוט מתוחכמים 125 00:06:45,863 --> 00:06:48,937 כדי למצוא את הבוטים בנתונים שלנו ולשלוף אותם החוצה. 126 00:06:49,347 --> 00:06:52,006 שלפנו אותם החוצה, והחזרנו אותם פנימה 127 00:06:52,030 --> 00:06:55,149 והשווינו את מה שקרה למדידות שלנו. 128 00:06:55,173 --> 00:06:57,466 ומה שמצאנו היה שאכן, 129 00:06:57,490 --> 00:07:01,172 בוטים האיצו את התפשטות חדשות הכזב ברשת, 130 00:07:01,196 --> 00:07:03,847 אבל הם האיצו גם את הפצת החדשות האמיתיות 131 00:07:03,871 --> 00:07:06,276 בשיעור זהה בקירוב, 132 00:07:06,300 --> 00:07:09,158 מה שאומר שבוטים אינם אחראים 133 00:07:09,182 --> 00:07:13,895 לפיזור הדיפרנציאלי של אמת וכזב ברשת. 134 00:07:13,919 --> 00:07:16,768 איננו יכולים להתנער מאחריות זו, 135 00:07:16,792 --> 00:07:21,051 משום שאנחנו, בני האדם, אחראים להתפשטות זו. 136 00:07:22,472 --> 00:07:25,806 כל מה שסיפרתי לכם עד כה, 137 00:07:25,830 --> 00:07:27,584 לרוע המזל של כולנו, 138 00:07:27,608 --> 00:07:28,869 אלה החדשות הטובות. 139 00:07:30,670 --> 00:07:35,120 וזה משום שהדבר עומד להחמיר הרבה יותר. 140 00:07:35,850 --> 00:07:39,532 ושתי טכנולוגיות ספציפיות עומדות להחמיר את זה. 141 00:07:40,207 --> 00:07:45,379 אנחנו עומדים לראות עלייה של גל אדיר של מדיה סינתטית. 142 00:07:45,403 --> 00:07:51,434 וידאו כוזב, שמע כוזב, שמשכנעים מאוד את העין האנושית. 143 00:07:51,458 --> 00:07:54,212 וזה יונע על ידי שתי טכנולוגיות. 144 00:07:54,236 --> 00:07:58,069 הראשונה מהן מוכרת כ"רשתות גנרטיביות יריבות." 145 00:07:58,093 --> 00:08:00,656 זהו מודל למידת מכונה עם שתי רשתות: 146 00:08:00,680 --> 00:08:02,227 מאבחן, 147 00:08:02,251 --> 00:08:06,451 שתפקידו להבחין אם משהו הינו אמיתי או כוזב, 148 00:08:06,475 --> 00:08:07,642 וגנרטור, 149 00:08:07,666 --> 00:08:10,816 שתפקידו להפיק מדיה סינתטית. 150 00:08:10,840 --> 00:08:15,942 כך שהגנרטור הסינתטי מפיק וידאו או אודיו סינתטיים, 151 00:08:15,966 --> 00:08:20,641 והמאבחן מנסה לומר, "האם זה אמיתי או כוזב?" 152 00:08:20,665 --> 00:08:23,539 ולמעשה זה תפקידו של הגנרטור 153 00:08:23,563 --> 00:08:27,998 למקסם את הדמיון שישטה במאבחן 154 00:08:28,022 --> 00:08:31,609 לחשוב שהווידאו והאודיו הסינתטיים שהוא יוצר 155 00:08:31,633 --> 00:08:33,363 הם למעשה אמיתיים. 156 00:08:33,387 --> 00:08:35,760 דמיינו מכונה בהייפרלופ, 157 00:08:35,784 --> 00:08:38,587 מנסה להשתפר יותר ויותר בלשטות בנו. 158 00:08:39,114 --> 00:08:41,614 זאת בשילוב עם הטכנולוגיה השנייה, 159 00:08:41,638 --> 00:08:47,360 שהיא בעצם הדמוקרטיזציה של בינה מלאכותית לעם, 160 00:08:47,384 --> 00:08:49,573 היכולת של כל אחד, 161 00:08:49,597 --> 00:08:52,427 ללא שום רקע בבינה מלאכותית 162 00:08:52,451 --> 00:08:53,633 או למידת מכונה, 163 00:08:53,657 --> 00:08:57,760 להשתמש בסוגים אלה של אלגוריתמים כדי לייצר מדיה סינתטית 164 00:08:57,784 --> 00:09:02,331 הופך את יצירת סרטוני הוידאו, בסופו של דבר, הרבה יותר קלה . 165 00:09:02,355 --> 00:09:06,776 הבית הלבן פירסם סרטון וידאו מזויף 166 00:09:06,800 --> 00:09:11,088 על אינטראקציה בין עיתונאי למתמחה שניסה לקחת את המיקרופון שלו. 167 00:09:11,427 --> 00:09:13,426 הם הסירו פריימים מהסרטון הזה. 168 00:09:13,450 --> 00:09:16,737 כדי לגרום לפעולותיו להיראות יותר תוקפניות. 169 00:09:17,157 --> 00:09:20,542 וכאשר צלמי וידאו מקצועיים פעלולנים, וכפילים וכפילות 170 00:09:20,566 --> 00:09:22,993 התראיינו על סוג זה של טכניקה, 171 00:09:23,017 --> 00:09:26,845 הם אמרו, "כן, אנחנו משתמשים בזה בסרטים כל הזמן 172 00:09:26,869 --> 00:09:31,632 כדי להפוך את האגרופים והבעיטות שלנו להיראות יותר סוערים ויותר אגרסיביים." 173 00:09:32,268 --> 00:09:34,135 לאחר מכן הם פירסמו את הוידאו 174 00:09:34,159 --> 00:09:36,659 ובמידת מה השתמשו בו כהצדקה 175 00:09:36,683 --> 00:09:40,682 לשלול מהעיתונאי ג'ים אקוסטה את תעודת הכניסה לעיתונאים 176 00:09:40,706 --> 00:09:42,045 לבית הלבן. 177 00:09:42,069 --> 00:09:46,878 ו- CNN נאלצו לתבוע כדי שתעודת העיתונאי הזו תונפק מחדש. 178 00:09:48,538 --> 00:09:54,141 אני יכול לחשוב על כחמש דרכים שונות שנוכל בעזרתן 179 00:09:54,165 --> 00:09:57,904 לנסות ולטפל בכמה מהבעיות הקשות ביותר. 180 00:09:58,379 --> 00:10:00,189 בכל אחת מהן יש הבטחה, 181 00:10:00,213 --> 00:10:03,212 אבל לכל אחת מהן יש אתגרים משלה. 182 00:10:03,236 --> 00:10:05,244 הראשונה היא תיוג, 183 00:10:05,268 --> 00:10:06,625 חישבו על זה כך: 184 00:10:06,649 --> 00:10:10,260 כשאתם הולכים לקנות מוצרי מזון במכולת, 185 00:10:10,284 --> 00:10:12,188 הם מתויגים בהרחבה. 186 00:10:12,212 --> 00:10:14,204 ניתן לדעת כמה קלוריות יש בהם, 187 00:10:14,228 --> 00:10:16,029 כמה שומן הם מכילים -- 188 00:10:16,053 --> 00:10:20,331 אבל כשאנו צורכים מידע עדיין אין לנו תוויות כלשהן. 189 00:10:20,355 --> 00:10:22,283 מה כלול במידע הזה? 190 00:10:22,307 --> 00:10:23,760 האם המקור אמין? 191 00:10:23,784 --> 00:10:26,101 מהיכן המידע הזה נאסף? 192 00:10:26,125 --> 00:10:27,950 אין לנו שום דבר מסוג זה 193 00:10:27,974 --> 00:10:30,077 כשאנו צורכים מידע. 194 00:10:30,101 --> 00:10:33,339 זוהי דרך שיש בה פוטנציאל, אבל גם אתגרים משלה. 195 00:10:33,363 --> 00:10:39,814 למשל, מי המחליט בחברה, מה נכון ומה כוזב? 196 00:10:40,387 --> 00:10:42,029 האם הממשלות? 197 00:10:42,053 --> 00:10:43,203 האם זה פייסבוק? 198 00:10:43,601 --> 00:10:47,363 האם זה מַאֲגָד עצמאי של בודקי עובדות? 199 00:10:47,387 --> 00:10:49,853 ומי בודק את בודקי העובדות? 200 00:10:50,427 --> 00:10:53,511 דרך פוטנציאלית נוספת היא תמריצים. 201 00:10:53,535 --> 00:10:56,169 אנו יודעים שבמהלך הבחירות לנשיאות ארה"ב 202 00:10:56,193 --> 00:10:59,883 הגיע ממקדוניה גל של מידע כוזב 203 00:10:59,907 --> 00:11:02,244 שלא היה לו כל מניע פוליטי 204 00:11:02,268 --> 00:11:04,728 אבל לעומת זה היה לו מניע כלכלי. 205 00:11:04,752 --> 00:11:06,900 והמניע הכלכלי הזה היה קיים, 206 00:11:06,924 --> 00:11:10,448 כי חדשות כזב מתפשטות הרבה יותר רחוק, ומהר 207 00:11:10,472 --> 00:11:12,482 ועמוק יותר מהאמת, 208 00:11:12,506 --> 00:11:17,466 וכשהם מושכים תשומת לב ניתן להרוויח מהפרסום 209 00:11:17,490 --> 00:11:19,450 של סוג כזה של מידע. 210 00:11:19,474 --> 00:11:23,307 אבל אם נוכל לדכא את התפשטות המידע הזה, 211 00:11:23,331 --> 00:11:26,228 אולי הדבר יצמצם את התמריץ הכלכלי 212 00:11:26,252 --> 00:11:28,942 לייצר אותו בכלל, מלכתחילה. 213 00:11:28,966 --> 00:11:31,466 כדרך שלישית, אפשר לחשוב על רגולציה, 214 00:11:31,490 --> 00:11:33,815 וכמובן שעלינו לחשוב על אפשרות זו. 215 00:11:33,839 --> 00:11:35,450 בארצות הברית, נכון לעכשיו, 216 00:11:35,474 --> 00:11:40,322 אנו חוקרים מה עלול לקרות אם פייסבוק ואחרים, יהיו תחת רגולציה. 217 00:11:40,346 --> 00:11:44,147 בעוד שלוקחים בחשבון דברים כמו הסדרת השיחה הפוליטי, 218 00:11:44,171 --> 00:11:46,679 תיוג העובדה שזה שיח פוליטי, 219 00:11:46,703 --> 00:11:50,522 מוודאים ששחקנים זרים לא יכולים לממן שיח פוליטי, 220 00:11:50,546 --> 00:11:53,093 יש לזה גם סכנות משלו. 221 00:11:53,522 --> 00:11:58,400 למשל, מלזיה זה עתה חוקקה עונש מאסר של 6 שנים 222 00:11:58,424 --> 00:12:01,158 לכל מי שנמצא מפיץ מידע כוזב. 223 00:12:01,696 --> 00:12:03,775 ובמשטרים אוטוריטריים, 224 00:12:03,799 --> 00:12:08,465 שימוש במדיניות מסוג זה יכול לשמש לדיכוי דעות של מיעוטים 225 00:12:08,489 --> 00:12:11,997 ולהמשיך להרחיב את הדיכוי. 226 00:12:12,680 --> 00:12:16,223 האופציה הרביעית האפשרית היא שקיפות. 227 00:12:16,843 --> 00:12:20,557 אנו רוצים לדעת כיצד פועלים האלגוריתמים של פייסבוק. 228 00:12:20,581 --> 00:12:23,461 איך הנתונים משתלבים עם האלגוריתמים 229 00:12:23,485 --> 00:12:26,323 כדי לייצר את התוצאות שאנחנו רואים? 230 00:12:26,347 --> 00:12:28,696 אנו רוצים שהם יחשפו מידע פנימי 231 00:12:28,720 --> 00:12:32,934 ויראו לנו בדיוק את הפעולות הפנימיות לפיהן פייסבוק עובדת, 232 00:12:32,958 --> 00:12:35,737 ואם נרצה לדעת מהי השפעתה של המדיה החברתית, 233 00:12:35,761 --> 00:12:37,847 נזדקק שלמדענים, חוקרים ואחרים 234 00:12:37,871 --> 00:12:41,014 תהיה גישה לסוג זה של מידע. 235 00:12:41,038 --> 00:12:42,585 אבל באותו זמן, 236 00:12:42,609 --> 00:12:46,410 אנחנו מבקשים מפייסבוק לנעול את הכל, 237 00:12:46,434 --> 00:12:48,607 כדי לשמור על אבטחת כל הנתונים. 238 00:12:48,631 --> 00:12:51,790 וכך פייסבוק ופלטפורמות מדיה חברתית אחרות 239 00:12:51,814 --> 00:12:54,948 עומדות בפני מה שאני מכנה פרדוקס שקיפות. 240 00:12:55,266 --> 00:12:57,940 אנחנו מבקשים מהם בה בעת, 241 00:12:57,964 --> 00:13:02,773 להיות פתוחים ושקופים ובו בזמן מאובטחים. 242 00:13:02,797 --> 00:13:05,488 יהיה קשה לנווט במיומנות בדרך עקלקלה 243 00:13:05,512 --> 00:13:07,425 אבל הם יצטרכו לעשות זאת אם ירצו 244 00:13:07,449 --> 00:13:11,236 להגשים את יעדי הטכנולוגיה החברתית 245 00:13:11,260 --> 00:13:12,902 תוך הימנעות מהסיכונים. 246 00:13:12,926 --> 00:13:17,617 הדבר האחרון שיכולנו לחשוב עליו הוא אלגוריתמים ולמידת מכונה. 247 00:13:17,641 --> 00:13:22,918 טכנולוגיה שתבין את התפשטות חדשות הכזב 248 00:13:22,942 --> 00:13:25,273 ותשרש אותן. ותנסה לדכא את זרימתן. 249 00:13:25,824 --> 00:13:28,721 צריך להיות מעודכנים בכל מה שנוגע לטכנולוגיה זו, 250 00:13:28,745 --> 00:13:31,023 כי לעולם לא נוכל לברוח מכך 251 00:13:31,047 --> 00:13:35,085 שבבסיס כל פיתרון או גישה טכנולוגית 252 00:13:35,109 --> 00:13:39,156 מונחת שאלה אתית או פילוסופית בסיסית 253 00:13:39,180 --> 00:13:42,450 כיצד אנו מגדירים אמיתי וכוזב. 254 00:13:42,474 --> 00:13:45,654 למי אנו נותנים את הכוח להגדיר אמת או שקר. 255 00:13:45,678 --> 00:13:48,138 ואילו דעות הן לגיטימיות, 256 00:13:48,162 --> 00:13:51,868 איזה סוג של דיבור צריך להיות מותר, וכו'. 257 00:13:51,892 --> 00:13:54,220 טכנולוגיה אינה הפיתרון לכך. 258 00:13:54,244 --> 00:13:57,942 אתיקה ופילוסופיה הן הפתרון לזה. 259 00:13:58,950 --> 00:14:02,268 כמעט בכל תיאוריה של קבלת החלטות אנושית 260 00:14:02,292 --> 00:14:05,053 שיתוף פעולה אנושי ותיאום אנושי 261 00:14:05,077 --> 00:14:08,751 יש תחושה מסוימת של אמת בבסיסה. 262 00:14:09,347 --> 00:14:11,403 אבל עם עלייתן של חדשות הכזב, 263 00:14:11,427 --> 00:14:12,870 עליית הסרטונים המזויפים, 264 00:14:12,894 --> 00:14:14,776 עלייתו של האודיו המזויף, 265 00:14:14,800 --> 00:14:18,724 אנחנו מתנודדים על סף סופה של המציאות, 266 00:14:18,748 --> 00:14:22,637 שבה איננו יכולים להבדיל בין אמיתי למזויף 267 00:14:22,661 --> 00:14:25,700 וזה עלול להיות מסוכן מאין כמוהו. 268 00:14:26,931 --> 00:14:30,879 עלינו להיות ערניים בהגנה על האמת 269 00:14:30,903 --> 00:14:32,437 כנגד מידע מזויף. 270 00:14:32,919 --> 00:14:36,355 עם הטכנולוגיות שלנו, עם המדיניות שלנו 271 00:14:36,379 --> 00:14:38,299 ואולי, הכי חשוב, 272 00:14:38,323 --> 00:14:41,537 עם האחריות האישית שלנו, 273 00:14:41,561 --> 00:14:45,116 וההחלטות, ההתנהגות והמעשים. 274 00:14:45,553 --> 00:14:46,990 תודה רבה לכם. 275 00:14:47,014 --> 00:14:50,531 (מחיאות כפיים)