ב 23 באפריל 2013, סוכנות הידיעות AP העלתה ציוץ בטוויטר. נאמר בו: "חדשות מרעישות: שני פיצוצים ארעו בבית הלבן וברק אובמה נפצע." הידיעה הזו צויצה מחדש כ-4000 פעם במשך פחות מחמש דקות, והפכה לאחר מכן לוויראלית. הציוץ הזה לא הכיל חדשות אמיתיות שפירסמה סוכנות הידיעות AP. למעשה אלה היו חדשות כזב, או "פייק ניוז", שהופצו על ידי האקרים סורים שהסתננו לחשבון הטוויטר של AP. מטרתם היתה לשבש סדרים בחברה, אבל הם שיבשו הרבה יותר. כי אלגוריתמים אוטומטיים של מסחר הגיבו מיד לתחושה שעורר הציוץ הזה, והחל מסחר שמבוסס על האפשרות שנשיא ארה"ב נפגע או נהרג בפיצוץ זה. וברגע שהם התחילו לצייץ, הם מיד גרמו לקריסת שוק המניות, כשנמחקו 140 מיליארד דולר של שווי הון ביום אחד. רוברט מולר, יועץ תובע מיוחד בארה"ב, הגיש כתבי אישום נגד 3 חברות רוסיות ו- 13 בני אדם רוסיים על קשירת קשר להונות את ארה"ב על ידי התערבות בבחירות 2016 לנשיאות. וכתב אישום זה מספר שסוכנות המחקר של האינטרנט היא זרוע הצללים של הקרמלין במדיה החברתית. במהלך הבחירות לנשיאות לבדו, מאמצי סוכנות האינטרנט הגיעו ל 126 מיליון בני אדם בפייסבוק, בארה"ב, שהעלו 3 מיליון ציוצים אישיים ושווי של 43 שעות תוכן ביוטיוב. שכולם היו כוזבים -- מידע כוזב שנועד לזרוע מחלוקת בבחירות לנשיאות בארה"ב. מחקר שנערך לאחרונה על ידי אוניברסיטת אוקספורד הראה שבבחירות האחרונות בשוודיה, שליש מכל המידע שהתפשט ברשתות החברתיות אודות הבחירות היה כוזב או שגוי. בנוסף, סוגים אלה של קמפיינים שגויים ברשתות החברתיות עלולים להפיץ את מה שנקרא "תעמולה לרצח עם," כמו למשל, נגד הרוהינגה בבורמה, ולעורר רצח בידי האספסוף בהודו. חקרנו את חדשות הכזב והתחלנו לחקור זאת לפני שזה הפך למונח פופולרי. ולאחרונה פירסמנו את מחקר האורך הגדול ביותר שנערך אי פעם על התפשטות חדשות הכזב ברשת על השער של ה"סייאנס" במרץ השנה. חקרנו את כל סיפורי החדשות שאומתו כאמיתיים וכוזבים שהתפשטו אי פעם בטוויטר, מראשיתו ב 2006 ועד 2017. וכשחקרנו את המידע הזה, חקרנו סיפורי חדשות מאומתים שאומתו על ידי 6 ארגונים עצמאיים, שבודקים את העובדות. כך ידענו אילו סיפורים היו נכונים ואילו סיפורים היו כוזבים. אנו יכולים למדוד את ההתפשטות שלהם, את מהירות ההתפשטות שלהם, את עומקה ורוחבה של ההתפשטות, כמה אנשים הסתבכו במפל מידע זה וכו'. ומה שעשינו עם מסמך זה היה להשוות את התפשטות חדשות האמת להתפשטות חדשות הכזב. והנה מה שמצאנו. גילינו שחדשות כזב נפוצו רחוק יותר, מהר יותר, עמוק יותר ובאופן הרבה יותר רחב מהאמת בכל קטגוריית מידע שחקרנו, לפעמים בסדר גודל. ולמעשה חדשות כזב פוליטיות היו הכי וויראליות . הן הופצו רחוק יותר, מהר יותר, עמוק ורחב יותר מכל סוג אחר של חדשות כזב. כשראינו את זה, היינו בו בזמן מודאגים, אבל גם סקרנים. מדוע? מדוע חדשות כזב מגיעות הרבה יותר רחוק, מהר, עמוק ובאופן רחב יותר מאשר האמת? ההשערה הראשונה שהעלינו היתה, "ובכן, אולי למפיצי חדשות כזב יש יותר עוקבים או נעקבים, או שהם מצייצים יותר הרבה, או שהם לרוב משתמשי טוויטר 'מאומתים' עם אמינות רבה יותר, או שאולי הם נמצאים בטוויטר יותר זמן." אז בדקנו כל אחד מאלה בזה אחר זה. ומה שמצאנו היה בדיוק ההיפך. למפרסמי חדשות כזב היו פחות עוקבים, הם עקבו אחר פחות אנשים, היו פחות פעילים, "מאומתים" לעתים פחות קרובות והיו בטוויטר תקופת זמן קצרה יותר ועדיין, חדשות כזב צוייצו מחדש בסבירות של 70% יותר מהאמת, כשמתחשבין בכל אלה ובגורמים רבים אחרים. אז הצטרכנו לבוא עם הסברים אחרים. והגינו משהו שקראנו לו "השערת חידוש." אם אתם קוראים את הספרות, ידוע היטב שתשומת לב אנושית נמשכת לחידושים. דברים שהם חדשים בסביבה. ואם אתם קוראים ספרות בנושאי סוציולוגיה, אתם יודעים שאנו אוהבים לשתף מידע חדשני. זה גורם לנו להיראות כמו מי שיש לו גישה למידע פנימי. ואנו זוכים במעמד על ידי הפצת מידע מסוג זה. אז מדדנו את החידוש של ציוץ שנכנס, אמיתי או כוזב. בהשוואה לאוסף שהאדם הזה ראה בטוויטר ב 60 הימים שקדמו לציוץ. אבל זה לא הספיק, כי חשבנו לעצמנו, "אולי ידיעות כוזבות חדשניות יותר במובן של מידע תיאורטי, אבל אולי אנשים לא תופסים זאת כיותר חדשניות." אז כדי להבין כיצד אנשים תופסים חדשות כזב, הסתכלנו על המידע והרגש שנכלל בתשובות לציוצים של אמת וכזב. ומה שמצאנו היה שלרוחב מקבץ של מדדי רגשות שונים -- הפתעה, סלידה, פחד, עצב, ציפייה, שמחה ואמון -- חדשות כזב הציגו יותר הפתעה וסלידה באופן משמעותי, בתשובות לציוצי כזב. וחדשות אמת הציגו ציפייה יותר משמעותית, שמחה ואמון בתשובות לציוצי אמת. ההפתעה מאמתת את השערת החידוש שלנו. זה חדש ומפתיע, ולכן סביר יותר שנשתף אותו. באותו זמן הוצגה עדות בקונגרס בפני שני בתי הקונגרס בארה"ב, שבוחנת את חלקם של הבוטים בהתפשטות של מידע מוטעה. אז הסתכלנו גם על זה -- השתמשנו בכמה אלגוריתמים מזהי-בוט מתוחכמים כדי למצוא את הבוטים בנתונים שלנו ולשלוף אותם החוצה. שלפנו אותם החוצה, והחזרנו אותם פנימה והשווינו את מה שקרה למדידות שלנו. ומה שמצאנו היה שאכן, בוטים האיצו את התפשטות חדשות הכזב ברשת, אבל הם האיצו גם את הפצת החדשות האמיתיות בשיעור זהה בקירוב, מה שאומר שבוטים אינם אחראים לפיזור הדיפרנציאלי של אמת וכזב ברשת. איננו יכולים להתנער מאחריות זו, משום שאנחנו, בני האדם, אחראים להתפשטות זו. כל מה שסיפרתי לכם עד כה, לרוע המזל של כולנו, אלה החדשות הטובות. וזה משום שהדבר עומד להחמיר הרבה יותר. ושתי טכנולוגיות ספציפיות עומדות להחמיר את זה. אנחנו עומדים לראות עלייה של גל אדיר של מדיה סינתטית. וידאו כוזב, שמע כוזב, שמשכנעים מאוד את העין האנושית. וזה יונע על ידי שתי טכנולוגיות. הראשונה מהן מוכרת כ"רשתות גנרטיביות יריבות." זהו מודל למידת מכונה עם שתי רשתות: מאבחן, שתפקידו להבחין אם משהו הינו אמיתי או כוזב, וגנרטור, שתפקידו להפיק מדיה סינתטית. כך שהגנרטור הסינתטי מפיק וידאו או אודיו סינתטיים, והמאבחן מנסה לומר, "האם זה אמיתי או כוזב?" ולמעשה זה תפקידו של הגנרטור למקסם את הדמיון שישטה במאבחן לחשוב שהווידאו והאודיו הסינתטיים שהוא יוצר הם למעשה אמיתיים. דמיינו מכונה בהייפרלופ, מנסה להשתפר יותר ויותר בלשטות בנו. זאת בשילוב עם הטכנולוגיה השנייה, שהיא בעצם הדמוקרטיזציה של בינה מלאכותית לעם, היכולת של כל אחד, ללא שום רקע בבינה מלאכותית או למידת מכונה, להשתמש בסוגים אלה של אלגוריתמים כדי לייצר מדיה סינתטית הופך את יצירת סרטוני הוידאו, בסופו של דבר, הרבה יותר קלה . הבית הלבן פירסם סרטון וידאו מזויף על אינטראקציה בין עיתונאי למתמחה שניסה לקחת את המיקרופון שלו. הם הסירו פריימים מהסרטון הזה. כדי לגרום לפעולותיו להיראות יותר תוקפניות. וכאשר צלמי וידאו מקצועיים פעלולנים, וכפילים וכפילות התראיינו על סוג זה של טכניקה, הם אמרו, "כן, אנחנו משתמשים בזה בסרטים כל הזמן כדי להפוך את האגרופים והבעיטות שלנו להיראות יותר סוערים ויותר אגרסיביים." לאחר מכן הם פירסמו את הוידאו ובמידת מה השתמשו בו כהצדקה לשלול מהעיתונאי ג'ים אקוסטה את תעודת הכניסה לעיתונאים לבית הלבן. ו- CNN נאלצו לתבוע כדי שתעודת העיתונאי הזו תונפק מחדש. אני יכול לחשוב על כחמש דרכים שונות שנוכל בעזרתן לנסות ולטפל בכמה מהבעיות הקשות ביותר. בכל אחת מהן יש הבטחה, אבל לכל אחת מהן יש אתגרים משלה. הראשונה היא תיוג, חישבו על זה כך: כשאתם הולכים לקנות מוצרי מזון במכולת, הם מתויגים בהרחבה. ניתן לדעת כמה קלוריות יש בהם, כמה שומן הם מכילים -- אבל כשאנו צורכים מידע עדיין אין לנו תוויות כלשהן. מה כלול במידע הזה? האם המקור אמין? מהיכן המידע הזה נאסף? אין לנו שום דבר מסוג זה כשאנו צורכים מידע. זוהי דרך שיש בה פוטנציאל, אבל גם אתגרים משלה. למשל, מי המחליט בחברה, מה נכון ומה כוזב? האם הממשלות? האם זה פייסבוק? האם זה מַאֲגָד עצמאי של בודקי עובדות? ומי בודק את בודקי העובדות? דרך פוטנציאלית נוספת היא תמריצים. אנו יודעים שבמהלך הבחירות לנשיאות ארה"ב הגיע ממקדוניה גל של מידע כוזב שלא היה לו כל מניע פוליטי אבל לעומת זה היה לו מניע כלכלי. והמניע הכלכלי הזה היה קיים, כי חדשות כזב מתפשטות הרבה יותר רחוק, ומהר ועמוק יותר מהאמת, וכשהם מושכים תשומת לב ניתן להרוויח מהפרסום של סוג כזה של מידע. אבל אם נוכל לדכא את התפשטות המידע הזה, אולי הדבר יצמצם את התמריץ הכלכלי לייצר אותו בכלל, מלכתחילה. כדרך שלישית, אפשר לחשוב על רגולציה, וכמובן שעלינו לחשוב על אפשרות זו. בארצות הברית, נכון לעכשיו, אנו חוקרים מה עלול לקרות אם פייסבוק ואחרים, יהיו תחת רגולציה. בעוד שלוקחים בחשבון דברים כמו הסדרת השיחה הפוליטי, תיוג העובדה שזה שיח פוליטי, מוודאים ששחקנים זרים לא יכולים לממן שיח פוליטי, יש לזה גם סכנות משלו. למשל, מלזיה זה עתה חוקקה עונש מאסר של 6 שנים לכל מי שנמצא מפיץ מידע כוזב. ובמשטרים אוטוריטריים, שימוש במדיניות מסוג זה יכול לשמש לדיכוי דעות של מיעוטים ולהמשיך להרחיב את הדיכוי. האופציה הרביעית האפשרית היא שקיפות. אנו רוצים לדעת כיצד פועלים האלגוריתמים של פייסבוק. איך הנתונים משתלבים עם האלגוריתמים כדי לייצר את התוצאות שאנחנו רואים? אנו רוצים שהם יחשפו מידע פנימי ויראו לנו בדיוק את הפעולות הפנימיות לפיהן פייסבוק עובדת, ואם נרצה לדעת מהי השפעתה של המדיה החברתית, נזדקק שלמדענים, חוקרים ואחרים תהיה גישה לסוג זה של מידע. אבל באותו זמן, אנחנו מבקשים מפייסבוק לנעול את הכל, כדי לשמור על אבטחת כל הנתונים. וכך פייסבוק ופלטפורמות מדיה חברתית אחרות עומדות בפני מה שאני מכנה פרדוקס שקיפות. אנחנו מבקשים מהם בה בעת, להיות פתוחים ושקופים ובו בזמן מאובטחים. יהיה קשה לנווט במיומנות בדרך עקלקלה אבל הם יצטרכו לעשות זאת אם ירצו להגשים את יעדי הטכנולוגיה החברתית תוך הימנעות מהסיכונים. הדבר האחרון שיכולנו לחשוב עליו הוא אלגוריתמים ולמידת מכונה. טכנולוגיה שתבין את התפשטות חדשות הכזב ותשרש אותן. ותנסה לדכא את זרימתן. צריך להיות מעודכנים בכל מה שנוגע לטכנולוגיה זו, כי לעולם לא נוכל לברוח מכך שבבסיס כל פיתרון או גישה טכנולוגית מונחת שאלה אתית או פילוסופית בסיסית כיצד אנו מגדירים אמיתי וכוזב. למי אנו נותנים את הכוח להגדיר אמת או שקר. ואילו דעות הן לגיטימיות, איזה סוג של דיבור צריך להיות מותר, וכו'. טכנולוגיה אינה הפיתרון לכך. אתיקה ופילוסופיה הן הפתרון לזה. כמעט בכל תיאוריה של קבלת החלטות אנושית שיתוף פעולה אנושי ותיאום אנושי יש תחושה מסוימת של אמת בבסיסה. אבל עם עלייתן של חדשות הכזב, עליית הסרטונים המזויפים, עלייתו של האודיו המזויף, אנחנו מתנודדים על סף סופה של המציאות, שבה איננו יכולים להבדיל בין אמיתי למזויף וזה עלול להיות מסוכן מאין כמוהו. עלינו להיות ערניים בהגנה על האמת כנגד מידע מזויף. עם הטכנולוגיות שלנו, עם המדיניות שלנו ואולי, הכי חשוב, עם האחריות האישית שלנו, וההחלטות, ההתנהגות והמעשים. תודה רבה לכם. (מחיאות כפיים)