Return to Video

כיצד אנו יכולים להגן על האמת בעידן המידע הכוזב

  • 0:01 - 0:07
    ב 23 באפריל 2013,
  • 0:07 - 0:12
    סוכנות הידיעות AP העלתה ציוץ בטוויטר.
  • 0:12 - 0:15
    נאמר בו: "חדשות מרעישות:
  • 0:15 - 0:17
    שני פיצוצים ארעו בבית הלבן
  • 0:17 - 0:20
    וברק אובמה נפצע."
  • 0:20 - 0:26
    הידיעה הזו צויצה מחדש כ-4000 פעם
    במשך פחות מחמש דקות,
  • 0:26 - 0:28
    והפכה לאחר מכן לוויראלית.
  • 0:29 - 0:33
    הציוץ הזה לא הכיל חדשות אמיתיות
    שפירסמה סוכנות הידיעות AP.
  • 0:33 - 0:36
    למעשה אלה היו חדשות כזב, או "פייק ניוז",
  • 0:36 - 0:39
    שהופצו על ידי האקרים סורים
  • 0:39 - 0:44
    שהסתננו לחשבון הטוויטר של AP.
  • 0:44 - 0:48
    מטרתם היתה לשבש סדרים בחברה,
    אבל הם שיבשו הרבה יותר.
  • 0:48 - 0:51
    כי אלגוריתמים אוטומטיים של מסחר
  • 0:51 - 0:54
    הגיבו מיד לתחושה שעורר הציוץ הזה,
  • 0:54 - 0:57
    והחל מסחר שמבוסס על האפשרות
  • 0:57 - 1:01
    שנשיא ארה"ב נפגע או נהרג
  • 1:01 - 1:02
    בפיצוץ זה.
  • 1:02 - 1:04
    וברגע שהם התחילו לצייץ,
  • 1:04 - 1:08
    הם מיד גרמו לקריסת שוק המניות,
  • 1:08 - 1:13
    כשנמחקו 140 מיליארד דולר
    של שווי הון ביום אחד.
  • 1:13 - 1:18
    רוברט מולר, יועץ תובע מיוחד בארה"ב,
  • 1:18 - 1:21
    הגיש כתבי אישום נגד 3 חברות רוסיות
  • 1:21 - 1:24
    ו- 13 בני אדם רוסיים
  • 1:24 - 1:27
    על קשירת קשר להונות את ארה"ב
  • 1:27 - 1:31
    על ידי התערבות בבחירות 2016 לנשיאות.
  • 1:32 - 1:35
    וכתב אישום זה מספר
  • 1:35 - 1:39
    שסוכנות המחקר של האינטרנט
  • 1:39 - 1:42
    היא זרוע הצללים של הקרמלין במדיה החברתית.
  • 1:43 - 1:46
    במהלך הבחירות לנשיאות לבדו,
  • 1:46 - 1:48
    מאמצי סוכנות האינטרנט
  • 1:48 - 1:53
    הגיעו ל 126 מיליון בני אדם בפייסבוק, בארה"ב,
  • 1:53 - 1:56
    שהעלו 3 מיליון ציוצים אישיים
  • 1:56 - 2:00
    ושווי של 43 שעות תוכן ביוטיוב.
  • 2:00 - 2:02
    שכולם היו כוזבים --
  • 2:02 - 2:08
    מידע כוזב שנועד לזרוע מחלוקת
    בבחירות לנשיאות בארה"ב.
  • 2:09 - 2:12
    מחקר שנערך לאחרונה על ידי
    אוניברסיטת אוקספורד
  • 2:12 - 2:15
    הראה שבבחירות האחרונות בשוודיה,
  • 2:15 - 2:19
    שליש מכל המידע שהתפשט ברשתות החברתיות
  • 2:19 - 2:21
    אודות הבחירות
  • 2:21 - 2:23
    היה כוזב או שגוי.
  • 2:23 - 2:28
    בנוסף, סוגים אלה של קמפיינים שגויים
    ברשתות החברתיות
  • 2:28 - 2:32
    עלולים להפיץ את מה שנקרא
    "תעמולה לרצח עם,"
  • 2:32 - 2:35
    כמו למשל, נגד הרוהינגה בבורמה,
  • 2:35 - 2:38
    ולעורר רצח בידי האספסוף בהודו.
  • 2:38 - 2:39
    חקרנו את חדשות הכזב
  • 2:39 - 2:43
    והתחלנו לחקור זאת לפני
    שזה הפך למונח פופולרי.
  • 2:43 - 2:48
    ולאחרונה פירסמנו את מחקר האורך
    הגדול ביותר שנערך אי פעם
  • 2:48 - 2:50
    על התפשטות חדשות הכזב ברשת
  • 2:50 - 2:54
    על השער של ה"סייאנס" במרץ השנה.
  • 2:55 - 2:59
    חקרנו את כל סיפורי החדשות
    שאומתו כאמיתיים וכוזבים
  • 2:59 - 3:00
    שהתפשטו אי פעם בטוויטר,
  • 3:00 - 3:04
    מראשיתו ב 2006 ועד 2017.
  • 3:05 - 3:07
    וכשחקרנו את המידע הזה,
  • 3:07 - 3:10
    חקרנו סיפורי חדשות מאומתים
  • 3:10 - 3:14
    שאומתו על ידי 6 ארגונים עצמאיים,
    שבודקים את העובדות.
  • 3:14 - 3:17
    כך ידענו אילו סיפורים היו נכונים
  • 3:17 - 3:19
    ואילו סיפורים היו כוזבים.
  • 3:19 - 3:21
    אנו יכולים למדוד את ההתפשטות שלהם,
  • 3:21 - 3:22
    את מהירות ההתפשטות שלהם,
  • 3:22 - 3:24
    את עומקה ורוחבה של ההתפשטות,
  • 3:24 - 3:29
    כמה אנשים הסתבכו במפל מידע זה וכו'.
  • 3:29 - 3:30
    ומה שעשינו עם מסמך זה
  • 3:30 - 3:34
    היה להשוות את התפשטות חדשות האמת
    להתפשטות חדשות הכזב.
  • 3:34 - 3:36
    והנה מה שמצאנו.
  • 3:36 - 3:40
    גילינו שחדשות כזב נפוצו רחוק יותר, מהר יותר, עמוק יותר
  • 3:40 - 3:42
    ובאופן הרבה יותר רחב מהאמת
  • 3:42 - 3:45
    בכל קטגוריית מידע שחקרנו,
  • 3:45 - 3:47
    לפעמים בסדר גודל.
  • 3:48 - 3:51
    ולמעשה חדשות כזב פוליטיות
    היו הכי וויראליות .
  • 3:51 - 3:55
    הן הופצו רחוק יותר, מהר יותר,
    עמוק ורחב יותר
  • 3:55 - 3:57
    מכל סוג אחר של חדשות כזב.
  • 3:57 - 3:59
    כשראינו את זה,
  • 3:59 - 4:02
    היינו בו בזמן מודאגים, אבל גם סקרנים.
  • 4:02 - 4:03
    מדוע?
  • 4:03 - 4:06
    מדוע חדשות כזב מגיעות
    הרבה יותר רחוק, מהר, עמוק
  • 4:06 - 4:08
    ובאופן רחב יותר מאשר האמת?
  • 4:08 - 4:11
    ההשערה הראשונה שהעלינו היתה,
  • 4:11 - 4:16
    "ובכן, אולי למפיצי חדשות כזב
    יש יותר עוקבים או נעקבים,
  • 4:16 - 4:18
    או שהם מצייצים יותר הרבה,
  • 4:18 - 4:22
    או שהם לרוב משתמשי טוויטר 'מאומתים'
    עם אמינות רבה יותר,
  • 4:22 - 4:24
    או שאולי הם נמצאים בטוויטר יותר זמן."
  • 4:24 - 4:26
    אז בדקנו כל אחד מאלה בזה אחר זה.
  • 4:27 - 4:30
    ומה שמצאנו היה בדיוק ההיפך.
  • 4:30 - 4:32
    למפרסמי חדשות כזב היו פחות עוקבים,
  • 4:32 - 4:34
    הם עקבו אחר פחות אנשים, היו פחות פעילים,
  • 4:34 - 4:36
    "מאומתים" לעתים פחות קרובות
  • 4:36 - 4:39
    והיו בטוויטר תקופת זמן קצרה יותר
  • 4:39 - 4:40
    ועדיין,
  • 4:40 - 4:45
    חדשות כזב צוייצו מחדש בסבירות של 70%
    יותר מהאמת,
  • 4:45 - 4:48
    כשמתחשבין בכל אלה ובגורמים רבים אחרים.
  • 4:48 - 4:51
    אז הצטרכנו לבוא עם הסברים אחרים.
  • 4:51 - 4:55
    והגינו משהו שקראנו לו "השערת חידוש."
  • 4:55 - 4:57
    אם אתם קוראים את הספרות,
  • 4:57 - 5:01
    ידוע היטב שתשומת לב אנושית נמשכת לחידושים.
  • 5:01 - 5:03
    דברים שהם חדשים בסביבה.
  • 5:03 - 5:05
    ואם אתם קוראים ספרות בנושאי סוציולוגיה,
  • 5:05 - 5:10
    אתם יודעים שאנו אוהבים לשתף מידע חדשני.
  • 5:10 - 5:14
    זה גורם לנו להיראות כמו מי שיש לו
    גישה למידע פנימי.
  • 5:14 - 5:17
    ואנו זוכים במעמד על ידי הפצת מידע מסוג זה.
  • 5:18 - 5:24
    אז מדדנו את החידוש של ציוץ שנכנס,
    אמיתי או כוזב.
  • 5:24 - 5:28
    בהשוואה לאוסף שהאדם הזה ראה
  • 5:28 - 5:31
    בטוויטר ב 60 הימים שקדמו לציוץ.
  • 5:31 - 5:34
    אבל זה לא הספיק, כי חשבנו לעצמנו,
  • 5:34 - 5:38
    "אולי ידיעות כוזבות חדשניות יותר
    במובן של מידע תיאורטי,
  • 5:38 - 5:41
    אבל אולי אנשים לא תופסים זאת
    כיותר חדשניות."
  • 5:42 - 5:46
    אז כדי להבין כיצד אנשים תופסים חדשות כזב,
  • 5:46 - 5:49
    הסתכלנו על המידע והרגש
  • 5:50 - 5:54
    שנכלל בתשובות לציוצים של אמת וכזב.
  • 5:54 - 5:55
    ומה שמצאנו
  • 5:55 - 5:59
    היה שלרוחב מקבץ של מדדי רגשות שונים --
  • 5:59 - 6:03
    הפתעה, סלידה, פחד, עצב,
  • 6:03 - 6:05
    ציפייה, שמחה ואמון --
  • 6:05 - 6:11
    חדשות כזב הציגו יותר הפתעה וסלידה
    באופן משמעותי,
  • 6:11 - 6:14
    בתשובות לציוצי כזב.
  • 6:14 - 6:18
    וחדשות אמת הציגו ציפייה יותר משמעותית,
  • 6:18 - 6:20
    שמחה ואמון
  • 6:20 - 6:22
    בתשובות לציוצי אמת.
  • 6:22 - 6:26
    ההפתעה מאמתת את השערת החידוש שלנו.
  • 6:26 - 6:31
    זה חדש ומפתיע, ולכן סביר יותר שנשתף אותו.
  • 6:31 - 6:34
    באותו זמן הוצגה עדות בקונגרס
  • 6:34 - 6:37
    בפני שני בתי הקונגרס בארה"ב,
  • 6:37 - 6:41
    שבוחנת את חלקם של הבוטים בהתפשטות
    של מידע מוטעה.
  • 6:41 - 6:42
    אז הסתכלנו גם על זה --
  • 6:42 - 6:46
    השתמשנו בכמה אלגוריתמים
    מזהי-בוט מתוחכמים
  • 6:46 - 6:49
    כדי למצוא את הבוטים בנתונים שלנו
    ולשלוף אותם החוצה.
  • 6:49 - 6:52
    שלפנו אותם החוצה, והחזרנו אותם פנימה
  • 6:52 - 6:55
    והשווינו את מה שקרה למדידות שלנו.
  • 6:55 - 6:57
    ומה שמצאנו היה שאכן,
  • 6:57 - 7:01
    בוטים האיצו את התפשטות חדשות הכזב ברשת,
  • 7:01 - 7:04
    אבל הם האיצו גם את הפצת החדשות האמיתיות
  • 7:04 - 7:06
    בשיעור זהה בקירוב,
  • 7:06 - 7:09
    מה שאומר שבוטים אינם אחראים
  • 7:09 - 7:14
    לפיזור הדיפרנציאלי של אמת וכזב ברשת.
  • 7:14 - 7:17
    איננו יכולים להתנער מאחריות זו,
  • 7:17 - 7:21
    משום שאנחנו, בני האדם, אחראים להתפשטות זו.
  • 7:22 - 7:26
    כל מה שסיפרתי לכם עד כה,
  • 7:26 - 7:28
    לרוע המזל של כולנו,
  • 7:28 - 7:29
    אלה החדשות הטובות.
  • 7:31 - 7:35
    וזה משום שהדבר עומד להחמיר הרבה יותר.
  • 7:36 - 7:40
    ושתי טכנולוגיות ספציפיות עומדות
    להחמיר את זה.
  • 7:40 - 7:45
    אנחנו עומדים לראות עלייה של גל אדיר
    של מדיה סינתטית.
  • 7:45 - 7:51
    וידאו כוזב, שמע כוזב, שמשכנעים מאוד
    את העין האנושית.
  • 7:51 - 7:54
    וזה יונע על ידי שתי טכנולוגיות.
  • 7:54 - 7:58
    הראשונה מהן מוכרת
    כ"רשתות גנרטיביות יריבות."
  • 7:58 - 8:01
    זהו מודל למידת מכונה עם שתי רשתות:
  • 8:01 - 8:02
    מאבחן,
  • 8:02 - 8:06
    שתפקידו להבחין אם משהו הינו אמיתי או כוזב,
  • 8:06 - 8:08
    וגנרטור,
  • 8:08 - 8:11
    שתפקידו להפיק מדיה סינתטית.
  • 8:11 - 8:16
    כך שהגנרטור הסינתטי מפיק וידאו
    או אודיו סינתטיים,
  • 8:16 - 8:21
    והמאבחן מנסה לומר,
    "האם זה אמיתי או כוזב?"
  • 8:21 - 8:24
    ולמעשה זה תפקידו של הגנרטור
  • 8:24 - 8:28
    למקסם את הדמיון שישטה במאבחן
  • 8:28 - 8:32
    לחשוב שהווידאו והאודיו הסינתטיים שהוא יוצר
  • 8:32 - 8:33
    הם למעשה אמיתיים.
  • 8:33 - 8:36
    דמיינו מכונה בהייפרלופ,
  • 8:36 - 8:39
    מנסה להשתפר יותר ויותר בלשטות בנו.
  • 8:39 - 8:42
    זאת בשילוב עם הטכנולוגיה השנייה,
  • 8:42 - 8:47
    שהיא בעצם הדמוקרטיזציה של
    בינה מלאכותית לעם,
  • 8:47 - 8:50
    היכולת של כל אחד,
  • 8:50 - 8:52
    ללא שום רקע בבינה מלאכותית
  • 8:52 - 8:54
    או למידת מכונה,
  • 8:54 - 8:58
    להשתמש בסוגים אלה של אלגוריתמים
    כדי לייצר מדיה סינתטית
  • 8:58 - 9:02
    הופך את יצירת סרטוני הוידאו, בסופו של דבר,
    הרבה יותר קלה .
  • 9:02 - 9:07
    הבית הלבן פירסם סרטון וידאו מזויף
  • 9:07 - 9:11
    על אינטראקציה בין עיתונאי למתמחה
    שניסה לקחת את המיקרופון שלו.
  • 9:11 - 9:13
    הם הסירו פריימים מהסרטון הזה.
  • 9:13 - 9:17
    כדי לגרום לפעולותיו להיראות יותר תוקפניות.
  • 9:17 - 9:21
    וכאשר צלמי וידאו מקצועיים פעלולנים,
    וכפילים וכפילות
  • 9:21 - 9:23
    התראיינו על סוג זה של טכניקה,
  • 9:23 - 9:27
    הם אמרו, "כן, אנחנו משתמשים בזה
    בסרטים כל הזמן
  • 9:27 - 9:32
    כדי להפוך את האגרופים והבעיטות שלנו
    להיראות יותר סוערים ויותר אגרסיביים."
  • 9:32 - 9:34
    לאחר מכן הם פירסמו את הוידאו
  • 9:34 - 9:37
    ובמידת מה השתמשו בו כהצדקה
  • 9:37 - 9:41
    לשלול מהעיתונאי ג'ים אקוסטה את תעודת
    הכניסה לעיתונאים
  • 9:41 - 9:42
    לבית הלבן.
  • 9:42 - 9:47
    ו- CNN נאלצו לתבוע כדי שתעודת העיתונאי
    הזו תונפק מחדש.
  • 9:49 - 9:54
    אני יכול לחשוב על כחמש דרכים שונות
    שנוכל בעזרתן
  • 9:54 - 9:58
    לנסות ולטפל בכמה מהבעיות הקשות ביותר.
  • 9:58 - 10:00
    בכל אחת מהן יש הבטחה,
  • 10:00 - 10:03
    אבל לכל אחת מהן יש אתגרים משלה.
  • 10:03 - 10:05
    הראשונה היא תיוג,
  • 10:05 - 10:07
    חישבו על זה כך:
  • 10:07 - 10:10
    כשאתם הולכים לקנות מוצרי מזון במכולת,
  • 10:10 - 10:12
    הם מתויגים בהרחבה.
  • 10:12 - 10:14
    ניתן לדעת כמה קלוריות יש בהם,
  • 10:14 - 10:16
    כמה שומן הם מכילים --
  • 10:16 - 10:20
    אבל כשאנו צורכים מידע עדיין
    אין לנו תוויות כלשהן.
  • 10:20 - 10:22
    מה כלול במידע הזה?
  • 10:22 - 10:24
    האם המקור אמין?
  • 10:24 - 10:26
    מהיכן המידע הזה נאסף?
  • 10:26 - 10:28
    אין לנו שום דבר מסוג זה
  • 10:28 - 10:30
    כשאנו צורכים מידע.
  • 10:30 - 10:33
    זוהי דרך שיש בה פוטנציאל,
    אבל גם אתגרים משלה.
  • 10:33 - 10:40
    למשל, מי המחליט בחברה,
    מה נכון ומה כוזב?
  • 10:40 - 10:42
    האם הממשלות?
  • 10:42 - 10:43
    האם זה פייסבוק?
  • 10:44 - 10:47
    האם זה מַאֲגָד עצמאי של בודקי עובדות?
  • 10:47 - 10:50
    ומי בודק את בודקי העובדות?
  • 10:50 - 10:54
    דרך פוטנציאלית נוספת היא תמריצים.
  • 10:54 - 10:56
    אנו יודעים שבמהלך הבחירות לנשיאות ארה"ב
  • 10:56 - 11:00
    הגיע ממקדוניה גל של מידע כוזב
  • 11:00 - 11:02
    שלא היה לו כל מניע פוליטי
  • 11:02 - 11:05
    אבל לעומת זה היה לו מניע כלכלי.
  • 11:05 - 11:07
    והמניע הכלכלי הזה היה קיים,
  • 11:07 - 11:10
    כי חדשות כזב מתפשטות
    הרבה יותר רחוק, ומהר
  • 11:10 - 11:12
    ועמוק יותר מהאמת,
  • 11:13 - 11:17
    וכשהם מושכים תשומת לב ניתן להרוויח
    מהפרסום
  • 11:17 - 11:19
    של סוג כזה של מידע.
  • 11:19 - 11:23
    אבל אם נוכל לדכא את התפשטות המידע הזה,
  • 11:23 - 11:26
    אולי הדבר יצמצם את התמריץ הכלכלי
  • 11:26 - 11:29
    לייצר אותו בכלל, מלכתחילה.
  • 11:29 - 11:31
    כדרך שלישית, אפשר לחשוב על רגולציה,
  • 11:31 - 11:34
    וכמובן שעלינו לחשוב על אפשרות זו.
  • 11:34 - 11:35
    בארצות הברית, נכון לעכשיו,
  • 11:35 - 11:40
    אנו חוקרים מה עלול לקרות
    אם פייסבוק ואחרים, יהיו תחת רגולציה.
  • 11:40 - 11:44
    בעוד שלוקחים בחשבון דברים כמו
    הסדרת השיחה הפוליטי,
  • 11:44 - 11:47
    תיוג העובדה שזה שיח פוליטי,
  • 11:47 - 11:51
    מוודאים ששחקנים זרים לא יכולים
    לממן שיח פוליטי,
  • 11:51 - 11:53
    יש לזה גם סכנות משלו.
  • 11:54 - 11:58
    למשל, מלזיה זה עתה חוקקה
    עונש מאסר של 6 שנים
  • 11:58 - 12:01
    לכל מי שנמצא מפיץ מידע כוזב.
  • 12:02 - 12:04
    ובמשטרים אוטוריטריים,
  • 12:04 - 12:08
    שימוש במדיניות מסוג זה יכול לשמש
    לדיכוי דעות של מיעוטים
  • 12:08 - 12:12
    ולהמשיך להרחיב את הדיכוי.
  • 12:13 - 12:16
    האופציה הרביעית האפשרית היא שקיפות.
  • 12:17 - 12:21
    אנו רוצים לדעת כיצד פועלים
    האלגוריתמים של פייסבוק.
  • 12:21 - 12:23
    איך הנתונים משתלבים עם האלגוריתמים
  • 12:23 - 12:26
    כדי לייצר את התוצאות שאנחנו רואים?
  • 12:26 - 12:29
    אנו רוצים שהם יחשפו מידע פנימי
  • 12:29 - 12:33
    ויראו לנו בדיוק את הפעולות הפנימיות
    לפיהן פייסבוק עובדת,
  • 12:33 - 12:36
    ואם נרצה לדעת מהי השפעתה של
    המדיה החברתית,
  • 12:36 - 12:38
    נזדקק שלמדענים, חוקרים ואחרים
  • 12:38 - 12:41
    תהיה גישה לסוג זה של מידע.
  • 12:41 - 12:43
    אבל באותו זמן,
  • 12:43 - 12:46
    אנחנו מבקשים מפייסבוק לנעול את הכל,
  • 12:46 - 12:49
    כדי לשמור על אבטחת כל הנתונים.
  • 12:49 - 12:52
    וכך פייסבוק ופלטפורמות מדיה חברתית אחרות
  • 12:52 - 12:55
    עומדות בפני מה שאני מכנה פרדוקס שקיפות.
  • 12:55 - 12:58
    אנחנו מבקשים מהם בה בעת,
  • 12:58 - 13:03
    להיות פתוחים ושקופים ובו בזמן מאובטחים.
  • 13:03 - 13:05
    יהיה קשה לנווט במיומנות בדרך עקלקלה
  • 13:06 - 13:07
    אבל הם יצטרכו לעשות זאת אם ירצו
  • 13:07 - 13:11
    להגשים את יעדי הטכנולוגיה החברתית
  • 13:11 - 13:13
    תוך הימנעות מהסיכונים.
  • 13:13 - 13:18
    הדבר האחרון שיכולנו לחשוב עליו הוא
    אלגוריתמים ולמידת מכונה.
  • 13:18 - 13:23
    טכנולוגיה שתבין את התפשטות חדשות הכזב
  • 13:23 - 13:25
    ותשרש אותן. ותנסה לדכא את זרימתן.
  • 13:26 - 13:29
    צריך להיות מעודכנים בכל מה שנוגע
    לטכנולוגיה זו,
  • 13:29 - 13:31
    כי לעולם לא נוכל לברוח מכך
  • 13:31 - 13:35
    שבבסיס כל פיתרון או גישה טכנולוגית
  • 13:35 - 13:39
    מונחת שאלה אתית או פילוסופית בסיסית
  • 13:39 - 13:42
    כיצד אנו מגדירים אמיתי וכוזב.
  • 13:42 - 13:46
    למי אנו נותנים את הכוח להגדיר אמת או שקר.
  • 13:46 - 13:48
    ואילו דעות הן לגיטימיות,
  • 13:48 - 13:52
    איזה סוג של דיבור צריך להיות מותר, וכו'.
  • 13:52 - 13:54
    טכנולוגיה אינה הפיתרון לכך.
  • 13:54 - 13:58
    אתיקה ופילוסופיה הן הפתרון לזה.
  • 13:59 - 14:02
    כמעט בכל תיאוריה של קבלת החלטות אנושית
  • 14:02 - 14:05
    שיתוף פעולה אנושי ותיאום אנושי
  • 14:05 - 14:09
    יש תחושה מסוימת של אמת בבסיסה.
  • 14:09 - 14:11
    אבל עם עלייתן של חדשות הכזב,
  • 14:11 - 14:13
    עליית הסרטונים המזויפים,
  • 14:13 - 14:15
    עלייתו של האודיו המזויף,
  • 14:15 - 14:19
    אנחנו מתנודדים על סף סופה של המציאות,
  • 14:19 - 14:23
    שבה איננו יכולים להבדיל בין אמיתי למזויף
  • 14:23 - 14:26
    וזה עלול להיות מסוכן מאין כמוהו.
  • 14:27 - 14:31
    עלינו להיות ערניים בהגנה על האמת
  • 14:31 - 14:32
    כנגד מידע מזויף.
  • 14:33 - 14:36
    עם הטכנולוגיות שלנו, עם המדיניות שלנו
  • 14:36 - 14:38
    ואולי, הכי חשוב,
  • 14:38 - 14:42
    עם האחריות האישית שלנו,
  • 14:42 - 14:45
    וההחלטות, ההתנהגות והמעשים.
  • 14:46 - 14:47
    תודה רבה לכם.
  • 14:47 - 14:51
    (מחיאות כפיים)
Title:
כיצד אנו יכולים להגן על האמת בעידן המידע הכוזב
Speaker:
סינאן אראל
Description:

חדשות כזב יכולות להניע בחירות, לדרדר כלכלות ולזרוע מחלוקת בחיי היומיום. מדען הנתונים סינאן אראל מבהיר כיצד ומדוע הן מתפשטות כל כך מהר - תוך שהוא מציין את אחד המחקרים הגדולים ביותר בנושא מידע כוזב - ומזהה חמש אסטרטגיות שיעזרו לנו להתיר את הסבך האינטרנטי בין אמת לשקר.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:03

Hebrew subtitles

Revisions