כיצד אנו יכולים להגן על האמת בעידן המידע הכוזב
-
0:01 - 0:07ב 23 באפריל 2013,
-
0:07 - 0:12סוכנות הידיעות AP העלתה ציוץ בטוויטר.
-
0:12 - 0:15נאמר בו: "חדשות מרעישות:
-
0:15 - 0:17שני פיצוצים ארעו בבית הלבן
-
0:17 - 0:20וברק אובמה נפצע."
-
0:20 - 0:26הידיעה הזו צויצה מחדש כ-4000 פעם
במשך פחות מחמש דקות, -
0:26 - 0:28והפכה לאחר מכן לוויראלית.
-
0:29 - 0:33הציוץ הזה לא הכיל חדשות אמיתיות
שפירסמה סוכנות הידיעות AP. -
0:33 - 0:36למעשה אלה היו חדשות כזב, או "פייק ניוז",
-
0:36 - 0:39שהופצו על ידי האקרים סורים
-
0:39 - 0:44שהסתננו לחשבון הטוויטר של AP.
-
0:44 - 0:48מטרתם היתה לשבש סדרים בחברה,
אבל הם שיבשו הרבה יותר. -
0:48 - 0:51כי אלגוריתמים אוטומטיים של מסחר
-
0:51 - 0:54הגיבו מיד לתחושה שעורר הציוץ הזה,
-
0:54 - 0:57והחל מסחר שמבוסס על האפשרות
-
0:57 - 1:01שנשיא ארה"ב נפגע או נהרג
-
1:01 - 1:02בפיצוץ זה.
-
1:02 - 1:04וברגע שהם התחילו לצייץ,
-
1:04 - 1:08הם מיד גרמו לקריסת שוק המניות,
-
1:08 - 1:13כשנמחקו 140 מיליארד דולר
של שווי הון ביום אחד. -
1:13 - 1:18רוברט מולר, יועץ תובע מיוחד בארה"ב,
-
1:18 - 1:21הגיש כתבי אישום נגד 3 חברות רוסיות
-
1:21 - 1:24ו- 13 בני אדם רוסיים
-
1:24 - 1:27על קשירת קשר להונות את ארה"ב
-
1:27 - 1:31על ידי התערבות בבחירות 2016 לנשיאות.
-
1:32 - 1:35וכתב אישום זה מספר
-
1:35 - 1:39שסוכנות המחקר של האינטרנט
-
1:39 - 1:42היא זרוע הצללים של הקרמלין במדיה החברתית.
-
1:43 - 1:46במהלך הבחירות לנשיאות לבדו,
-
1:46 - 1:48מאמצי סוכנות האינטרנט
-
1:48 - 1:53הגיעו ל 126 מיליון בני אדם בפייסבוק, בארה"ב,
-
1:53 - 1:56שהעלו 3 מיליון ציוצים אישיים
-
1:56 - 2:00ושווי של 43 שעות תוכן ביוטיוב.
-
2:00 - 2:02שכולם היו כוזבים --
-
2:02 - 2:08מידע כוזב שנועד לזרוע מחלוקת
בבחירות לנשיאות בארה"ב. -
2:09 - 2:12מחקר שנערך לאחרונה על ידי
אוניברסיטת אוקספורד -
2:12 - 2:15הראה שבבחירות האחרונות בשוודיה,
-
2:15 - 2:19שליש מכל המידע שהתפשט ברשתות החברתיות
-
2:19 - 2:21אודות הבחירות
-
2:21 - 2:23היה כוזב או שגוי.
-
2:23 - 2:28בנוסף, סוגים אלה של קמפיינים שגויים
ברשתות החברתיות -
2:28 - 2:32עלולים להפיץ את מה שנקרא
"תעמולה לרצח עם," -
2:32 - 2:35כמו למשל, נגד הרוהינגה בבורמה,
-
2:35 - 2:38ולעורר רצח בידי האספסוף בהודו.
-
2:38 - 2:39חקרנו את חדשות הכזב
-
2:39 - 2:43והתחלנו לחקור זאת לפני
שזה הפך למונח פופולרי. -
2:43 - 2:48ולאחרונה פירסמנו את מחקר האורך
הגדול ביותר שנערך אי פעם -
2:48 - 2:50על התפשטות חדשות הכזב ברשת
-
2:50 - 2:54על השער של ה"סייאנס" במרץ השנה.
-
2:55 - 2:59חקרנו את כל סיפורי החדשות
שאומתו כאמיתיים וכוזבים -
2:59 - 3:00שהתפשטו אי פעם בטוויטר,
-
3:00 - 3:04מראשיתו ב 2006 ועד 2017.
-
3:05 - 3:07וכשחקרנו את המידע הזה,
-
3:07 - 3:10חקרנו סיפורי חדשות מאומתים
-
3:10 - 3:14שאומתו על ידי 6 ארגונים עצמאיים,
שבודקים את העובדות. -
3:14 - 3:17כך ידענו אילו סיפורים היו נכונים
-
3:17 - 3:19ואילו סיפורים היו כוזבים.
-
3:19 - 3:21אנו יכולים למדוד את ההתפשטות שלהם,
-
3:21 - 3:22את מהירות ההתפשטות שלהם,
-
3:22 - 3:24את עומקה ורוחבה של ההתפשטות,
-
3:24 - 3:29כמה אנשים הסתבכו במפל מידע זה וכו'.
-
3:29 - 3:30ומה שעשינו עם מסמך זה
-
3:30 - 3:34היה להשוות את התפשטות חדשות האמת
להתפשטות חדשות הכזב. -
3:34 - 3:36והנה מה שמצאנו.
-
3:36 - 3:40גילינו שחדשות כזב נפוצו רחוק יותר, מהר יותר, עמוק יותר
-
3:40 - 3:42ובאופן הרבה יותר רחב מהאמת
-
3:42 - 3:45בכל קטגוריית מידע שחקרנו,
-
3:45 - 3:47לפעמים בסדר גודל.
-
3:48 - 3:51ולמעשה חדשות כזב פוליטיות
היו הכי וויראליות . -
3:51 - 3:55הן הופצו רחוק יותר, מהר יותר,
עמוק ורחב יותר -
3:55 - 3:57מכל סוג אחר של חדשות כזב.
-
3:57 - 3:59כשראינו את זה,
-
3:59 - 4:02היינו בו בזמן מודאגים, אבל גם סקרנים.
-
4:02 - 4:03מדוע?
-
4:03 - 4:06מדוע חדשות כזב מגיעות
הרבה יותר רחוק, מהר, עמוק -
4:06 - 4:08ובאופן רחב יותר מאשר האמת?
-
4:08 - 4:11ההשערה הראשונה שהעלינו היתה,
-
4:11 - 4:16"ובכן, אולי למפיצי חדשות כזב
יש יותר עוקבים או נעקבים, -
4:16 - 4:18או שהם מצייצים יותר הרבה,
-
4:18 - 4:22או שהם לרוב משתמשי טוויטר 'מאומתים'
עם אמינות רבה יותר, -
4:22 - 4:24או שאולי הם נמצאים בטוויטר יותר זמן."
-
4:24 - 4:26אז בדקנו כל אחד מאלה בזה אחר זה.
-
4:27 - 4:30ומה שמצאנו היה בדיוק ההיפך.
-
4:30 - 4:32למפרסמי חדשות כזב היו פחות עוקבים,
-
4:32 - 4:34הם עקבו אחר פחות אנשים, היו פחות פעילים,
-
4:34 - 4:36"מאומתים" לעתים פחות קרובות
-
4:36 - 4:39והיו בטוויטר תקופת זמן קצרה יותר
-
4:39 - 4:40ועדיין,
-
4:40 - 4:45חדשות כזב צוייצו מחדש בסבירות של 70%
יותר מהאמת, -
4:45 - 4:48כשמתחשבין בכל אלה ובגורמים רבים אחרים.
-
4:48 - 4:51אז הצטרכנו לבוא עם הסברים אחרים.
-
4:51 - 4:55והגינו משהו שקראנו לו "השערת חידוש."
-
4:55 - 4:57אם אתם קוראים את הספרות,
-
4:57 - 5:01ידוע היטב שתשומת לב אנושית נמשכת לחידושים.
-
5:01 - 5:03דברים שהם חדשים בסביבה.
-
5:03 - 5:05ואם אתם קוראים ספרות בנושאי סוציולוגיה,
-
5:05 - 5:10אתם יודעים שאנו אוהבים לשתף מידע חדשני.
-
5:10 - 5:14זה גורם לנו להיראות כמו מי שיש לו
גישה למידע פנימי. -
5:14 - 5:17ואנו זוכים במעמד על ידי הפצת מידע מסוג זה.
-
5:18 - 5:24אז מדדנו את החידוש של ציוץ שנכנס,
אמיתי או כוזב. -
5:24 - 5:28בהשוואה לאוסף שהאדם הזה ראה
-
5:28 - 5:31בטוויטר ב 60 הימים שקדמו לציוץ.
-
5:31 - 5:34אבל זה לא הספיק, כי חשבנו לעצמנו,
-
5:34 - 5:38"אולי ידיעות כוזבות חדשניות יותר
במובן של מידע תיאורטי, -
5:38 - 5:41אבל אולי אנשים לא תופסים זאת
כיותר חדשניות." -
5:42 - 5:46אז כדי להבין כיצד אנשים תופסים חדשות כזב,
-
5:46 - 5:49הסתכלנו על המידע והרגש
-
5:50 - 5:54שנכלל בתשובות לציוצים של אמת וכזב.
-
5:54 - 5:55ומה שמצאנו
-
5:55 - 5:59היה שלרוחב מקבץ של מדדי רגשות שונים --
-
5:59 - 6:03הפתעה, סלידה, פחד, עצב,
-
6:03 - 6:05ציפייה, שמחה ואמון --
-
6:05 - 6:11חדשות כזב הציגו יותר הפתעה וסלידה
באופן משמעותי, -
6:11 - 6:14בתשובות לציוצי כזב.
-
6:14 - 6:18וחדשות אמת הציגו ציפייה יותר משמעותית,
-
6:18 - 6:20שמחה ואמון
-
6:20 - 6:22בתשובות לציוצי אמת.
-
6:22 - 6:26ההפתעה מאמתת את השערת החידוש שלנו.
-
6:26 - 6:31זה חדש ומפתיע, ולכן סביר יותר שנשתף אותו.
-
6:31 - 6:34באותו זמן הוצגה עדות בקונגרס
-
6:34 - 6:37בפני שני בתי הקונגרס בארה"ב,
-
6:37 - 6:41שבוחנת את חלקם של הבוטים בהתפשטות
של מידע מוטעה. -
6:41 - 6:42אז הסתכלנו גם על זה --
-
6:42 - 6:46השתמשנו בכמה אלגוריתמים
מזהי-בוט מתוחכמים -
6:46 - 6:49כדי למצוא את הבוטים בנתונים שלנו
ולשלוף אותם החוצה. -
6:49 - 6:52שלפנו אותם החוצה, והחזרנו אותם פנימה
-
6:52 - 6:55והשווינו את מה שקרה למדידות שלנו.
-
6:55 - 6:57ומה שמצאנו היה שאכן,
-
6:57 - 7:01בוטים האיצו את התפשטות חדשות הכזב ברשת,
-
7:01 - 7:04אבל הם האיצו גם את הפצת החדשות האמיתיות
-
7:04 - 7:06בשיעור זהה בקירוב,
-
7:06 - 7:09מה שאומר שבוטים אינם אחראים
-
7:09 - 7:14לפיזור הדיפרנציאלי של אמת וכזב ברשת.
-
7:14 - 7:17איננו יכולים להתנער מאחריות זו,
-
7:17 - 7:21משום שאנחנו, בני האדם, אחראים להתפשטות זו.
-
7:22 - 7:26כל מה שסיפרתי לכם עד כה,
-
7:26 - 7:28לרוע המזל של כולנו,
-
7:28 - 7:29אלה החדשות הטובות.
-
7:31 - 7:35וזה משום שהדבר עומד להחמיר הרבה יותר.
-
7:36 - 7:40ושתי טכנולוגיות ספציפיות עומדות
להחמיר את זה. -
7:40 - 7:45אנחנו עומדים לראות עלייה של גל אדיר
של מדיה סינתטית. -
7:45 - 7:51וידאו כוזב, שמע כוזב, שמשכנעים מאוד
את העין האנושית. -
7:51 - 7:54וזה יונע על ידי שתי טכנולוגיות.
-
7:54 - 7:58הראשונה מהן מוכרת
כ"רשתות גנרטיביות יריבות." -
7:58 - 8:01זהו מודל למידת מכונה עם שתי רשתות:
-
8:01 - 8:02מאבחן,
-
8:02 - 8:06שתפקידו להבחין אם משהו הינו אמיתי או כוזב,
-
8:06 - 8:08וגנרטור,
-
8:08 - 8:11שתפקידו להפיק מדיה סינתטית.
-
8:11 - 8:16כך שהגנרטור הסינתטי מפיק וידאו
או אודיו סינתטיים, -
8:16 - 8:21והמאבחן מנסה לומר,
"האם זה אמיתי או כוזב?" -
8:21 - 8:24ולמעשה זה תפקידו של הגנרטור
-
8:24 - 8:28למקסם את הדמיון שישטה במאבחן
-
8:28 - 8:32לחשוב שהווידאו והאודיו הסינתטיים שהוא יוצר
-
8:32 - 8:33הם למעשה אמיתיים.
-
8:33 - 8:36דמיינו מכונה בהייפרלופ,
-
8:36 - 8:39מנסה להשתפר יותר ויותר בלשטות בנו.
-
8:39 - 8:42זאת בשילוב עם הטכנולוגיה השנייה,
-
8:42 - 8:47שהיא בעצם הדמוקרטיזציה של
בינה מלאכותית לעם, -
8:47 - 8:50היכולת של כל אחד,
-
8:50 - 8:52ללא שום רקע בבינה מלאכותית
-
8:52 - 8:54או למידת מכונה,
-
8:54 - 8:58להשתמש בסוגים אלה של אלגוריתמים
כדי לייצר מדיה סינתטית -
8:58 - 9:02הופך את יצירת סרטוני הוידאו, בסופו של דבר,
הרבה יותר קלה . -
9:02 - 9:07הבית הלבן פירסם סרטון וידאו מזויף
-
9:07 - 9:11על אינטראקציה בין עיתונאי למתמחה
שניסה לקחת את המיקרופון שלו. -
9:11 - 9:13הם הסירו פריימים מהסרטון הזה.
-
9:13 - 9:17כדי לגרום לפעולותיו להיראות יותר תוקפניות.
-
9:17 - 9:21וכאשר צלמי וידאו מקצועיים פעלולנים,
וכפילים וכפילות -
9:21 - 9:23התראיינו על סוג זה של טכניקה,
-
9:23 - 9:27הם אמרו, "כן, אנחנו משתמשים בזה
בסרטים כל הזמן -
9:27 - 9:32כדי להפוך את האגרופים והבעיטות שלנו
להיראות יותר סוערים ויותר אגרסיביים." -
9:32 - 9:34לאחר מכן הם פירסמו את הוידאו
-
9:34 - 9:37ובמידת מה השתמשו בו כהצדקה
-
9:37 - 9:41לשלול מהעיתונאי ג'ים אקוסטה את תעודת
הכניסה לעיתונאים -
9:41 - 9:42לבית הלבן.
-
9:42 - 9:47ו- CNN נאלצו לתבוע כדי שתעודת העיתונאי
הזו תונפק מחדש. -
9:49 - 9:54אני יכול לחשוב על כחמש דרכים שונות
שנוכל בעזרתן -
9:54 - 9:58לנסות ולטפל בכמה מהבעיות הקשות ביותר.
-
9:58 - 10:00בכל אחת מהן יש הבטחה,
-
10:00 - 10:03אבל לכל אחת מהן יש אתגרים משלה.
-
10:03 - 10:05הראשונה היא תיוג,
-
10:05 - 10:07חישבו על זה כך:
-
10:07 - 10:10כשאתם הולכים לקנות מוצרי מזון במכולת,
-
10:10 - 10:12הם מתויגים בהרחבה.
-
10:12 - 10:14ניתן לדעת כמה קלוריות יש בהם,
-
10:14 - 10:16כמה שומן הם מכילים --
-
10:16 - 10:20אבל כשאנו צורכים מידע עדיין
אין לנו תוויות כלשהן. -
10:20 - 10:22מה כלול במידע הזה?
-
10:22 - 10:24האם המקור אמין?
-
10:24 - 10:26מהיכן המידע הזה נאסף?
-
10:26 - 10:28אין לנו שום דבר מסוג זה
-
10:28 - 10:30כשאנו צורכים מידע.
-
10:30 - 10:33זוהי דרך שיש בה פוטנציאל,
אבל גם אתגרים משלה. -
10:33 - 10:40למשל, מי המחליט בחברה,
מה נכון ומה כוזב? -
10:40 - 10:42האם הממשלות?
-
10:42 - 10:43האם זה פייסבוק?
-
10:44 - 10:47האם זה מַאֲגָד עצמאי של בודקי עובדות?
-
10:47 - 10:50ומי בודק את בודקי העובדות?
-
10:50 - 10:54דרך פוטנציאלית נוספת היא תמריצים.
-
10:54 - 10:56אנו יודעים שבמהלך הבחירות לנשיאות ארה"ב
-
10:56 - 11:00הגיע ממקדוניה גל של מידע כוזב
-
11:00 - 11:02שלא היה לו כל מניע פוליטי
-
11:02 - 11:05אבל לעומת זה היה לו מניע כלכלי.
-
11:05 - 11:07והמניע הכלכלי הזה היה קיים,
-
11:07 - 11:10כי חדשות כזב מתפשטות
הרבה יותר רחוק, ומהר -
11:10 - 11:12ועמוק יותר מהאמת,
-
11:13 - 11:17וכשהם מושכים תשומת לב ניתן להרוויח
מהפרסום -
11:17 - 11:19של סוג כזה של מידע.
-
11:19 - 11:23אבל אם נוכל לדכא את התפשטות המידע הזה,
-
11:23 - 11:26אולי הדבר יצמצם את התמריץ הכלכלי
-
11:26 - 11:29לייצר אותו בכלל, מלכתחילה.
-
11:29 - 11:31כדרך שלישית, אפשר לחשוב על רגולציה,
-
11:31 - 11:34וכמובן שעלינו לחשוב על אפשרות זו.
-
11:34 - 11:35בארצות הברית, נכון לעכשיו,
-
11:35 - 11:40אנו חוקרים מה עלול לקרות
אם פייסבוק ואחרים, יהיו תחת רגולציה. -
11:40 - 11:44בעוד שלוקחים בחשבון דברים כמו
הסדרת השיחה הפוליטי, -
11:44 - 11:47תיוג העובדה שזה שיח פוליטי,
-
11:47 - 11:51מוודאים ששחקנים זרים לא יכולים
לממן שיח פוליטי, -
11:51 - 11:53יש לזה גם סכנות משלו.
-
11:54 - 11:58למשל, מלזיה זה עתה חוקקה
עונש מאסר של 6 שנים -
11:58 - 12:01לכל מי שנמצא מפיץ מידע כוזב.
-
12:02 - 12:04ובמשטרים אוטוריטריים,
-
12:04 - 12:08שימוש במדיניות מסוג זה יכול לשמש
לדיכוי דעות של מיעוטים -
12:08 - 12:12ולהמשיך להרחיב את הדיכוי.
-
12:13 - 12:16האופציה הרביעית האפשרית היא שקיפות.
-
12:17 - 12:21אנו רוצים לדעת כיצד פועלים
האלגוריתמים של פייסבוק. -
12:21 - 12:23איך הנתונים משתלבים עם האלגוריתמים
-
12:23 - 12:26כדי לייצר את התוצאות שאנחנו רואים?
-
12:26 - 12:29אנו רוצים שהם יחשפו מידע פנימי
-
12:29 - 12:33ויראו לנו בדיוק את הפעולות הפנימיות
לפיהן פייסבוק עובדת, -
12:33 - 12:36ואם נרצה לדעת מהי השפעתה של
המדיה החברתית, -
12:36 - 12:38נזדקק שלמדענים, חוקרים ואחרים
-
12:38 - 12:41תהיה גישה לסוג זה של מידע.
-
12:41 - 12:43אבל באותו זמן,
-
12:43 - 12:46אנחנו מבקשים מפייסבוק לנעול את הכל,
-
12:46 - 12:49כדי לשמור על אבטחת כל הנתונים.
-
12:49 - 12:52וכך פייסבוק ופלטפורמות מדיה חברתית אחרות
-
12:52 - 12:55עומדות בפני מה שאני מכנה פרדוקס שקיפות.
-
12:55 - 12:58אנחנו מבקשים מהם בה בעת,
-
12:58 - 13:03להיות פתוחים ושקופים ובו בזמן מאובטחים.
-
13:03 - 13:05יהיה קשה לנווט במיומנות בדרך עקלקלה
-
13:06 - 13:07אבל הם יצטרכו לעשות זאת אם ירצו
-
13:07 - 13:11להגשים את יעדי הטכנולוגיה החברתית
-
13:11 - 13:13תוך הימנעות מהסיכונים.
-
13:13 - 13:18הדבר האחרון שיכולנו לחשוב עליו הוא
אלגוריתמים ולמידת מכונה. -
13:18 - 13:23טכנולוגיה שתבין את התפשטות חדשות הכזב
-
13:23 - 13:25ותשרש אותן. ותנסה לדכא את זרימתן.
-
13:26 - 13:29צריך להיות מעודכנים בכל מה שנוגע
לטכנולוגיה זו, -
13:29 - 13:31כי לעולם לא נוכל לברוח מכך
-
13:31 - 13:35שבבסיס כל פיתרון או גישה טכנולוגית
-
13:35 - 13:39מונחת שאלה אתית או פילוסופית בסיסית
-
13:39 - 13:42כיצד אנו מגדירים אמיתי וכוזב.
-
13:42 - 13:46למי אנו נותנים את הכוח להגדיר אמת או שקר.
-
13:46 - 13:48ואילו דעות הן לגיטימיות,
-
13:48 - 13:52איזה סוג של דיבור צריך להיות מותר, וכו'.
-
13:52 - 13:54טכנולוגיה אינה הפיתרון לכך.
-
13:54 - 13:58אתיקה ופילוסופיה הן הפתרון לזה.
-
13:59 - 14:02כמעט בכל תיאוריה של קבלת החלטות אנושית
-
14:02 - 14:05שיתוף פעולה אנושי ותיאום אנושי
-
14:05 - 14:09יש תחושה מסוימת של אמת בבסיסה.
-
14:09 - 14:11אבל עם עלייתן של חדשות הכזב,
-
14:11 - 14:13עליית הסרטונים המזויפים,
-
14:13 - 14:15עלייתו של האודיו המזויף,
-
14:15 - 14:19אנחנו מתנודדים על סף סופה של המציאות,
-
14:19 - 14:23שבה איננו יכולים להבדיל בין אמיתי למזויף
-
14:23 - 14:26וזה עלול להיות מסוכן מאין כמוהו.
-
14:27 - 14:31עלינו להיות ערניים בהגנה על האמת
-
14:31 - 14:32כנגד מידע מזויף.
-
14:33 - 14:36עם הטכנולוגיות שלנו, עם המדיניות שלנו
-
14:36 - 14:38ואולי, הכי חשוב,
-
14:38 - 14:42עם האחריות האישית שלנו,
-
14:42 - 14:45וההחלטות, ההתנהגות והמעשים.
-
14:46 - 14:47תודה רבה לכם.
-
14:47 - 14:51(מחיאות כפיים)
- Title:
- כיצד אנו יכולים להגן על האמת בעידן המידע הכוזב
- Speaker:
- סינאן אראל
- Description:
-
חדשות כזב יכולות להניע בחירות, לדרדר כלכלות ולזרוע מחלוקת בחיי היומיום. מדען הנתונים סינאן אראל מבהיר כיצד ומדוע הן מתפשטות כל כך מהר - תוך שהוא מציין את אחד המחקרים הגדולים ביותר בנושא מידע כוזב - ומזהה חמש אסטרטגיות שיעזרו לנו להתיר את הסבך האינטרנטי בין אמת לשקר.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:03
Ido Dekkers approved Hebrew subtitles for How we can protect truth in the age of misinformation | ||
Allon Sasson accepted Hebrew subtitles for How we can protect truth in the age of misinformation | ||
Allon Sasson edited Hebrew subtitles for How we can protect truth in the age of misinformation | ||
Allon Sasson edited Hebrew subtitles for How we can protect truth in the age of misinformation | ||
Allon Sasson edited Hebrew subtitles for How we can protect truth in the age of misinformation | ||
Allon Sasson edited Hebrew subtitles for How we can protect truth in the age of misinformation | ||
Zeeva Livshitz edited Hebrew subtitles for How we can protect truth in the age of misinformation | ||
Zeeva Livshitz edited Hebrew subtitles for How we can protect truth in the age of misinformation |