Return to Video

כיצד נוכל להסיר לחלוטין חומרי התעללות מינית בילדות וילדים מעל גבי הרשת

  • 0:01 - 0:03
    [הרצאה זו כוללת תכנים למבוגרים בלבד]
  • 0:06 - 0:07
    לפני חמש שנים
  • 0:07 - 0:11
    קיבלתי שיחת טלפון ששינתה את חיי.
  • 0:12 - 0:14
    אני זוכרת את היום ההוא בצורה כה ברורה.
  • 0:15 - 0:17
    זה היה בערך בתקופה זו של השנה
  • 0:17 - 0:19
    וישבתי במשרד שלי.
  • 0:20 - 0:23
    אני זוכרת את השמש מאירה מבעד לחלון.
  • 0:24 - 0:25
    והטלפון שלי צלצל.
  • 0:26 - 0:27
    ועניתי,
  • 0:28 - 0:32
    ועל הקו היו שני סוכנים פדרליים,
    שביקשו את עזרתי
  • 0:32 - 0:34
    בזיהוי ילדה קטנה
  • 0:34 - 0:40
    שמופיעה במאות תמונות שהם מצאו
    ברשת הכוללות התעללות מינית בילדות וילדים.
  • 0:41 - 0:44
    הם רק החלו לעבוד על התיק,
  • 0:44 - 0:47
    אבל מה שהם כבר ידעו
  • 0:47 - 0:51
    זה שההתעללות בילדה משודרת
    לכל העולם מזה שנים
  • 0:51 - 0:57
    באתרי "הרשת האפלה" המוקדשים
    להתעללות מינית בילדות וילדים.
  • 0:58 - 1:02
    והמתעלל הוא אדם מאוד מתוחכם
    מבחינה טכנולוגית:
  • 1:02 - 1:07
    תמונות חדשות וסרטוני וידיאו חדשים
    עלו כל כמה שבועות,
  • 1:07 - 1:11
    אבל מעט מאוד רמזים אודות זהותה
  • 1:11 - 1:12
    או מיקומה.
  • 1:13 - 1:15
    אז הם התקשרו אלינו,
  • 1:15 - 1:17
    כי הם שמעו שאנחנו עמותה חדשה
  • 1:17 - 1:21
    המפתחת טכנולוגיה למאבק
    בהתעללות מינית בילדות וילדים.
  • 1:22 - 1:24
    אבל היינו רק בני שנתיים,
  • 1:24 - 1:27
    ועסקנו רק בנושא סחר בילדות וילדים
    למטרות מין.
  • 1:28 - 1:30
    ונאלצתי להגיד להם
  • 1:30 - 1:31
    שאין לנו איך לעזור.
  • 1:32 - 1:36
    אין לנו אף כלי שיוכל לסייע להם
    לעצור את ההתעללות הזאת.
  • 1:37 - 1:41
    לקח לסוכנים האלו שנה נוספת
  • 1:41 - 1:44
    לאתר לבסוף את הילדה.
  • 1:45 - 1:47
    ועד הרגע שבו היא חולצה,
  • 1:47 - 1:54
    מאות תמונות וסרטונים המתעדים מעשי
    אונס שהיא עברה כבר הפכו ויראליים
  • 1:54 - 1:55
    מ"הרשת האפלה"
  • 1:55 - 1:58
    אל רשתות עמית-לעמית,
    אל חדרי צ'אט פרטיים
  • 1:58 - 2:02
    ואל אתרים שאתם ואני משתמשים בהם
  • 2:02 - 2:04
    מדי יום ביומו.
  • 2:05 - 2:09
    והיום, בעודה מנסה להתאושש,
  • 2:09 - 2:13
    היא חיה עם העובדה שאלפים
    ברחבי העולם כולו
  • 2:13 - 2:16
    ממשיכים לצפות בהתעללות בה.
  • 2:18 - 2:20
    במהלך חמש השנים האחרונות גיליתי
  • 2:20 - 2:23
    שמקרה זה הוא ממש לא מקרה ייחודי.
  • 2:24 - 2:28
    איך הגענו למצב הזה כחברה?
  • 2:29 - 2:33
    בשנות ה-80 המאוחרות,
    פורנוגרפיית ילדים --
  • 2:33 - 2:39
    או מה שהיא באמת:
    חומרים של התעללות מינית בילדות וילדים,
  • 2:39 - 2:40
    כמעט ונעלמו מהעולם.
  • 2:41 - 2:46
    חוקים חדשים ומספר גובר של תביעות
    הפכו את המסחר בחומרים דרך הדואר
  • 2:46 - 2:47
    לדבר מסוכן מדי.
  • 2:48 - 2:52
    ואז הגיע האינטרנט, והשוק הוצף.
  • 2:53 - 2:57
    כמות החומרים המופצים כיום
  • 2:57 - 3:00
    היא עצומה והיא הולכת וגדלה.
  • 3:00 - 3:04
    זוהי בעיה גלובאלית אמיתית,
  • 3:04 - 3:06
    אבל אם נבחן רק את ארצות הברית:
  • 3:06 - 3:08
    בשנה שעברה, רק בארצות הברית
  • 3:08 - 3:14
    יותר מ-45 מיליון תמונות וסרטונים הכוללים
    חומרים של התעללות מינית בילדות וילדים
  • 3:14 - 3:17
    דווחו למרכז הלאומי לילדים נעדרים
    והחווים ניצול.
  • 3:17 - 3:22
    זו כמות כמעט כפולה ביחס לשנה הקודמת.
  • 3:23 - 3:28
    הפרטים מאחורי המספרים הללו
    קשים לעיכול,
  • 3:28 - 3:34
    ביותר מ-60 אחוז מהתמונות מופיעות ומופיעים
    ילדות וילדים מתחת לגיל 12,
  • 3:34 - 3:38
    ורובן כוללות מעשי אלימות מינית קיצונית.
  • 3:39 - 3:44
    מתעללים זוכים לעידוד בחדרי צ'אט
    המוקדשים להתעללות בילדות וילדים
  • 3:44 - 3:47
    שם הם זוכים לדירוג ופרסום
  • 3:47 - 3:50
    ככל שהם מבצעים יותר התעללות ביותר
    קורבנות.
  • 3:50 - 3:53
    בשוק הזה,
  • 3:53 - 3:57
    המטבע הנסחר הוא התוכן עצמו.
  • 3:58 - 4:02
    ניכר כי המתעללים מיהרו
    לרתום לרשותם טכנולוגיות חדשות
  • 4:02 - 4:05
    אבל תגובתנו כחברה לא עשתה זאת.
  • 4:06 - 4:10
    המתעללים לא קוראים תנאי שימוש
    באתרים,
  • 4:10 - 4:14
    והתוכן בהם לא מציית לגבולות גיאוגרפיים.
  • 4:15 - 4:21
    והם מנצחים כשאנחנו מתבוננים רק
    בחלק אחד של הפאזל בכל פעם,
  • 4:21 - 4:25
    וכך בדיוק התגובה שלנו כיום מתנהלת.
  • 4:25 - 4:28
    רשויות החוק עובדות בתחום שיפוט אחד.
  • 4:28 - 4:32
    חברות מסתכלות רק על הפלטפורמה שלהן,
  • 4:32 - 4:34
    ואת הנתונים שהן לומדות בדרך
  • 4:35 - 4:37
    הן כמעט אף פעם לא חולקות.
  • 4:37 - 4:43
    ברור כשמש שגישה מנותקת זו
    לא עובדת.
  • 4:44 - 4:48
    אנחנו מוכרחים לתכנן מחדש
    את המענה שלנו למגיפה הזו
  • 4:48 - 4:49
    כך שיתאים לעידן הדיגיטלי.
  • 4:50 - 4:53
    וזה בדיוק מה שאנחנו עושים ב"ת'ורן".
  • 4:53 - 4:57
    אנחנו בונים את הטכנולוגיה שתקשר
    בין כל הנקודות,
  • 4:57 - 4:59
    שתחמש כראוי את אלו העומדים בחזית --
  • 4:59 - 5:02
    רשויות חוק, מלכ"רים וחברות --
  • 5:02 - 5:06
    בכלים הדרושים על מנת להכחיד באופן סופי
  • 5:06 - 5:08
    חומרים הכוללים התעללות מינית
    בילדות וילדים מעל גבי הרשת.
  • 5:10 - 5:11
    בואו נדבר רגע --
  • 5:11 - 5:12
    (מחיאות כפיים)
  • 5:12 - 5:14
    תודה רבה.
  • 5:14 - 5:16
    (מחיאות כפיים)
  • 5:18 - 5:20
    בואו נדבר רגע על הנקודות הללו.
  • 5:21 - 5:25
    כפי שאתם יכולים לתאר,
    התוכן הזה הוא מחריד.
  • 5:25 - 5:28
    אם אתם לא חייבים לצפות בו,
    אתם לא רוצים לצפות בו.
  • 5:28 - 5:33
    ולכן כל חברה או סוכנות אכיפת חוק
  • 5:33 - 5:35
    שברשותה תוכן כזה
  • 5:35 - 5:38
    יכולה לתרגם כל קובץ למחרוזת ייחודית
    של מספרים.
  • 5:38 - 5:40
    זה נקרא Hash
    (בליל או ערבול בעברית).
  • 5:40 - 5:42
    זוהי למעשה טביעת אצבע
  • 5:42 - 5:45
    של כל קובץ או כל סרטון.
  • 5:45 - 5:49
    הדבר מאפשר להן להשתמש במידע
    במהלך חקירות
  • 5:49 - 5:52
    או מאפשר לחברות להסיר את התוכן
    מהפלטפורמה שלהן
  • 5:52 - 5:58
    מבלי שיהיה צורך להתבונן בכל תמונה או
    סרטון בכל פעם.
  • 5:58 - 6:00
    אולם הבעיה היום
  • 6:00 - 6:04
    היא שקיימות מאות מליוני
    פונקציות של בלילים (hash) כאלו
  • 6:04 - 6:08
    המאוחסנות במסדי נתונים נפרדים
    בכל רחבי העולם.
  • 6:08 - 6:09
    במסד נתונים מבודד,
  • 6:09 - 6:12
    הדבר אולי מסייע לסוכנות המסוימת ששולטת בו,
  • 6:12 - 6:17
    אבל אם לא מקשרים את כל הנתונים,
    אנו לא יודעים אילו מהם ייחודיים.
  • 6:17 - 6:20
    אנחנו לא יודעים אילו מהם מתייחסות
    לילדות וילדים שכבר חולצו
  • 6:20 - 6:23
    או לכאלו שצריך עוד לזהות.
  • 6:23 - 6:27
    נקודת המוצא הבסיסית והראשונה שלנו
    היא שכל הנתונים הללו
  • 6:27 - 6:30
    צריכים להיות מקושרים.
  • 6:30 - 6:36
    ישנן שתי דרכים שבאמצעותן
    לנתונים האלה, בשילוב תוכנה גלובאלית,
  • 6:37 - 6:40
    עשויה להיות השפעה שתשנה את
    התמונה בתחום הזה.
  • 6:40 - 6:43
    הדרך הראשונה היא דרך רשויות
    אכיפת החוק:
  • 6:43 - 6:47
    לסייע להם לזהות קורבנות חדשים
    באופן מהיר יותר,
  • 6:47 - 6:48
    לעצור התעללות
  • 6:48 - 6:51
    ולעצור את אלו שמייצרים את התוכן הזה.
  • 6:51 - 6:54
    הדרך השנייה היא באמצעות חברות:
  • 6:54 - 6:58
    להשתמש בזה כרמזים שיאפשרו זיהוי
    של מאות מיליוני הקבצים
  • 6:58 - 6:59
    הנמצאים כיום בתפוצה,
  • 6:59 - 7:01
    להסיר אותם,
  • 7:01 - 7:07
    ואז לעצור את העלאתם של חומרים
    חדשים עוד לפני שהם הופכים לויראליים.
  • 7:10 - 7:11
    לפני ארבע שנים,
  • 7:11 - 7:13
    כשהתיק ההוא הסתיים,
  • 7:14 - 7:18
    הצוות שלנו ישב שם,
    וכולנו הרגשנו מעין...
  • 7:20 - 7:23
    תחושת כישלון עמוקה.
    כך ניתן לנסח זאת.
  • 7:23 - 7:27
    כי התבוננו מהצד במשך השנה ההיא
  • 7:27 - 7:28
    בזמן שהם חיפשו אחריה,
  • 7:28 - 7:32
    וראינו כל נקודה במהלך החקירה
  • 7:32 - 7:34
    שבה, אם היתה קיימת הטכנולוגיה,
  • 7:34 - 7:37
    הם היו מצליחים למצוא אותה מהר יותר.
  • 7:38 - 7:40
    כך שהתרחקנו מהאירוע
  • 7:40 - 7:43
    ופנינו לעשות את הדבר היחיד שאנחנו
    יודעים לעשות:
  • 7:43 - 7:45
    התחלנו לפתח תוכנה.
  • 7:46 - 7:48
    התחלנו עם רשויות החוק.
  • 7:48 - 7:52
    החלום שלנו היה להתקין פעמון אזהרה
    על שולחן העבודה של שוטרים בכל רחבי העולם
  • 7:52 - 7:57
    כך שברגע שמישהו יעז לפרסם קורבן
    חדש באינטרנט,
  • 7:57 - 8:00
    מישהו יתחיל לחפש אותו או אותה באופן מיידי.
  • 8:01 - 8:04
    אני כמובן לא יכולה למסור פרטים
    אודות התוכנה עצמה,
  • 8:04 - 8:07
    אבל כיום היא פועלת ב-38 ארצות,
  • 8:07 - 8:10
    והיא הפחיתה את הזמן שנדרש כדי לאתר
    ילד או ילדה
  • 8:10 - 8:12
    ביותר מ-65 אחוזים.
  • 8:12 - 8:17
    (מחיאות כפיים)
  • 8:21 - 8:24
    וכעת אנו פותחים במסע אל עבר
    האופק השני:
  • 8:24 - 8:30
    פיתוח תוכנה שתסייע לחברות לזהות
    ולהסיר את התוכן הזה.
  • 8:31 - 8:34
    בואו נדבר רגע על החברות האלה.
  • 8:35 - 8:40
    כפי שסיפרתי לכם, מדובר ב-45 מיליון תמונות
    וסרטונים בארצות הברית לבדה בשנה האחרונה.
  • 8:40 - 8:44
    הם מגיעים מ-12 חברות בלבד.
  • 8:46 - 8:52
    12 חברות, 45 מיליון קבצים הכוללים
    חומרים של התעללות בילדות וילדים.
  • 8:52 - 8:55
    הם מגיעים מהחברות שיש להן כסף
  • 8:55 - 9:00
    בשביל לבנות את התשתית הנדרשת
    לצורך הסרת התוכן הזה.
  • 9:00 - 9:02
    אך יש מאות חברות אחרות,
  • 9:02 - 9:05
    חברות קטנות או בינוניות בכל רחבי העולם,
  • 9:05 - 9:07
    שצריכות לבצע את העבודה הזו,
  • 9:07 - 9:12
    אבל או שהן לא מסוגלות לדמיין
    שהפלטפורמה שלהן עלולה לשמש לצורכי התעללות,
  • 9:12 - 9:18
    או שאין ברשותן מספיק כסף להוציא על
    משהו שאינו מניב רווחים.
  • 9:19 - 9:22
    אז אנחנו בנינו זאת עבורם.
  • 9:22 - 9:27
    והמערכת הזו הולכת ונהיית חכמה יותר,
    ככל שמשתתפות בה יותר חברות.
  • 9:28 - 9:30
    אני אתן לכם דוגמה.
  • 9:30 - 9:34
    השותפה הרשונה שלנו, אימג'ר --
    אם טרם שמעתם על החברה הזו,
  • 9:34 - 9:38
    זהו אחד מהאתרים עם מספר המבקרים
    הרב ביותר בארצות הברית --
  • 9:38 - 9:43
    מיליוני יחידות תוכן המיוצר על ידי
    משתמשים מועלות לשם בכל יום,
  • 9:43 - 9:45
    במטרה להפוך את האינטרנט למקום מהנה יותר.
  • 9:46 - 9:48
    הם היו הראשונים לחבור איתנו.
  • 9:48 - 9:51
    בתוך 20 דקות מרגע שעלתה המערכת
    שלנו לאוויר
  • 9:51 - 9:55
    מישהו ניסע להעלות חומר מוכר הכולל
    התעללות.
  • 9:55 - 9:57
    הם הצליחו לעצור את זה,
    הם הסירו את התוכן,
  • 9:57 - 10:00
    הם דיווחו על זה למרכז הלאומי לילדות
    ולילדים נעדרות והחוות ניצול.
  • 10:00 - 10:02
    אבל הם הלכו צעד נוסף,
  • 10:02 - 10:07
    הם בחנו את החשבון של מי שהעלה את התוכן.
  • 10:07 - 10:12
    מאות חומרים נוספים של התעללות
    בילדות וילדים
  • 10:12 - 10:14
    שלא ראינו קודם.
  • 10:14 - 10:18
    וכאן אנו מתחילים לראות השפעה
    אקספוננציאלית.
  • 10:18 - 10:19
    אנו מסירים את החומרים,
  • 10:20 - 10:23
    הם מדווחים למרכז הלאומי לילדות ולילדים
    נעדרות ונעדרים והחווים ניצול,
  • 10:23 - 10:26
    ואז פונקציות הערבול (ה-Hash) הללו
    מוזנות למערכת
  • 10:26 - 10:28
    ומסייעות לכל חברה אחרת המחוברת
    למערכת.
  • 10:28 - 10:33
    וכשמיליון פונקציות הערבול שלנו יובילו
    למיליון נוספים, בזמן אמת,
  • 10:33 - 10:37
    חברות בכל העולם יזהו ויסירו את התוכן הזה
  • 10:37 - 10:42
    אנחנו נגביר בצורה דרמטית את
    המהירות שבה ניתן להסיר
  • 10:42 - 10:46
    חומרי התעללות מינית בילדות וילדים מעל
    רשת האינטרנט בכל רחבי העולם.
  • 10:46 - 10:52
    (מחיאות כפיים)
  • 10:54 - 10:57
    אבל זו בדיוק הסיבה שבגינה
    העניין הוא לא רק תוכנה ונתונים,
  • 10:57 - 10:59
    המיקוד חייב להיות על ההיקפים.
  • 10:59 - 11:03
    אנחנו צריכים להשמיש אלפי נציגי חוק,
  • 11:03 - 11:05
    מאות חברות ברחבי העולם.
  • 11:05 - 11:09
    רק כך הטכנולוגיה תאפשר לנו
    להשיג את העבריינים
  • 11:09 - 11:13
    ולפרק את הקהילות שהופכות התעללות
    מינית בילדות וילדים למשהו שגרתי
  • 11:13 - 11:15
    בכל רחבי העולם כיום.
  • 11:15 - 11:18
    והזמן לעשות זאת הוא עכשיו.
  • 11:18 - 11:24
    איננו רשאים יותר להגיד שאיננו מזהים
    את ההשפעה שיש לכך על ילדינו וילדותינו.
  • 11:25 - 11:29
    הדור הראשון של הילדות והילדים
    שההתעללות בהם הפכה לויראלית
  • 11:29 - 11:31
    הם עכשיו נשים וגברים צעירות וצעירים.
  • 11:31 - 11:34
    המרכז הקנדי להגנת הילדה והילד
  • 11:34 - 11:37
    ערך לאחרונה מחקר על הצעירות
    והצעירים הללו
  • 11:37 - 11:41
    כדי להבין את הטראומה הייחודית שממנה
    הן והם מנסות ומנסים להתאושש,
  • 11:41 - 11:44
    כשהן יודעות והם יודעים שההתעללות שעברו
    ממשיכה להיות מופצת.
  • 11:45 - 11:50
    יותר מ-80% מהצעירות והצעירים הללו
    שקלו להתאבד.
  • 11:51 - 11:55
    יותר מ-60% ניסו להתאבד.
  • 11:56 - 12:01
    רובן/ם חיות/ים בפחד מדי יום ביומו
  • 12:01 - 12:05
    שבזמן שהן/ם הולכות/ים ברחוב
    או נמצאות/ים בראיון עבודה
  • 12:05 - 12:08
    או הולכות/ים לבית הספר
  • 12:08 - 12:10
    או פוגשות/ים מישהו באינטרנט
  • 12:10 - 12:14
    שאותו אדם כבר צפה בהתעללות בהן/ם.
  • 12:15 - 12:19
    והמציאות הזו התממשה עבור יותר מ-30% מהן/ם.
  • 12:20 - 12:25
    מישהו זיהה אותן/ם מההתעללות שעברו
    שהופצה באינטרנט.
  • 12:26 - 12:29
    זה לא עומד להיות קל,
  • 12:29 - 12:32
    אבל זה לא בלתי-אפשרי.
  • 12:32 - 12:35
    עכשיו יידרש רק כוח רצון,
  • 12:35 - 12:36
    כוח הרצון של החברה שלנו,
  • 12:37 - 12:40
    להתבונן במשהו שמאוד קשה להביט בו,
  • 12:40 - 12:42
    להוציא משהו מתוך האפלה,
  • 12:42 - 12:45
    כדי לתת קול לילדות ולילדים האלו.
  • 12:46 - 12:51
    כוח הרצון של חברות לנקוט צעדים
    על מנת לוודא שהפלטפורמות שלהן
  • 12:51 - 12:54
    אינן שותפות להתעללות בילדות וילדים.
  • 12:55 - 12:59
    כוח הרצון של ממשלות להשקיע
    ברשויות אכיפת החוק שלהן
  • 12:59 - 13:04
    ולהעניק להן את המשאבים הנחוצים
    על מנת לחקור פשעים דיגיטליים,
  • 13:04 - 13:08
    גם כאשר הקורבנות לא מסוגלות ומסוגלים
    לדבר בשם עצמן/ם.
  • 13:10 - 13:13
    המחויבות הנועזת הזו היא חלק
    מכוח-הרצון הזה.
  • 13:14 - 13:20
    זו היא הכרזת מלחמה על אחד
    ממעשי הרשע האפלים ביותר של האנושות.
  • 13:20 - 13:22
    אבל מה שמחזיק אותי
  • 13:22 - 13:26
    זה שלמעשה מדובר בהשקעה בעתיד
  • 13:26 - 13:29
    שבו כל ילדה וילד יוכלו פשוט להיות
    ילדות/ים.
  • 13:29 - 13:31
    תודה רבה.
  • 13:31 - 13:37
    (מחיאות כפיים)
Title:
כיצד נוכל להסיר לחלוטין חומרי התעללות מינית בילדות וילדים מעל גבי הרשת
Speaker:
ג'ולי קורדואה
Description:

היזמית החברתית ג'ולי קורדואה מנסה לפתור בעיה שלא קל לדבר עליה: התעללות מינית בילדות וילדים כפי שמופיעה בתמונות ובסרטוני וידיאו על גבי האינטרנט. ב"ת'ורן" - מיזם טכנולוגי חברית, היא מפתחת תוכנה שתפקידה לחבר בין הנקודות של התעשייה הטכנולוגית, רשויות החוק והממשלה - על מנת שנוכל לשים קץ במהירות להפצה הויראלית של חומרי התעללות בילדות וילדים, ולחלץ את הילדות והילדים באופן מהיר יותר מידי המתעללים. בואו ללמוד עוד כיצד הפתרון המדיד הזה עשוי לסייע בפירוק קהילות ההופכות התעללות מינית בילדות וילדים לדבר שבשגרה ברחבי העולם כולו. (תוכנית שאפתנית זו היא חלק מ"פרויקט התעוזה", שהינו יוזמה של TED לקדם ולממן שינוי גלובאלי).

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:50

Hebrew subtitles

Revisions