Return to Video

מה חברות הטכנולוגיה יודעות על הילדים שלכם

  • 0:01 - 0:03
    כל יום, כל שבוע,
  • 0:03 - 0:05
    אנו מסכימים לתנאים ולהגבלות.
  • 0:05 - 0:07
    וכשאנחנו עושים זאת,
  • 0:07 - 0:09
    אנחנו מספקים לחברות את הזכות החוקית
  • 0:09 - 0:13
    לעשות מה שהם רוצים עם הנתונים שלנו
  • 0:13 - 0:16
    ועם הנתונים של ילדינו.
  • 0:17 - 0:20
    מה שגורם לנו לתהות:
  • 0:20 - 0:23
    כמה נתונים על ילדים אנו מוסרים,
  • 0:23 - 0:25
    ומה ההשלכות של כך?
  • 0:26 - 0:28
    אני אנתרופולוגית,
  • 0:28 - 0:31
    ואני גם אימא לשתי ילדות קטנות.
  • 0:31 - 0:35
    והתחלתי להתעניין בשאלה זו בשנת 2015
  • 0:35 - 0:38
    כשלפתע הבנתי שהיו כמויות עצומות
  • 0:38 - 0:42
    כמויות כמעט בלתי נתפסות של עקבות נתונים
  • 0:42 - 0:45
    אשר מיוצרים ונאספים בקשר לילדים.
  • 0:45 - 0:47
    אז השקתי פרויקט מחקר,
  • 0:47 - 0:49
    בשם נתוני אזרח ילד,
  • 0:49 - 0:51
    וכיוונתי למלא את החסר.
  • 0:53 - 0:56
    כעת אתם עשויים לחשוב
    שאני כאן כדי להאשים אתכם
  • 0:56 - 0:58
    על כך שאתם מפרסמים תמונות
    של ילדיכם במדיה החברתית,
  • 0:58 - 1:01
    אבל זה לא באמת העניין.
  • 1:01 - 1:04
    הבעיה היא הרבה יותר גדולה
    ממה שמכונה "שיתוף יתר של הורים".
  • 1:05 - 1:09
    העניין כאן הוא מערכות, ולא יחידים.
  • 1:09 - 1:11
    אתם וההרגלים שלכם אינם אשמים.
  • 1:13 - 1:16
    בפעם הראשונה בהיסטוריה,
  • 1:16 - 1:18
    אנו עוקבים אחר הנתונים האישיים של ילדים
  • 1:18 - 1:20
    הרבה לפני שהם נולדים,
  • 1:20 - 1:23
    לפעמים מרגע ההתעברות,
  • 1:23 - 1:25
    ואז לאורך חייהם.
  • 1:25 - 1:28
    אתם מבינים, כשההורים מחליטים להרות,
  • 1:28 - 1:31
    הם נכנסים לאינטרנט לחפש
    אחר "דרכים להיכנס להריון"
  • 1:31 - 1:34
    או שהם מורידים אפליקציות למעקב אחר ביוץ.
  • 1:35 - 1:38
    כשהם נכנסים להריון,
  • 1:38 - 1:41
    הם מפרסמים את תוצאות האולטרסאונד
    של תינוקותיהם במדיה החברתית,
  • 1:41 - 1:43
    הם מורידים אפליקציות להריון
  • 1:43 - 1:47
    או שהם מתייעצים עם ד"ר גוגל
    בכל מיני עניינים,
  • 1:47 - 1:48
    למשל, אתם יודעים -
  • 1:48 - 1:51
    לגבי "הסיכון להפיל בזמן טיסה"
  • 1:51 - 1:54
    או "התכווצויות בטן בתחילת ההיריון."
  • 1:54 - 1:56
    אני יודעת כי אני עשיתי את זה -
  • 1:56 - 1:57
    הרבה פעמים.
  • 1:58 - 2:01
    ואז, כשהתינוק נולד,
    הם עוקבים אחר כל תנומה,
  • 2:01 - 2:03
    כל האכלה,
  • 2:03 - 2:05
    כל אירוע בחיים על גבי טכנולוגיות שונות.
  • 2:06 - 2:08
    וכל הטכנולוגיות האלה
  • 2:08 - 2:14
    הופכות את נתוני ההתנהגות והבריאות
    הכי אינטימיים של התינוק לרווח
  • 2:14 - 2:16
    בכך שהן משתפות אותם עם אחרים.
  • 2:17 - 2:19
    אז כדי לתת לכם מושג איך זה עובד,
  • 2:19 - 2:24
    בשנת 2019, כתב העת הרפואי הבריטי
    פרסם מחקר שהראה
  • 2:24 - 2:28
    כי מתוך 24 אפליקציות בריאות לנייד,
  • 2:28 - 2:31
    19 שיתפו את המידע עם צד שלישי.
  • 2:32 - 2:38
    ואלה שבצד שלישי שיתפו מידע
    עם 216 ארגונים אחרים.
  • 2:39 - 2:42
    מבין 216 אלה שהיוו צד רביעי,
  • 2:42 - 2:45
    רק שלושה היו שייכים לענף הבריאות.
  • 2:46 - 2:50
    החברות האחרות שהייתה להן גישה
    לנתונים האלה היו חברות טכנולוגיה גדולות
  • 2:50 - 2:54
    כמו גוגל, פייסבוק או אורקל,
  • 2:54 - 2:56
    הם היו חברות פרסום דיגיטלי
  • 2:56 - 3:00
    וכן הייתה סוכנות לדיווח על אשראי צרכני.
  • 3:01 - 3:03
    אז אתם מבינים את זה נכון:
  • 3:03 - 3:08
    חברות פרסום וסוכנויות אשראי כבר עשויות
    להחזיק בחלקי נתונים על תינוקות קטנים.
  • 3:09 - 3:12
    אבל אפליקציות לנייד,
    חיפושים ברשת ומדיה חברתית
  • 3:12 - 3:15
    הם ממש רק קצה הקרחון,
  • 3:15 - 3:18
    משום שמעקב אחר ילדים
    מתבצע דרך מספר טכנולוגיות
  • 3:18 - 3:20
    בחיי היומיום שלהם.
  • 3:20 - 3:24
    עוקבים אחריהם דרך טכנולוגיות ביתיות
    ועוזרים וירטואליים בבתיהם.
  • 3:24 - 3:26
    עוקבים אחריהם דרך פלטפורמות חינוכיות
  • 3:26 - 3:28
    וטכנולוגיות חינוכיות בבתי הספר שלהם.
  • 3:28 - 3:30
    עוקבים אחריהם דרך רשומות מקוונות
  • 3:30 - 3:33
    ופורטלים מקוונים במשרד הרופא שלהם.
  • 3:33 - 3:35
    עוקבים אחריהם דרך צעצועיהם
    המחוברים לאינטרנט,
  • 3:35 - 3:36
    המשחקים המקוונים שלהם
  • 3:36 - 3:39
    ועוד הרבה, הרבה, הרבה
    הרבה טכנולוגיות אחרות.
  • 3:40 - 3:42
    אז במהלך המחקר שלי,
  • 3:42 - 3:46
    הורים רבים ניגשו אלי
    והם אמרו משהו כמו, "אז מה?"
  • 3:46 - 3:49
    למה זה משנה אם עוקבים אחרי הילדים שלי?
  • 3:50 - 3:51
    "אין לנו מה להסתיר".
  • 3:53 - 3:54
    ובכן, זה משנה.
  • 3:55 - 4:01
    זה משנה כי היום אנשים
    לא רק נמצאים תחת מעקב,
  • 4:01 - 4:05
    הם גם מקבלים פרופיל
    בהתאם לעקבות הנתונים שלהם.
  • 4:05 - 4:09
    בינה מלאכותית וניתוח תחזיות משמשים
  • 4:09 - 4:13
    לרתום כמה שיותר נתונים
    מתוך חייו הפרטיים של אדם
  • 4:13 - 4:15
    ממקורות שונים:
  • 4:15 - 4:19
    היסטוריה משפחתית, הרגלי קנייה,
    הערות ברשתות החברתיות.
  • 4:19 - 4:21
    ואז הם מחברים את הנתונים האלה
  • 4:21 - 4:24
    במטרה לקבל החלטות
    מונחות נתונים על הפרט.
  • 4:25 - 4:28
    והטכנולוגיות האלה מנוצלות בכל מקום.
  • 4:28 - 4:31
    בנקים משתמשים בהן כדי להחליט על הלוואות.
  • 4:31 - 4:33
    חברות ביטוח משתמשות בהן
    כדי להחליט על פרמיות.
  • 4:34 - 4:37
    מגייסים ומעסיקים משתמשים בהן
  • 4:37 - 4:40
    כדי להחליט אם אדם מתאים למשרה או לא.
  • 4:41 - 4:44
    גם המשטרה ובתי המשפט משתמשים בהן
  • 4:44 - 4:47
    כדי לקבוע אם אדם הוא עבריין פוטנציאלי
  • 4:47 - 4:50
    או אם הוא עשוי לחזור לבצע פשע.
  • 4:52 - 4:57
    אין לנו שום ידע או שליטה
  • 4:57 - 5:00
    על הדרכים שבהן מי שקונה,
    מוכר ומעבד את הנתונים שלנו
  • 5:00 - 5:03
    יוצרים את הפרופיל שלנו ושל ילדינו.
  • 5:04 - 5:08
    אבל הפרופילים האלה יכולים להשפיע
    על זכויותינו בדרכים משמעותיות.
  • 5:09 - 5:11
    לשם ההדגמה,
  • 5:14 - 5:18
    בשנת 2018 עיתון ה"ניו יורק טיימס"
    פרסם בחדשות
  • 5:18 - 5:20
    שהנתונים שנאספו
  • 5:20 - 5:23
    דרך שירותי תכנון מכללות באינטרנט
  • 5:23 - 5:28
    שלמעשה ממולאים על ידי מיליונים
    של תלמידי תיכון ברחבי ארה"ב
  • 5:28 - 5:31
    שמחפשים תכנית לימודים במכללה או מלגה
  • 5:31 - 5:34
    נמכרו למתווכים הסוחרים בנתונים חינוכיים.
  • 5:36 - 5:41
    כעת, חוקרים בפורדהאם
    שחקרו תיווך נתונים חינוכיים
  • 5:41 - 5:46
    חשפו כי חברות אלה
    ערכו פרופיל של ילדים בגיל שנתיים
  • 5:46 - 5:50
    על פי קטגוריות שונות:
  • 5:50 - 5:54
    אתניות, דת, מעמד כלכלי,
  • 5:54 - 5:56
    אי נוחות חברתית,
  • 5:56 - 5:59
    ועוד קטגוריות אקראיות רבות אחרות.
  • 5:59 - 6:04
    לאחר מכן הם מוכרים את הפרופילים האלה
    יחד עם שם הילד,
  • 6:04 - 6:07
    כתובת הבית ופרטי ההתקשרות שלהם
  • 6:07 - 6:09
    לחברות שונות,
  • 6:09 - 6:11
    כולל מוסדות סחר וקריירה,
  • 6:12 - 6:13
    הלוואות סטודנטים
  • 6:13 - 6:15
    וחברות כרטיסי אשראי לסטודנטים.
  • 6:17 - 6:18
    במטרה לבדוק את הגבולות,
  • 6:18 - 6:22
    החוקרים בפורדהאם
    ביקשו ממתווך בנתונים חינוכיים
  • 6:22 - 6:28
    לספק עבורם רשימה של נערות בנות 14- 15
  • 6:28 - 6:31
    אשר הביעו התעניינות בשירותים לתכנון משפחה.
  • 6:32 - 6:35
    מתווך הנתונים הסכים לספק להם את הרשימה.
  • 6:35 - 6:40
    אז תארו לכם כמה אינטימי
    וכמה פולשני הדבר עבור ילדינו.
  • 6:41 - 6:45
    אבל מתווכי נתונים חינוכיים
    הם באמת רק דוגמה.
  • 6:45 - 6:50
    האמת היא שפרופיל ילדינו
    נוצר בדרכים שאיננו יכולים לשלוט בהן
  • 6:50 - 6:53
    אבל זה יכול להשפיע באופן משמעותי
    על ההזדמנויות שלהם בחיים.
  • 6:54 - 6:58
    לכן עלינו לשאול את עצמנו:
  • 6:58 - 7:02
    האם אנו יכולים לסמוך על הטכנולוגיות אלה
    כשמדובר ביצירת פרופיל לילדינו?
  • 7:02 - 7:04
    האם אנחנו יכולים?
  • 7:06 - 7:07
    התשובה שלי היא לא.
  • 7:08 - 7:09
    כאנתרופולוגית,
  • 7:09 - 7:13
    אני מאמינה שבינה מלאכותית
    ותחזית נתונים יכולות להיות נהדרות
  • 7:13 - 7:15
    לחזות את מהלכה של מחלה
  • 7:15 - 7:17
    או להילחם בשינויי אקלים.
  • 7:18 - 7:20
    אבל עלינו לנטוש את האמונה
  • 7:20 - 7:23
    כי הטכנולוגיות האלה מסוגלות
    ליצור פרופיל אנושי באופן אובייקטיבי
  • 7:23 - 7:27
    ושאנחנו יכולים לסמוך עליהן
    בקבלת החלטות מונחות נתונים
  • 7:27 - 7:28
    כשמדובר בחיי אדם.
  • 7:28 - 7:31
    מכיוון שהן אינן מסוגלות
    ליצור פרופיל של אדם.
  • 7:31 - 7:34
    עקבות נתונים אינן השתקפות של מי שאנחנו.
  • 7:34 - 7:37
    בני אדם חושבים דבר אחד ואומרים את ההיפך,
  • 7:37 - 7:39
    מרגישים באופן מסוים ופועלים אחרת.
  • 7:39 - 7:42
    התחזיות האלגוריתמיות
    או הפרקטיקות הדיגיטליות שלנו
  • 7:42 - 7:47
    אינן מסוגלות לחזות את החוויה האנושית
    המורכבת והבלתי צפויה.
  • 7:48 - 7:50
    בנוסף לכך,
  • 7:50 - 7:53
    הטכנולוגיות האלה הן תמיד
  • 7:53 - 7:54
    תמיד
  • 7:54 - 7:56
    בדרך זו או אחרת, מוטות.
  • 7:57 - 8:02
    אתם מבינים, האלגוריתמים הם בהגדרה
    אוסף של כללים או שלבים
  • 8:02 - 8:06
    שתוכננו על מנת להשיג תוצאה ספציפית, בסדר?
  • 8:07 - 8:10
    אך אוסף זה של כללים או שלבים
    אינו יכול להיות אובייקטיבי,
  • 8:10 - 8:12
    כי הוא עוצב על ידי בני אדם
  • 8:12 - 8:13
    בהקשר תרבותי ספציפי
  • 8:14 - 8:16
    והוא מעוצב על פי ערכים תרבותיים ספציפיים.
  • 8:17 - 8:18
    אז כשמכונות לומדות,
  • 8:18 - 8:21
    הן לומדות מאלגוריתמים מוטים,
  • 8:22 - 8:25
    ולעתים קרובות הן גם לומדות
    ממאגרי נתונים מוטים.
  • 8:26 - 8:30
    כרגע אנחנו רואים את הדוגמאות
    הראשונות להטיה אלגוריתמית.
  • 8:30 - 8:34
    וכמה מהדוגמאות האלה ללא ספק מעוררות אימה.
  • 8:34 - 8:39
    השנה מכון AI Now בניו יורק פרסם דו"ח
  • 8:39 - 8:41
    שגילה כי טכנולוגיות בינה מלאכותית
  • 8:41 - 8:44
    הנמצאות בשימוש השיטור המנבא
  • 8:44 - 8:48
    הוכשרו באמצעות נתונים "מזוהמים".
  • 8:48 - 8:51
    אלו בעצם נתונים אשר נאספו
  • 8:51 - 8:55
    במהלך תקופות היסטוריות
    הידועות בהטייתן הגזעית
  • 8:55 - 8:58
    ושיטות עבודה לא שקופות של המשטרה.
  • 8:59 - 9:03
    מכיוון שטכנולוגיות אלה
    מאומנות בעזרת נתונים מזוהמים,
  • 9:03 - 9:04
    הן אינן אובייקטיביות,
  • 9:04 - 9:09
    והתוצאות שלהן רק מעצימות ומובילות
  • 9:09 - 9:10
    להטיה ולטעויות של המשטרה.
  • 9:13 - 9:16
    אז אני חושבת שאנו עומדים מול בעיה עקרונית
  • 9:16 - 9:18
    בחברה שלנו.
  • 9:18 - 9:23
    אנו מתחילים לסמוך על טכנולוגיות
    כשמדובר ביצירת פרופיל של בני אדם.
  • 9:24 - 9:26
    אנו יודעים שבניסיון ליצור פרופיל של אדם,
  • 9:26 - 9:29
    הטכנולוגיות האלה תמיד יהיו מוטות
  • 9:29 - 9:32
    ולעולם לא יהיו מדויקות באמת.
  • 9:32 - 9:35
    אז מה שאנחנו צריכים עכשיו
    הוא למעשה פתרון פוליטי.
  • 9:35 - 9:40
    אנחנו צריכים שממשלות יכירו בכך
    שזכויות הנתונים שלנו הן זכויות האדם שלנו.
  • 9:40 - 9:44
    (מחיאות כפיים וצהלות)
  • 9:48 - 9:52
    עד שזה יקרה, איננו יכולים לצפות
    לעתיד צודק יותר.
  • 9:53 - 9:55
    אני דואגת שבנותיי יהיו חשופות
  • 9:56 - 9:59
    לכל מיני אפליות וטעויות אלגוריתמיות.
  • 9:59 - 10:02
    תבינו, ההבדל ביני לבין בנותיי
  • 10:02 - 10:05
    הוא שאין רשומה ציבורית
    שם בחוץ על תקופת הילדות שלי.
  • 10:05 - 10:09
    כמובן שאין מסד נתונים
    על כל הדברים המטופשים שעשיתי
  • 10:09 - 10:11
    וחשבתי כשהייתי נערה.
  • 10:11 - 10:13
    (צחוק)
  • 10:14 - 10:17
    אבל עבור בנותיי זה עשוי להיות שונה.
  • 10:17 - 10:20
    הנתונים שנאספים עליהן היום
  • 10:20 - 10:24
    עלולים לשמש אמצעי לשפוט אותן בעתיד
  • 10:24 - 10:28
    ויכולים למנוע את התקוות ואת החלומות שלהן.
  • 10:29 - 10:30
    אני חושבת שהגיע הזמן.
  • 10:30 - 10:32
    הגיע הזמן שכולנו ניקח חלק.
  • 10:32 - 10:34
    הגיע הזמן שנתחיל לעבוד ביחד
  • 10:34 - 10:36
    כיחידים,
  • 10:36 - 10:38
    כארגונים וכמוסדות,
  • 10:38 - 10:41
    ושנדרוש צדק נתונים גדול יותר עבורנו
  • 10:41 - 10:43
    ועבור ילדינו
  • 10:43 - 10:44
    לפני שיהיה מאוחר מדיי.
  • 10:44 - 10:45
    תודה רבה.
  • 10:45 - 10:47
    (מחיאות כפיים)
タイトル:
מה חברות הטכנולוגיה יודעות על הילדים שלכם
話者:
וורוניקה בראסי
概説:

הפלטפורמות הדיגיטליות בהן אתם ומשפחתכם משתמשים מדי יום - ממשחקים מקוונים ועד אפליקציות חינוכיות ופורטלים רפואיים - עשויות לאסוף ולמכור נתונים על ילדיכם, אומרת האנתרופולוגית וורוניקה בראסי. בראסי משתפת במחקריה מאירי העיניים, ומפצירה בהורים להתבונן פעמיים בתנאים וההגבלות הדיגיטליים במקום לקבל אותם באופן עיוור - ולדרוש הגנות שמבטיחות כי נתוני ילדיהם אינם מקלקלים את עתידם.

more » « less
Video Language:
English
Team:
closed TED
プロジェクト:
TEDTalks
Duration:
11:01

Hebrew subtitles

改訂