0:00:00.792,0:00:03.059 כל יום, כל שבוע, 0:00:03.083,0:00:05.268 אנו מסכימים לתנאים ולהגבלות. 0:00:05.292,0:00:06.768 וכשאנחנו עושים זאת, 0:00:06.792,0:00:09.268 אנחנו מספקים לחברות את הזכות החוקית 0:00:09.292,0:00:12.976 לעשות מה שהם רוצים עם הנתונים שלנו 0:00:13.000,0:00:16.165 ועם הנתונים של ילדינו. 0:00:16.792,0:00:19.768 מה שגורם לנו לתהות: 0:00:19.792,0:00:22.684 כמה נתונים על ילדים אנו מוסרים, 0:00:22.708,0:00:24.708 ומה ההשלכות של כך? 0:00:26.500,0:00:27.893 אני אנתרופולוגית, 0:00:27.917,0:00:30.518 ואני גם אימא לשתי ילדות קטנות. 0:00:30.542,0:00:35.018 והתחלתי להתעניין בשאלה זו בשנת 2015 0:00:35.042,0:00:37.768 כשלפתע הבנתי שהיו כמויות עצומות 0:00:37.792,0:00:41.503 כמויות כמעט בלתי נתפסות של עקבות נתונים 0:00:41.503,0:00:44.650 אשר מיוצרים ונאספים בקשר לילדים. 0:00:44.792,0:00:46.768 אז השקתי פרויקט מחקר, 0:00:46.792,0:00:49.268 בשם נתוני אזרח ילד, 0:00:49.292,0:00:51.417 וכיוונתי למלא את החסר. 0:00:52.583,0:00:55.601 כעת אתם עשויים לחשוב[br]שאני כאן כדי להאשים אתכם 0:00:55.625,0:00:58.393 על כך שאתם מפרסמים תמונות[br]של ילדיכם במדיה החברתית, 0:00:58.417,0:01:00.559 אבל זה לא באמת העניין. 0:01:00.583,0:01:04.000 הבעיה היא הרבה יותר גדולה[br]ממה שמכונה "שיתוף יתר של הורים". 0:01:04.792,0:01:08.893 העניין כאן הוא מערכות, ולא יחידים. 0:01:08.917,0:01:11.208 אתם וההרגלים שלכם אינם אשמים. 0:01:12.833,0:01:15.684 בפעם הראשונה בהיסטוריה, 0:01:15.708,0:01:18.268 אנו עוקבים אחר הנתונים האישיים של ילדים 0:01:18.292,0:01:20.059 הרבה לפני שהם נולדים, 0:01:20.083,0:01:22.768 לפעמים מרגע ההתעברות, 0:01:22.792,0:01:25.143 ואז לאורך חייהם. 0:01:25.167,0:01:28.268 אתם מבינים, כשההורים מחליטים להרות, 0:01:28.292,0:01:31.268 הם נכנסים לאינטרנט לחפש[br]אחר "דרכים להיכנס להריון" 0:01:31.292,0:01:34.042 או שהם מורידים אפליקציות למעקב אחר ביוץ. 0:01:35.250,0:01:37.851 כשהם נכנסים להריון, 0:01:37.875,0:01:41.018 הם מפרסמים את תוצאות האולטרסאונד[br]של תינוקותיהם במדיה החברתית, 0:01:41.042,0:01:43.059 הם מורידים אפליקציות להריון 0:01:43.083,0:01:46.809 או שהם מתייעצים עם ד"ר גוגל[br]בכל מיני עניינים, 0:01:46.833,0:01:48.351 למשל, אתם יודעים - 0:01:48.375,0:01:50.934 לגבי "הסיכון להפיל בזמן טיסה" 0:01:50.958,0:01:53.726 או "התכווצויות בטן בתחילת ההיריון." 0:01:53.750,0:01:55.559 אני יודעת כי אני עשיתי את זה - 0:01:55.583,0:01:57.208 הרבה פעמים. 0:01:58.458,0:02:01.268 ואז, כשהתינוק נולד,[br]הם עוקבים אחר כל תנומה, 0:02:01.292,0:02:02.559 כל האכלה, 0:02:02.583,0:02:05.167 כל אירוע בחיים על גבי טכנולוגיות שונות. 0:02:06.083,0:02:07.559 וכל הטכנולוגיות האלה 0:02:07.583,0:02:13.726 הופכות את נתוני ההתנהגות והבריאות [br]הכי אינטימיים של התינוק לרווח 0:02:13.750,0:02:15.542 בכך שהן משתפות אותם עם אחרים. 0:02:16.583,0:02:18.726 אז כדי לתת לכם מושג איך זה עובד, 0:02:18.750,0:02:23.934 בשנת 2019, כתב העת הרפואי הבריטי[br]פרסם מחקר שהראה 0:02:23.958,0:02:27.601 כי מתוך 24 אפליקציות בריאות לנייד, 0:02:27.625,0:02:31.083 19 שיתפו את המידע עם צד שלישי. 0:02:32.083,0:02:37.917 ואלה שבצד שלישי שיתפו מידע[br]עם 216 ארגונים אחרים. 0:02:38.875,0:02:42.309 מבין 216 אלה שהיוו צד רביעי, 0:02:42.333,0:02:45.476 רק שלושה היו שייכים לענף הבריאות. 0:02:45.500,0:02:50.018 החברות האחרות שהייתה להן גישה[br]לנתונים האלה היו חברות טכנולוגיה גדולות 0:02:50.042,0:02:53.559 כמו גוגל, פייסבוק או אורקל, 0:02:53.583,0:02:56.184 הם היו חברות פרסום דיגיטלי 0:02:56.208,0:03:00.333 וכן הייתה סוכנות לדיווח על אשראי צרכני. 0:03:01.125,0:03:02.559 אז אתם מבינים את זה נכון: 0:03:02.583,0:03:07.708 חברות פרסום וסוכנויות אשראי כבר עשויות[br]להחזיק בחלקי נתונים על תינוקות קטנים. 0:03:09.125,0:03:11.893 אבל אפליקציות לנייד,[br]חיפושים ברשת ומדיה חברתית 0:03:11.917,0:03:15.018 הם ממש רק קצה הקרחון, 0:03:15.042,0:03:17.893 משום שמעקב אחר ילדים[br]מתבצע דרך מספר טכנולוגיות 0:03:17.917,0:03:19.643 בחיי היומיום שלהם. 0:03:19.667,0:03:23.809 עוקבים אחריהם דרך טכנולוגיות ביתיות[br]ועוזרים וירטואליים בבתיהם. 0:03:23.833,0:03:25.809 עוקבים אחריהם דרך פלטפורמות חינוכיות 0:03:25.833,0:03:28.018 וטכנולוגיות חינוכיות בבתי הספר שלהם. 0:03:28.042,0:03:29.643 עוקבים אחריהם דרך רשומות מקוונות 0:03:29.667,0:03:32.684 ופורטלים מקוונים במשרד הרופא שלהם. 0:03:32.708,0:03:35.059 עוקבים אחריהם דרך צעצועיהם [br]המחוברים לאינטרנט, 0:03:35.083,0:03:36.393 המשחקים המקוונים שלהם 0:03:36.417,0:03:39.083 ועוד הרבה, הרבה, הרבה [br]הרבה טכנולוגיות אחרות. 0:03:40.250,0:03:41.893 אז במהלך המחקר שלי, 0:03:41.917,0:03:46.059 הורים רבים ניגשו אלי[br]והם אמרו משהו כמו, "אז מה?" 0:03:46.083,0:03:49.000 למה זה משנה אם עוקבים אחרי הילדים שלי? 0:03:50.042,0:03:51.375 "אין לנו מה להסתיר". 0:03:52.958,0:03:54.458 ובכן, זה משנה. 0:03:55.083,0:04:01.101 זה משנה כי היום אנשים[br]לא רק נמצאים תחת מעקב, 0:04:01.125,0:04:05.226 הם גם מקבלים פרופיל[br]בהתאם לעקבות הנתונים שלהם. 0:04:05.250,0:04:09.059 בינה מלאכותית וניתוח תחזיות משמשים 0:04:09.083,0:04:12.726 לרתום כמה שיותר נתונים [br]מתוך חייו הפרטיים של אדם 0:04:12.750,0:04:14.601 ממקורות שונים: 0:04:14.625,0:04:19.143 היסטוריה משפחתית, הרגלי קנייה,[br]הערות ברשתות החברתיות. 0:04:19.167,0:04:21.018 ואז הם מחברים את הנתונים האלה 0:04:21.042,0:04:23.792 במטרה לקבל החלטות [br]מונחות נתונים על הפרט. 0:04:24.792,0:04:28.226 והטכנולוגיות האלה מנוצלות בכל מקום. 0:04:28.250,0:04:30.643 בנקים משתמשים בהן כדי להחליט על הלוואות. 0:04:30.667,0:04:33.042 חברות ביטוח משתמשות בהן [br]כדי להחליט על פרמיות. 0:04:34.208,0:04:36.684 מגייסים ומעסיקים משתמשים בהן 0:04:36.708,0:04:39.625 כדי להחליט אם אדם מתאים למשרה או לא. 0:04:40.750,0:04:43.851 גם המשטרה ובתי המשפט משתמשים בהן 0:04:43.875,0:04:47.393 כדי לקבוע אם אדם הוא עבריין פוטנציאלי 0:04:47.417,0:04:50.042 או אם הוא עשוי לחזור לבצע פשע. 0:04:52.458,0:04:56.518 אין לנו שום ידע או שליטה 0:04:56.542,0:05:00.184 על הדרכים שבהן מי שקונה,[br]מוכר ומעבד את הנתונים שלנו 0:05:00.208,0:05:02.917 יוצרים את הפרופיל שלנו ושל ילדינו. 0:05:03.625,0:05:07.667 אבל הפרופילים האלה יכולים להשפיע[br]על זכויותינו בדרכים משמעותיות. 0:05:08.917,0:05:11.125 לשם ההדגמה, 0:05:13.792,0:05:17.851 בשנת 2018 עיתון ה"ניו יורק טיימס"[br]פרסם בחדשות 0:05:17.875,0:05:19.851 שהנתונים שנאספו 0:05:19.875,0:05:22.934 דרך שירותי תכנון מכללות באינטרנט 0:05:22.958,0:05:27.684 שלמעשה ממולאים על ידי מיליונים[br]של תלמידי תיכון ברחבי ארה"ב 0:05:27.708,0:05:31.351 שמחפשים תכנית לימודים במכללה או מלגה 0:05:31.375,0:05:34.417 נמכרו למתווכים הסוחרים בנתונים חינוכיים. 0:05:35.792,0:05:41.226 כעת, חוקרים בפורדהאם[br]שחקרו תיווך נתונים חינוכיים 0:05:41.250,0:05:46.476 חשפו כי חברות אלה[br]ערכו פרופיל של ילדים בגיל שנתיים 0:05:46.500,0:05:49.559 על פי קטגוריות שונות: 0:05:49.583,0:05:53.768 אתניות, דת, מעמד כלכלי, 0:05:53.792,0:05:55.851 אי נוחות חברתית, 0:05:55.875,0:05:58.809 ועוד קטגוריות אקראיות רבות אחרות. 0:05:58.833,0:06:03.851 לאחר מכן הם מוכרים את הפרופילים האלה[br]יחד עם שם הילד, 0:06:03.875,0:06:06.684 כתובת הבית ופרטי ההתקשרות שלהם 0:06:06.708,0:06:08.559 לחברות שונות, 0:06:08.583,0:06:11.042 כולל מוסדות סחר וקריירה, 0:06:12.083,0:06:13.351 הלוואות סטודנטים 0:06:13.375,0:06:15.125 וחברות כרטיסי אשראי לסטודנטים. 0:06:16.542,0:06:17.893 במטרה לבדוק את הגבולות, 0:06:17.917,0:06:21.726 החוקרים בפורדהאם[br]ביקשו ממתווך בנתונים חינוכיים 0:06:21.750,0:06:27.559 לספק עבורם רשימה של נערות בנות 14- 15 0:06:27.583,0:06:30.958 אשר הביעו התעניינות בשירותים לתכנון משפחה. 0:06:32.208,0:06:34.684 מתווך הנתונים הסכים לספק להם את הרשימה. 0:06:34.708,0:06:39.583 אז תארו לכם כמה אינטימי[br]וכמה פולשני הדבר עבור ילדינו. 0:06:40.833,0:06:44.809 אבל מתווכי נתונים חינוכיים[br]הם באמת רק דוגמה. 0:06:44.833,0:06:49.518 האמת היא שפרופיל ילדינו [br]נוצר בדרכים שאיננו יכולים לשלוט בהן 0:06:49.542,0:06:52.958 אבל זה יכול להשפיע באופן משמעותי[br]על ההזדמנויות שלהם בחיים. 0:06:54.167,0:06:57.643 לכן עלינו לשאול את עצמנו: 0:06:57.667,0:07:02.351 האם אנו יכולים לסמוך על הטכנולוגיות אלה[br]כשמדובר ביצירת פרופיל לילדינו? 0:07:02.375,0:07:03.625 האם אנחנו יכולים? 0:07:05.708,0:07:07.488 התשובה שלי היא לא. 0:07:07.792,0:07:09.059 כאנתרופולוגית, 0:07:09.083,0:07:12.851 אני מאמינה שבינה מלאכותית[br]ותחזית נתונים יכולות להיות נהדרות 0:07:12.875,0:07:14.893 לחזות את מהלכה של מחלה 0:07:14.917,0:07:16.750 או להילחם בשינויי אקלים. 0:07:18.000,0:07:19.643 אבל עלינו לנטוש את האמונה 0:07:19.667,0:07:23.351 כי הטכנולוגיות האלה מסוגלות [br]ליצור פרופיל אנושי באופן אובייקטיבי 0:07:23.375,0:07:26.559 ושאנחנו יכולים לסמוך עליהן[br]בקבלת החלטות מונחות נתונים 0:07:26.583,0:07:28.476 כשמדובר בחיי אדם. 0:07:28.500,0:07:31.059 מכיוון שהן אינן מסוגלות[br]ליצור פרופיל של אדם. 0:07:31.083,0:07:34.434 עקבות נתונים אינן השתקפות של מי שאנחנו. 0:07:34.458,0:07:36.559 בני אדם חושבים דבר אחד ואומרים את ההיפך, 0:07:36.583,0:07:39.018 מרגישים באופן מסוים ופועלים אחרת. 0:07:39.042,0:07:41.518 התחזיות האלגוריתמיות[br]או הפרקטיקות הדיגיטליות שלנו 0:07:41.542,0:07:46.708 אינן מסוגלות לחזות את החוויה האנושית[br]המורכבת והבלתי צפויה. 0:07:48.417,0:07:49.976 בנוסף לכך, 0:07:50.000,0:07:52.684 הטכנולוגיות האלה הן תמיד 0:07:52.708,0:07:53.976 תמיד 0:07:54.000,0:07:55.917 בדרך זו או אחרת, מוטות. 0:07:57.125,0:08:02.184 אתם מבינים, האלגוריתמים הם בהגדרה[br]אוסף של כללים או שלבים 0:08:02.208,0:08:05.917 שתוכננו על מנת להשיג תוצאה ספציפית, בסדר? 0:08:06.833,0:08:09.559 אך אוסף זה של כללים או שלבים [br]אינו יכול להיות אובייקטיבי, 0:08:09.583,0:08:11.726 כי הוא עוצב על ידי בני אדם 0:08:11.750,0:08:13.476 בהקשר תרבותי ספציפי 0:08:13.500,0:08:16.000 והוא מעוצב על פי ערכים תרבותיים ספציפיים. 0:08:16.667,0:08:18.393 אז כשמכונות לומדות, 0:08:18.417,0:08:20.667 הן לומדות מאלגוריתמים מוטים, 0:08:21.625,0:08:24.833 ולעתים קרובות הן גם לומדות[br]ממאגרי נתונים מוטים. 0:08:25.833,0:08:29.559 כרגע אנחנו רואים את הדוגמאות [br]הראשונות להטיה אלגוריתמית. 0:08:29.583,0:08:34.143 וכמה מהדוגמאות האלה ללא ספק מעוררות אימה. 0:08:34.500,0:08:38.559 השנה מכון AI Now בניו יורק פרסם דו"ח 0:08:38.583,0:08:40.976 שגילה כי טכנולוגיות בינה מלאכותית 0:08:41.000,0:08:44.476 הנמצאות בשימוש השיטור המנבא 0:08:44.500,0:08:48.135 הוכשרו באמצעות נתונים "מזוהמים". 0:08:48.333,0:08:51.226 אלו בעצם נתונים אשר נאספו 0:08:51.250,0:08:55.434 במהלך תקופות היסטוריות[br]הידועות בהטייתן הגזעית 0:08:55.458,0:08:58.298 ושיטות עבודה לא שקופות של המשטרה. 0:08:58.542,0:09:02.601 מכיוון שטכנולוגיות אלה[br]מאומנות בעזרת נתונים מזוהמים, 0:09:02.625,0:09:04.059 הן אינן אובייקטיביות, 0:09:04.083,0:09:08.601 והתוצאות שלהן רק מעצימות ומובילות 0:09:08.625,0:09:10.250 להטיה ולטעויות של המשטרה. 0:09:13.167,0:09:16.309 אז אני חושבת שאנו עומדים מול בעיה עקרונית 0:09:16.333,0:09:17.976 בחברה שלנו. 0:09:18.000,0:09:22.792 אנו מתחילים לסמוך על טכנולוגיות[br]כשמדובר ביצירת פרופיל של בני אדם. 0:09:23.750,0:09:26.268 אנו יודעים שבניסיון ליצור פרופיל של אדם, 0:09:26.292,0:09:29.101 הטכנולוגיות האלה תמיד יהיו מוטות 0:09:29.125,0:09:31.851 ולעולם לא יהיו מדויקות באמת. 0:09:31.875,0:09:34.809 אז מה שאנחנו צריכים עכשיו[br]הוא למעשה פתרון פוליטי. 0:09:34.833,0:09:39.542 אנחנו צריכים שממשלות יכירו בכך[br]שזכויות הנתונים שלנו הן זכויות האדם שלנו. 0:09:40.292,0:09:44.375 (מחיאות כפיים וצהלות) 0:09:47.833,0:09:51.917 עד שזה יקרה, איננו יכולים לצפות[br]לעתיד צודק יותר. 0:09:52.750,0:09:55.476 אני דואגת שבנותיי יהיו חשופות 0:09:55.500,0:09:59.226 לכל מיני אפליות וטעויות אלגוריתמיות. 0:09:59.250,0:10:01.643 תבינו, ההבדל ביני לבין בנותיי 0:10:01.667,0:10:04.851 הוא שאין רשומה ציבורית[br]שם בחוץ על תקופת הילדות שלי. 0:10:04.875,0:10:08.893 כמובן שאין מסד נתונים[br]על כל הדברים המטופשים שעשיתי 0:10:08.917,0:10:11.059 וחשבתי כשהייתי נערה. 0:10:11.083,0:10:12.583 (צחוק) 0:10:13.833,0:10:16.583 אבל עבור בנותיי זה עשוי להיות שונה. 0:10:17.292,0:10:20.476 הנתונים שנאספים עליהן היום 0:10:20.500,0:10:24.309 עלולים לשמש אמצעי לשפוט אותן בעתיד 0:10:24.333,0:10:28.102 ויכולים למנוע את התקוות ואת החלומות שלהן. 0:10:28.583,0:10:30.101 אני חושבת שהגיע הזמן. 0:10:30.125,0:10:31.559 הגיע הזמן שכולנו ניקח חלק. 0:10:31.583,0:10:34.059 הגיע הזמן שנתחיל לעבוד ביחד 0:10:34.083,0:10:35.518 כיחידים, 0:10:35.542,0:10:38.059 כארגונים וכמוסדות, 0:10:38.083,0:10:41.184 ושנדרוש צדק נתונים גדול יותר עבורנו 0:10:41.208,0:10:42.601 ועבור ילדינו 0:10:42.625,0:10:44.143 לפני שיהיה מאוחר מדיי. 0:10:44.167,0:10:45.434 תודה רבה. 0:10:45.458,0:10:46.875 (מחיאות כפיים)