WEBVTT 00:00:00.792 --> 00:00:03.059 כל יום, כל שבוע, 00:00:03.083 --> 00:00:05.268 אנו מסכימים לתנאים ולהגבלות. 00:00:05.292 --> 00:00:06.768 וכשאנחנו עושים זאת, 00:00:06.792 --> 00:00:09.268 אנחנו מספקים לחברות את הזכות החוקית 00:00:09.292 --> 00:00:12.976 לעשות מה שהם רוצים עם הנתונים שלנו 00:00:13.000 --> 00:00:16.165 ועם הנתונים של ילדינו. 00:00:16.792 --> 00:00:19.768 מה שגורם לנו לתהות: 00:00:19.792 --> 00:00:22.684 כמה נתונים על ילדים אנו מוסרים, 00:00:22.708 --> 00:00:24.708 ומה ההשלכות של כך? NOTE Paragraph 00:00:26.500 --> 00:00:27.893 אני אנתרופולוגית, 00:00:27.917 --> 00:00:30.518 ואני גם אימא לשתי ילדות קטנות. 00:00:30.542 --> 00:00:35.018 והתחלתי להתעניין בשאלה זו בשנת 2015 00:00:35.042 --> 00:00:37.768 כשלפתע הבנתי שהיו כמויות עצומות 00:00:37.792 --> 00:00:41.503 כמויות כמעט בלתי נתפסות של עקבות נתונים 00:00:41.503 --> 00:00:44.650 אשר מיוצרים ונאספים בקשר לילדים. 00:00:44.792 --> 00:00:46.768 אז השקתי פרויקט מחקר, 00:00:46.792 --> 00:00:49.268 בשם נתוני אזרח ילד, 00:00:49.292 --> 00:00:51.417 וכיוונתי למלא את החסר. NOTE Paragraph 00:00:52.583 --> 00:00:55.601 כעת אתם עשויים לחשוב שאני כאן כדי להאשים אתכם 00:00:55.625 --> 00:00:58.393 על כך שאתם מפרסמים תמונות של ילדיכם במדיה החברתית, 00:00:58.417 --> 00:01:00.559 אבל זה לא באמת העניין. 00:01:00.583 --> 00:01:04.000 הבעיה היא הרבה יותר גדולה ממה שמכונה "שיתוף יתר של הורים". 00:01:04.792 --> 00:01:08.893 העניין כאן הוא מערכות, ולא יחידים. 00:01:08.917 --> 00:01:11.208 אתם וההרגלים שלכם אינם אשמים. NOTE Paragraph 00:01:12.833 --> 00:01:15.684 בפעם הראשונה בהיסטוריה, 00:01:15.708 --> 00:01:18.268 אנו עוקבים אחר הנתונים האישיים של ילדים 00:01:18.292 --> 00:01:20.059 הרבה לפני שהם נולדים, 00:01:20.083 --> 00:01:22.768 לפעמים מרגע ההתעברות, 00:01:22.792 --> 00:01:25.143 ואז לאורך חייהם. 00:01:25.167 --> 00:01:28.268 אתם מבינים, כשההורים מחליטים להרות, 00:01:28.292 --> 00:01:31.268 הם נכנסים לאינטרנט לחפש אחר "דרכים להיכנס להריון" 00:01:31.292 --> 00:01:34.042 או שהם מורידים אפליקציות למעקב אחר ביוץ. 00:01:35.250 --> 00:01:37.851 כשהם נכנסים להריון, 00:01:37.875 --> 00:01:41.018 הם מפרסמים את תוצאות האולטרסאונד של תינוקותיהם במדיה החברתית, 00:01:41.042 --> 00:01:43.059 הם מורידים אפליקציות להריון 00:01:43.083 --> 00:01:46.809 או שהם מתייעצים עם ד"ר גוגל בכל מיני עניינים, 00:01:46.833 --> 00:01:48.351 למשל, אתם יודעים - 00:01:48.375 --> 00:01:50.934 לגבי "הסיכון להפיל בזמן טיסה" 00:01:50.958 --> 00:01:53.726 או "התכווצויות בטן בתחילת ההיריון." 00:01:53.750 --> 00:01:55.559 אני יודעת כי אני עשיתי את זה - 00:01:55.583 --> 00:01:57.208 הרבה פעמים. 00:01:58.458 --> 00:02:01.268 ואז, כשהתינוק נולד, הם עוקבים אחר כל תנומה, 00:02:01.292 --> 00:02:02.559 כל האכלה, 00:02:02.583 --> 00:02:05.167 כל אירוע בחיים על גבי טכנולוגיות שונות. 00:02:06.083 --> 00:02:07.559 וכל הטכנולוגיות האלה 00:02:07.583 --> 00:02:13.726 הופכות את נתוני ההתנהגות והבריאות הכי אינטימיים של התינוק לרווח 00:02:13.750 --> 00:02:15.542 בכך שהן משתפות אותם עם אחרים. NOTE Paragraph 00:02:16.583 --> 00:02:18.726 אז כדי לתת לכם מושג איך זה עובד, 00:02:18.750 --> 00:02:23.934 בשנת 2019, כתב העת הרפואי הבריטי פרסם מחקר שהראה 00:02:23.958 --> 00:02:27.601 כי מתוך 24 אפליקציות בריאות לנייד, 00:02:27.625 --> 00:02:31.083 19 שיתפו את המידע עם צד שלישי. 00:02:32.083 --> 00:02:37.917 ואלה שבצד שלישי שיתפו מידע עם 216 ארגונים אחרים. 00:02:38.875 --> 00:02:42.309 מבין 216 אלה שהיוו צד רביעי, 00:02:42.333 --> 00:02:45.476 רק שלושה היו שייכים לענף הבריאות. 00:02:45.500 --> 00:02:50.018 החברות האחרות שהייתה להן גישה לנתונים האלה היו חברות טכנולוגיה גדולות 00:02:50.042 --> 00:02:53.559 כמו גוגל, פייסבוק או אורקל, 00:02:53.583 --> 00:02:56.184 הם היו חברות פרסום דיגיטלי 00:02:56.208 --> 00:03:00.333 וכן הייתה סוכנות לדיווח על אשראי צרכני. 00:03:01.125 --> 00:03:02.559 אז אתם מבינים את זה נכון: 00:03:02.583 --> 00:03:07.708 חברות פרסום וסוכנויות אשראי כבר עשויות להחזיק בחלקי נתונים על תינוקות קטנים. 00:03:09.125 --> 00:03:11.893 אבל אפליקציות לנייד, חיפושים ברשת ומדיה חברתית 00:03:11.917 --> 00:03:15.018 הם ממש רק קצה הקרחון, 00:03:15.042 --> 00:03:17.893 משום שמעקב אחר ילדים מתבצע דרך מספר טכנולוגיות 00:03:17.917 --> 00:03:19.643 בחיי היומיום שלהם. 00:03:19.667 --> 00:03:23.809 עוקבים אחריהם דרך טכנולוגיות ביתיות ועוזרים וירטואליים בבתיהם. 00:03:23.833 --> 00:03:25.809 עוקבים אחריהם דרך פלטפורמות חינוכיות 00:03:25.833 --> 00:03:28.018 וטכנולוגיות חינוכיות בבתי הספר שלהם. 00:03:28.042 --> 00:03:29.643 עוקבים אחריהם דרך רשומות מקוונות 00:03:29.667 --> 00:03:32.684 ופורטלים מקוונים במשרד הרופא שלהם. 00:03:32.708 --> 00:03:35.059 עוקבים אחריהם דרך צעצועיהם המחוברים לאינטרנט, 00:03:35.083 --> 00:03:36.393 המשחקים המקוונים שלהם 00:03:36.417 --> 00:03:39.083 ועוד הרבה, הרבה, הרבה הרבה טכנולוגיות אחרות. NOTE Paragraph 00:03:40.250 --> 00:03:41.893 אז במהלך המחקר שלי, 00:03:41.917 --> 00:03:46.059 הורים רבים ניגשו אלי והם אמרו משהו כמו, "אז מה?" 00:03:46.083 --> 00:03:49.000 למה זה משנה אם עוקבים אחרי הילדים שלי? 00:03:50.042 --> 00:03:51.375 "אין לנו מה להסתיר". 00:03:52.958 --> 00:03:54.458 ובכן, זה משנה. 00:03:55.083 --> 00:04:01.101 זה משנה כי היום אנשים לא רק נמצאים תחת מעקב, 00:04:01.125 --> 00:04:05.226 הם גם מקבלים פרופיל בהתאם לעקבות הנתונים שלהם. 00:04:05.250 --> 00:04:09.059 בינה מלאכותית וניתוח תחזיות משמשים 00:04:09.083 --> 00:04:12.726 לרתום כמה שיותר נתונים מתוך חייו הפרטיים של אדם 00:04:12.750 --> 00:04:14.601 ממקורות שונים: 00:04:14.625 --> 00:04:19.143 היסטוריה משפחתית, הרגלי קנייה, הערות ברשתות החברתיות. 00:04:19.167 --> 00:04:21.018 ואז הם מחברים את הנתונים האלה 00:04:21.042 --> 00:04:23.792 במטרה לקבל החלטות מונחות נתונים על הפרט. 00:04:24.792 --> 00:04:28.226 והטכנולוגיות האלה מנוצלות בכל מקום. 00:04:28.250 --> 00:04:30.643 בנקים משתמשים בהן כדי להחליט על הלוואות. 00:04:30.667 --> 00:04:33.042 חברות ביטוח משתמשות בהן כדי להחליט על פרמיות. 00:04:34.208 --> 00:04:36.684 מגייסים ומעסיקים משתמשים בהן 00:04:36.708 --> 00:04:39.625 כדי להחליט אם אדם מתאים למשרה או לא. 00:04:40.750 --> 00:04:43.851 גם המשטרה ובתי המשפט משתמשים בהן 00:04:43.875 --> 00:04:47.393 כדי לקבוע אם אדם הוא עבריין פוטנציאלי 00:04:47.417 --> 00:04:50.042 או אם הוא עשוי לחזור לבצע פשע. NOTE Paragraph 00:04:52.458 --> 00:04:56.518 אין לנו שום ידע או שליטה 00:04:56.542 --> 00:05:00.184 על הדרכים שבהן מי שקונה, מוכר ומעבד את הנתונים שלנו 00:05:00.208 --> 00:05:02.917 יוצרים את הפרופיל שלנו ושל ילדינו. 00:05:03.625 --> 00:05:07.667 אבל הפרופילים האלה יכולים להשפיע על זכויותינו בדרכים משמעותיות. NOTE Paragraph 00:05:08.917 --> 00:05:11.125 לשם ההדגמה, 00:05:13.792 --> 00:05:17.851 בשנת 2018 עיתון ה"ניו יורק טיימס" פרסם בחדשות 00:05:17.875 --> 00:05:19.851 שהנתונים שנאספו 00:05:19.875 --> 00:05:22.934 דרך שירותי תכנון מכללות באינטרנט 00:05:22.958 --> 00:05:27.684 שלמעשה ממולאים על ידי מיליונים של תלמידי תיכון ברחבי ארה"ב 00:05:27.708 --> 00:05:31.351 שמחפשים תכנית לימודים במכללה או מלגה 00:05:31.375 --> 00:05:34.417 נמכרו למתווכים הסוחרים בנתונים חינוכיים. 00:05:35.792 --> 00:05:41.226 כעת, חוקרים בפורדהאם שחקרו תיווך נתונים חינוכיים 00:05:41.250 --> 00:05:46.476 חשפו כי חברות אלה ערכו פרופיל של ילדים בגיל שנתיים 00:05:46.500 --> 00:05:49.559 על פי קטגוריות שונות: 00:05:49.583 --> 00:05:53.768 אתניות, דת, מעמד כלכלי, 00:05:53.792 --> 00:05:55.851 אי נוחות חברתית, 00:05:55.875 --> 00:05:58.809 ועוד קטגוריות אקראיות רבות אחרות. 00:05:58.833 --> 00:06:03.851 לאחר מכן הם מוכרים את הפרופילים האלה יחד עם שם הילד, 00:06:03.875 --> 00:06:06.684 כתובת הבית ופרטי ההתקשרות שלהם 00:06:06.708 --> 00:06:08.559 לחברות שונות, 00:06:08.583 --> 00:06:11.042 כולל מוסדות סחר וקריירה, 00:06:12.083 --> 00:06:13.351 הלוואות סטודנטים 00:06:13.375 --> 00:06:15.125 וחברות כרטיסי אשראי לסטודנטים. 00:06:16.542 --> 00:06:17.893 במטרה לבדוק את הגבולות, 00:06:17.917 --> 00:06:21.726 החוקרים בפורדהאם ביקשו ממתווך בנתונים חינוכיים 00:06:21.750 --> 00:06:27.559 לספק עבורם רשימה של נערות בנות 14- 15 00:06:27.583 --> 00:06:30.958 אשר הביעו התעניינות בשירותים לתכנון משפחה. 00:06:32.208 --> 00:06:34.684 מתווך הנתונים הסכים לספק להם את הרשימה. 00:06:34.708 --> 00:06:39.583 אז תארו לכם כמה אינטימי וכמה פולשני הדבר עבור ילדינו. 00:06:40.833 --> 00:06:44.809 אבל מתווכי נתונים חינוכיים הם באמת רק דוגמה. 00:06:44.833 --> 00:06:49.518 האמת היא שפרופיל ילדינו נוצר בדרכים שאיננו יכולים לשלוט בהן 00:06:49.542 --> 00:06:52.958 אבל זה יכול להשפיע באופן משמעותי על ההזדמנויות שלהם בחיים. NOTE Paragraph 00:06:54.167 --> 00:06:57.643 לכן עלינו לשאול את עצמנו: 00:06:57.667 --> 00:07:02.351 האם אנו יכולים לסמוך על הטכנולוגיות אלה כשמדובר ביצירת פרופיל לילדינו? 00:07:02.375 --> 00:07:03.625 האם אנחנו יכולים? 00:07:05.708 --> 00:07:07.488 התשובה שלי היא לא. 00:07:07.792 --> 00:07:09.059 כאנתרופולוגית, 00:07:09.083 --> 00:07:12.851 אני מאמינה שבינה מלאכותית ותחזית נתונים יכולות להיות נהדרות 00:07:12.875 --> 00:07:14.893 לחזות את מהלכה של מחלה 00:07:14.917 --> 00:07:16.750 או להילחם בשינויי אקלים. 00:07:18.000 --> 00:07:19.643 אבל עלינו לנטוש את האמונה 00:07:19.667 --> 00:07:23.351 כי הטכנולוגיות האלה מסוגלות ליצור פרופיל אנושי באופן אובייקטיבי 00:07:23.375 --> 00:07:26.559 ושאנחנו יכולים לסמוך עליהן בקבלת החלטות מונחות נתונים 00:07:26.583 --> 00:07:28.476 כשמדובר בחיי אדם. 00:07:28.500 --> 00:07:31.059 מכיוון שהן אינן מסוגלות ליצור פרופיל של אדם. 00:07:31.083 --> 00:07:34.434 עקבות נתונים אינן השתקפות של מי שאנחנו. 00:07:34.458 --> 00:07:36.559 בני אדם חושבים דבר אחד ואומרים את ההיפך, 00:07:36.583 --> 00:07:39.018 מרגישים באופן מסוים ופועלים אחרת. 00:07:39.042 --> 00:07:41.518 התחזיות האלגוריתמיות או הפרקטיקות הדיגיטליות שלנו 00:07:41.542 --> 00:07:46.708 אינן מסוגלות לחזות את החוויה האנושית המורכבת והבלתי צפויה. NOTE Paragraph 00:07:48.417 --> 00:07:49.976 בנוסף לכך, 00:07:50.000 --> 00:07:52.684 הטכנולוגיות האלה הן תמיד 00:07:52.708 --> 00:07:53.976 תמיד 00:07:54.000 --> 00:07:55.917 בדרך זו או אחרת, מוטות. 00:07:57.125 --> 00:08:02.184 אתם מבינים, האלגוריתמים הם בהגדרה אוסף של כללים או שלבים 00:08:02.208 --> 00:08:05.917 שתוכננו על מנת להשיג תוצאה ספציפית, בסדר? 00:08:06.833 --> 00:08:09.559 אך אוסף זה של כללים או שלבים אינו יכול להיות אובייקטיבי, 00:08:09.583 --> 00:08:11.726 כי הוא עוצב על ידי בני אדם 00:08:11.750 --> 00:08:13.476 בהקשר תרבותי ספציפי 00:08:13.500 --> 00:08:16.000 והוא מעוצב על פי ערכים תרבותיים ספציפיים. 00:08:16.667 --> 00:08:18.393 אז כשמכונות לומדות, 00:08:18.417 --> 00:08:20.667 הן לומדות מאלגוריתמים מוטים, 00:08:21.625 --> 00:08:24.833 ולעתים קרובות הן גם לומדות ממאגרי נתונים מוטים. NOTE Paragraph 00:08:25.833 --> 00:08:29.559 כרגע אנחנו רואים את הדוגמאות הראשונות להטיה אלגוריתמית. 00:08:29.583 --> 00:08:34.143 וכמה מהדוגמאות האלה ללא ספק מעוררות אימה. 00:08:34.500 --> 00:08:38.559 השנה מכון AI Now בניו יורק פרסם דו"ח 00:08:38.583 --> 00:08:40.976 שגילה כי טכנולוגיות בינה מלאכותית 00:08:41.000 --> 00:08:44.476 הנמצאות בשימוש השיטור המנבא 00:08:44.500 --> 00:08:48.135 הוכשרו באמצעות נתונים "מזוהמים". 00:08:48.333 --> 00:08:51.226 אלו בעצם נתונים אשר נאספו 00:08:51.250 --> 00:08:55.434 במהלך תקופות היסטוריות הידועות בהטייתן הגזעית 00:08:55.458 --> 00:08:58.298 ושיטות עבודה לא שקופות של המשטרה. 00:08:58.542 --> 00:09:02.601 מכיוון שטכנולוגיות אלה מאומנות בעזרת נתונים מזוהמים, 00:09:02.625 --> 00:09:04.059 הן אינן אובייקטיביות, 00:09:04.083 --> 00:09:08.601 והתוצאות שלהן רק מעצימות ומובילות 00:09:08.625 --> 00:09:10.250 להטיה ולטעויות של המשטרה. NOTE Paragraph 00:09:13.167 --> 00:09:16.309 אז אני חושבת שאנו עומדים מול בעיה עקרונית 00:09:16.333 --> 00:09:17.976 בחברה שלנו. 00:09:18.000 --> 00:09:22.792 אנו מתחילים לסמוך על טכנולוגיות כשמדובר ביצירת פרופיל של בני אדם. 00:09:23.750 --> 00:09:26.268 אנו יודעים שבניסיון ליצור פרופיל של אדם, 00:09:26.292 --> 00:09:29.101 הטכנולוגיות האלה תמיד יהיו מוטות 00:09:29.125 --> 00:09:31.851 ולעולם לא יהיו מדויקות באמת. 00:09:31.875 --> 00:09:34.809 אז מה שאנחנו צריכים עכשיו הוא למעשה פתרון פוליטי. 00:09:34.833 --> 00:09:39.542 אנחנו צריכים שממשלות יכירו בכך שזכויות הנתונים שלנו הן זכויות האדם שלנו. NOTE Paragraph 00:09:40.292 --> 00:09:44.375 (מחיאות כפיים וצהלות) NOTE Paragraph 00:09:47.833 --> 00:09:51.917 עד שזה יקרה, איננו יכולים לצפות לעתיד צודק יותר. 00:09:52.750 --> 00:09:55.476 אני דואגת שבנותיי יהיו חשופות 00:09:55.500 --> 00:09:59.226 לכל מיני אפליות וטעויות אלגוריתמיות. 00:09:59.250 --> 00:10:01.643 תבינו, ההבדל ביני לבין בנותיי 00:10:01.667 --> 00:10:04.851 הוא שאין רשומה ציבורית שם בחוץ על תקופת הילדות שלי. 00:10:04.875 --> 00:10:08.893 כמובן שאין מסד נתונים על כל הדברים המטופשים שעשיתי 00:10:08.917 --> 00:10:11.059 וחשבתי כשהייתי נערה. NOTE Paragraph 00:10:11.083 --> 00:10:12.583 (צחוק) NOTE Paragraph 00:10:13.833 --> 00:10:16.583 אבל עבור בנותיי זה עשוי להיות שונה. 00:10:17.292 --> 00:10:20.476 הנתונים שנאספים עליהן היום 00:10:20.500 --> 00:10:24.309 עלולים לשמש אמצעי לשפוט אותן בעתיד 00:10:24.333 --> 00:10:28.102 ויכולים למנוע את התקוות ואת החלומות שלהן. NOTE Paragraph 00:10:28.583 --> 00:10:30.101 אני חושבת שהגיע הזמן. 00:10:30.125 --> 00:10:31.559 הגיע הזמן שכולנו ניקח חלק. 00:10:31.583 --> 00:10:34.059 הגיע הזמן שנתחיל לעבוד ביחד 00:10:34.083 --> 00:10:35.518 כיחידים, 00:10:35.542 --> 00:10:38.059 כארגונים וכמוסדות, 00:10:38.083 --> 00:10:41.184 ושנדרוש צדק נתונים גדול יותר עבורנו 00:10:41.208 --> 00:10:42.601 ועבור ילדינו 00:10:42.625 --> 00:10:44.143 לפני שיהיה מאוחר מדיי. NOTE Paragraph 00:10:44.167 --> 00:10:45.434 תודה רבה. NOTE Paragraph 00:10:45.458 --> 00:10:46.875 (מחיאות כפיים)