Hebrew 字幕

מה חברות הטכנולוגיה יודעות על הילדים שלכם

埋め込みコードを取得する
36言語

Showing Revision 10 created 06/27/2020 by Sigal Tifferet.

  1. כל יום, כל שבוע,
  2. אנו מסכימים לתנאים ולהגבלות.
  3. וכשאנחנו עושים זאת,
  4. אנחנו מספקים לחברות את הזכות החוקית
  5. לעשות מה שהם רוצים עם הנתונים שלנו
  6. ועם הנתונים של ילדינו.
  7. מה שגורם לנו לתהות:
  8. כמה נתונים על ילדים אנו מוסרים,
  9. ומה ההשלכות של כך?
  10. אני אנתרופולוגית,

  11. ואני גם אימא לשתי ילדות קטנות.
  12. והתחלתי להתעניין בשאלה זו בשנת 2015
  13. כשלפתע הבנתי שהיו כמויות עצומות
  14. כמויות כמעט בלתי נתפסות של עקבות נתונים
  15. אשר מיוצרים ונאספים בקשר לילדים.
  16. אז השקתי פרויקט מחקר,
  17. בשם נתוני אזרח ילד,
  18. וכיוונתי למלא את החסר.
  19. כעת אתם עשויים לחשוב
    שאני כאן כדי להאשים אתכם

  20. על כך שאתם מפרסמים תמונות
    של ילדיכם במדיה החברתית,
  21. אבל זה לא באמת העניין.
  22. הבעיה היא הרבה יותר גדולה
    ממה שמכונה "שיתוף יתר של הורים".
  23. העניין כאן הוא מערכות, ולא יחידים.
  24. אתם וההרגלים שלכם אינם אשמים.
  25. בפעם הראשונה בהיסטוריה,

  26. אנו עוקבים אחר הנתונים האישיים של ילדים
  27. הרבה לפני שהם נולדים,
  28. לפעמים מרגע ההתעברות,
  29. ואז לאורך חייהם.
  30. אתם מבינים, כשההורים מחליטים להרות,
  31. הם נכנסים לאינטרנט לחפש
    אחר "דרכים להיכנס להריון"
  32. או שהם מורידים אפליקציות למעקב אחר ביוץ.
  33. כשהם נכנסים להריון,
  34. הם מפרסמים את תוצאות האולטרסאונד
    של תינוקותיהם במדיה החברתית,
  35. הם מורידים אפליקציות להריון
  36. או שהם מתייעצים עם ד"ר גוגל
    בכל מיני עניינים,
  37. למשל, אתם יודעים -
  38. לגבי "הסיכון להפיל בזמן טיסה"
  39. או "התכווצויות בטן בתחילת ההיריון."
  40. אני יודעת כי אני עשיתי את זה -
  41. הרבה פעמים.
  42. ואז, כשהתינוק נולד,
    הם עוקבים אחר כל תנומה,
  43. כל האכלה,
  44. כל אירוע בחיים על גבי טכנולוגיות שונות.
  45. וכל הטכנולוגיות האלה
  46. הופכות את נתוני ההתנהגות והבריאות
    הכי אינטימיים של התינוק לרווח
  47. בכך שהן משתפות אותם עם אחרים.
  48. אז כדי לתת לכם מושג איך זה עובד,

  49. בשנת 2019, כתב העת הרפואי הבריטי
    פרסם מחקר שהראה
  50. כי מתוך 24 אפליקציות בריאות לנייד,
  51. 19 שיתפו את המידע עם צד שלישי.
  52. ואלה שבצד שלישי שיתפו מידע
    עם 216 ארגונים אחרים.
  53. מבין 216 אלה שהיוו צד רביעי,
  54. רק שלושה היו שייכים לענף הבריאות.
  55. החברות האחרות שהייתה להן גישה
    לנתונים האלה היו חברות טכנולוגיה גדולות
  56. כמו גוגל, פייסבוק או אורקל,
  57. הם היו חברות פרסום דיגיטלי
  58. וכן הייתה סוכנות לדיווח על אשראי צרכני.
  59. אז אתם מבינים את זה נכון:
  60. חברות פרסום וסוכנויות אשראי כבר עשויות
    להחזיק בחלקי נתונים על תינוקות קטנים.
  61. אבל אפליקציות לנייד,
    חיפושים ברשת ומדיה חברתית
  62. הם ממש רק קצה הקרחון,
  63. משום שמעקב אחר ילדים
    מתבצע דרך מספר טכנולוגיות
  64. בחיי היומיום שלהם.
  65. עוקבים אחריהם דרך טכנולוגיות ביתיות
    ועוזרים וירטואליים בבתיהם.
  66. עוקבים אחריהם דרך פלטפורמות חינוכיות
  67. וטכנולוגיות חינוכיות בבתי הספר שלהם.
  68. עוקבים אחריהם דרך רשומות מקוונות
  69. ופורטלים מקוונים במשרד הרופא שלהם.
  70. עוקבים אחריהם דרך צעצועיהם
    המחוברים לאינטרנט,
  71. המשחקים המקוונים שלהם
  72. ועוד הרבה, הרבה, הרבה
    הרבה טכנולוגיות אחרות.
  73. אז במהלך המחקר שלי,

  74. הורים רבים ניגשו אלי
    והם אמרו משהו כמו, "אז מה?"
  75. למה זה משנה אם עוקבים אחרי הילדים שלי?
  76. "אין לנו מה להסתיר".
  77. ובכן, זה משנה.
  78. זה משנה כי היום אנשים
    לא רק נמצאים תחת מעקב,
  79. הם גם מקבלים פרופיל
    בהתאם לעקבות הנתונים שלהם.
  80. בינה מלאכותית וניתוח תחזיות משמשים
  81. לרתום כמה שיותר נתונים
    מתוך חייו הפרטיים של אדם
  82. ממקורות שונים:
  83. היסטוריה משפחתית, הרגלי קנייה,
    הערות ברשתות החברתיות.
  84. ואז הם מחברים את הנתונים האלה
  85. במטרה לקבל החלטות
    מונחות נתונים על הפרט.
  86. והטכנולוגיות האלה מנוצלות בכל מקום.
  87. בנקים משתמשים בהן כדי להחליט על הלוואות.
  88. חברות ביטוח משתמשות בהן
    כדי להחליט על פרמיות.
  89. מגייסים ומעסיקים משתמשים בהן
  90. כדי להחליט אם אדם מתאים למשרה או לא.
  91. גם המשטרה ובתי המשפט משתמשים בהן
  92. כדי לקבוע אם אדם הוא עבריין פוטנציאלי
  93. או אם הוא עשוי לחזור לבצע פשע.
  94. אין לנו שום ידע או שליטה

  95. על הדרכים שבהן מי שקונה,
    מוכר ומעבד את הנתונים שלנו
  96. יוצרים את הפרופיל שלנו ושל ילדינו.
  97. אבל הפרופילים האלה יכולים להשפיע
    על זכויותינו בדרכים משמעותיות.
  98. לשם ההדגמה,

  99. בשנת 2018 עיתון ה"ניו יורק טיימס"
    פרסם בחדשות
  100. שהנתונים שנאספו
  101. דרך שירותי תכנון מכללות באינטרנט
  102. שלמעשה ממולאים על ידי מיליונים
    של תלמידי תיכון ברחבי ארה"ב
  103. שמחפשים תכנית לימודים במכללה או מלגה
  104. נמכרו למתווכים הסוחרים בנתונים חינוכיים.
  105. כעת, חוקרים בפורדהאם
    שחקרו תיווך נתונים חינוכיים
  106. חשפו כי חברות אלה
    ערכו פרופיל של ילדים בגיל שנתיים
  107. על פי קטגוריות שונות:
  108. אתניות, דת, מעמד כלכלי,
  109. אי נוחות חברתית,
  110. ועוד קטגוריות אקראיות רבות אחרות.
  111. לאחר מכן הם מוכרים את הפרופילים האלה
    יחד עם שם הילד,
  112. כתובת הבית ופרטי ההתקשרות שלהם
  113. לחברות שונות,
  114. כולל מוסדות סחר וקריירה,
  115. הלוואות סטודנטים
  116. וחברות כרטיסי אשראי לסטודנטים.
  117. במטרה לבדוק את הגבולות,
  118. החוקרים בפורדהאם
    ביקשו ממתווך בנתונים חינוכיים
  119. לספק עבורם רשימה של נערות בנות 14- 15
  120. אשר הביעו התעניינות בשירותים לתכנון משפחה.
  121. מתווך הנתונים הסכים לספק להם את הרשימה.
  122. אז תארו לכם כמה אינטימי
    וכמה פולשני הדבר עבור ילדינו.
  123. אבל מתווכי נתונים חינוכיים
    הם באמת רק דוגמה.
  124. האמת היא שפרופיל ילדינו
    נוצר בדרכים שאיננו יכולים לשלוט בהן
  125. אבל זה יכול להשפיע באופן משמעותי
    על ההזדמנויות שלהם בחיים.
  126. לכן עלינו לשאול את עצמנו:

  127. האם אנו יכולים לסמוך על הטכנולוגיות אלה
    כשמדובר ביצירת פרופיל לילדינו?
  128. האם אנחנו יכולים?
  129. התשובה שלי היא לא.
  130. כאנתרופולוגית,
  131. אני מאמינה שבינה מלאכותית
    ותחזית נתונים יכולות להיות נהדרות
  132. לחזות את מהלכה של מחלה
  133. או להילחם בשינויי אקלים.
  134. אבל עלינו לנטוש את האמונה
  135. כי הטכנולוגיות האלה מסוגלות
    ליצור פרופיל אנושי באופן אובייקטיבי
  136. ושאנחנו יכולים לסמוך עליהן
    בקבלת החלטות מונחות נתונים
  137. כשמדובר בחיי אדם.
  138. מכיוון שהן אינן מסוגלות
    ליצור פרופיל של אדם.
  139. עקבות נתונים אינן השתקפות של מי שאנחנו.
  140. בני אדם חושבים דבר אחד ואומרים את ההיפך,
  141. מרגישים באופן מסוים ופועלים אחרת.
  142. התחזיות האלגוריתמיות
    או הפרקטיקות הדיגיטליות שלנו
  143. אינן מסוגלות לחזות את החוויה האנושית
    המורכבת והבלתי צפויה.
  144. בנוסף לכך,

  145. הטכנולוגיות האלה הן תמיד
  146. תמיד
  147. בדרך זו או אחרת, מוטות.
  148. אתם מבינים, האלגוריתמים הם בהגדרה
    אוסף של כללים או שלבים
  149. שתוכננו על מנת להשיג תוצאה ספציפית, בסדר?
  150. אך אוסף זה של כללים או שלבים
    אינו יכול להיות אובייקטיבי,
  151. כי הוא עוצב על ידי בני אדם
  152. בהקשר תרבותי ספציפי
  153. והוא מעוצב על פי ערכים תרבותיים ספציפיים.
  154. אז כשמכונות לומדות,
  155. הן לומדות מאלגוריתמים מוטים,
  156. ולעתים קרובות הן גם לומדות
    ממאגרי נתונים מוטים.
  157. כרגע אנחנו רואים את הדוגמאות
    הראשונות להטיה אלגוריתמית.

  158. וכמה מהדוגמאות האלה ללא ספק מעוררות אימה.
  159. השנה מכון AI Now בניו יורק פרסם דו"ח
  160. שגילה כי טכנולוגיות בינה מלאכותית
  161. הנמצאות בשימוש השיטור המנבא
  162. הוכשרו באמצעות נתונים "מזוהמים".
  163. אלו בעצם נתונים אשר נאספו
  164. במהלך תקופות היסטוריות
    הידועות בהטייתן הגזעית
  165. ושיטות עבודה לא שקופות של המשטרה.
  166. מכיוון שטכנולוגיות אלה
    מאומנות בעזרת נתונים מזוהמים,
  167. הן אינן אובייקטיביות,
  168. והתוצאות שלהן רק מעצימות ומובילות
  169. להטיה ולטעויות של המשטרה.
  170. אז אני חושבת שאנו עומדים מול בעיה עקרונית

  171. בחברה שלנו.
  172. אנו מתחילים לסמוך על טכנולוגיות
    כשמדובר ביצירת פרופיל של בני אדם.
  173. אנו יודעים שבניסיון ליצור פרופיל של אדם,
  174. הטכנולוגיות האלה תמיד יהיו מוטות
  175. ולעולם לא יהיו מדויקות באמת.
  176. אז מה שאנחנו צריכים עכשיו
    הוא למעשה פתרון פוליטי.
  177. אנחנו צריכים שממשלות יכירו בכך
    שזכויות הנתונים שלנו הן זכויות האדם שלנו.
  178. (מחיאות כפיים וצהלות)

  179. עד שזה יקרה, איננו יכולים לצפות
    לעתיד צודק יותר.

  180. אני דואגת שבנותיי יהיו חשופות
  181. לכל מיני אפליות וטעויות אלגוריתמיות.
  182. תבינו, ההבדל ביני לבין בנותיי
  183. הוא שאין רשומה ציבורית
    שם בחוץ על תקופת הילדות שלי.
  184. כמובן שאין מסד נתונים
    על כל הדברים המטופשים שעשיתי
  185. וחשבתי כשהייתי נערה.
  186. (צחוק)

  187. אבל עבור בנותיי זה עשוי להיות שונה.

  188. הנתונים שנאספים עליהן היום
  189. עלולים לשמש אמצעי לשפוט אותן בעתיד
  190. ויכולים למנוע את התקוות ואת החלומות שלהן.
  191. אני חושבת שהגיע הזמן.

  192. הגיע הזמן שכולנו ניקח חלק.
  193. הגיע הזמן שנתחיל לעבוד ביחד
  194. כיחידים,
  195. כארגונים וכמוסדות,
  196. ושנדרוש צדק נתונים גדול יותר עבורנו
  197. ועבור ילדינו
  198. לפני שיהיה מאוחר מדיי.
  199. תודה רבה.

  200. (מחיאות כפיים)