Persian 字幕

چیزهایی که شرکت‌های فناور در مورد فرزندان‌تان می‌دانند

埋め込みコードを取得する
36言語

Showing Revision 16 created 08/01/2020 by Masoud Motamedifar.

  1. هر روز، هر هفته،
  2. ما با شرایط و مواد
    قراردادها موافقت می‌کنیم.
  3. و هنگامی که این کار را می‌کنیم،
  4. به شرکت‌ها به لحاظ قانونی حق می‌دهیم
  5. تا هر چه می‌خواهند با داده‌های ما
  6. و داده‌های فرزندانمان انجام دهند.
  7. که موجب تعجب است:
  8. چه مقدار از اطلاعات فرزندان را
    ما در اختیار دیگران می‌گذاریم،
  9. و عواقب آن چیست؟
  10. من یک انسان‌شناس هستم،

  11. و همچنین مادر دو دختر کوچک.
  12. و من از سال ۲۰۱۵ به این سوال علاقمند شدم
  13. زمانی که ناگهان دریافتم
    که تقریباً اطلاعات
  14. بسیار گسترده و غیرقابل تصوری
  15. دارد در مورد کودکان تولید
    و جمع‌آوری می‌شود.
  16. بنابراین یک پروژه تحقیقاتی را آغاز کردم،
  17. که «شهروند داده‌های کودک» نام دارد،
  18. و قصد داشتم این جای خالی را پر کنم.
  19. حالا ممکن است فکر کنید
    قصد دارم شما را مقصر بدانم

  20. برای اینکه عکس فرزندان‌تان را
    در فضای مجازی می‌گذارید،
  21. اما واقعاً بحث من این نیست.
  22. مسئله بسیار بزرگتر از چیزی به نام
    «دراختیارگذاری اطلاعات و تصاویر کودک» است.
  23. این موضوع در مورد نظام است نه افراد.
  24. قرار نیست شما و عادات‌تان را مقصر بدانیم.
  25. برای اولین بار در تاریخ،

  26. ما داریم داده‌های انفرادی
    کودکان را ردیابی می‌کنیم
  27. آن هم مدت‌ها قبل از تولد--
  28. گاهی از لحظه تصمیم‌گیری برای حاملگی،
  29. و سپس در طول حیاتشان.
  30. می‌بینید، زمانی که والدین تصمیم
    به فرزندآوری می‌گیرند،
  31. به اینترنت مراجعه می‌کنند
    تا «روش‌های باردار شدن» را جستجو کنند،
  32. یا اپلیکیشن‌های ردیابی
    تخمک‌گذاری را دانلود می‌کنند.
  33. هنگامی که باردار می‌شوند،
  34. فرا‌صوت رادیویی نوزادشان را
    در فضای مجازی می‌فرستند،
  35. اپلیکیشن‌های حاملگی را دانلود می‌کنند
  36. یا در مورد همه چیز
    با دکتر گوگل مشورت می‌کنند،
  37. می‌دانید، مثل --
  38. «خطر سقط جنین هنگام پرواز با هواپیما»
  39. یا «گرفتگی عضلات شکم در ابتدای بارداری.»
  40. می‌دانم چون خودم این کار را کرده‌ام --
  41. و دفعات بسیار.
  42. و هنگامی که نوزاد متولد می‌شود
    همه چیز را ردیابی می‌کنند
  43. هر چُرت، هر غذا دادن،
  44. هر رویداد حیاتی را با فناوری‌های مختلف
    پیگیری می‌کنند.
  45. همه این فناوری‌ها
  46. خصوصی‌ترین رفتار و داده‌های سلامت
    کودک را به سود تبدیل می‌کنند
  47. تنها با به اشتراک گذاری آن با دیگران.
  48. برای اینکه به شما بفهمانم چطور عمل می‌کند،

  49. در سال ۲۰۱۹، بریتیش مدیکال ژورنال
    پژوهشی منتشر کرد که نشان می‌داد
  50. از هر ۲۴ اپلیکیشن حوزه سلامت،
  51. ۱۹ مورد اطلاعات را در اختیار
    یک گروه ثالث می‌گذارند.
  52. و این گروه‌های ثالث اطلاعات را
    در اختیار ۲۱۶ سازمان دیگر می‌گذارند.
  53. از این ۲۱۶ تا بعنوان گروه چهارم،
  54. فقط سه مورد متعلق به بخش سلامت بودند.
  55. دیگر شرکت‌هایی که به این داده‌ها دسترسی
    داشتند، شرکت‌های بزرگ فناوری بودند
  56. همچون گوگل، فیس‌بوک و اراکل،
  57. آن‌ها شرکت‌های تبلیغات دیجیتالی بودند
  58. و یک مرکز اعتبارسنجی مشتریان هم وجود داشت.
  59. درست متوجه شدید:
  60. شرکت‌های تبلیغاتی و مراکز اعتبارسنجی
    احتمالا اطلاعات مربوط به نوزادان را دارند.
  61. اما برنامه‌‌های موبایل، جستجوگرهای وب
    و شبکه‌های اجتماعی
  62. تنها قله یک کوه یخ هستند،
  63. چون کودکان دارند توسط فناوری‌‌های
    چندگانه در هر روز
  64. از زندگی‌شان ردیابی می‌شوند.
  65. کودکان توسط فناوری‌های خانگی
    و دستیاران مجازی در منزل ردیابی می‌شوند.
  66. کودکان توسط محمل‌های آموزشی
  67. و فناوری‌های آموزشی
    در مدارس‌شان ردیابی می‌شوند.
  68. آن‌ها توسط رکوردهای آنلاین
  69. و پورتال‌های آنلاین
    در مطب پزشک ردیابی می‌شوند.
  70. آن‌ها توسط اسباب‌بازی‌های متصل به اینترنت،
  71. بازی‌های آنلاین و بسیار،
  72. بسیار، بسیار، بسیار
    فناوری‌های دیگر ردیابی می‌شوند.
  73. بنابراین در طی تحقیقم،

  74. بسیاری از والدین پیش من می‌آمدند
    و می‌گفتند، «حالا که چه؟
  75. چه اهمیتی دارد که کودکان ردیابی می‌شوند؟
    ما چیزی برای

  76. پنهان کردن نداریم.»
  77. خوب، این قضیه اهمیت دارد.
  78. مهم است چون امروز
    افراد فقط ردیابی نمی‌شوند،
  79. افراد همچنین بر اساس داده‌ها
    طبقه‌بندی می‌شوند.
  80. هوش مصنوعی و تحلیلگرهای
    پیش‌بینی‌کننده به کار برده می‌شوند
  81. تا در حد ممکن داده‌های زندگی
    شخصی افراد از منابع مختلف
  82. به خدمت گرفته شود:
  83. منابعی چون تاریخچه خانوادگی، رفتارهای
    خرید، پیام‌های شبکه‌های اجتماعی.
  84. سپس این داده‌ها را جمع می‌کنند
  85. تا تصمیمات حاصل
    از داده‌های افراد اتخاذ شود.
  86. و این فناوری‌ها همه جا به کار می‌روند.
  87. بانک‌ها برای تصمیم‌گیری در مورد وام‌ها
  88. و بیمه برای محاسبه مزایا
    از این‌ها استفاده می‌کند.
  89. استخدام‌کنندگان و کارگزینان
    برای اینکه ببینند
  90. کسی برای شغلی مناسب است
    از اینها استفاده می‌کنند.
  91. همچنین پلیس و دادگاه‌ها برای تعیین
    اینکه کسی مجرم بالقوه است
  92. یا برای تشخیص احتمال ارتکاب دوباره جرم
  93. از اینها استفاده می‌کنند.
  94. ما هیچگونه آگاهی یا کنترلی نداریم

  95. در مورد روشی که داده‌های
    ما خرید و فروش می‌شود یا فرآیندی
  96. که ما و فرزندان‌مان را طبقه‌بندی می‌کند.
  97. اما این طبقه‌بندی‌ها می‌تواند
    بر حقوق ما به شکل چشمگیری اثر بگذارد.
  98. بعنوان مثال،

  99. در سال ۲۰۱۸ «نیویورک تایمز» خبری منتشر کرد
  100. که داده‌هایی که از طریق خدمات
  101. برنامه‌ریزی دانشگاهی آنلاین
    جمع‌آوری شده بود --
  102. که در واقع توسط میلیون‌ها بچه دبیرستانی
    در سراسر امریکا تکمیل می‌شود
  103. که در پی یک طرح دانشگاهی
    یا یک کمک هزینه تحصیلی هستند --
  104. به دلالان داده‌های آموزشی فروخته شده بود.
  105. اکنون، محققین در فوردهام که دلالان
    داده‌های آموزشی را مطالعه کرده‌اند
  106. فاش کرده‌اند که این شرکت‌ها بچه‌ها را
    حتی از سنین دو سالگی دسته‌بندی می‌کنند
  107. بر اساس طبقه‌بندی‌های مختلف:
  108. نژاد، مذهب، ثروت،
  109. ناسازگاری اجتماعی
  110. و بسیاری از دیگر طبقه‌بندی‌های تصادفی.
  111. و سپس این طبقه‌بندی‌ها را با اسم بچه،
  112. آدرس منزل و جزئیات تماس
  113. به شرکت‌های مختلف می‌فروشند،
  114. شرکت‌هایی شامل موسسات کار و تجارت،
  115. وام‌های دانشجویی
  116. و شرکت‌های کارت‌های اعتباری دانشجویی.
  117. برای جزئیات بیشتر،
  118. محققان در فوردهام از
    یک دلال داده آموزشی خواستند
  119. تا لیستی از دختران ۱۴
    تا ۱۵ ساله را فراهم کند
  120. که به خدمات برنامه‌ریزی
    خانوادگی علاقه دارند.
  121. دلال داده موافقت کرد
    که این لیست را به آن‌ها بدهد.
  122. حالا تصور کنید که این چقدر برای
    فرزندان‌مان محرمانه و نوعی فضولی است.
  123. اما دلال داده‌های آموزشی
    فقط یک نمونه هستند.
  124. حقیقت این است که بچه‌های ما به طریقی که
    توسط ما قابل کنترل نیست، طبقه‌بندی می‌شوند
  125. اما این می‌تواند بطور چشمگیری بختشان
    در زندگی را تحت تأثیر قرار دهد.
  126. پس نیاز است از خودمان بپرسیم:

  127. آیا می‌توانیم به این فناوری‌ها اعتماد کنیم
    در حالی که کودکان را طبقه‌بندی می‌کنند؟
  128. می‌توانیم؟
  129. پاسخ من خیر است.
  130. بعنوان یک انسان‌شناس
  131. معتقدم که هوش مصنوعی و تحلیلگران
    پیش‌بینی کننده می‌توانند خیلی خوب باشند
  132. برای پیش‌بینی مسیر یک بیماری
  133. یا مبارزه با تغییرات آب و هوایی.
  134. اما باید این باور را رها کنیم
  135. که این فناوری‌ها می‌توانند
    بیطرفانه انسان‌ها را طبقه‌بندی کنند
  136. و اینکه می‌توانیم به آن‌ها
    اعتماد کنیم تا تصمیمات را بر مبنای
  137. داده‌های زندگی شخصی افراد بگیرند.
  138. چون نمی‌توانند انسان‌ها را طبقه‌بندی کنند.
  139. آثار داده‌ها آیینه‌ای از واقعیت شما نیست.
  140. انسان‌ها جوری فکر می‌کنند
    اما خلافش را می‌گویند،
  141. جوری احساس می‌کنند
    ولی متفاوت عمل می‌کنند.
  142. پیش‌بینی‌های الگوریتمی یا محاسبات دیجیتال
  143. نمی‌تواند مبنایی منطبق بر غیرقابل
    پیش‌بینی بودن و پیچیدگی تجربه انسانی باشد.
  144. اما مهمتر از همه اینکه

  145. این فناوری‌ها همیشه --
  146. همیشه --
  147. به طریقی سوگیری مشخصی دارند.
  148. می‌دانیم که الگوریتم‌ها دسته‌ای
    از قوانین و مراحل هستند
  149. که برای حصول نتیجه مشخصی
    طراحی شده‌اند، درست؟
  150. اما این دسته‌های قوانین و مراحل
    نمی‌توانند بیطرف باشند،
  151. چون توسط انسان‌ها طراحی شده‌اند
  152. و در یک زمینه فرهنگی خاص
  153. و با ارزش‌های فرهنگی خاصی شکل گرفته‌اند.
  154. بنابراین وقتی ماشین‌ها یاد می‌گیرند،
  155. از الگوریتم‌های با سوگیری
    خاصی یاد می‌گیرند،
  156. همچنین از پایگاه‌های داده
    با سوگیری خاص یاد می‌گیرند.
  157. در این لحظه، داریم اولین نمونه
    سوگیری الگوریتمی را مشاهده می‌کنیم.

  158. و برخی از این نمونه‌ها
    واقعاً ترسناک هستند.
  159. امسال، ای‌آی ناو انستیتو
    در نیویورک گزارشی منتشر کرد
  160. که فاش می‌کرد فناوری‌های هوش مصنوعی
  161. که برای نظارت پلیسی پیشگویانه
    مورد استفاده هستند
  162. با داده‌های «کثیف» آموزش دیده‌اند.
  163. یعنی اطلاعاتی که اساساً
  164. از زمان تاریخی تعصبات نژادی
  165. و اعمال پلیسی غیرشفاف جمع‌آوری شده‌اند.
  166. چون این فناوری‌ها با داد‌های
    «کثیف» آموزش می‌بینند،
  167. بیطرف نیستند،
  168. و خروجی آن‌ها فقط موجب تقویت و ارتکاب
  169. تبعیض و خطای پلیسی می‌شود.
  170. بنابراین فکر می‌کنم
    با یک مشکل اساسی در جامعه

  171. روبرو هستیم.
  172. ما داریم به فناوری‌هایی اعتماد می‌کنیم
    که انسان‌ها را طبقه‌بندی می‌کنند.
  173. می‌دانیم که در طبقه‌بندی انسان‌ها،
  174. این فناوری‌ها همواره سوگیری خاصی دارند
  175. و هرگز نمی‌توانند صحیح باشند.
  176. بنابراین واقعاً
    به راه حل سیاسی نیاز داریم.
  177. دولت‌ها باید بدانند که داده‌های ما
    جزء حقوق انسانی ماست.
  178. (تشویق و هورا)

  179. تا زمانی که این محقق نشود
    نمی‌توانیم منتظر آینده عادلانه‌تری باشیم.

  180. نگرانم که دخترانم در معرض
  181. تمام این خطاها و تبعیضات
    الگوریتمی قرار بگیرند.
  182. می‌دانید تفاوت من و دخترانم
  183. این است که هیچ پرونده عمومی
    از دوران کودکی من وجود ندارد.
  184. مشخصاً هیچ پایگاه داده‌ای
    از تمام کارها و افکار احمقانه‌ام
  185. در زمان نوجوانی وجود ندارد.
  186. (خنده)

  187. اما در مورد دخترانم قضیه متفاوت است.

  188. داده‌هایی که امروز در مورد
    آن‌ها جمع‌آوری می‌شود
  189. می‌تواند برای قضاوت در مورد
    آن‌ها در آینده به کار گرفته شود
  190. و می‌تواند امیدها
    و رویاهای‌شان را سرکوب کند.
  191. فکر می‌کنم وقتش است.

  192. وقت آن است که قیام کنیم.
  193. وقت آن است که تک تک ما با هم همکاری کنیم،
  194. بعنوان افراد،
  195. بعنوان سازمان‌ها و بعنوان موسسات،
  196. و تقاضا کنیم که عدالت داده‌ای
    بیشتری برای خودمان و برای
  197. فرزندان‌مان وجود داشته باشد
  198. قبل از اینکه خیلی دیر شود.
  199. متشکرم،

  200. (تشویق)