Arabic 字幕

ماذا تعرف شركات التكنولوجيا عن أطفالك

埋め込みコードを取得する
36言語

Showing Revision 23 created 07/27/2020 by Riyad Altayeb.

  1. كل يوم، كل أسبوع،
  2. نوافق على شروط وأحكام.
  3. وعندما نفعل ذلك،
  4. نزود الشركات بالحق القانوني
  5. لفعل ما تريده بالبيانات الخاصة بنا
  6. وبيانات أطفالنا.
  7. ما يجعلنا نتساءل:
  8. كم من البيانات التي نمنحها عن الأطفال،
  9. وما هي آثارها؟
  10. أنا عالمة أنثروبولوجيا،

  11. وأيضاً أم لطفلتين صغيرتين.
  12. وبدأ اهتمامي بهذا السؤال في 2015
  13. عندما أدركت فجأة أن ثمّة
  14. كميات هائلة لا يمكن تخيلها
    من تتبع البيانات
  15. التي يتم إنتاجها وتجميعها عن الأطفال.
  16. لذلك بدأت مشروعاً بحثياً،
  17. والذي يسمى مواطن بيانات الطفل،
  18. وأهدف إلى ملء الفراغ.
  19. الآن ربما تفكر أنني ألومك

  20. لنشر صور أطفالك
    على وسائل التواصل الاجتماعي،
  21. لكن هذا ليس الهدف.
  22. المشكلة أكبر بكثير مما يسمى بـ "المشاركة".
  23. هذا عن الأنظمة وليس عن الأفراد.
  24. لا تُلامون أنتم وعاداتكم.
  25. لأول مرة في التاريخ،

  26. نقوم بتتبع البيانات الفردية للأطفال
  27. منذ وقت طويل قبل ولادتهم -
  28. ومن لحظة الحمل أحياناً،
  29. وخلال حياتهم بعد ذلك.
  30. كما تعرفون، عندما يقرر الآباء الحمل،
  31. يبحثون عبر الإنترنت عن "طرق الحمل"
  32. أو يقومون بتحميل تطبيقات تتبع التبويض.
  33. عندما يحصل الحمل،
  34. ينشرون الموجات فوق الصوتية لأطفالهم
    على وسائل التواصل الاجتماعي،
  35. يقومون بتحميل تطبيقات الحمل
  36. أو استشارة دكتور جوجل لهذه الأشياء،
  37. مثل، كما تعرفون-
  38. عن "مخاطر الإجهاض عند الطيران"
  39. أو "تشنجات البطن في وقت مبكر من الحمل."
  40. أعلم لأنني فعلت ذلك -
  41. مرات عديدة.
  42. عندما يولد الطفل وبعد ذلك،
    يتتبعون كل قيلولة،
  43. كل وجبة،
  44. كل حدث في حياته على تقنيات مختلفة.
  45. وتحول كل هذه التقنيات
  46. البيانات الخاصة بصحة الطفل
    وسلوكه الأكثر خصوصية إلى ربح
  47. بمشاركتها مع الآخرين.
  48. لأبين لكم فكرة عمل هذا،

  49. في 2019، نشرت المجلة الطبية
    البريطانية بحثاً يوضح
  50. أن من كل 24 تطبيقاً خاصاً بالهاتف المحمول،
  51. ينشر 19 منهم معلومات مع أطراف ثالثة.
  52. وتقوم هذه الأطراف بمشاركة
    المعلومات مع 216 منظمة أخرى.
  53. ومن هذه الـ 216 طرف رابع،
  54. ينتمي 3 منهم فقط للقطاع الطبي.
  55. الشركات الأخرى التي كان لها إمكانية الوصول
    لهذه البيانات هي شركات التقنية الكبرى
  56. مثل جوجل أو فيسبوك أو أوراكل،
  57. وهم شركات إعلان رقمية
  58. وكان هناك أيضاً وكالة تقارير
    ائتمان المستهلك.
  59. لذا ما فهمته صحيحاً:
  60. الشركات الإعلانية ووكالات الائتمان
    لديها بالفعل بيانات عن الأطفال الصغار.
  61. لكن تطبيقات الهاتف المحمول وبحث
    الإنترنت ووسائل التواصل الاجتماعي
  62. في الحقيقة مجرد غيض من فيض،
  63. لأنه يتم تعقب الأطفال بواسطة تقنيات متعددة
  64. في حياتهم اليومية.
  65. يتم تتبعهم من خلال التقنيات المنزلية
    والمساعدين الافتراضيين في منازلهم.
  66. من خلال المنصات التعليمية
  67. والتقنيات التعليمية في مدارسهم.
  68. ومن خلال التسجيلات عبر الإنترنت
  69. والبوابات الالكترونية في العيادات.
  70. يتم تعقبهم من خلال ألعابهم
    المتصلة بالإنترنت،
  71. ألعابهم على الإنترنت
  72. والكثير والكثير من التقنيات الأخرى.
  73. لذا أثناء قيامي بالبحث،

  74. جاءني الكثير من الآباء وسألوني: "ماذا بعد؟
  75. ما القضية إذا تم تعقب أطفالي؟
  76. ليس لدينا ما نخفيه."
  77. حسناً، إنه يهم.
  78. يهم لأن الأفراد اليوم لا يتم تعقبهم فقط،
  79. يتم أيضاً تصنيفهم حسب البيانات الخاصة بهم.
  80. يتم استخدام الذكاء الصناعي
    والتحليلات التنبؤية
  81. لتسخير أكبر قدر ممكن من البيانات
  82. من مصادر مختلفة:
  83. تاريخ العائلة وعادات الشراء
    وتعليقات وسائل التواصل الاجتماعي.
  84. ثم يتم تجميع البيانات معاً
  85. لاتخاذ قرارات مبنية على بيانات الفرد.
  86. ويتم استخدام هذه التقنية في كل مكان.
  87. تستخدمها البنوك لإقرار القروض.
  88. ويستخدمها التأمين لتحديد الأقساط.
  89. يستخدمها مسؤولو التوظيف وأرباب العمل
  90. ليقرروا ما إذا كان أحد مناسباً للعمل
    أم لا.
  91. وأيضاً تستخدمها الشرطة والمحاكم
  92. لتحديد ما إذا كان أحدهم مجرماً محتملاً
  93. أو من المحتمل أن يعيد ارتكاب الجريمة.
  94. ليس لدينا أي معرفة أو سيطرة

  95. على الطرق التي يقوم بها أولئك الذين
    يشترون بياناتنا ويبيعونها ويعالجونها
  96. لتوصيف هويتنا وأطفالنا.
  97. لكن هذه الملفات الشخصية يمكن أن تؤثر
    على حقوقنا بطرق ملحوظة.
  98. لأوضح لكم بمثال،

  99. نشرت نيويورك تايمز في 2018 أخباراً
  100. أن البيانات التي تم تجميعها
  101. خلال خدمات التخطيط الجامعي عبر الإنترنت -
  102. التي ينجزها ملايين من أطفال المدارس
    الثانوية في جميع أنحاء الولايات المتحدة
  103. والذين يبحثون عن برنامج جامعي
    أو منحة دراسية -
  104. تم بيعها إلى وسطاء البيانات التعليمية.
  105. الآن، كشف باحثون في فوردهام
    الذين درسوا وسطاء البيانات التعليمية
  106. أن هذه الشركات وصفت أطفال
    لا تتجاوز أعمارهم العامين
  107. على أساس فئات مختلفة:
  108. العرق والدين والثراء،
  109. الصعيد الاجتماعي
  110. والعديد من الفئات العشوائية الأخرى.
  111. ثم يبيعون هذه الملفات الشخصية
    مع اسم الطفل،
  112. عنوان منزلهم وتفاصيل الاتصال بهم
  113. لشركات مختلفة،
  114. بما في ذلك المؤسسات التجارية والمهنية،
  115. والقروض الدراسية
  116. وشركات بطاقات الائتمان الطلابية.
  117. لكسر الحواجز،
  118. طلب الباحثون في فورهام
    من وسيط البيانات التعليمية
  119. تزويدهم بقائمة الفتيات من 14 إلى 15 سنة
  120. ممن كن مهتمات بخدمات تنظيم الأسرة.
  121. وافق وسيط البيانات بتزويدهم بالقائمة.
  122. لذا تخيل مدى خصوصية وتطفل
    هذا الأمر على أطفالنا.
  123. لكن وسطاء بيانات التعليم مجرد مثال.
  124. الحقيقة أنه تم توصيف أطفالنا بطرق
    لا نستطيع السيطرة عليها
  125. ولكن هذا يمكنه التأثير على فرصهم
    في الحياة بصورة كبيرة.
  126. لذا نريد أن نسأل أنفسنا:

  127. هل نستطيع أن نثق في هذه التقنيات
    عندما يتعلق الأمر بتوصيف أطفالنا؟
  128. هل يمكننا؟
  129. إجابتي هي لا.
  130. كعالمة أنثروبولوجيا،
  131. أعتقد أنه يمكن للذكاء الصناعي
    والتحليلات التنبؤية أن يكونا رائعين
  132. للتنبؤ بمسار المرض
  133. أو محاربة تغير المناخ.
  134. لكننا بحاجة إلى التخلي عن اعتقاد
  135. أن هذه التقنيات يمكن أن تصنف
    البشر بشكل موضوعي
  136. وأنه يمكننا الاعتماد عليهم
    لاتخاذ قرارات مبنية على البيانات
  137. عن حياة الفرد.
  138. إذ ليس باستطاعتهم توصيف البشر.
  139. تتبع البيانات ليس مرآة لمن نحن.
  140. يفكر الإنسان بشيء ويقول العكس،
  141. يشعر بطريقة ويتصرف بشكل مختلف.
  142. التنبؤات الخوارزمية أو الأساليب الرقمية
  143. لا يمكن أن تفسر عدم إمكانية التنبؤ
    والتجربة الإنسانية المعقدة.
  144. إضافة إلى هذا،

  145. هذه التقنيات دائماً -
  146. دائماً -
  147. بطريقة أو بأخرى، منحازة.
  148. الخوارزميات حسب التعريف مجموعات
    من القواعد أو الخطوات
  149. تم تصميمها لتحقيق نتيجة محددة، أليس كذلك؟
  150. لكن لا يمكن لهذه القواعد أو الخطوات
    أن تكون موضوعية،
  151. لأنه تم تصميمها بواسطة البشر
  152. ضمن سياق ثقافي محدد
  153. وتتشكل بقيم ثقافية محددة.
  154. لذا عندما تعمل الآلات،
  155. تعمل من خوارزميات منحازة،
  156. وغالبا ما يتعلمون من قواعد البيانات
    المتحيزة كذلك.
  157. في الوقت الحالي، نحن نرى
    الأمثلة الأولية للتحيز الخوارزمي.

  158. وبعض هذه الأمثلة صراحة مرعبة.
  159. نشر معهد AI Now هذا العام
    في نيويورك تقريراً
  160. كشف أن تقنيات الذكاء الصناعي
  161. التي يتم استخدامها للشرطة التنبؤية
  162. تم تغذيتها على بيانات "فاسدة".
  163. تم جمع هذه البيانات في الأساس
  164. خلال الفترات التاريخية
    من التحيز العنصري المعروف
  165. وممارسات الشرطة غير الشفافة.
  166. لأن هذه التقنيات يتم تغذيتها
    على بيانات فاسدة،
  167. فهم ليسوا موضوعيين،
  168. ونتائجها فقط تضخيم
  169. لتحيز الشرطة والخطأ.
  170. لذلك أعتقد أننا نواجه مشكلة أساسية

  171. في مجتمعنا.
  172. بدأنا نثق في التقنيات عندما يتعلق
    الأمر بتوصيف البشر.
  173. نحن نعلم أنه في توصيف البشر،
  174. هذه التقنيات دائماً منحازة
  175. ولن تكون دقيقة أبداً.
  176. لذا ما نحتاجه الآن هو في الواقع حل سياسي.
  177. نحتاج أن تعترف الحكومات أن حقوق
    البيانات الخاصة بنا هي حقوقنا الإنسانية.
  178. (تصفيق وهتاف)

  179. حتى يحدث هذا، لا يمكننا أن نأمل
    في مستقبل أكثر عدلاً.

  180. أخشى أن بناتي سوف يتعرضن
  181. لجميع أنواع خوارزميات التمييز والخطأ.
  182. ترون الفرق بيني وبين بناتي
  183. هو أنه لا يوجد سجل عام لطفولتي.
  184. بالتأكيد لا توجد قاعدة بيانات
    لجميع الأشياء المتهورة التي قمت بها
  185. وفكرت فيها عندما كنت مراهقة.
  186. (ضحك)

  187. لكن هذا ربما مختلف لبناتي.

  188. البيانات التي يتم جمعها منهن اليوم
  189. يمكن استخدامها للحكم عليهن في المستقبل
  190. ويمكن أن تحول دون تحقيق آمالهن وأحلامهن.
  191. أعتقد أنه حان الوقت.

  192. حان الوقت لكي نتحرك جميعاً.
  193. حان الوقت لنبدأ العمل معاً
  194. كأفراد،
  195. كمنظمات وكمؤسسات،
  196. نطالب بقدر أكبر من عدالة البيانات لنا
  197. ولأطفالنا
  198. قبل فوات الأوان.
  199. شكراً لكم.

  200. (تصفيق)