1 00:00:00,792 --> 00:00:03,059 كل يوم، كل أسبوع، 2 00:00:03,083 --> 00:00:05,268 نوافق على شروط وأحكام. 3 00:00:05,292 --> 00:00:06,768 وعندما نفعل ذلك، 4 00:00:06,792 --> 00:00:09,268 نزود الشركات بالحق القانوني 5 00:00:09,292 --> 00:00:12,976 لفعل ما تريده بالبيانات الخاصة بنا 6 00:00:13,000 --> 00:00:15,375 وبيانات أطفالنا. 7 00:00:16,792 --> 00:00:19,768 ما يجعلنا نتساءل: 8 00:00:19,792 --> 00:00:22,684 كم من البيانات التي نمنحها عن الأطفال، 9 00:00:22,708 --> 00:00:24,708 وما هي آثارها؟ 10 00:00:26,500 --> 00:00:27,893 أنا عالمة أنثروبولوجيا، 11 00:00:27,917 --> 00:00:30,518 وأيضاً أم لطفلتين صغيرتين. 12 00:00:30,542 --> 00:00:35,018 وبدأ اهتمامي بهذا السؤال في 2015 13 00:00:35,042 --> 00:00:37,768 عندما أدركت فجأة أن ثمّة 14 00:00:37,792 --> 00:00:40,809 كميات هائلة لا يمكن تخيلها من تتبع البيانات 15 00:00:40,833 --> 00:00:44,000 التي يتم إنتاجها وتجميعها عن الأطفال. 16 00:00:44,792 --> 00:00:46,768 لذلك بدأت مشروعاً بحثياً، 17 00:00:46,792 --> 00:00:49,268 والذي يسمى مواطن بيانات الطفل، 18 00:00:49,292 --> 00:00:51,417 وأهدف إلى ملء الفراغ. 19 00:00:52,583 --> 00:00:55,601 الآن ربما تفكر أنني ألومك 20 00:00:55,625 --> 00:00:58,393 لنشر صور أطفالك على وسائل التواصل الاجتماعي، 21 00:00:58,417 --> 00:01:00,559 لكن هذا ليس الهدف. 22 00:01:00,583 --> 00:01:04,000 المشكلة أكبر بكثير مما يسمى بـ "المشاركة". 23 00:01:04,792 --> 00:01:08,893 هذا عن الأنظمة وليس عن الأفراد. 24 00:01:08,917 --> 00:01:11,208 لا تُلامون أنتم وعاداتكم. 25 00:01:12,833 --> 00:01:15,684 لأول مرة في التاريخ، 26 00:01:15,708 --> 00:01:18,268 نقوم بتتبع البيانات الفردية للأطفال 27 00:01:18,292 --> 00:01:20,059 منذ وقت طويل قبل ولادتهم - 28 00:01:20,083 --> 00:01:22,768 ومن لحظة الحمل أحياناً، 29 00:01:22,792 --> 00:01:25,143 وخلال حياتهم بعد ذلك. 30 00:01:25,167 --> 00:01:28,268 كما تعرفون، عندما يقرر الآباء الحمل، 31 00:01:28,292 --> 00:01:31,268 يبحثون عبر الإنترنت عن "طرق الحمل" 32 00:01:31,292 --> 00:01:34,042 أو يقومون بتحميل تطبيقات تتبع التبويض. 33 00:01:35,250 --> 00:01:37,851 عندما يحصل الحمل، 34 00:01:37,875 --> 00:01:41,018 ينشرون الموجات فوق الصوتية لأطفالهم على وسائل التواصل الاجتماعي، 35 00:01:41,042 --> 00:01:43,059 يقومون بتحميل تطبيقات الحمل 36 00:01:43,083 --> 00:01:46,809 أو استشارة دكتور جوجل لهذه الأشياء، 37 00:01:46,833 --> 00:01:48,351 مثل، كما تعرفون- 38 00:01:48,375 --> 00:01:50,934 عن "مخاطر الإجهاض عند الطيران" 39 00:01:50,958 --> 00:01:53,726 أو "تشنجات البطن في وقت مبكر من الحمل." 40 00:01:53,750 --> 00:01:55,559 أعلم لأنني فعلت ذلك - 41 00:01:55,583 --> 00:01:57,208 مرات عديدة. 42 00:01:58,458 --> 00:02:01,268 عندما يولد الطفل وبعد ذلك، يتتبعون كل قيلولة، 43 00:02:01,292 --> 00:02:02,559 كل وجبة، 44 00:02:02,583 --> 00:02:05,167 كل حدث في حياته على تقنيات مختلفة. 45 00:02:06,083 --> 00:02:07,559 وتحول كل هذه التقنيات 46 00:02:07,583 --> 00:02:13,726 البيانات الخاصة بصحة الطفل وسلوكه الأكثر خصوصية إلى ربح 47 00:02:13,750 --> 00:02:15,542 بمشاركتها مع الآخرين. 48 00:02:16,583 --> 00:02:18,726 لأبين لكم فكرة عمل هذا، 49 00:02:18,750 --> 00:02:23,934 في 2019، نشرت المجلة الطبية البريطانية بحثاً يوضح 50 00:02:23,958 --> 00:02:27,601 أن من كل 24 تطبيقاً خاصاً بالهاتف المحمول، 51 00:02:27,625 --> 00:02:31,083 ينشر 19 منهم معلومات مع أطراف ثالثة. 52 00:02:32,083 --> 00:02:37,917 وتقوم هذه الأطراف بمشاركة المعلومات مع 216 منظمة أخرى. 53 00:02:38,875 --> 00:02:42,309 ومن هذه الـ 216 طرف رابع، 54 00:02:42,333 --> 00:02:45,476 ينتمي 3 منهم فقط للقطاع الطبي. 55 00:02:45,500 --> 00:02:50,018 الشركات الأخرى التي كان لها إمكانية الوصول لهذه البيانات هي شركات التقنية الكبرى 56 00:02:50,042 --> 00:02:53,559 مثل جوجل أو فيسبوك أو أوراكل، 57 00:02:53,583 --> 00:02:56,184 وهم شركات إعلان رقمية 58 00:02:56,208 --> 00:03:00,333 وكان هناك أيضاً وكالة تقارير ائتمان المستهلك. 59 00:03:01,125 --> 00:03:02,559 لذا ما فهمته صحيحاً: 60 00:03:02,583 --> 00:03:07,708 الشركات الإعلانية ووكالات الائتمان لديها بالفعل بيانات عن الأطفال الصغار. 61 00:03:08,911 --> 00:03:11,977 لكن تطبيقات الهاتف المحمول وبحث الإنترنت ووسائل التواصل الاجتماعي 62 00:03:11,977 --> 00:03:15,018 في الحقيقة مجرد غيض من فيض، 63 00:03:15,042 --> 00:03:17,893 لأنه يتم تعقب الأطفال بواسطة تقنيات متعددة 64 00:03:17,917 --> 00:03:19,643 في حياتهم اليومية. 65 00:03:19,667 --> 00:03:23,809 يتم تتبعهم من خلال التقنيات المنزلية والمساعدين الافتراضيين في منازلهم. 66 00:03:23,833 --> 00:03:25,809 من خلال المنصات التعليمية 67 00:03:25,833 --> 00:03:28,018 والتقنيات التعليمية في مدارسهم. 68 00:03:28,042 --> 00:03:29,643 ومن خلال التسجيلات عبر الإنترنت 69 00:03:29,667 --> 00:03:32,684 والبوابات الالكترونية في العيادات. 70 00:03:32,708 --> 00:03:35,059 يتم تعقبهم من خلال ألعابهم المتصلة بالإنترنت، 71 00:03:35,083 --> 00:03:36,393 ألعابهم على الإنترنت 72 00:03:36,417 --> 00:03:39,083 والكثير والكثير من التقنيات الأخرى. 73 00:03:40,250 --> 00:03:41,893 لذا أثناء قيامي بالبحث، 74 00:03:41,917 --> 00:03:46,059 جاءني الكثير من الآباء وسألوني: "ماذا بعد؟ 75 00:03:46,083 --> 00:03:49,000 ما القضية إذا تم تعقب أطفالي؟ 76 00:03:50,042 --> 00:03:51,375 ليس لدينا ما نخفيه." 77 00:03:52,958 --> 00:03:54,458 حسناً، إنه يهم. 78 00:03:55,083 --> 00:04:01,101 يهم لأن الأفراد اليوم لا يتم تعقبهم فقط، 79 00:04:01,125 --> 00:04:05,226 يتم أيضاً تصنيفهم حسب البيانات الخاصة بهم. 80 00:04:05,250 --> 00:04:09,059 يتم استخدام الذكاء الصناعي والتحليلات التنبؤية 81 00:04:09,083 --> 00:04:12,726 لتسخير أكبر قدر ممكن من البيانات 82 00:04:12,750 --> 00:04:14,601 من مصادر مختلفة: 83 00:04:14,625 --> 00:04:19,143 تاريخ العائلة وعادات الشراء وتعليقات وسائل التواصل الاجتماعي. 84 00:04:19,167 --> 00:04:21,018 ثم يتم تجميع البيانات معاً 85 00:04:21,042 --> 00:04:23,792 لاتخاذ قرارات مبنية على بيانات الفرد. 86 00:04:24,792 --> 00:04:28,226 ويتم استخدام هذه التقنية في كل مكان. 87 00:04:28,250 --> 00:04:30,643 تستخدمها البنوك لإقرار القروض. 88 00:04:30,667 --> 00:04:33,042 ويستخدمها التأمين لتحديد الأقساط. 89 00:04:34,008 --> 00:04:36,514 يستخدمها مسؤولو التوظيف وأرباب العمل 90 00:04:36,574 --> 00:04:39,875 ليقرروا ما إذا كان أحد مناسباً للعمل أم لا. 91 00:04:40,750 --> 00:04:43,851 وأيضاً تستخدمها الشرطة والمحاكم 92 00:04:43,875 --> 00:04:47,393 لتحديد ما إذا كان أحدهم مجرماً محتملاً 93 00:04:47,417 --> 00:04:50,042 أو من المحتمل أن يعيد ارتكاب الجريمة. 94 00:04:52,458 --> 00:04:56,518 ليس لدينا أي معرفة أو سيطرة 95 00:04:56,542 --> 00:05:00,184 على الطرق التي يقوم بها أولئك الذين يشترون بياناتنا ويبيعونها ويعالجونها 96 00:05:00,208 --> 00:05:02,917 لتوصيف هويتنا وأطفالنا. 97 00:05:03,625 --> 00:05:07,667 لكن هذه الملفات الشخصية يمكن أن تؤثر على حقوقنا بطرق ملحوظة. 98 00:05:08,917 --> 00:05:11,125 لأوضح لكم بمثال، 99 00:05:13,792 --> 00:05:17,851 نشرت نيويورك تايمز في 2018 أخباراً 100 00:05:17,875 --> 00:05:19,851 أن البيانات التي تم تجميعها 101 00:05:19,875 --> 00:05:22,934 خلال خدمات التخطيط الجامعي عبر الإنترنت - 102 00:05:22,958 --> 00:05:27,684 التي ينجزها ملايين من أطفال المدارس الثانوية في جميع أنحاء الولايات المتحدة 103 00:05:27,708 --> 00:05:31,351 والذين يبحثون عن برنامج جامعي أو منحة دراسية - 104 00:05:31,375 --> 00:05:34,417 تم بيعها إلى وسطاء البيانات التعليمية. 105 00:05:35,792 --> 00:05:41,226 الآن، كشف باحثون في فوردهام الذين درسوا وسطاء البيانات التعليمية 106 00:05:41,250 --> 00:05:46,476 أن هذه الشركات وصفت أطفال لا تتجاوز أعمارهم العامين 107 00:05:46,500 --> 00:05:49,559 على أساس فئات مختلفة: 108 00:05:49,583 --> 00:05:53,768 العرق والدين والثراء، 109 00:05:53,792 --> 00:05:55,851 الصعيد الاجتماعي 110 00:05:55,875 --> 00:05:58,809 والعديد من الفئات العشوائية الأخرى. 111 00:05:58,833 --> 00:06:03,851 ثم يبيعون هذه الملفات الشخصية مع اسم الطفل، 112 00:06:03,875 --> 00:06:06,684 عنوان منزلهم وتفاصيل الاتصال بهم 113 00:06:06,708 --> 00:06:08,559 لشركات مختلفة، 114 00:06:08,583 --> 00:06:11,042 بما في ذلك المؤسسات التجارية والمهنية، 115 00:06:12,083 --> 00:06:13,351 والقروض الدراسية 116 00:06:13,375 --> 00:06:15,125 وشركات بطاقات الائتمان الطلابية. 117 00:06:16,542 --> 00:06:17,893 لكسر الحواجز، 118 00:06:17,917 --> 00:06:21,726 طلب الباحثون في فورهام من وسيط البيانات التعليمية 119 00:06:21,750 --> 00:06:27,559 تزويدهم بقائمة الفتيات من 14 إلى 15 سنة 120 00:06:27,583 --> 00:06:30,958 ممن كن مهتمات بخدمات تنظيم الأسرة. 121 00:06:32,208 --> 00:06:34,684 وافق وسيط البيانات بتزويدهم بالقائمة. 122 00:06:34,708 --> 00:06:39,583 لذا تخيل مدى خصوصية وتطفل هذا الأمر على أطفالنا. 123 00:06:40,833 --> 00:06:44,809 لكن وسطاء بيانات التعليم مجرد مثال. 124 00:06:44,833 --> 00:06:49,518 الحقيقة أنه تم توصيف أطفالنا بطرق لا نستطيع السيطرة عليها 125 00:06:49,542 --> 00:06:52,958 ولكن هذا يمكنه التأثير على فرصهم في الحياة بصورة كبيرة. 126 00:06:54,167 --> 00:06:57,643 لذا نريد أن نسأل أنفسنا: 127 00:06:57,667 --> 00:07:02,351 هل نستطيع أن نثق في هذه التقنيات عندما يتعلق الأمر بتوصيف أطفالنا؟ 128 00:07:02,375 --> 00:07:03,625 هل يمكننا؟ 129 00:07:05,708 --> 00:07:06,958 إجابتي هي لا. 130 00:07:07,792 --> 00:07:09,059 كعالمة أنثروبولوجيا، 131 00:07:09,083 --> 00:07:12,851 أعتقد أنه يمكن للذكاء الصناعي والتحليلات التنبؤية أن يكونا رائعين 132 00:07:12,875 --> 00:07:14,893 للتنبؤ بمسار المرض 133 00:07:14,917 --> 00:07:16,750 أو محاربة تغير المناخ. 134 00:07:18,000 --> 00:07:19,643 لكننا بحاجة إلى التخلي عن اعتقاد 135 00:07:19,667 --> 00:07:23,351 أن هذه التقنيات يمكن أن تصنف البشر بشكل موضوعي 136 00:07:23,375 --> 00:07:26,559 وأنه يمكننا الاعتماد عليهم لاتخاذ قرارات مبنية على البيانات 137 00:07:26,583 --> 00:07:28,476 عن حياة الفرد. 138 00:07:28,500 --> 00:07:31,059 إذ ليس باستطاعتهم توصيف البشر. 139 00:07:31,083 --> 00:07:34,434 تتبع البيانات ليس مرآة لمن نحن. 140 00:07:34,458 --> 00:07:36,559 يفكر الإنسان بشيء ويقول العكس، 141 00:07:36,583 --> 00:07:39,018 يشعر بطريقة ويتصرف بشكل مختلف. 142 00:07:39,042 --> 00:07:41,518 التنبؤات الخوارزمية أو الأساليب الرقمية 143 00:07:41,542 --> 00:07:46,708 لا يمكن أن تفسر عدم إمكانية التنبؤ والتجربة الإنسانية المعقدة. 144 00:07:48,417 --> 00:07:49,976 إضافة إلى هذا، 145 00:07:50,000 --> 00:07:52,684 هذه التقنيات دائماً - 146 00:07:52,708 --> 00:07:53,976 دائماً - 147 00:07:54,000 --> 00:07:55,917 بطريقة أو بأخرى، منحازة. 148 00:07:57,125 --> 00:08:02,184 الخوارزميات حسب التعريف مجموعات من القواعد أو الخطوات 149 00:08:02,208 --> 00:08:05,917 تم تصميمها لتحقيق نتيجة محددة، أليس كذلك؟ 150 00:08:06,823 --> 00:08:09,583 لكن لا يمكن لهذه القواعد أو الخطوات أن تكون موضوعية، 151 00:08:09,583 --> 00:08:11,726 لأنه تم تصميمها بواسطة البشر 152 00:08:11,750 --> 00:08:13,476 ضمن سياق ثقافي محدد 153 00:08:13,500 --> 00:08:16,000 وتتشكل بقيم ثقافية محددة. 154 00:08:16,667 --> 00:08:18,393 لذا عندما تعمل الآلات، 155 00:08:18,417 --> 00:08:20,667 تعمل من خوارزميات منحازة، 156 00:08:21,625 --> 00:08:24,833 وغالبا ما يتعلمون من قواعد البيانات المتحيزة كذلك. 157 00:08:25,833 --> 00:08:29,559 في الوقت الحالي، نحن نرى الأمثلة الأولية للتحيز الخوارزمي. 158 00:08:29,583 --> 00:08:33,083 وبعض هذه الأمثلة صراحة مرعبة. 159 00:08:34,500 --> 00:08:38,559 نشر معهد AI Now هذا العام في نيويورك تقريراً 160 00:08:38,583 --> 00:08:40,976 كشف أن تقنيات الذكاء الصناعي 161 00:08:41,000 --> 00:08:44,476 التي يتم استخدامها للشرطة التنبؤية 162 00:08:44,500 --> 00:08:47,625 تم تغذيتها على بيانات "فاسدة". 163 00:08:48,333 --> 00:08:51,226 تم جمع هذه البيانات في الأساس 164 00:08:51,250 --> 00:08:55,434 خلال الفترات التاريخية من التحيز العنصري المعروف 165 00:08:55,458 --> 00:08:57,708 وممارسات الشرطة غير الشفافة. 166 00:08:58,542 --> 00:09:02,601 لأن هذه التقنيات يتم تغذيتها على بيانات فاسدة، 167 00:09:02,625 --> 00:09:04,059 فهم ليسوا موضوعيين، 168 00:09:04,083 --> 00:09:08,601 ونتائجها فقط تضخيم 169 00:09:08,625 --> 00:09:10,250 لتحيز الشرطة والخطأ. 170 00:09:13,167 --> 00:09:16,309 لذلك أعتقد أننا نواجه مشكلة أساسية 171 00:09:16,333 --> 00:09:17,976 في مجتمعنا. 172 00:09:18,000 --> 00:09:22,792 بدأنا نثق في التقنيات عندما يتعلق الأمر بتوصيف البشر. 173 00:09:23,750 --> 00:09:26,268 نحن نعلم أنه في توصيف البشر، 174 00:09:26,292 --> 00:09:29,101 هذه التقنيات دائماً منحازة 175 00:09:29,125 --> 00:09:31,851 ولن تكون دقيقة أبداً. 176 00:09:31,875 --> 00:09:34,809 لذا ما نحتاجه الآن هو في الواقع حل سياسي. 177 00:09:34,833 --> 00:09:39,542 نحتاج أن تعترف الحكومات أن حقوق البيانات الخاصة بنا هي حقوقنا الإنسانية. 178 00:09:40,292 --> 00:09:44,375 (تصفيق وهتاف) 179 00:09:47,833 --> 00:09:51,917 حتى يحدث هذا، لا يمكننا أن نأمل في مستقبل أكثر عدلاً. 180 00:09:52,750 --> 00:09:55,476 أخشى أن بناتي سوف يتعرضن 181 00:09:55,500 --> 00:09:59,226 لجميع أنواع خوارزميات التمييز والخطأ. 182 00:09:59,250 --> 00:10:01,643 ترون الفرق بيني وبين بناتي 183 00:10:01,667 --> 00:10:04,851 هو أنه لا يوجد سجل عام لطفولتي. 184 00:10:04,875 --> 00:10:08,893 بالتأكيد لا توجد قاعدة بيانات لجميع الأشياء المتهورة التي قمت بها 185 00:10:08,917 --> 00:10:11,059 وفكرت فيها عندما كنت مراهقة. 186 00:10:11,083 --> 00:10:12,583 (ضحك) 187 00:10:13,833 --> 00:10:16,583 لكن هذا ربما مختلف لبناتي. 188 00:10:17,292 --> 00:10:20,476 البيانات التي يتم جمعها منهن اليوم 189 00:10:20,500 --> 00:10:24,309 يمكن استخدامها للحكم عليهن في المستقبل 190 00:10:24,333 --> 00:10:27,292 ويمكن أن تحول دون تحقيق آمالهن وأحلامهن. 191 00:10:28,583 --> 00:10:30,101 أعتقد أنه حان الوقت. 192 00:10:30,125 --> 00:10:31,559 حان الوقت لكي نتحرك جميعاً. 193 00:10:31,583 --> 00:10:34,059 حان الوقت لنبدأ العمل معاً 194 00:10:34,083 --> 00:10:35,518 كأفراد، 195 00:10:35,542 --> 00:10:38,059 كمنظمات وكمؤسسات، 196 00:10:38,083 --> 00:10:41,184 نطالب بقدر أكبر من عدالة البيانات لنا 197 00:10:41,208 --> 00:10:42,601 ولأطفالنا 198 00:10:42,625 --> 00:10:44,143 قبل فوات الأوان. 199 00:10:44,167 --> 00:10:45,434 شكراً لكم. 200 00:10:45,458 --> 00:10:46,875 (تصفيق)