Return to Video

ماذا تعرف شركات التكنولوجيا عن أطفالك

  • 0:01 - 0:03
    كل يوم، كل أسبوع،
  • 0:03 - 0:05
    نوافق على شروط وأحكام.
  • 0:05 - 0:07
    وعندما نفعل ذلك،
  • 0:07 - 0:09
    نزود الشركات بالحق القانوني
  • 0:09 - 0:13
    لفعل ما تريده بالبيانات الخاصة بنا
  • 0:13 - 0:15
    وبيانات أطفالنا.
  • 0:17 - 0:20
    ما يجعلنا نتساءل:
  • 0:20 - 0:23
    كم من البيانات التي نمنحها عن الأطفال،
  • 0:23 - 0:25
    وما هي آثارها؟
  • 0:26 - 0:28
    أنا عالمة أنثروبولوجيا،
  • 0:28 - 0:31
    وأيضاً أم لطفلتين صغيرتين.
  • 0:31 - 0:35
    وبدأ اهتمامي بهذا السؤال في 2015
  • 0:35 - 0:38
    عندما أدركت فجأة أن ثمّة
  • 0:38 - 0:41
    كميات هائلة لا يمكن تخيلها
    من تتبع البيانات
  • 0:41 - 0:44
    التي يتم إنتاجها وتجميعها عن الأطفال.
  • 0:45 - 0:47
    لذلك بدأت مشروعاً بحثياً،
  • 0:47 - 0:49
    والذي يسمى مواطن بيانات الطفل،
  • 0:49 - 0:51
    وأهدف إلى ملء الفراغ.
  • 0:53 - 0:56
    الآن ربما تفكر أنني ألومك
  • 0:56 - 0:58
    لنشر صور أطفالك
    على وسائل التواصل الاجتماعي،
  • 0:58 - 1:01
    لكن هذا ليس الهدف.
  • 1:01 - 1:04
    المشكلة أكبر بكثير مما يسمى بـ "المشاركة".
  • 1:05 - 1:09
    هذا عن الأنظمة وليس عن الأفراد.
  • 1:09 - 1:11
    لا تُلامون أنتم وعاداتكم.
  • 1:13 - 1:16
    لأول مرة في التاريخ،
  • 1:16 - 1:18
    نقوم بتتبع البيانات الفردية للأطفال
  • 1:18 - 1:20
    منذ وقت طويل قبل ولادتهم -
  • 1:20 - 1:23
    ومن لحظة الحمل أحياناً،
  • 1:23 - 1:25
    وخلال حياتهم بعد ذلك.
  • 1:25 - 1:28
    كما تعرفون، عندما يقرر الآباء الحمل،
  • 1:28 - 1:31
    يبحثون عبر الإنترنت عن "طرق الحمل"
  • 1:31 - 1:34
    أو يقومون بتحميل تطبيقات تتبع التبويض.
  • 1:35 - 1:38
    عندما يحصل الحمل،
  • 1:38 - 1:41
    ينشرون الموجات فوق الصوتية لأطفالهم
    على وسائل التواصل الاجتماعي،
  • 1:41 - 1:43
    يقومون بتحميل تطبيقات الحمل
  • 1:43 - 1:47
    أو استشارة دكتور جوجل لهذه الأشياء،
  • 1:47 - 1:48
    مثل، كما تعرفون-
  • 1:48 - 1:51
    عن "مخاطر الإجهاض عند الطيران"
  • 1:51 - 1:54
    أو "تشنجات البطن في وقت مبكر من الحمل."
  • 1:54 - 1:56
    أعلم لأنني فعلت ذلك -
  • 1:56 - 1:57
    مرات عديدة.
  • 1:58 - 2:01
    عندما يولد الطفل وبعد ذلك،
    يتتبعون كل قيلولة،
  • 2:01 - 2:03
    كل وجبة،
  • 2:03 - 2:05
    كل حدث في حياته على تقنيات مختلفة.
  • 2:06 - 2:08
    وتحول كل هذه التقنيات
  • 2:08 - 2:14
    البيانات الخاصة بصحة الطفل
    وسلوكه الأكثر خصوصية إلى ربح
  • 2:14 - 2:16
    بمشاركتها مع الآخرين.
  • 2:17 - 2:19
    لأبين لكم فكرة عمل هذا،
  • 2:19 - 2:24
    في 2019، نشرت المجلة الطبية
    البريطانية بحثاً يوضح
  • 2:24 - 2:28
    أن من كل 24 تطبيقاً خاصاً بالهاتف المحمول،
  • 2:28 - 2:31
    ينشر 19 منهم معلومات مع أطراف ثالثة.
  • 2:32 - 2:38
    وتقوم هذه الأطراف بمشاركة
    المعلومات مع 216 منظمة أخرى.
  • 2:39 - 2:42
    ومن هذه الـ 216 طرف رابع،
  • 2:42 - 2:45
    ينتمي 3 منهم فقط للقطاع الطبي.
  • 2:46 - 2:50
    الشركات الأخرى التي كان لها إمكانية الوصول
    لهذه البيانات هي شركات التقنية الكبرى
  • 2:50 - 2:54
    مثل جوجل أو فيسبوك أو أوراكل،
  • 2:54 - 2:56
    وهم شركات إعلان رقمية
  • 2:56 - 3:00
    وكان هناك أيضاً وكالة تقارير
    ائتمان المستهلك.
  • 3:01 - 3:03
    لذا ما فهمته صحيحاً:
  • 3:03 - 3:08
    الشركات الإعلانية ووكالات الائتمان
    لديها بالفعل بيانات عن الأطفال الصغار.
  • 3:09 - 3:12
    لكن تطبيقات الهاتف المحمول وبحث
    الإنترنت ووسائل التواصل الاجتماعي
  • 3:12 - 3:15
    في الحقيقة مجرد غيض من فيض،
  • 3:15 - 3:18
    لأنه يتم تعقب الأطفال بواسطة تقنيات متعددة
  • 3:18 - 3:20
    في حياتهم اليومية.
  • 3:20 - 3:24
    يتم تتبعهم من خلال التقنيات المنزلية
    والمساعدين الافتراضيين في منازلهم.
  • 3:24 - 3:26
    من خلال المنصات التعليمية
  • 3:26 - 3:28
    والتقنيات التعليمية في مدارسهم.
  • 3:28 - 3:30
    ومن خلال التسجيلات عبر الإنترنت
  • 3:30 - 3:33
    والبوابات الالكترونية في العيادات.
  • 3:33 - 3:35
    يتم تعقبهم من خلال ألعابهم
    المتصلة بالإنترنت،
  • 3:35 - 3:36
    ألعابهم على الإنترنت
  • 3:36 - 3:39
    والكثير والكثير من التقنيات الأخرى.
  • 3:40 - 3:42
    لذا أثناء قيامي بالبحث،
  • 3:42 - 3:46
    جاءني الكثير من الآباء وسألوني: "ماذا بعد؟
  • 3:46 - 3:49
    ما القضية إذا تم تعقب أطفالي؟
  • 3:50 - 3:51
    ليس لدينا ما نخفيه."
  • 3:53 - 3:54
    حسناً، إنه يهم.
  • 3:55 - 4:01
    يهم لأن الأفراد اليوم لا يتم تعقبهم فقط،
  • 4:01 - 4:05
    يتم أيضاً تصنيفهم حسب البيانات الخاصة بهم.
  • 4:05 - 4:09
    يتم استخدام الذكاء الصناعي
    والتحليلات التنبؤية
  • 4:09 - 4:13
    لتسخير أكبر قدر ممكن من البيانات
  • 4:13 - 4:15
    من مصادر مختلفة:
  • 4:15 - 4:19
    تاريخ العائلة وعادات الشراء
    وتعليقات وسائل التواصل الاجتماعي.
  • 4:19 - 4:21
    ثم يتم تجميع البيانات معاً
  • 4:21 - 4:24
    لاتخاذ قرارات مبنية على بيانات الفرد.
  • 4:25 - 4:28
    ويتم استخدام هذه التقنية في كل مكان.
  • 4:28 - 4:31
    تستخدمها البنوك لإقرار القروض.
  • 4:31 - 4:33
    ويستخدمها التأمين لتحديد الأقساط.
  • 4:34 - 4:37
    يستخدمها مسؤولو التوظيف وأرباب العمل
  • 4:37 - 4:40
    ليقرروا ما إذا كان أحد مناسباً للعمل
    أم لا.
  • 4:41 - 4:44
    وأيضاً تستخدمها الشرطة والمحاكم
  • 4:44 - 4:47
    لتحديد ما إذا كان أحدهم مجرماً محتملاً
  • 4:47 - 4:50
    أو من المحتمل أن يعيد ارتكاب الجريمة.
  • 4:52 - 4:57
    ليس لدينا أي معرفة أو سيطرة
  • 4:57 - 5:00
    على الطرق التي يقوم بها أولئك الذين
    يشترون بياناتنا ويبيعونها ويعالجونها
  • 5:00 - 5:03
    لتوصيف هويتنا وأطفالنا.
  • 5:04 - 5:08
    لكن هذه الملفات الشخصية يمكن أن تؤثر
    على حقوقنا بطرق ملحوظة.
  • 5:09 - 5:11
    لأوضح لكم بمثال،
  • 5:14 - 5:18
    نشرت نيويورك تايمز في 2018 أخباراً
  • 5:18 - 5:20
    أن البيانات التي تم تجميعها
  • 5:20 - 5:23
    خلال خدمات التخطيط الجامعي عبر الإنترنت -
  • 5:23 - 5:28
    التي ينجزها ملايين من أطفال المدارس
    الثانوية في جميع أنحاء الولايات المتحدة
  • 5:28 - 5:31
    والذين يبحثون عن برنامج جامعي
    أو منحة دراسية -
  • 5:31 - 5:34
    تم بيعها إلى وسطاء البيانات التعليمية.
  • 5:36 - 5:41
    الآن، كشف باحثون في فوردهام
    الذين درسوا وسطاء البيانات التعليمية
  • 5:41 - 5:46
    أن هذه الشركات وصفت أطفال
    لا تتجاوز أعمارهم العامين
  • 5:46 - 5:50
    على أساس فئات مختلفة:
  • 5:50 - 5:54
    العرق والدين والثراء،
  • 5:54 - 5:56
    الصعيد الاجتماعي
  • 5:56 - 5:59
    والعديد من الفئات العشوائية الأخرى.
  • 5:59 - 6:04
    ثم يبيعون هذه الملفات الشخصية
    مع اسم الطفل،
  • 6:04 - 6:07
    عنوان منزلهم وتفاصيل الاتصال بهم
  • 6:07 - 6:09
    لشركات مختلفة،
  • 6:09 - 6:11
    بما في ذلك المؤسسات التجارية والمهنية،
  • 6:12 - 6:13
    والقروض الدراسية
  • 6:13 - 6:15
    وشركات بطاقات الائتمان الطلابية.
  • 6:17 - 6:18
    لكسر الحواجز،
  • 6:18 - 6:22
    طلب الباحثون في فورهام
    من وسيط البيانات التعليمية
  • 6:22 - 6:28
    تزويدهم بقائمة الفتيات من 14 إلى 15 سنة
  • 6:28 - 6:31
    ممن كن مهتمات بخدمات تنظيم الأسرة.
  • 6:32 - 6:35
    وافق وسيط البيانات بتزويدهم بالقائمة.
  • 6:35 - 6:40
    لذا تخيل مدى خصوصية وتطفل
    هذا الأمر على أطفالنا.
  • 6:41 - 6:45
    لكن وسطاء بيانات التعليم مجرد مثال.
  • 6:45 - 6:50
    الحقيقة أنه تم توصيف أطفالنا بطرق
    لا نستطيع السيطرة عليها
  • 6:50 - 6:53
    ولكن هذا يمكنه التأثير على فرصهم
    في الحياة بصورة كبيرة.
  • 6:54 - 6:58
    لذا نريد أن نسأل أنفسنا:
  • 6:58 - 7:02
    هل نستطيع أن نثق في هذه التقنيات
    عندما يتعلق الأمر بتوصيف أطفالنا؟
  • 7:02 - 7:04
    هل يمكننا؟
  • 7:06 - 7:07
    إجابتي هي لا.
  • 7:08 - 7:09
    كعالمة أنثروبولوجيا،
  • 7:09 - 7:13
    أعتقد أنه يمكن للذكاء الصناعي
    والتحليلات التنبؤية أن يكونا رائعين
  • 7:13 - 7:15
    للتنبؤ بمسار المرض
  • 7:15 - 7:17
    أو محاربة تغير المناخ.
  • 7:18 - 7:20
    لكننا بحاجة إلى التخلي عن اعتقاد
  • 7:20 - 7:23
    أن هذه التقنيات يمكن أن تصنف
    البشر بشكل موضوعي
  • 7:23 - 7:27
    وأنه يمكننا الاعتماد عليهم
    لاتخاذ قرارات مبنية على البيانات
  • 7:27 - 7:28
    عن حياة الفرد.
  • 7:28 - 7:31
    إذ ليس باستطاعتهم توصيف البشر.
  • 7:31 - 7:34
    تتبع البيانات ليس مرآة لمن نحن.
  • 7:34 - 7:37
    يفكر الإنسان بشيء ويقول العكس،
  • 7:37 - 7:39
    يشعر بطريقة ويتصرف بشكل مختلف.
  • 7:39 - 7:42
    التنبؤات الخوارزمية أو الأساليب الرقمية
  • 7:42 - 7:47
    لا يمكن أن تفسر عدم إمكانية التنبؤ
    والتجربة الإنسانية المعقدة.
  • 7:48 - 7:50
    إضافة إلى هذا،
  • 7:50 - 7:53
    هذه التقنيات دائماً -
  • 7:53 - 7:54
    دائماً -
  • 7:54 - 7:56
    بطريقة أو بأخرى، منحازة.
  • 7:57 - 8:02
    الخوارزميات حسب التعريف مجموعات
    من القواعد أو الخطوات
  • 8:02 - 8:06
    تم تصميمها لتحقيق نتيجة محددة، أليس كذلك؟
  • 8:07 - 8:10
    لكن لا يمكن لهذه القواعد أو الخطوات
    أن تكون موضوعية،
  • 8:10 - 8:12
    لأنه تم تصميمها بواسطة البشر
  • 8:12 - 8:13
    ضمن سياق ثقافي محدد
  • 8:14 - 8:16
    وتتشكل بقيم ثقافية محددة.
  • 8:17 - 8:18
    لذا عندما تعمل الآلات،
  • 8:18 - 8:21
    تعمل من خوارزميات منحازة،
  • 8:22 - 8:25
    وغالبا ما يتعلمون من قواعد البيانات
    المتحيزة كذلك.
  • 8:26 - 8:30
    في الوقت الحالي، نحن نرى
    الأمثلة الأولية للتحيز الخوارزمي.
  • 8:30 - 8:33
    وبعض هذه الأمثلة صراحة مرعبة.
  • 8:34 - 8:39
    نشر معهد AI Now هذا العام
    في نيويورك تقريراً
  • 8:39 - 8:41
    كشف أن تقنيات الذكاء الصناعي
  • 8:41 - 8:44
    التي يتم استخدامها للشرطة التنبؤية
  • 8:44 - 8:48
    تم تغذيتها على بيانات "فاسدة".
  • 8:48 - 8:51
    تم جمع هذه البيانات في الأساس
  • 8:51 - 8:55
    خلال الفترات التاريخية
    من التحيز العنصري المعروف
  • 8:55 - 8:58
    وممارسات الشرطة غير الشفافة.
  • 8:59 - 9:03
    لأن هذه التقنيات يتم تغذيتها
    على بيانات فاسدة،
  • 9:03 - 9:04
    فهم ليسوا موضوعيين،
  • 9:04 - 9:09
    ونتائجها فقط تضخيم
  • 9:09 - 9:10
    لتحيز الشرطة والخطأ.
  • 9:13 - 9:16
    لذلك أعتقد أننا نواجه مشكلة أساسية
  • 9:16 - 9:18
    في مجتمعنا.
  • 9:18 - 9:23
    بدأنا نثق في التقنيات عندما يتعلق
    الأمر بتوصيف البشر.
  • 9:24 - 9:26
    نحن نعلم أنه في توصيف البشر،
  • 9:26 - 9:29
    هذه التقنيات دائماً منحازة
  • 9:29 - 9:32
    ولن تكون دقيقة أبداً.
  • 9:32 - 9:35
    لذا ما نحتاجه الآن هو في الواقع حل سياسي.
  • 9:35 - 9:40
    نحتاج أن تعترف الحكومات أن حقوق
    البيانات الخاصة بنا هي حقوقنا الإنسانية.
  • 9:40 - 9:44
    (تصفيق وهتاف)
  • 9:48 - 9:52
    حتى يحدث هذا، لا يمكننا أن نأمل
    في مستقبل أكثر عدلاً.
  • 9:53 - 9:55
    أخشى أن بناتي سوف يتعرضن
  • 9:56 - 9:59
    لجميع أنواع خوارزميات التمييز والخطأ.
  • 9:59 - 10:02
    ترون الفرق بيني وبين بناتي
  • 10:02 - 10:05
    هو أنه لا يوجد سجل عام لطفولتي.
  • 10:05 - 10:09
    بالتأكيد لا توجد قاعدة بيانات
    لجميع الأشياء المتهورة التي قمت بها
  • 10:09 - 10:11
    وفكرت فيها عندما كنت مراهقة.
  • 10:11 - 10:13
    (ضحك)
  • 10:14 - 10:17
    لكن هذا ربما مختلف لبناتي.
  • 10:17 - 10:20
    البيانات التي يتم جمعها منهن اليوم
  • 10:20 - 10:24
    يمكن استخدامها للحكم عليهن في المستقبل
  • 10:24 - 10:27
    ويمكن أن تحول دون تحقيق آمالهن وأحلامهن.
  • 10:29 - 10:30
    أعتقد أنه حان الوقت.
  • 10:30 - 10:32
    حان الوقت لكي نتحرك جميعاً.
  • 10:32 - 10:34
    حان الوقت لنبدأ العمل معاً
  • 10:34 - 10:36
    كأفراد،
  • 10:36 - 10:38
    كمنظمات وكمؤسسات،
  • 10:38 - 10:41
    نطالب بقدر أكبر من عدالة البيانات لنا
  • 10:41 - 10:43
    ولأطفالنا
  • 10:43 - 10:44
    قبل فوات الأوان.
  • 10:44 - 10:45
    شكراً لكم.
  • 10:45 - 10:47
    (تصفيق)
タイトル:
ماذا تعرف شركات التكنولوجيا عن أطفالك
話者:
فيرونيكا باراسي
概説:

تقول عالمة الأنثروبولوجيا فيرونيكا باراسي، إن المنصات الرقمية التي تستخدمها أنت وعائلتك كل يوم - من ألعاب الإنترنت إلى تطبيقات التعليم والبوابات الطبية - قد تجمع وتبيع بيانات أطفالك. تشارك براسي أبحاثها التي تلفت الأنظار، وتحث الآباء على إمعان النظر في الشروط والأحكام الرقمية بدلاً من قبولها عشوائياً- والمطالبة بالحماية التي تضمن عدم تحريف بيانات أطفالهم لمستقبلهم.

more » « less
Video Language:
English
Team:
closed TED
プロジェクト:
TEDTalks
Duration:
11:01

Arabic subtitles

改訂