ماذا تعرف شركات التكنولوجيا عن أطفالك
-
0:01 - 0:03كل يوم، كل أسبوع،
-
0:03 - 0:05نوافق على شروط وأحكام.
-
0:05 - 0:07وعندما نفعل ذلك،
-
0:07 - 0:09نزود الشركات بالحق القانوني
-
0:09 - 0:13لفعل ما تريده بالبيانات الخاصة بنا
-
0:13 - 0:15وبيانات أطفالنا.
-
0:17 - 0:20ما يجعلنا نتساءل:
-
0:20 - 0:23كم من البيانات التي نمنحها عن الأطفال،
-
0:23 - 0:25وما هي آثارها؟
-
0:26 - 0:28أنا عالمة أنثروبولوجيا،
-
0:28 - 0:31وأيضاً أم لطفلتين صغيرتين.
-
0:31 - 0:35وبدأ اهتمامي بهذا السؤال في 2015
-
0:35 - 0:38عندما أدركت فجأة أن ثمّة
-
0:38 - 0:41كميات هائلة لا يمكن تخيلها
من تتبع البيانات -
0:41 - 0:44التي يتم إنتاجها وتجميعها عن الأطفال.
-
0:45 - 0:47لذلك بدأت مشروعاً بحثياً،
-
0:47 - 0:49والذي يسمى مواطن بيانات الطفل،
-
0:49 - 0:51وأهدف إلى ملء الفراغ.
-
0:53 - 0:56الآن ربما تفكر أنني ألومك
-
0:56 - 0:58لنشر صور أطفالك
على وسائل التواصل الاجتماعي، -
0:58 - 1:01لكن هذا ليس الهدف.
-
1:01 - 1:04المشكلة أكبر بكثير مما يسمى بـ "المشاركة".
-
1:05 - 1:09هذا عن الأنظمة وليس عن الأفراد.
-
1:09 - 1:11لا تُلامون أنتم وعاداتكم.
-
1:13 - 1:16لأول مرة في التاريخ،
-
1:16 - 1:18نقوم بتتبع البيانات الفردية للأطفال
-
1:18 - 1:20منذ وقت طويل قبل ولادتهم -
-
1:20 - 1:23ومن لحظة الحمل أحياناً،
-
1:23 - 1:25وخلال حياتهم بعد ذلك.
-
1:25 - 1:28كما تعرفون، عندما يقرر الآباء الحمل،
-
1:28 - 1:31يبحثون عبر الإنترنت عن "طرق الحمل"
-
1:31 - 1:34أو يقومون بتحميل تطبيقات تتبع التبويض.
-
1:35 - 1:38عندما يحصل الحمل،
-
1:38 - 1:41ينشرون الموجات فوق الصوتية لأطفالهم
على وسائل التواصل الاجتماعي، -
1:41 - 1:43يقومون بتحميل تطبيقات الحمل
-
1:43 - 1:47أو استشارة دكتور جوجل لهذه الأشياء،
-
1:47 - 1:48مثل، كما تعرفون-
-
1:48 - 1:51عن "مخاطر الإجهاض عند الطيران"
-
1:51 - 1:54أو "تشنجات البطن في وقت مبكر من الحمل."
-
1:54 - 1:56أعلم لأنني فعلت ذلك -
-
1:56 - 1:57مرات عديدة.
-
1:58 - 2:01عندما يولد الطفل وبعد ذلك،
يتتبعون كل قيلولة، -
2:01 - 2:03كل وجبة،
-
2:03 - 2:05كل حدث في حياته على تقنيات مختلفة.
-
2:06 - 2:08وتحول كل هذه التقنيات
-
2:08 - 2:14البيانات الخاصة بصحة الطفل
وسلوكه الأكثر خصوصية إلى ربح -
2:14 - 2:16بمشاركتها مع الآخرين.
-
2:17 - 2:19لأبين لكم فكرة عمل هذا،
-
2:19 - 2:24في 2019، نشرت المجلة الطبية
البريطانية بحثاً يوضح -
2:24 - 2:28أن من كل 24 تطبيقاً خاصاً بالهاتف المحمول،
-
2:28 - 2:31ينشر 19 منهم معلومات مع أطراف ثالثة.
-
2:32 - 2:38وتقوم هذه الأطراف بمشاركة
المعلومات مع 216 منظمة أخرى. -
2:39 - 2:42ومن هذه الـ 216 طرف رابع،
-
2:42 - 2:45ينتمي 3 منهم فقط للقطاع الطبي.
-
2:46 - 2:50الشركات الأخرى التي كان لها إمكانية الوصول
لهذه البيانات هي شركات التقنية الكبرى -
2:50 - 2:54مثل جوجل أو فيسبوك أو أوراكل،
-
2:54 - 2:56وهم شركات إعلان رقمية
-
2:56 - 3:00وكان هناك أيضاً وكالة تقارير
ائتمان المستهلك. -
3:01 - 3:03لذا ما فهمته صحيحاً:
-
3:03 - 3:08الشركات الإعلانية ووكالات الائتمان
لديها بالفعل بيانات عن الأطفال الصغار. -
3:09 - 3:12لكن تطبيقات الهاتف المحمول وبحث
الإنترنت ووسائل التواصل الاجتماعي -
3:12 - 3:15في الحقيقة مجرد غيض من فيض،
-
3:15 - 3:18لأنه يتم تعقب الأطفال بواسطة تقنيات متعددة
-
3:18 - 3:20في حياتهم اليومية.
-
3:20 - 3:24يتم تتبعهم من خلال التقنيات المنزلية
والمساعدين الافتراضيين في منازلهم. -
3:24 - 3:26من خلال المنصات التعليمية
-
3:26 - 3:28والتقنيات التعليمية في مدارسهم.
-
3:28 - 3:30ومن خلال التسجيلات عبر الإنترنت
-
3:30 - 3:33والبوابات الالكترونية في العيادات.
-
3:33 - 3:35يتم تعقبهم من خلال ألعابهم
المتصلة بالإنترنت، -
3:35 - 3:36ألعابهم على الإنترنت
-
3:36 - 3:39والكثير والكثير من التقنيات الأخرى.
-
3:40 - 3:42لذا أثناء قيامي بالبحث،
-
3:42 - 3:46جاءني الكثير من الآباء وسألوني: "ماذا بعد؟
-
3:46 - 3:49ما القضية إذا تم تعقب أطفالي؟
-
3:50 - 3:51ليس لدينا ما نخفيه."
-
3:53 - 3:54حسناً، إنه يهم.
-
3:55 - 4:01يهم لأن الأفراد اليوم لا يتم تعقبهم فقط،
-
4:01 - 4:05يتم أيضاً تصنيفهم حسب البيانات الخاصة بهم.
-
4:05 - 4:09يتم استخدام الذكاء الصناعي
والتحليلات التنبؤية -
4:09 - 4:13لتسخير أكبر قدر ممكن من البيانات
-
4:13 - 4:15من مصادر مختلفة:
-
4:15 - 4:19تاريخ العائلة وعادات الشراء
وتعليقات وسائل التواصل الاجتماعي. -
4:19 - 4:21ثم يتم تجميع البيانات معاً
-
4:21 - 4:24لاتخاذ قرارات مبنية على بيانات الفرد.
-
4:25 - 4:28ويتم استخدام هذه التقنية في كل مكان.
-
4:28 - 4:31تستخدمها البنوك لإقرار القروض.
-
4:31 - 4:33ويستخدمها التأمين لتحديد الأقساط.
-
4:34 - 4:37يستخدمها مسؤولو التوظيف وأرباب العمل
-
4:37 - 4:40ليقرروا ما إذا كان أحد مناسباً للعمل
أم لا. -
4:41 - 4:44وأيضاً تستخدمها الشرطة والمحاكم
-
4:44 - 4:47لتحديد ما إذا كان أحدهم مجرماً محتملاً
-
4:47 - 4:50أو من المحتمل أن يعيد ارتكاب الجريمة.
-
4:52 - 4:57ليس لدينا أي معرفة أو سيطرة
-
4:57 - 5:00على الطرق التي يقوم بها أولئك الذين
يشترون بياناتنا ويبيعونها ويعالجونها -
5:00 - 5:03لتوصيف هويتنا وأطفالنا.
-
5:04 - 5:08لكن هذه الملفات الشخصية يمكن أن تؤثر
على حقوقنا بطرق ملحوظة. -
5:09 - 5:11لأوضح لكم بمثال،
-
5:14 - 5:18نشرت نيويورك تايمز في 2018 أخباراً
-
5:18 - 5:20أن البيانات التي تم تجميعها
-
5:20 - 5:23خلال خدمات التخطيط الجامعي عبر الإنترنت -
-
5:23 - 5:28التي ينجزها ملايين من أطفال المدارس
الثانوية في جميع أنحاء الولايات المتحدة -
5:28 - 5:31والذين يبحثون عن برنامج جامعي
أو منحة دراسية - -
5:31 - 5:34تم بيعها إلى وسطاء البيانات التعليمية.
-
5:36 - 5:41الآن، كشف باحثون في فوردهام
الذين درسوا وسطاء البيانات التعليمية -
5:41 - 5:46أن هذه الشركات وصفت أطفال
لا تتجاوز أعمارهم العامين -
5:46 - 5:50على أساس فئات مختلفة:
-
5:50 - 5:54العرق والدين والثراء،
-
5:54 - 5:56الصعيد الاجتماعي
-
5:56 - 5:59والعديد من الفئات العشوائية الأخرى.
-
5:59 - 6:04ثم يبيعون هذه الملفات الشخصية
مع اسم الطفل، -
6:04 - 6:07عنوان منزلهم وتفاصيل الاتصال بهم
-
6:07 - 6:09لشركات مختلفة،
-
6:09 - 6:11بما في ذلك المؤسسات التجارية والمهنية،
-
6:12 - 6:13والقروض الدراسية
-
6:13 - 6:15وشركات بطاقات الائتمان الطلابية.
-
6:17 - 6:18لكسر الحواجز،
-
6:18 - 6:22طلب الباحثون في فورهام
من وسيط البيانات التعليمية -
6:22 - 6:28تزويدهم بقائمة الفتيات من 14 إلى 15 سنة
-
6:28 - 6:31ممن كن مهتمات بخدمات تنظيم الأسرة.
-
6:32 - 6:35وافق وسيط البيانات بتزويدهم بالقائمة.
-
6:35 - 6:40لذا تخيل مدى خصوصية وتطفل
هذا الأمر على أطفالنا. -
6:41 - 6:45لكن وسطاء بيانات التعليم مجرد مثال.
-
6:45 - 6:50الحقيقة أنه تم توصيف أطفالنا بطرق
لا نستطيع السيطرة عليها -
6:50 - 6:53ولكن هذا يمكنه التأثير على فرصهم
في الحياة بصورة كبيرة. -
6:54 - 6:58لذا نريد أن نسأل أنفسنا:
-
6:58 - 7:02هل نستطيع أن نثق في هذه التقنيات
عندما يتعلق الأمر بتوصيف أطفالنا؟ -
7:02 - 7:04هل يمكننا؟
-
7:06 - 7:07إجابتي هي لا.
-
7:08 - 7:09كعالمة أنثروبولوجيا،
-
7:09 - 7:13أعتقد أنه يمكن للذكاء الصناعي
والتحليلات التنبؤية أن يكونا رائعين -
7:13 - 7:15للتنبؤ بمسار المرض
-
7:15 - 7:17أو محاربة تغير المناخ.
-
7:18 - 7:20لكننا بحاجة إلى التخلي عن اعتقاد
-
7:20 - 7:23أن هذه التقنيات يمكن أن تصنف
البشر بشكل موضوعي -
7:23 - 7:27وأنه يمكننا الاعتماد عليهم
لاتخاذ قرارات مبنية على البيانات -
7:27 - 7:28عن حياة الفرد.
-
7:28 - 7:31إذ ليس باستطاعتهم توصيف البشر.
-
7:31 - 7:34تتبع البيانات ليس مرآة لمن نحن.
-
7:34 - 7:37يفكر الإنسان بشيء ويقول العكس،
-
7:37 - 7:39يشعر بطريقة ويتصرف بشكل مختلف.
-
7:39 - 7:42التنبؤات الخوارزمية أو الأساليب الرقمية
-
7:42 - 7:47لا يمكن أن تفسر عدم إمكانية التنبؤ
والتجربة الإنسانية المعقدة. -
7:48 - 7:50إضافة إلى هذا،
-
7:50 - 7:53هذه التقنيات دائماً -
-
7:53 - 7:54دائماً -
-
7:54 - 7:56بطريقة أو بأخرى، منحازة.
-
7:57 - 8:02الخوارزميات حسب التعريف مجموعات
من القواعد أو الخطوات -
8:02 - 8:06تم تصميمها لتحقيق نتيجة محددة، أليس كذلك؟
-
8:07 - 8:10لكن لا يمكن لهذه القواعد أو الخطوات
أن تكون موضوعية، -
8:10 - 8:12لأنه تم تصميمها بواسطة البشر
-
8:12 - 8:13ضمن سياق ثقافي محدد
-
8:14 - 8:16وتتشكل بقيم ثقافية محددة.
-
8:17 - 8:18لذا عندما تعمل الآلات،
-
8:18 - 8:21تعمل من خوارزميات منحازة،
-
8:22 - 8:25وغالبا ما يتعلمون من قواعد البيانات
المتحيزة كذلك. -
8:26 - 8:30في الوقت الحالي، نحن نرى
الأمثلة الأولية للتحيز الخوارزمي. -
8:30 - 8:33وبعض هذه الأمثلة صراحة مرعبة.
-
8:34 - 8:39نشر معهد AI Now هذا العام
في نيويورك تقريراً -
8:39 - 8:41كشف أن تقنيات الذكاء الصناعي
-
8:41 - 8:44التي يتم استخدامها للشرطة التنبؤية
-
8:44 - 8:48تم تغذيتها على بيانات "فاسدة".
-
8:48 - 8:51تم جمع هذه البيانات في الأساس
-
8:51 - 8:55خلال الفترات التاريخية
من التحيز العنصري المعروف -
8:55 - 8:58وممارسات الشرطة غير الشفافة.
-
8:59 - 9:03لأن هذه التقنيات يتم تغذيتها
على بيانات فاسدة، -
9:03 - 9:04فهم ليسوا موضوعيين،
-
9:04 - 9:09ونتائجها فقط تضخيم
-
9:09 - 9:10لتحيز الشرطة والخطأ.
-
9:13 - 9:16لذلك أعتقد أننا نواجه مشكلة أساسية
-
9:16 - 9:18في مجتمعنا.
-
9:18 - 9:23بدأنا نثق في التقنيات عندما يتعلق
الأمر بتوصيف البشر. -
9:24 - 9:26نحن نعلم أنه في توصيف البشر،
-
9:26 - 9:29هذه التقنيات دائماً منحازة
-
9:29 - 9:32ولن تكون دقيقة أبداً.
-
9:32 - 9:35لذا ما نحتاجه الآن هو في الواقع حل سياسي.
-
9:35 - 9:40نحتاج أن تعترف الحكومات أن حقوق
البيانات الخاصة بنا هي حقوقنا الإنسانية. -
9:40 - 9:44(تصفيق وهتاف)
-
9:48 - 9:52حتى يحدث هذا، لا يمكننا أن نأمل
في مستقبل أكثر عدلاً. -
9:53 - 9:55أخشى أن بناتي سوف يتعرضن
-
9:56 - 9:59لجميع أنواع خوارزميات التمييز والخطأ.
-
9:59 - 10:02ترون الفرق بيني وبين بناتي
-
10:02 - 10:05هو أنه لا يوجد سجل عام لطفولتي.
-
10:05 - 10:09بالتأكيد لا توجد قاعدة بيانات
لجميع الأشياء المتهورة التي قمت بها -
10:09 - 10:11وفكرت فيها عندما كنت مراهقة.
-
10:11 - 10:13(ضحك)
-
10:14 - 10:17لكن هذا ربما مختلف لبناتي.
-
10:17 - 10:20البيانات التي يتم جمعها منهن اليوم
-
10:20 - 10:24يمكن استخدامها للحكم عليهن في المستقبل
-
10:24 - 10:27ويمكن أن تحول دون تحقيق آمالهن وأحلامهن.
-
10:29 - 10:30أعتقد أنه حان الوقت.
-
10:30 - 10:32حان الوقت لكي نتحرك جميعاً.
-
10:32 - 10:34حان الوقت لنبدأ العمل معاً
-
10:34 - 10:36كأفراد،
-
10:36 - 10:38كمنظمات وكمؤسسات،
-
10:38 - 10:41نطالب بقدر أكبر من عدالة البيانات لنا
-
10:41 - 10:43ولأطفالنا
-
10:43 - 10:44قبل فوات الأوان.
-
10:44 - 10:45شكراً لكم.
-
10:45 - 10:47(تصفيق)
- Title:
- ماذا تعرف شركات التكنولوجيا عن أطفالك
- Speaker:
- فيرونيكا باراسي
- Description:
-
تقول عالمة الأنثروبولوجيا فيرونيكا باراسي، إن المنصات الرقمية التي تستخدمها أنت وعائلتك كل يوم - من ألعاب الإنترنت إلى تطبيقات التعليم والبوابات الطبية - قد تجمع وتبيع بيانات أطفالك. تشارك براسي أبحاثها التي تلفت الأنظار، وتحث الآباء على إمعان النظر في الشروط والأحكام الرقمية بدلاً من قبولها عشوائياً- والمطالبة بالحماية التي تضمن عدم تحريف بيانات أطفالهم لمستقبلهم.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:01
Riyad Altayeb approved Arabic subtitles for What tech companies know about your kids | ||
Riyad Altayeb edited Arabic subtitles for What tech companies know about your kids | ||
Nawfal Aljabali accepted Arabic subtitles for What tech companies know about your kids | ||
Nawfal Aljabali edited Arabic subtitles for What tech companies know about your kids | ||
Shimaa Nabil edited Arabic subtitles for What tech companies know about your kids | ||
Shimaa Nabil edited Arabic subtitles for What tech companies know about your kids | ||
Shimaa Nabil edited Arabic subtitles for What tech companies know about your kids | ||
Shimaa Nabil edited Arabic subtitles for What tech companies know about your kids |