كيف تخدعك شركات التكنولوجيا للتخلي عن بياناتك وخصوصيتك
-
0:01 - 0:03هل تتذكر عندما كنت طفلًا،
-
0:03 - 0:07لا بد وأنك كنت تمتلك لعبة مفضلة
كانت بمثابة رفيقك الدائم، -
0:07 - 0:10مثل كريستوفر روبن
ولعبته الدب ويني، -
0:10 - 0:13وخيالك الممتلئ بمغامرات لا نهاية لها؟
-
0:14 - 0:16ما الذي يمكن أن يكون أكثر براءة من ذلك؟
-
0:17 - 0:22حسنًا، دعني أعرفك على صديقتي كايلا.
-
0:23 - 0:26صُنفت لعبة كايلا على أنها لعبة العام
في بعض الدول حول العالم. -
0:26 - 0:30حيث تتصل بالإنترنت وتستخدم
تقنية التعرف على الحديث -
0:30 - 0:32لتجيب على أسئلة طفلك،
-
0:32 - 0:34وتتفاعل معه كصديق حقيقي.
-
0:35 - 0:39لكن القوة لا تكمن في خيال طفلك.
-
0:39 - 0:43وإنما تكمن فى الشركة التي تستثمر عبر جمعها
لكميات هائلة من المعلومات الشخصية -
0:43 - 0:49بينما تتحدث عائلتك بعفوية
في منزلهم الآمن، -
0:49 - 0:51شعور خطير بالأمان بشكل زائف.
-
0:53 - 0:55قرعت هذه القضية أجراس الإنذار بالنسبة لي،
-
0:56 - 0:59فوظيفتي تقوم على حماية حقوق
المستخدمين في بلدي. -
1:00 - 1:03وبوجود المليارات من الأجهزة كالسيارات،
-
1:03 - 1:08عدادات الطاقة وحتى المكانس الكهربائية التي
من المتوقع أن تتصل بالشبكة بحلول عام 2020، -
1:08 - 1:12فقد اعتقدنا أن هذه القضية هي الأكثر
استحقاقًا للمزيد من البحث. -
1:12 - 1:14لأن..
ما الذي كانت تفعله كايلا -
1:14 - 1:17مع كل الأشياء المثيرة التي كانت تتعلمها؟
-
1:17 - 1:21هل كان لديها صديق آخر كانت وفية
له وشاركت معلوماتها معه؟ -
1:22 - 1:24نعم، تخمينك صحيح. لقد امتلكت واحدًا.
-
1:24 - 1:27حتى تلعب مع كايلا،
-
1:27 - 1:30لا بد وأن تحمل تطبيقًا يساعدك على الوصول
إلى جميع ميزاتها. -
1:30 - 1:34يجب على الوالدين الموافقة على الشروط
التي يتم تغييرها دون أن يلاحظوا ذلك. -
1:35 - 1:39يمكن استخدام تسجيلات الطفل وعائلته
وأصدقاء كايلا، -
1:39 - 1:41في الإعلانات الموجهة.
-
1:42 - 1:47وجميع هذه المعلومات يمكن مشاركتها
مع أطراف ثالثة غير مسماه. -
1:48 - 1:50هل هذا يكفي؟ ليس تمامًا.
-
1:51 - 1:55يمكن لأي شخص يملك هاتفًا ذكيًا
الاتصال بكايلا -
1:55 - 1:57ضمن مسافة معينة.
-
1:58 - 2:02عندما واجهنا الشركة التي صنعت
وبرمجت كايلا بهذه الأمور، -
2:02 - 2:04أصدروا سلسلة من التصريحات
-
2:04 - 2:09تنص على وجوب أن يكون المرء خبير تكنولوجيا
حتى يتمكن من اختراق أمن المعلومات. -
2:10 - 2:14ما رأيكم أن نتحقق من هذا البيان
ونخترق أمن كايلا معا والآن؟ -
2:18 - 2:19ها هي.
-
2:20 - 2:24تم تجهيزكايلا بجهاز بلوتوث
-
2:24 - 2:26يمكن الاتصال به عبر مسافة 60 قدمًا،
-
2:26 - 2:28وأقل قليلًا إذا تواجد جدار بالمنتصف.
-
2:28 - 2:34وهذا يعني أنني أنا، أو أي شخص غريب هنا،
يمكنه الاتصال بالدمية -
2:34 - 2:38أثناء وجوده خارج الغرفة حيث
توجد كايلا وأصدقاؤها. -
2:38 - 2:40ولتوضيح ذلك،
-
2:40 - 2:42سأقوم بتشغيل كايلا الآن.
-
2:42 - 2:44دعونا نرى، واحد، اثنان، ثلاثة.
-
2:45 - 2:47ها هي تعمل. وقد طلبت من زميل لي
-
2:47 - 2:49أن يقف خارجًا مع هاتفه الذكي،
-
2:49 - 2:50وهو متصل بالشبكة،
-
2:51 - 2:53ولجعل هذا مخيفًا قليلًا ...
-
2:53 - 2:57(ضحك)
-
2:58 - 3:02دعونا نرى ما يمكن أن يسمعه الأطفال
من كايلا في غرفتهم الأمنة. -
3:04 - 3:07الرجل: مرحبًا. أنا اسمي كايلا.
ماهو اسمك؟ -
3:07 - 3:08فين ميرستاد: آه، فين.
-
3:09 - 3:10الرجل: هل أمك بالجوار؟
-
3:10 - 3:12ف.م: لا، إنها في المتجر.
-
3:13 - 3:15الرجل: آه. هل تريد أن تخرج وتلعب معي؟
-
3:15 - 3:17ف.م: هذه فكرة رائعة.
-
3:18 - 3:19الرجل: آه، عظيم.
-
3:20 - 3:23ف.م: سأقوم بإيقاف كايلا الآن.
-
3:23 - 3:24(ضحك)
-
3:27 - 3:30لم نحتج إلى أي كلمة مرور
-
3:30 - 3:33ولم نحتل على أي نوع من أنواع
الأمن لنقوم بذلك. -
3:34 - 3:38نشرنا تقريرًا في 20 دولة حول العالم،
-
3:38 - 3:41كشفنا فيه هذا الخطأ الأمني المهم
-
3:41 - 3:43وقضايا أخرى كثيرة تتسبب بالمشاكل.
-
3:44 - 3:45إذًا ما الذي حصل؟
-
3:46 - 3:47حُظرت كايلا في ألمانيا،
-
3:48 - 3:52وأُنزلت من على أرفف أمازون و وول- مارت،
-
3:52 - 3:55وهي الآن ترقد بسلام
-
3:55 - 3:58في متحف الجاسوس الألماني في برلين.
-
3:58 - 4:01(ضحك)
-
4:01 - 4:05ومع ذلك، فإن كايلا بقيت معروضة
للبيع في المتاجر حول العالم -
4:05 - 4:09لأكثر من عام بعد التقرير الذي نشرناه.
-
4:09 - 4:13ما كشفناه هو أن هناك القليل من
القوانين لحمايتنا -
4:13 - 4:17وتلك القوانين التي نمتلكها لا يتم تطبيقها
بالشكل صحيح. -
4:18 - 4:22فنحن نحتاج لأن نحصل على الأمان
والخصوصية بوجود هذه الأجهزة -
4:22 - 4:25قبل دخولها السوق،
-
4:25 - 4:29فما هو الغرض من تأمين المنزل بمفتاح
-
4:29 - 4:32إذا كان بإمكان أي شخص الدخول
إليه عبر جهاز متصل بالشبكة؟ -
4:34 - 4:37قد تفكر، "هذا لن يحدث لي.
-
4:37 - 4:40سأبقى بعيدًا عن هذه الأجهزة المعيبة."
-
4:41 - 4:43لكن هذا لن يبقيك بمأمن من الخطر،
-
4:43 - 4:46لأنه ببساطة عندما تتصل بالشبكة،
-
4:46 - 4:50سوف توضع في موقف صعب جدًا
"خذ أو أترك". -
4:50 - 4:52دعوني أريكم.
-
4:52 - 4:55مثل معظمكم،
فأنا أملك عشرات التطبيقات على هاتفي، -
4:56 - 4:58وأستخدمها بشكل صحيح،
يساعد في جعل حياتنا أسهل، -
4:58 - 5:01ومريح أكثر وربما صحي أكثر.
-
5:02 - 5:05لكن هل تم إقصاءنا يا ترى
إلى شعور زائف بالأمان؟ -
5:07 - 5:09يبدأ ببساطة عند وضع علامة (صح) في مربع.
-
5:10 - 5:12أجل، نحن نقول،
-
5:12 - 5:13لقد قرأت الشروط.
-
5:15 - 5:18لكن هل حقًا قرأت الشروط؟
-
5:19 - 5:21هل أنت متأكد من أنها لم تكن طويلة
-
5:22 - 5:24وأن بطارية الهاتف بدأت بالنفاذ،
-
5:24 - 5:27وآخر مرة حاولت فيها قراءة تلك الشروط
كانت في الواقع مستحيلة الفهم، -
5:27 - 5:29وكنت بحاجة لتلك الخدمة في الحال؟
-
5:30 - 5:33والآن، لقد اختل توازن القوى،
-
5:34 - 5:37لأننا وافقنا على أن تُجمع
معلوماتنا الشخصية -
5:37 - 5:40وتُستخدم على نطاق لم يكن بوسعنا
أن نتخيله أبدًا. -
5:42 - 5:45لهذا قررت أنا وزملائي أن نلقي
نظرة أعمق على هذا الأمر. -
5:45 - 5:49بدأنا في قراءة شروط
-
5:49 - 5:51التطبيقات الشائعة على الهاتف العادي.
-
5:51 - 5:55ولنظهر للعالم كم أنه من غير الواقعي
-
5:55 - 5:58أن يقرأ المستخدمون تلك الشروط،
-
5:58 - 6:00قمنا بطباعتهم،
-
6:00 - 6:02لقد تجاوزوا ال 900 صفحة في عددهم،
-
6:03 - 6:06جلسنا في مكتبنا وقرأناها بصوت عالٍ،
-
6:08 - 6:10مع بث مباشر لهذه التجربة
على مواقعنا الإلكترونية. -
6:10 - 6:13كما ترون، لقد استغرق الأمر وقتا طويلًا.
-
6:13 - 6:17فقد استغرق الأمر 31 ساعة و49 دقيقة
و11 ثانية -
6:17 - 6:20لقراءة الشروط على الهاتف العادي.
-
6:20 - 6:24هذا أطول من ماراثون لأفلام "هاري بوتر"
-
6:24 - 6:27وأفلام "الأب الروحي" مجتمعة.
-
6:27 - 6:28(ضحك)
-
6:30 - 6:32والقراءة شيء.
-
6:32 - 6:34والفهم شيء آخر.
-
6:34 - 6:37الذى كان من شأنه أن يأخذ منا وقتًا
أطول من ذلك بكثير. -
6:37 - 6:39وهذه مشكلة حقيقية،
-
6:39 - 6:42لأن الشركات أمضت ما يقارب
20 إلى 30 سنة تجادل -
6:42 - 6:45ضد فكرة تنظيم الشبكة بشكل أفضل،
-
6:45 - 6:48لأن المستخدمين سبق ووافقوا
على الشروط والأحكام. -
6:51 - 6:52وكما أوضحنا في هذه التجربة،
-
6:53 - 6:55فإن الحصول على موافقة مبينة
وواضحة على كل الشروط شبه مستحيلة. -
6:57 - 7:01هل تعتقد أنه من العدل وضع عبء
المسؤولية على المستخدم؟ -
7:02 - 7:04لا أعتقد ذلك.
-
7:04 - 7:07أعتقد أنه يجب علينا أن نطالب
بتقليل شروط "خذ أو أترك"، -
7:07 - 7:10ونزيد من الشروط المفهومة
قبل أن نوافق عليها. -
7:10 - 7:12(تصفيق)
-
7:12 - 7:13شكرًا لكم.
-
7:16 - 7:21أود أن أخبركم الآن قصة عن الحب.
-
7:22 - 7:26بعض أكثر التطبيقات شعبية
في العالم هي تطبيقات المواعدة، -
7:26 - 7:30وهي صناعة تبلغ قيمتها الآن أكثر
من ثلاثة مليارات دولار أو تقترب منها. -
7:31 - 7:35وبالطبع، فلا مانع لدينا من مشاركة
تفاصيلنا الحميمية -
7:35 - 7:37مع نصفنا الآخر.
-
7:37 - 7:39ولكن هل من أحد غيره يتطفل
-
7:39 - 7:42ويحفظ ويشارك معلوماتنا
-
7:42 - 7:44بينما نحن نكشف اسرارنا الشخصية؟
-
7:45 - 7:47قررت أنا وفريقي البحث في هذا الأمر.
-
7:49 - 7:52ولنفهم المشكلة من جميع الزوايا
-
7:52 - 7:54ونقوم بعمل دقيق،
-
7:55 - 7:57أدركت أنه لا بد لي من تنزيل
-
7:57 - 8:01أحد أشهر تطبيقات التعارف في العالم بنفسي.
-
8:02 - 8:05لذا ذهبت إلى زوجتي ...
-
8:05 - 8:07(ضحك)
-
8:07 - 8:08والتي تزوجتها حديثًا.
-
8:08 - 8:13"هل تمانعين أن أنشئ حسابًا
على تطبيق مواعدة شائع جدًا -
8:13 - 8:15لأغراض علمية بحتة؟"
-
8:15 - 8:17(ضحك)
-
8:17 - 8:18وهذا ما وجدناه.
-
8:18 - 8:22صندوقًا مخبأً وراء القائمة الرئيسية
وُضعت إشارة الموافقة عليه مسبقًا -
8:22 - 8:28وهو ما يسمح لشركة تطبيق المواعدة بأن تصل
إلى جميع صوري الشخصية على فيسبوك، -
8:28 - 8:31ويعني هذا في حالتي أكثر من 2000 صورة،
-
8:31 - 8:33وبعض هذه الصور كانت شخصيةً جدًا.
-
8:34 - 8:37ولجعل الأمور أسوأ،
-
8:37 - 8:39عندما قرأنا البنود والشروط،
-
8:39 - 8:40اكتشفنا ما يلي،
-
8:40 - 8:43سأحتاج إلى إخراج نظارتي لقراءة هذا.
-
8:44 - 8:47سأقرأها لكم، لأن هذا معقد.
-
8:47 - 8:49حسنًا.
-
8:49 - 8:51"من خلال نشر محتوى"،
-
8:51 - 8:53والمحتوى هنا يعني صورك، ومحادثاتك
-
8:53 - 8:55وتفاعلاتك الأخرى في تطبيق المواعدة،
-
8:55 - 8:56"كجزء من الخدمة،
-
8:57 - 8:58فإنك تمنح تلقائيًا الشركة
-
8:59 - 9:01والشركات التابعة لها ومرخصيها وخلفائها
-
9:01 - 9:04أمرًا لا رجعة فيه"، وهذا يعني أنك
لا تستطيع تغيير رأيك فيه، -
9:04 - 9:07"دائمًا"، ما يعني إلى الأبد،
-
9:07 - 9:10"غير حصري، قابل للتحويل،
يمكن ترخيصه جزئيًا، ومدفوع بالكامل، -
9:10 - 9:13وللعالم الحق والترخيص لاستخدامه،
ونسخه، وتخزينه، وتعديله، -
9:13 - 9:14وعرضه وإعادة إنتاجه وتسجيله،
-
9:14 - 9:16و تشغيله و تكييفه حسب المتطلبات و توزيعه،
-
9:16 - 9:18و إعداد أعمال مشتقة من المحتوى،
-
9:18 - 9:20و دمج المحتوى في أعمال أخرى
-
9:20 - 9:23ومنح التراخيص لما سبق ذكره
لأي وسيلة إعلامية -
9:23 - 9:25معروفة الآن أو ستنشؤ فيما بعد."
-
9:25 - 9:27(يتنفس بصعوبة)
-
9:29 - 9:32وبشكل أساسي فإن هذا يعني أن كل تاريخ
علاقاتك السابقة -
9:32 - 9:38وكل ما يتعلق بها يمكن استخدامها
لأي غرض وفي كل الأوقات. -
9:39 - 9:43فقط تخيل أن أطفالك يرون صورك المثيرة
-
9:44 - 9:46في إعلان تحديد للنسل
بعد 20 عامًا من الآن. -
9:48 - 9:50ولكن بجدية،
-
9:50 - 9:51(ضحك)
-
9:53 - 9:55ما الذي قد تعنيه هذه الممارسات
التجارية لك؟ -
9:56 - 9:59على سبيل المثال، في حال خسارتك المالية:
-
9:59 - 10:01بناء على سجلك الخاص في تصفح الشبكة،
-
10:01 - 10:04ستحدد الخوارزميات ما إذا كنت تستحق أن تحصل
على قرض عقاري أم لا. -
10:05 - 10:06التلاعب بعقلك اللاواعي:
-
10:08 - 10:11حيث تستطيع الشركات تحليل عواطفك استنادًا
إلى صورك ودردشاتك، -
10:11 - 10:15وبالتالي فإنها تستهدفك بالإعلانات عندما
تكون أكثر ضعفًا وحساسية. -
10:15 - 10:16التمييز:
-
10:16 - 10:19يمكن لتطبيق اللياقة البدنية بيع بياناتك
إلى شركة تأمين صحي، -
10:19 - 10:22ما يؤدي لمنعك من الحصول
على تأمين صحي في المستقبل. -
10:22 - 10:25كل هذا يحدث في العالم اليوم.
-
10:26 - 10:29لكن بالطبع، ليست كل استخدامات
البيانات مؤذية. -
10:29 - 10:31فبعضها معيوب أو بحاجة إلى تعديل أكثر،
-
10:31 - 10:33وبعضها رائع حقًا.
-
10:36 - 10:39وهناك بعض الأخبار الجيدة كذلك.
-
10:39 - 10:43فقد غيرت شركات المواعدة سياساتها
على الصعيد العالمي -
10:43 - 10:44بعد أن قدمنا شكوى قانونية.
-
10:46 - 10:48لكن الشركات التي تشبه شركتي
-
10:48 - 10:51التي تحارب من أجل حقوق المستخدمين
لا يمكنها التواجد في كل مكان. -
10:51 - 10:54ولا يمكن للمستخدمين أيضًا إصلاح ذلك
بمفردهم، -
10:54 - 10:58لأننا إذا علمنا أن شيئًا قلناه بشكل عفوي،
-
10:58 - 10:59من الممكن أن يُستخدم ضدنا،
-
10:59 - 11:01فسوف نتوقف عن الكلام.
-
11:01 - 11:04إذا كنا نعلم أننا نُراقب ونُشاهد،
-
11:04 - 11:06فبالتأكيد سنغير سلوكنا.
-
11:07 - 11:10وإذا لم نتمكن من التحكم بمعرفة من يملك
بياناتنا وكيف يتم استخدامها، -
11:10 - 11:12فحتمًا سنفقد السيطرة على حياتنا.
-
11:14 - 11:18القصص التي أخبرتكم بها اليوم
ليست أمثلة عشوائية. -
11:18 - 11:20إنها موجودة في كل مكان،
-
11:20 - 11:23وهي علامة على أن الأمور
بحاجة إلى التغيير. -
11:23 - 11:25وكيف يمكننا تحقيق هذا التغيير؟
-
11:25 - 11:30حسنًا، على الشركات أن تدرك أن عليها
أن تمنح الأولوية للخصوصية والأمان، -
11:30 - 11:33فبذلك يمكنها بناء الثقة والولاء
مع مستخدميها. -
11:35 - 11:38يجب على الحكومات إنشاء
شبكة إنترنت أكثر أمانًا -
11:38 - 11:41من خلال ضمان تطبيق القوانين وتحديثها.
-
11:41 - 11:44ونحن، المواطنون؟
-
11:44 - 11:45نستطيع استخدام أصواتنا
-
11:45 - 11:51لنذكر العالم بأن التكنولوجيا لا يمكن
أن تفيد المجتمع -
11:51 - 11:53إلا إذا احترمت الحقوق الأساسية لمستخدميها.
-
11:54 - 11:55شكرًا جزيلًا لكم.
-
11:55 - 11:59(تصفيق)
- Title:
- كيف تخدعك شركات التكنولوجيا للتخلي عن بياناتك وخصوصيتك
- Speaker:
- فينَ ميرستاد
- Description:
-
هل حدث وأن قرأت حقًا البنود والشروط للتطبيقات التي تستخدمها؟ قام فينَ ميرستاد وفريقه في مجلس المستهلكين النرويجي بفعل ذلك وقد أمضوا ما يقارب اليوم ونصف اليوم لقراءة شروط جميع التطبيقات التي تتواجد عادة على الهاتف العادي. في حديث حول الطرق المقلقة التي تخدع بها شركات التكنولوجيا مستخدميها، يشاركنا ميرستاد رؤى ووجهات نظر حول المعلومات الشخصية التي وافقت على السماح للشركات بجمعها - وعن الكيفية التي يستخدمون بها تلك البيانات والمعلومات على نطاق لا يمكن تخيله أبدًا.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 12:12
Retired user approved Arabic subtitles for How tech companies deceive you into giving up your data and privacy | ||
Retired user edited Arabic subtitles for How tech companies deceive you into giving up your data and privacy | ||
Sameeha Atout accepted Arabic subtitles for How tech companies deceive you into giving up your data and privacy | ||
Sameeha Atout edited Arabic subtitles for How tech companies deceive you into giving up your data and privacy | ||
Sameeha Atout edited Arabic subtitles for How tech companies deceive you into giving up your data and privacy | ||
Sameeha Atout edited Arabic subtitles for How tech companies deceive you into giving up your data and privacy | ||
Sameeha Atout edited Arabic subtitles for How tech companies deceive you into giving up your data and privacy | ||
Sameeha Atout edited Arabic subtitles for How tech companies deceive you into giving up your data and privacy |