Return to Video

چیزهایی که شرکت‌های فناور در مورد فرزندان‌تان می‌دانند

  • 0:01 - 0:03
    هر روز، هر هفته،
  • 0:03 - 0:05
    ما با شرایط و مواد
    قراردادها موافقت می‌کنیم.
  • 0:05 - 0:07
    و هنگامی که این کار را می‌کنیم،
  • 0:07 - 0:09
    به شرکت‌ها به لحاظ قانونی حق می‌دهیم
  • 0:09 - 0:13
    تا هر چه می‌خواهند با داده‌های ما
  • 0:13 - 0:15
    و داده‌های فرزندانمان انجام دهند.
  • 0:17 - 0:20
    که موجب تعجب است:
  • 0:20 - 0:23
    چه مقدار از اطلاعات فرزندان را
    ما در اختیار دیگران می‌گذاریم،
  • 0:23 - 0:25
    و عواقب آن چیست؟
  • 0:26 - 0:28
    من یک انسان‌شناس هستم،
  • 0:28 - 0:31
    و همچنین مادر دو دختر کوچک.
  • 0:31 - 0:35
    و من از سال ۲۰۱۵ به این سوال علاقمند شدم
  • 0:35 - 0:38
    زمانی که ناگهان دریافتم
    که تقریباً اطلاعات
  • 0:38 - 0:41
    بسیار گسترده و غیرقابل تصوری
  • 0:41 - 0:44
    دارد در مورد کودکان تولید
    و جمع‌آوری می‌شود.
  • 0:45 - 0:47
    بنابراین یک پروژه تحقیقاتی را آغاز کردم،
  • 0:47 - 0:49
    که «شهروند داده‌های کودک» نام دارد،
  • 0:49 - 0:51
    و قصد داشتم این جای خالی را پر کنم.
  • 0:53 - 0:56
    حالا ممکن است فکر کنید
    قصد دارم شما را مقصر بدانم
  • 0:56 - 0:58
    برای اینکه عکس فرزندان‌تان را
    در فضای مجازی می‌گذارید،
  • 0:58 - 1:01
    اما واقعاً بحث من این نیست.
  • 1:01 - 1:04
    مسئله بسیار بزرگتر از چیزی به نام
    «دراختیارگذاری اطلاعات و تصاویر کودک» است.
  • 1:05 - 1:09
    این موضوع در مورد نظام است نه افراد.
  • 1:09 - 1:11
    قرار نیست شما و عادات‌تان را مقصر بدانیم.
  • 1:13 - 1:16
    برای اولین بار در تاریخ،
  • 1:16 - 1:18
    ما داریم داده‌های انفرادی
    کودکان را ردیابی می‌کنیم
  • 1:18 - 1:20
    آن هم مدت‌ها قبل از تولد--
  • 1:20 - 1:23
    گاهی از لحظه تصمیم‌گیری برای حاملگی،
  • 1:23 - 1:25
    و سپس در طول حیاتشان.
  • 1:25 - 1:28
    می‌بینید، زمانی که والدین تصمیم
    به فرزندآوری می‌گیرند،
  • 1:28 - 1:31
    به اینترنت مراجعه می‌کنند
    تا «روش‌های باردار شدن» را جستجو کنند،
  • 1:31 - 1:34
    یا اپلیکیشن‌های ردیابی
    تخمک‌گذاری را دانلود می‌کنند.
  • 1:35 - 1:38
    هنگامی که باردار می‌شوند،
  • 1:38 - 1:41
    فرا‌صوت رادیویی نوزادشان را
    در فضای مجازی می‌فرستند،
  • 1:41 - 1:43
    اپلیکیشن‌های حاملگی را دانلود می‌کنند
  • 1:43 - 1:47
    یا در مورد همه چیز
    با دکتر گوگل مشورت می‌کنند،
  • 1:47 - 1:48
    می‌دانید، مثل --
  • 1:48 - 1:51
    «خطر سقط جنین هنگام پرواز با هواپیما»
  • 1:51 - 1:54
    یا «گرفتگی عضلات شکم در ابتدای بارداری.»
  • 1:54 - 1:56
    می‌دانم چون خودم این کار را کرده‌ام --
  • 1:56 - 1:57
    و دفعات بسیار.
  • 1:58 - 2:01
    و هنگامی که نوزاد متولد می‌شود
    همه چیز را ردیابی می‌کنند
  • 2:01 - 2:03
    هر چُرت، هر غذا دادن،
  • 2:03 - 2:05
    هر رویداد حیاتی را با فناوری‌های مختلف
    پیگیری می‌کنند.
  • 2:06 - 2:08
    همه این فناوری‌ها
  • 2:08 - 2:14
    خصوصی‌ترین رفتار و داده‌های سلامت
    کودک را به سود تبدیل می‌کنند
  • 2:14 - 2:16
    تنها با به اشتراک گذاری آن با دیگران.
  • 2:17 - 2:19
    برای اینکه به شما بفهمانم چطور عمل می‌کند،
  • 2:19 - 2:24
    در سال ۲۰۱۹، بریتیش مدیکال ژورنال
    پژوهشی منتشر کرد که نشان می‌داد
  • 2:24 - 2:28
    از هر ۲۴ اپلیکیشن حوزه سلامت،
  • 2:28 - 2:31
    ۱۹ مورد اطلاعات را در اختیار
    یک گروه ثالث می‌گذارند.
  • 2:32 - 2:38
    و این گروه‌های ثالث اطلاعات را
    در اختیار ۲۱۶ سازمان دیگر می‌گذارند.
  • 2:39 - 2:42
    از این ۲۱۶ تا بعنوان گروه چهارم،
  • 2:42 - 2:45
    فقط سه مورد متعلق به بخش سلامت بودند.
  • 2:46 - 2:50
    دیگر شرکت‌هایی که به این داده‌ها دسترسی
    داشتند، شرکت‌های بزرگ فناوری بودند
  • 2:50 - 2:54
    همچون گوگل، فیس‌بوک و اراکل،
  • 2:54 - 2:56
    آن‌ها شرکت‌های تبلیغات دیجیتالی بودند
  • 2:56 - 3:00
    و یک مرکز اعتبارسنجی مشتریان هم وجود داشت.
  • 3:01 - 3:03
    درست متوجه شدید:
  • 3:03 - 3:08
    شرکت‌های تبلیغاتی و مراکز اعتبارسنجی
    احتمالا اطلاعات مربوط به نوزادان را دارند.
  • 3:09 - 3:12
    اما برنامه‌‌های موبایل، جستجوگرهای وب
    و شبکه‌های اجتماعی
  • 3:12 - 3:15
    تنها قله یک کوه یخ هستند،
  • 3:15 - 3:18
    چون کودکان دارند توسط فناوری‌‌های
    چندگانه در هر روز
  • 3:18 - 3:20
    از زندگی‌شان ردیابی می‌شوند.
  • 3:20 - 3:24
    کودکان توسط فناوری‌های خانگی
    و دستیاران مجازی در منزل ردیابی می‌شوند.
  • 3:24 - 3:26
    کودکان توسط محمل‌های آموزشی
  • 3:26 - 3:28
    و فناوری‌های آموزشی
    در مدارس‌شان ردیابی می‌شوند.
  • 3:28 - 3:30
    آن‌ها توسط رکوردهای آنلاین
  • 3:30 - 3:33
    و پورتال‌های آنلاین
    در مطب پزشک ردیابی می‌شوند.
  • 3:33 - 3:35
    آن‌ها توسط اسباب‌بازی‌های متصل به اینترنت،
  • 3:35 - 3:36
    بازی‌های آنلاین و بسیار،
  • 3:36 - 3:39
    بسیار، بسیار، بسیار
    فناوری‌های دیگر ردیابی می‌شوند.
  • 3:40 - 3:42
    بنابراین در طی تحقیقم،
  • 3:42 - 3:46
    بسیاری از والدین پیش من می‌آمدند
    و می‌گفتند، «حالا که چه؟
  • 3:46 - 3:49
    چه اهمیتی دارد که کودکان ردیابی می‌شوند؟
    ما چیزی برای
  • 3:50 - 3:51

    پنهان کردن نداریم.»
  • 3:53 - 3:54
    خوب، این قضیه اهمیت دارد.
  • 3:55 - 4:01
    مهم است چون امروز
    افراد فقط ردیابی نمی‌شوند،
  • 4:01 - 4:05
    افراد همچنین بر اساس داده‌ها
    طبقه‌بندی می‌شوند.
  • 4:05 - 4:09
    هوش مصنوعی و تحلیلگرهای
    پیش‌بینی‌کننده به کار برده می‌شوند
  • 4:09 - 4:13
    تا در حد ممکن داده‌های زندگی
    شخصی افراد از منابع مختلف
  • 4:13 - 4:15
    به خدمت گرفته شود:
  • 4:15 - 4:19
    منابعی چون تاریخچه خانوادگی، رفتارهای
    خرید، پیام‌های شبکه‌های اجتماعی.
  • 4:19 - 4:21
    سپس این داده‌ها را جمع می‌کنند
  • 4:21 - 4:24
    تا تصمیمات حاصل
    از داده‌های افراد اتخاذ شود.
  • 4:25 - 4:28
    و این فناوری‌ها همه جا به کار می‌روند.
  • 4:28 - 4:31
    بانک‌ها برای تصمیم‌گیری در مورد وام‌ها
  • 4:31 - 4:34
    و بیمه برای محاسبه مزایا
    از این‌ها استفاده می‌کند.
  • 4:34 - 4:37
    استخدام‌کنندگان و کارگزینان
    برای اینکه ببینند
  • 4:37 - 4:40
    کسی برای شغلی مناسب است
    از اینها استفاده می‌کنند.
  • 4:41 - 4:44
    همچنین پلیس و دادگاه‌ها برای تعیین
    اینکه کسی مجرم بالقوه است
  • 4:44 - 4:47
    یا برای تشخیص احتمال ارتکاب دوباره جرم
  • 4:47 - 4:50
    از اینها استفاده می‌کنند.
  • 4:52 - 4:57
    ما هیچگونه آگاهی یا کنترلی نداریم
  • 4:57 - 5:00
    در مورد روشی که داده‌های
    ما خرید و فروش می‌شود یا فرآیندی
  • 5:00 - 5:03
    که ما و فرزندان‌مان را طبقه‌بندی می‌کند.
  • 5:04 - 5:08
    اما این طبقه‌بندی‌ها می‌تواند
    بر حقوق ما به شکل چشمگیری اثر بگذارد.
  • 5:09 - 5:11
    بعنوان مثال،
  • 5:14 - 5:18
    در سال ۲۰۱۸ «نیویورک تایمز» خبری منتشر کرد
  • 5:18 - 5:20
    که داده‌هایی که از طریق خدمات
  • 5:20 - 5:23
    برنامه‌ریزی دانشگاهی آنلاین
    جمع‌آوری شده بود --
  • 5:23 - 5:28
    که در واقع توسط میلیون‌ها بچه دبیرستانی
    در سراسر امریکا تکمیل می‌شود
  • 5:28 - 5:31
    که در پی یک طرح دانشگاهی
    یا یک کمک هزینه تحصیلی هستند --
  • 5:31 - 5:34
    به دلالان داده‌های آموزشی فروخته شده بود.
  • 5:36 - 5:41
    اکنون، محققین در فوردهام که دلالان
    داده‌های آموزشی را مطالعه کرده‌اند
  • 5:41 - 5:46
    فاش کرده‌اند که این شرکت‌ها بچه‌ها را
    حتی از سنین دو سالگی دسته‌بندی می‌کنند
  • 5:46 - 5:50
    بر اساس طبقه‌بندی‌های مختلف:
  • 5:50 - 5:54
    نژاد، مذهب، ثروت،
  • 5:54 - 5:56
    ناسازگاری اجتماعی
  • 5:56 - 5:59
    و بسیاری از دیگر طبقه‌بندی‌های تصادفی.
  • 5:59 - 6:04
    و سپس این طبقه‌بندی‌ها را با اسم بچه،
  • 6:04 - 6:07
    آدرس منزل و جزئیات تماس
  • 6:07 - 6:09
    به شرکت‌های مختلف می‌فروشند،
  • 6:09 - 6:11
    شرکت‌هایی شامل موسسات کار و تجارت،
  • 6:12 - 6:13
    وام‌های دانشجویی
  • 6:13 - 6:15
    و شرکت‌های کارت‌های اعتباری دانشجویی.
  • 6:17 - 6:18
    برای جزئیات بیشتر،
  • 6:18 - 6:22
    محققان در فوردهام از
    یک دلال داده آموزشی خواستند
  • 6:22 - 6:28
    تا لیستی از دختران ۱۴
    تا ۱۵ ساله را فراهم کند
  • 6:28 - 6:31
    که به خدمات برنامه‌ریزی
    خانوادگی علاقه دارند.
  • 6:32 - 6:35
    دلال داده موافقت کرد
    که این لیست را به آن‌ها بدهد.
  • 6:35 - 6:40
    حالا تصور کنید که این چقدر برای
    فرزندان‌مان محرمانه و نوعی فضولی است.
  • 6:41 - 6:45
    اما دلال داده‌های آموزشی
    فقط یک نمونه هستند.
  • 6:45 - 6:50
    حقیقت این است که بچه‌های ما به طریقی که
    توسط ما قابل کنترل نیست، طبقه‌بندی می‌شوند
  • 6:50 - 6:53
    اما این می‌تواند بطور چشمگیری بختشان
    در زندگی را تحت تأثیر قرار دهد.
  • 6:54 - 6:58
    پس نیاز است از خودمان بپرسیم:
  • 6:58 - 7:02
    آیا می‌توانیم به این فناوری‌ها اعتماد کنیم
    در حالی که کودکان را طبقه‌بندی می‌کنند؟
  • 7:02 - 7:04
    می‌توانیم؟
  • 7:06 - 7:07
    پاسخ من خیر است.
  • 7:08 - 7:09
    بعنوان یک انسان‌شناس
  • 7:09 - 7:13
    معتقدم که هوش مصنوعی و تحلیلگران
    پیش‌بینی کننده می‌توانند خیلی خوب باشند
  • 7:13 - 7:15
    برای پیش‌بینی مسیر یک بیماری
  • 7:15 - 7:17
    یا مبارزه با تغییرات آب و هوایی.
  • 7:18 - 7:20
    اما باید این باور را رها کنیم
  • 7:20 - 7:23
    که این فناوری‌ها می‌توانند
    بیطرفانه انسان‌ها را طبقه‌بندی کنند
  • 7:23 - 7:27
    و اینکه می‌توانیم به آن‌ها
    اعتماد کنیم تا تصمیمات را بر مبنای
  • 7:27 - 7:28
    داده‌های زندگی شخصی افراد بگیرند.
  • 7:28 - 7:31
    چون نمی‌توانند انسان‌ها را طبقه‌بندی کنند.
  • 7:31 - 7:34
    آثار داده‌ها آیینه‌ای از واقعیت شما نیست.
  • 7:34 - 7:37
    انسان‌ها جوری فکر می‌کنند
    اما خلافش را می‌گویند،
  • 7:37 - 7:39
    جوری احساس می‌کنند
    ولی متفاوت عمل می‌کنند.
  • 7:39 - 7:42
    پیش‌بینی‌های الگوریتمی یا محاسبات دیجیتال
  • 7:42 - 7:47
    نمی‌تواند مبنایی منطبق بر غیرقابل
    پیش‌بینی بودن و پیچیدگی تجربه انسانی باشد.
  • 7:48 - 7:50
    اما مهمتر از همه اینکه
  • 7:50 - 7:53
    این فناوری‌ها همیشه --
  • 7:53 - 7:54
    همیشه --
  • 7:54 - 7:56
    به طریقی سوگیری مشخصی دارند.
  • 7:57 - 8:02
    می‌دانیم که الگوریتم‌ها دسته‌ای
    از قوانین و مراحل هستند
  • 8:02 - 8:06
    که برای حصول نتیجه مشخصی
    طراحی شده‌اند، درست؟
  • 8:07 - 8:10
    اما این دسته‌های قوانین و مراحل
    نمی‌توانند بیطرف باشند،
  • 8:10 - 8:12
    چون توسط انسان‌ها طراحی شده‌اند
  • 8:12 - 8:13
    و در یک زمینه فرهنگی خاص
  • 8:14 - 8:16
    و با ارزش‌های فرهنگی خاصی شکل گرفته‌اند.
  • 8:17 - 8:18
    بنابراین وقتی ماشین‌ها یاد می‌گیرند،
  • 8:18 - 8:21
    از الگوریتم‌های با سوگیری
    خاصی یاد می‌گیرند،
  • 8:22 - 8:25
    همچنین از پایگاه‌های داده
    با سوگیری خاص یاد می‌گیرند.
  • 8:26 - 8:30
    در این لحظه، داریم اولین نمونه
    سوگیری الگوریتمی را مشاهده می‌کنیم.
  • 8:30 - 8:33
    و برخی از این نمونه‌ها
    واقعاً ترسناک هستند.
  • 8:34 - 8:39
    امسال، ای‌آی ناو انستیتو
    در نیویورک گزارشی منتشر کرد
  • 8:39 - 8:41
    که فاش می‌کرد فناوری‌های هوش مصنوعی
  • 8:41 - 8:44
    که برای نظارت پلیسی پیشگویانه
    مورد استفاده هستند
  • 8:44 - 8:48
    با داده‌های «کثیف» آموزش دیده‌اند.
  • 8:48 - 8:51
    یعنی اطلاعاتی که اساساً
  • 8:51 - 8:55
    از زمان تاریخی تعصبات نژادی
  • 8:55 - 8:58
    و اعمال پلیسی غیرشفاف جمع‌آوری شده‌اند.
  • 8:59 - 9:03
    چون این فناوری‌ها با داد‌های
    «کثیف» آموزش می‌بینند،
  • 9:03 - 9:04
    بیطرف نیستند،
  • 9:04 - 9:09
    و خروجی آن‌ها فقط موجب تقویت و ارتکاب
  • 9:09 - 9:10
    تبعیض و خطای پلیسی می‌شود.
  • 9:13 - 9:16
    بنابراین فکر می‌کنم
    با یک مشکل اساسی در جامعه
  • 9:16 - 9:18
    روبرو هستیم.
  • 9:18 - 9:23
    ما داریم به فناوری‌هایی اعتماد می‌کنیم
    که انسان‌ها را طبقه‌بندی می‌کنند.
  • 9:24 - 9:26
    می‌دانیم که در طبقه‌بندی انسان‌ها،
  • 9:26 - 9:29
    این فناوری‌ها همواره سوگیری خاصی دارند
  • 9:29 - 9:32
    و هرگز نمی‌توانند صحیح باشند.
  • 9:32 - 9:35
    بنابراین واقعاً
    به راه حل سیاسی نیاز داریم.
  • 9:35 - 9:40
    دولت‌ها باید بدانند که داده‌های ما
    جزء حقوق انسانی ماست.
  • 9:40 - 9:44
    (تشویق و هورا)
  • 9:48 - 9:52
    تا زمانی که این محقق نشود
    نمی‌توانیم منتظر آینده عادلانه‌تری باشیم.
  • 9:53 - 9:55
    نگرانم که دخترانم در معرض
  • 9:56 - 9:59
    تمام این خطاها و تبعیضات
    الگوریتمی قرار بگیرند.
  • 9:59 - 10:02
    می‌دانید تفاوت من و دخترانم
  • 10:02 - 10:05
    این است که هیچ پرونده عمومی
    از دوران کودکی من وجود ندارد.
  • 10:05 - 10:09
    مشخصاً هیچ پایگاه داده‌ای
    از تمام کارها و افکار احمقانه‌ام
  • 10:09 - 10:11
    در زمان نوجوانی وجود ندارد.
  • 10:11 - 10:13
    (خنده)
  • 10:14 - 10:17
    اما در مورد دخترانم قضیه متفاوت است.
  • 10:17 - 10:20
    داده‌هایی که امروز در مورد
    آن‌ها جمع‌آوری می‌شود
  • 10:20 - 10:24
    می‌تواند برای قضاوت در مورد
    آن‌ها در آینده به کار گرفته شود
  • 10:24 - 10:27
    و می‌تواند امیدها
    و رویاهای‌شان را سرکوب کند.
  • 10:29 - 10:30
    فکر می‌کنم وقتش است.
  • 10:30 - 10:32
    وقت آن است که قیام کنیم.
  • 10:32 - 10:34
    وقت آن است که تک تک ما با هم همکاری کنیم،
  • 10:34 - 10:36
    بعنوان افراد،
  • 10:36 - 10:38
    بعنوان سازمان‌ها و بعنوان موسسات،
  • 10:38 - 10:41
    و تقاضا کنیم که عدالت داده‌ای
    بیشتری برای خودمان و برای
  • 10:41 - 10:43
    فرزندان‌مان وجود داشته باشد
  • 10:43 - 10:44
    قبل از اینکه خیلی دیر شود.
  • 10:44 - 10:45
    متشکرم،
  • 10:45 - 10:47
    (تشویق)
タイトル:
چیزهایی که شرکت‌های فناور در مورد فرزندان‌تان می‌دانند
話者:
ورونیکا باراسی
概説:

ورونیکا باراسی بعنوان یک انسان‌شناس می‌گوید محمل‌های دیجیتالی که شما و خانواده‌تان هر روز استفاده می‌کنید -- از قبیل بازی‌های آنلاین، اپلیکیشن‌های آموزشی و پورتال‌های درمانی -- احتمالا داده‌های فرزندان‌تان را جمع‌آوری کرده و می‌فروشند. با در اختیار گذاشتن تحقیق خیره‌کننده خود، باراسی والدین را بر می‌انگیزد که به مواد و شرایط قراردادی دیجیتال دقت بیشتری داشته باشند و کورکورانه آن‌ها را قبول نکنند -- و از مسئولین تقاضا کنند که امنیت داده‌های فرزندان را تضمین کنند تا آینده آن‌ها به خطر نیفتد.

more » « less
Video Language:
English
Team:
TED
プロジェクト:
TEDTalks
Duration:
11:01

Persian subtitles

改訂