چیزهایی که شرکتهای فناور در مورد فرزندانتان میدانند
-
0:01 - 0:03هر روز، هر هفته،
-
0:03 - 0:05ما با شرایط و مواد
قراردادها موافقت میکنیم. -
0:05 - 0:07و هنگامی که این کار را میکنیم،
-
0:07 - 0:09به شرکتها به لحاظ قانونی حق میدهیم
-
0:09 - 0:13تا هر چه میخواهند با دادههای ما
-
0:13 - 0:15و دادههای فرزندانمان انجام دهند.
-
0:17 - 0:20که موجب تعجب است:
-
0:20 - 0:23چه مقدار از اطلاعات فرزندان را
ما در اختیار دیگران میگذاریم، -
0:23 - 0:25و عواقب آن چیست؟
-
0:26 - 0:28من یک انسانشناس هستم،
-
0:28 - 0:31و همچنین مادر دو دختر کوچک.
-
0:31 - 0:35و من از سال ۲۰۱۵ به این سوال علاقمند شدم
-
0:35 - 0:38زمانی که ناگهان دریافتم
که تقریباً اطلاعات -
0:38 - 0:41بسیار گسترده و غیرقابل تصوری
-
0:41 - 0:44دارد در مورد کودکان تولید
و جمعآوری میشود. -
0:45 - 0:47بنابراین یک پروژه تحقیقاتی را آغاز کردم،
-
0:47 - 0:49که «شهروند دادههای کودک» نام دارد،
-
0:49 - 0:51و قصد داشتم این جای خالی را پر کنم.
-
0:53 - 0:56حالا ممکن است فکر کنید
قصد دارم شما را مقصر بدانم -
0:56 - 0:58برای اینکه عکس فرزندانتان را
در فضای مجازی میگذارید، -
0:58 - 1:01اما واقعاً بحث من این نیست.
-
1:01 - 1:04مسئله بسیار بزرگتر از چیزی به نام
«دراختیارگذاری اطلاعات و تصاویر کودک» است. -
1:05 - 1:09این موضوع در مورد نظام است نه افراد.
-
1:09 - 1:11قرار نیست شما و عاداتتان را مقصر بدانیم.
-
1:13 - 1:16برای اولین بار در تاریخ،
-
1:16 - 1:18ما داریم دادههای انفرادی
کودکان را ردیابی میکنیم -
1:18 - 1:20آن هم مدتها قبل از تولد--
-
1:20 - 1:23گاهی از لحظه تصمیمگیری برای حاملگی،
-
1:23 - 1:25و سپس در طول حیاتشان.
-
1:25 - 1:28میبینید، زمانی که والدین تصمیم
به فرزندآوری میگیرند، -
1:28 - 1:31به اینترنت مراجعه میکنند
تا «روشهای باردار شدن» را جستجو کنند، -
1:31 - 1:34یا اپلیکیشنهای ردیابی
تخمکگذاری را دانلود میکنند. -
1:35 - 1:38هنگامی که باردار میشوند،
-
1:38 - 1:41فراصوت رادیویی نوزادشان را
در فضای مجازی میفرستند، -
1:41 - 1:43اپلیکیشنهای حاملگی را دانلود میکنند
-
1:43 - 1:47یا در مورد همه چیز
با دکتر گوگل مشورت میکنند، -
1:47 - 1:48میدانید، مثل --
-
1:48 - 1:51«خطر سقط جنین هنگام پرواز با هواپیما»
-
1:51 - 1:54یا «گرفتگی عضلات شکم در ابتدای بارداری.»
-
1:54 - 1:56میدانم چون خودم این کار را کردهام --
-
1:56 - 1:57و دفعات بسیار.
-
1:58 - 2:01و هنگامی که نوزاد متولد میشود
همه چیز را ردیابی میکنند -
2:01 - 2:03هر چُرت، هر غذا دادن،
-
2:03 - 2:05هر رویداد حیاتی را با فناوریهای مختلف
پیگیری میکنند. -
2:06 - 2:08همه این فناوریها
-
2:08 - 2:14خصوصیترین رفتار و دادههای سلامت
کودک را به سود تبدیل میکنند -
2:14 - 2:16تنها با به اشتراک گذاری آن با دیگران.
-
2:17 - 2:19برای اینکه به شما بفهمانم چطور عمل میکند،
-
2:19 - 2:24در سال ۲۰۱۹، بریتیش مدیکال ژورنال
پژوهشی منتشر کرد که نشان میداد -
2:24 - 2:28از هر ۲۴ اپلیکیشن حوزه سلامت،
-
2:28 - 2:31۱۹ مورد اطلاعات را در اختیار
یک گروه ثالث میگذارند. -
2:32 - 2:38و این گروههای ثالث اطلاعات را
در اختیار ۲۱۶ سازمان دیگر میگذارند. -
2:39 - 2:42از این ۲۱۶ تا بعنوان گروه چهارم،
-
2:42 - 2:45فقط سه مورد متعلق به بخش سلامت بودند.
-
2:46 - 2:50دیگر شرکتهایی که به این دادهها دسترسی
داشتند، شرکتهای بزرگ فناوری بودند -
2:50 - 2:54همچون گوگل، فیسبوک و اراکل،
-
2:54 - 2:56آنها شرکتهای تبلیغات دیجیتالی بودند
-
2:56 - 3:00و یک مرکز اعتبارسنجی مشتریان هم وجود داشت.
-
3:01 - 3:03درست متوجه شدید:
-
3:03 - 3:08شرکتهای تبلیغاتی و مراکز اعتبارسنجی
احتمالا اطلاعات مربوط به نوزادان را دارند. -
3:09 - 3:12اما برنامههای موبایل، جستجوگرهای وب
و شبکههای اجتماعی -
3:12 - 3:15تنها قله یک کوه یخ هستند،
-
3:15 - 3:18چون کودکان دارند توسط فناوریهای
چندگانه در هر روز -
3:18 - 3:20از زندگیشان ردیابی میشوند.
-
3:20 - 3:24کودکان توسط فناوریهای خانگی
و دستیاران مجازی در منزل ردیابی میشوند. -
3:24 - 3:26کودکان توسط محملهای آموزشی
-
3:26 - 3:28و فناوریهای آموزشی
در مدارسشان ردیابی میشوند. -
3:28 - 3:30آنها توسط رکوردهای آنلاین
-
3:30 - 3:33و پورتالهای آنلاین
در مطب پزشک ردیابی میشوند. -
3:33 - 3:35آنها توسط اسباببازیهای متصل به اینترنت،
-
3:35 - 3:36بازیهای آنلاین و بسیار،
-
3:36 - 3:39بسیار، بسیار، بسیار
فناوریهای دیگر ردیابی میشوند. -
3:40 - 3:42بنابراین در طی تحقیقم،
-
3:42 - 3:46بسیاری از والدین پیش من میآمدند
و میگفتند، «حالا که چه؟ -
3:46 - 3:49چه اهمیتی دارد که کودکان ردیابی میشوند؟
ما چیزی برای -
3:50 - 3:51
پنهان کردن نداریم.» -
3:53 - 3:54خوب، این قضیه اهمیت دارد.
-
3:55 - 4:01مهم است چون امروز
افراد فقط ردیابی نمیشوند، -
4:01 - 4:05افراد همچنین بر اساس دادهها
طبقهبندی میشوند. -
4:05 - 4:09هوش مصنوعی و تحلیلگرهای
پیشبینیکننده به کار برده میشوند -
4:09 - 4:13تا در حد ممکن دادههای زندگی
شخصی افراد از منابع مختلف -
4:13 - 4:15به خدمت گرفته شود:
-
4:15 - 4:19منابعی چون تاریخچه خانوادگی، رفتارهای
خرید، پیامهای شبکههای اجتماعی. -
4:19 - 4:21سپس این دادهها را جمع میکنند
-
4:21 - 4:24تا تصمیمات حاصل
از دادههای افراد اتخاذ شود. -
4:25 - 4:28و این فناوریها همه جا به کار میروند.
-
4:28 - 4:31بانکها برای تصمیمگیری در مورد وامها
-
4:31 - 4:34و بیمه برای محاسبه مزایا
از اینها استفاده میکند. -
4:34 - 4:37استخدامکنندگان و کارگزینان
برای اینکه ببینند -
4:37 - 4:40کسی برای شغلی مناسب است
از اینها استفاده میکنند. -
4:41 - 4:44همچنین پلیس و دادگاهها برای تعیین
اینکه کسی مجرم بالقوه است -
4:44 - 4:47یا برای تشخیص احتمال ارتکاب دوباره جرم
-
4:47 - 4:50از اینها استفاده میکنند.
-
4:52 - 4:57ما هیچگونه آگاهی یا کنترلی نداریم
-
4:57 - 5:00در مورد روشی که دادههای
ما خرید و فروش میشود یا فرآیندی -
5:00 - 5:03که ما و فرزندانمان را طبقهبندی میکند.
-
5:04 - 5:08اما این طبقهبندیها میتواند
بر حقوق ما به شکل چشمگیری اثر بگذارد. -
5:09 - 5:11بعنوان مثال،
-
5:14 - 5:18در سال ۲۰۱۸ «نیویورک تایمز» خبری منتشر کرد
-
5:18 - 5:20که دادههایی که از طریق خدمات
-
5:20 - 5:23برنامهریزی دانشگاهی آنلاین
جمعآوری شده بود -- -
5:23 - 5:28که در واقع توسط میلیونها بچه دبیرستانی
در سراسر امریکا تکمیل میشود -
5:28 - 5:31که در پی یک طرح دانشگاهی
یا یک کمک هزینه تحصیلی هستند -- -
5:31 - 5:34به دلالان دادههای آموزشی فروخته شده بود.
-
5:36 - 5:41اکنون، محققین در فوردهام که دلالان
دادههای آموزشی را مطالعه کردهاند -
5:41 - 5:46فاش کردهاند که این شرکتها بچهها را
حتی از سنین دو سالگی دستهبندی میکنند -
5:46 - 5:50بر اساس طبقهبندیهای مختلف:
-
5:50 - 5:54نژاد، مذهب، ثروت،
-
5:54 - 5:56ناسازگاری اجتماعی
-
5:56 - 5:59و بسیاری از دیگر طبقهبندیهای تصادفی.
-
5:59 - 6:04و سپس این طبقهبندیها را با اسم بچه،
-
6:04 - 6:07آدرس منزل و جزئیات تماس
-
6:07 - 6:09به شرکتهای مختلف میفروشند،
-
6:09 - 6:11شرکتهایی شامل موسسات کار و تجارت،
-
6:12 - 6:13وامهای دانشجویی
-
6:13 - 6:15و شرکتهای کارتهای اعتباری دانشجویی.
-
6:17 - 6:18برای جزئیات بیشتر،
-
6:18 - 6:22محققان در فوردهام از
یک دلال داده آموزشی خواستند -
6:22 - 6:28تا لیستی از دختران ۱۴
تا ۱۵ ساله را فراهم کند -
6:28 - 6:31که به خدمات برنامهریزی
خانوادگی علاقه دارند. -
6:32 - 6:35دلال داده موافقت کرد
که این لیست را به آنها بدهد. -
6:35 - 6:40حالا تصور کنید که این چقدر برای
فرزندانمان محرمانه و نوعی فضولی است. -
6:41 - 6:45اما دلال دادههای آموزشی
فقط یک نمونه هستند. -
6:45 - 6:50حقیقت این است که بچههای ما به طریقی که
توسط ما قابل کنترل نیست، طبقهبندی میشوند -
6:50 - 6:53اما این میتواند بطور چشمگیری بختشان
در زندگی را تحت تأثیر قرار دهد. -
6:54 - 6:58پس نیاز است از خودمان بپرسیم:
-
6:58 - 7:02آیا میتوانیم به این فناوریها اعتماد کنیم
در حالی که کودکان را طبقهبندی میکنند؟ -
7:02 - 7:04میتوانیم؟
-
7:06 - 7:07پاسخ من خیر است.
-
7:08 - 7:09بعنوان یک انسانشناس
-
7:09 - 7:13معتقدم که هوش مصنوعی و تحلیلگران
پیشبینی کننده میتوانند خیلی خوب باشند -
7:13 - 7:15برای پیشبینی مسیر یک بیماری
-
7:15 - 7:17یا مبارزه با تغییرات آب و هوایی.
-
7:18 - 7:20اما باید این باور را رها کنیم
-
7:20 - 7:23که این فناوریها میتوانند
بیطرفانه انسانها را طبقهبندی کنند -
7:23 - 7:27و اینکه میتوانیم به آنها
اعتماد کنیم تا تصمیمات را بر مبنای -
7:27 - 7:28دادههای زندگی شخصی افراد بگیرند.
-
7:28 - 7:31چون نمیتوانند انسانها را طبقهبندی کنند.
-
7:31 - 7:34آثار دادهها آیینهای از واقعیت شما نیست.
-
7:34 - 7:37انسانها جوری فکر میکنند
اما خلافش را میگویند، -
7:37 - 7:39جوری احساس میکنند
ولی متفاوت عمل میکنند. -
7:39 - 7:42پیشبینیهای الگوریتمی یا محاسبات دیجیتال
-
7:42 - 7:47نمیتواند مبنایی منطبق بر غیرقابل
پیشبینی بودن و پیچیدگی تجربه انسانی باشد. -
7:48 - 7:50اما مهمتر از همه اینکه
-
7:50 - 7:53این فناوریها همیشه --
-
7:53 - 7:54همیشه --
-
7:54 - 7:56به طریقی سوگیری مشخصی دارند.
-
7:57 - 8:02میدانیم که الگوریتمها دستهای
از قوانین و مراحل هستند -
8:02 - 8:06که برای حصول نتیجه مشخصی
طراحی شدهاند، درست؟ -
8:07 - 8:10اما این دستههای قوانین و مراحل
نمیتوانند بیطرف باشند، -
8:10 - 8:12چون توسط انسانها طراحی شدهاند
-
8:12 - 8:13و در یک زمینه فرهنگی خاص
-
8:14 - 8:16و با ارزشهای فرهنگی خاصی شکل گرفتهاند.
-
8:17 - 8:18بنابراین وقتی ماشینها یاد میگیرند،
-
8:18 - 8:21از الگوریتمهای با سوگیری
خاصی یاد میگیرند، -
8:22 - 8:25همچنین از پایگاههای داده
با سوگیری خاص یاد میگیرند. -
8:26 - 8:30در این لحظه، داریم اولین نمونه
سوگیری الگوریتمی را مشاهده میکنیم. -
8:30 - 8:33و برخی از این نمونهها
واقعاً ترسناک هستند. -
8:34 - 8:39امسال، ایآی ناو انستیتو
در نیویورک گزارشی منتشر کرد -
8:39 - 8:41که فاش میکرد فناوریهای هوش مصنوعی
-
8:41 - 8:44که برای نظارت پلیسی پیشگویانه
مورد استفاده هستند -
8:44 - 8:48با دادههای «کثیف» آموزش دیدهاند.
-
8:48 - 8:51یعنی اطلاعاتی که اساساً
-
8:51 - 8:55از زمان تاریخی تعصبات نژادی
-
8:55 - 8:58و اعمال پلیسی غیرشفاف جمعآوری شدهاند.
-
8:59 - 9:03چون این فناوریها با دادهای
«کثیف» آموزش میبینند، -
9:03 - 9:04بیطرف نیستند،
-
9:04 - 9:09و خروجی آنها فقط موجب تقویت و ارتکاب
-
9:09 - 9:10تبعیض و خطای پلیسی میشود.
-
9:13 - 9:16بنابراین فکر میکنم
با یک مشکل اساسی در جامعه -
9:16 - 9:18روبرو هستیم.
-
9:18 - 9:23ما داریم به فناوریهایی اعتماد میکنیم
که انسانها را طبقهبندی میکنند. -
9:24 - 9:26میدانیم که در طبقهبندی انسانها،
-
9:26 - 9:29این فناوریها همواره سوگیری خاصی دارند
-
9:29 - 9:32و هرگز نمیتوانند صحیح باشند.
-
9:32 - 9:35بنابراین واقعاً
به راه حل سیاسی نیاز داریم. -
9:35 - 9:40دولتها باید بدانند که دادههای ما
جزء حقوق انسانی ماست. -
9:40 - 9:44(تشویق و هورا)
-
9:48 - 9:52تا زمانی که این محقق نشود
نمیتوانیم منتظر آینده عادلانهتری باشیم. -
9:53 - 9:55نگرانم که دخترانم در معرض
-
9:56 - 9:59تمام این خطاها و تبعیضات
الگوریتمی قرار بگیرند. -
9:59 - 10:02میدانید تفاوت من و دخترانم
-
10:02 - 10:05این است که هیچ پرونده عمومی
از دوران کودکی من وجود ندارد. -
10:05 - 10:09مشخصاً هیچ پایگاه دادهای
از تمام کارها و افکار احمقانهام -
10:09 - 10:11در زمان نوجوانی وجود ندارد.
-
10:11 - 10:13(خنده)
-
10:14 - 10:17اما در مورد دخترانم قضیه متفاوت است.
-
10:17 - 10:20دادههایی که امروز در مورد
آنها جمعآوری میشود -
10:20 - 10:24میتواند برای قضاوت در مورد
آنها در آینده به کار گرفته شود -
10:24 - 10:27و میتواند امیدها
و رویاهایشان را سرکوب کند. -
10:29 - 10:30فکر میکنم وقتش است.
-
10:30 - 10:32وقت آن است که قیام کنیم.
-
10:32 - 10:34وقت آن است که تک تک ما با هم همکاری کنیم،
-
10:34 - 10:36بعنوان افراد،
-
10:36 - 10:38بعنوان سازمانها و بعنوان موسسات،
-
10:38 - 10:41و تقاضا کنیم که عدالت دادهای
بیشتری برای خودمان و برای -
10:41 - 10:43فرزندانمان وجود داشته باشد
-
10:43 - 10:44قبل از اینکه خیلی دیر شود.
-
10:44 - 10:45متشکرم،
-
10:45 - 10:47(تشویق)
- Title:
- چیزهایی که شرکتهای فناور در مورد فرزندانتان میدانند
- Speaker:
- ورونیکا باراسی
- Description:
-
ورونیکا باراسی بعنوان یک انسانشناس میگوید محملهای دیجیتالی که شما و خانوادهتان هر روز استفاده میکنید -- از قبیل بازیهای آنلاین، اپلیکیشنهای آموزشی و پورتالهای درمانی -- احتمالا دادههای فرزندانتان را جمعآوری کرده و میفروشند. با در اختیار گذاشتن تحقیق خیرهکننده خود، باراسی والدین را بر میانگیزد که به مواد و شرایط قراردادی دیجیتال دقت بیشتری داشته باشند و کورکورانه آنها را قبول نکنند -- و از مسئولین تقاضا کنند که امنیت دادههای فرزندان را تضمین کنند تا آینده آنها به خطر نیفتد.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:01
Masoud Motamedifar approved Persian subtitles for What tech companies know about your kids | ||
Masoud Motamedifar accepted Persian subtitles for What tech companies know about your kids | ||
Masoud Motamedifar edited Persian subtitles for What tech companies know about your kids | ||
Masoud Motamedifar edited Persian subtitles for What tech companies know about your kids | ||
Mohammad Badsar edited Persian subtitles for What tech companies know about your kids | ||
Mohammad Badsar edited Persian subtitles for What tech companies know about your kids | ||
Mohammad Badsar edited Persian subtitles for What tech companies know about your kids | ||
Mohammad Badsar edited Persian subtitles for What tech companies know about your kids |