هر روز، هر هفته،
ما با شرایط و مواد
قراردادها موافقت میکنیم.
و هنگامی که این کار را میکنیم،
به شرکتها به لحاظ قانونی حق میدهیم
تا هر چه میخواهند با دادههای ما
و دادههای فرزندانمان انجام دهند.
که موجب تعجب است:
چه مقدار از اطلاعات فرزندان را
ما در اختیار دیگران میگذاریم،
و عواقب آن چیست؟
من یک انسانشناس هستم،
و همچنین مادر دو دختر کوچک.
و من از سال ۲۰۱۵ به این سوال علاقمند شدم
زمانی که ناگهان دریافتم
که تقریباً اطلاعات
بسیار گسترده و غیرقابل تصوری
دارد در مورد کودکان تولید
و جمعآوری میشود.
بنابراین یک پروژه تحقیقاتی را آغاز کردم،
که «شهروند دادههای کودک» نام دارد،
و قصد داشتم این جای خالی را پر کنم.
حالا ممکن است فکر کنید
قصد دارم شما را مقصر بدانم
برای اینکه عکس فرزندانتان را
در فضای مجازی میگذارید،
اما واقعاً بحث من این نیست.
مسئله بسیار بزرگتر از چیزی به نام
«دراختیارگذاری اطلاعات و تصاویر کودک» است.
این موضوع در مورد نظام است نه افراد.
قرار نیست شما و عاداتتان را مقصر بدانیم.
برای اولین بار در تاریخ،
ما داریم دادههای انفرادی
کودکان را ردیابی میکنیم
آن هم مدتها قبل از تولد--
گاهی از لحظه تصمیمگیری برای حاملگی،
و سپس در طول حیاتشان.
میبینید، زمانی که والدین تصمیم
به فرزندآوری میگیرند،
به اینترنت مراجعه میکنند
تا «روشهای باردار شدن» را جستجو کنند،
یا اپلیکیشنهای ردیابی
تخمکگذاری را دانلود میکنند.
هنگامی که باردار میشوند،
فراصوت رادیویی نوزادشان را
در فضای مجازی میفرستند،
اپلیکیشنهای حاملگی را دانلود میکنند
یا در مورد همه چیز
با دکتر گوگل مشورت میکنند،
میدانید، مثل --
«خطر سقط جنین هنگام پرواز با هواپیما»
یا «گرفتگی عضلات شکم در ابتدای بارداری.»
میدانم چون خودم این کار را کردهام --
و دفعات بسیار.
و هنگامی که نوزاد متولد میشود
همه چیز را ردیابی میکنند
هر چُرت، هر غذا دادن،
هر رویداد حیاتی را با فناوریهای مختلف
پیگیری میکنند.
همه این فناوریها
خصوصیترین رفتار و دادههای سلامت
کودک را به سود تبدیل میکنند
تنها با به اشتراک گذاری آن با دیگران.
برای اینکه به شما بفهمانم چطور عمل میکند،
در سال ۲۰۱۹، بریتیش مدیکال ژورنال
پژوهشی منتشر کرد که نشان میداد
از هر ۲۴ اپلیکیشن حوزه سلامت،
۱۹ مورد اطلاعات را در اختیار
یک گروه ثالث میگذارند.
و این گروههای ثالث اطلاعات را
در اختیار ۲۱۶ سازمان دیگر میگذارند.
از این ۲۱۶ تا بعنوان گروه چهارم،
فقط سه مورد متعلق به بخش سلامت بودند.
دیگر شرکتهایی که به این دادهها دسترسی
داشتند، شرکتهای بزرگ فناوری بودند
همچون گوگل، فیسبوک و اراکل،
آنها شرکتهای تبلیغات دیجیتالی بودند
و یک مرکز اعتبارسنجی مشتریان هم وجود داشت.
درست متوجه شدید:
شرکتهای تبلیغاتی و مراکز اعتبارسنجی
احتمالا اطلاعات مربوط به نوزادان را دارند.
اما برنامههای موبایل، جستجوگرهای وب
و شبکههای اجتماعی
تنها قله یک کوه یخ هستند،
چون کودکان دارند توسط فناوریهای
چندگانه در هر روز
از زندگیشان ردیابی میشوند.
کودکان توسط فناوریهای خانگی
و دستیاران مجازی در منزل ردیابی میشوند.
کودکان توسط محملهای آموزشی
و فناوریهای آموزشی
در مدارسشان ردیابی میشوند.
آنها توسط رکوردهای آنلاین
و پورتالهای آنلاین
در مطب پزشک ردیابی میشوند.
آنها توسط اسباببازیهای متصل به اینترنت،
بازیهای آنلاین و بسیار،
بسیار، بسیار، بسیار
فناوریهای دیگر ردیابی میشوند.
بنابراین در طی تحقیقم،
بسیاری از والدین پیش من میآمدند
و میگفتند، «حالا که چه؟
چه اهمیتی دارد که کودکان ردیابی میشوند؟
ما چیزی برای
پنهان کردن نداریم.»
خوب، این قضیه اهمیت دارد.
مهم است چون امروز
افراد فقط ردیابی نمیشوند،
افراد همچنین بر اساس دادهها
طبقهبندی میشوند.
هوش مصنوعی و تحلیلگرهای
پیشبینیکننده به کار برده میشوند
تا در حد ممکن دادههای زندگی
شخصی افراد از منابع مختلف
به خدمت گرفته شود:
منابعی چون تاریخچه خانوادگی، رفتارهای
خرید، پیامهای شبکههای اجتماعی.
سپس این دادهها را جمع میکنند
تا تصمیمات حاصل
از دادههای افراد اتخاذ شود.
و این فناوریها همه جا به کار میروند.
بانکها برای تصمیمگیری در مورد وامها
و بیمه برای محاسبه مزایا
از اینها استفاده میکند.
استخدامکنندگان و کارگزینان
برای اینکه ببینند
کسی برای شغلی مناسب است
از اینها استفاده میکنند.
همچنین پلیس و دادگاهها برای تعیین
اینکه کسی مجرم بالقوه است
یا برای تشخیص احتمال ارتکاب دوباره جرم
از اینها استفاده میکنند.
ما هیچگونه آگاهی یا کنترلی نداریم
در مورد روشی که دادههای
ما خرید و فروش میشود یا فرآیندی
که ما و فرزندانمان را طبقهبندی میکند.
اما این طبقهبندیها میتواند
بر حقوق ما به شکل چشمگیری اثر بگذارد.
بعنوان مثال،
در سال ۲۰۱۸ «نیویورک تایمز» خبری منتشر کرد
که دادههایی که از طریق خدمات
برنامهریزی دانشگاهی آنلاین
جمعآوری شده بود --
که در واقع توسط میلیونها بچه دبیرستانی
در سراسر امریکا تکمیل میشود
که در پی یک طرح دانشگاهی
یا یک کمک هزینه تحصیلی هستند --
به دلالان دادههای آموزشی فروخته شده بود.
اکنون، محققین در فوردهام که دلالان
دادههای آموزشی را مطالعه کردهاند
فاش کردهاند که این شرکتها بچهها را
حتی از سنین دو سالگی دستهبندی میکنند
بر اساس طبقهبندیهای مختلف:
نژاد، مذهب، ثروت،
ناسازگاری اجتماعی
و بسیاری از دیگر طبقهبندیهای تصادفی.
و سپس این طبقهبندیها را با اسم بچه،
آدرس منزل و جزئیات تماس
به شرکتهای مختلف میفروشند،
شرکتهایی شامل موسسات کار و تجارت،
وامهای دانشجویی
و شرکتهای کارتهای اعتباری دانشجویی.
برای جزئیات بیشتر،
محققان در فوردهام از
یک دلال داده آموزشی خواستند
تا لیستی از دختران ۱۴
تا ۱۵ ساله را فراهم کند
که به خدمات برنامهریزی
خانوادگی علاقه دارند.
دلال داده موافقت کرد
که این لیست را به آنها بدهد.
حالا تصور کنید که این چقدر برای
فرزندانمان محرمانه و نوعی فضولی است.
اما دلال دادههای آموزشی
فقط یک نمونه هستند.
حقیقت این است که بچههای ما به طریقی که
توسط ما قابل کنترل نیست، طبقهبندی میشوند
اما این میتواند بطور چشمگیری بختشان
در زندگی را تحت تأثیر قرار دهد.
پس نیاز است از خودمان بپرسیم:
آیا میتوانیم به این فناوریها اعتماد کنیم
در حالی که کودکان را طبقهبندی میکنند؟
میتوانیم؟
پاسخ من خیر است.
بعنوان یک انسانشناس
معتقدم که هوش مصنوعی و تحلیلگران
پیشبینی کننده میتوانند خیلی خوب باشند
برای پیشبینی مسیر یک بیماری
یا مبارزه با تغییرات آب و هوایی.
اما باید این باور را رها کنیم
که این فناوریها میتوانند
بیطرفانه انسانها را طبقهبندی کنند
و اینکه میتوانیم به آنها
اعتماد کنیم تا تصمیمات را بر مبنای
دادههای زندگی شخصی افراد بگیرند.
چون نمیتوانند انسانها را طبقهبندی کنند.
آثار دادهها آیینهای از واقعیت شما نیست.
انسانها جوری فکر میکنند
اما خلافش را میگویند،
جوری احساس میکنند
ولی متفاوت عمل میکنند.
پیشبینیهای الگوریتمی یا محاسبات دیجیتال
نمیتواند مبنایی منطبق بر غیرقابل
پیشبینی بودن و پیچیدگی تجربه انسانی باشد.
اما مهمتر از همه اینکه
این فناوریها همیشه --
همیشه --
به طریقی سوگیری مشخصی دارند.
میدانیم که الگوریتمها دستهای
از قوانین و مراحل هستند
که برای حصول نتیجه مشخصی
طراحی شدهاند، درست؟
اما این دستههای قوانین و مراحل
نمیتوانند بیطرف باشند،
چون توسط انسانها طراحی شدهاند
و در یک زمینه فرهنگی خاص
و با ارزشهای فرهنگی خاصی شکل گرفتهاند.
بنابراین وقتی ماشینها یاد میگیرند،
از الگوریتمهای با سوگیری
خاصی یاد میگیرند،
همچنین از پایگاههای داده
با سوگیری خاص یاد میگیرند.
در این لحظه، داریم اولین نمونه
سوگیری الگوریتمی را مشاهده میکنیم.
و برخی از این نمونهها
واقعاً ترسناک هستند.
امسال، ایآی ناو انستیتو
در نیویورک گزارشی منتشر کرد
که فاش میکرد فناوریهای هوش مصنوعی
که برای نظارت پلیسی پیشگویانه
مورد استفاده هستند
با دادههای «کثیف» آموزش دیدهاند.
یعنی اطلاعاتی که اساساً
از زمان تاریخی تعصبات نژادی
و اعمال پلیسی غیرشفاف جمعآوری شدهاند.
چون این فناوریها با دادهای
«کثیف» آموزش میبینند،
بیطرف نیستند،
و خروجی آنها فقط موجب تقویت و ارتکاب
تبعیض و خطای پلیسی میشود.
بنابراین فکر میکنم
با یک مشکل اساسی در جامعه
روبرو هستیم.
ما داریم به فناوریهایی اعتماد میکنیم
که انسانها را طبقهبندی میکنند.
میدانیم که در طبقهبندی انسانها،
این فناوریها همواره سوگیری خاصی دارند
و هرگز نمیتوانند صحیح باشند.
بنابراین واقعاً
به راه حل سیاسی نیاز داریم.
دولتها باید بدانند که دادههای ما
جزء حقوق انسانی ماست.
(تشویق و هورا)
تا زمانی که این محقق نشود
نمیتوانیم منتظر آینده عادلانهتری باشیم.
نگرانم که دخترانم در معرض
تمام این خطاها و تبعیضات
الگوریتمی قرار بگیرند.
میدانید تفاوت من و دخترانم
این است که هیچ پرونده عمومی
از دوران کودکی من وجود ندارد.
مشخصاً هیچ پایگاه دادهای
از تمام کارها و افکار احمقانهام
در زمان نوجوانی وجود ندارد.
(خنده)
اما در مورد دخترانم قضیه متفاوت است.
دادههایی که امروز در مورد
آنها جمعآوری میشود
میتواند برای قضاوت در مورد
آنها در آینده به کار گرفته شود
و میتواند امیدها
و رویاهایشان را سرکوب کند.
فکر میکنم وقتش است.
وقت آن است که قیام کنیم.
وقت آن است که تک تک ما با هم همکاری کنیم،
بعنوان افراد،
بعنوان سازمانها و بعنوان موسسات،
و تقاضا کنیم که عدالت دادهای
بیشتری برای خودمان و برای
فرزندانمان وجود داشته باشد
قبل از اینکه خیلی دیر شود.
متشکرم،
(تشویق)