Return to Video

آنچه که باید در مورد فن‌آوری نظارت بر چهره بدانید

  • 0:01 - 0:03
    چند نفر ازشما تا به‌حال
    شنیده‌اید که بگویند
  • 0:03 - 0:04
    حریم شخصی وجود ندارد؟
  • 0:04 - 0:05
    دستهایتان را بالا ببرید.
  • 0:06 - 0:08
    چند نفر از شما از کسی شنیده‌اید که
  • 0:08 - 0:12
    حریم شخصی برایشان مهم نیست
    چون که چیزی برای پنهان کردن ندارند؟
  • 0:13 - 0:14
    ادامه بدهید.
  • 0:14 - 0:15
    (خنده)
  • 0:16 - 0:20
    حالا، چند نفر از شما از نرم‌افزارهای
    رمزگذاری استفاده می‌کنید؟
  • 0:20 - 0:21
    دستهایتان را بالا ببرید.
  • 0:21 - 0:25
    یا از پسورد برای حفظ حساب کاربری
    آنلاین استفاده می کنید؟
  • 0:26 - 0:29
    یا از پرده و کرکره برای
    پنجره‌ی خانه استفاده می‌کنید؟
  • 0:29 - 0:31
    (خنده)
  • 0:31 - 0:33
    خیلی خب، پس فکر کنم همه استفاده می‌کنند.
  • 0:33 - 0:34
    (خنده)
  • 0:35 - 0:37
    خب چرا این کارها را انجام می‌دهید؟
  • 0:37 - 0:38
    حدس من این هست که،
  • 0:38 - 0:41
    به خاطر این که به حریم خصوصی
    خودتان اهمیت می دهید.
  • 0:41 - 0:44
    این که حریم خصوصی وجود ندارد افسانه است.
  • 0:44 - 0:47
    این که مردم به حریم
    خصوصی‌شان اهمیت نمی دهند
  • 0:47 - 0:48
    چون «چیزی برای پنهان کردن ندارند»
  • 0:48 - 0:50
    یا کار اشتباهی انجام نداده‌اند
  • 0:50 - 0:51
    این هم یک افسانه است.
  • 0:52 - 0:56
    حدس می زنم که شما دوست ندارید در اینترنت
    چیزهایی را به صورت عمومی منتشر کنید،
  • 0:57 - 0:58
    تا همه‌ی دنیا ببینند،
  • 0:58 - 1:00
    مثل سوابق پزشکی.
  • 1:00 - 1:03
    یا تاریخچه‌ی جست‌وجوهایتان
    در گوشی تلفن یا کامپیوترتان.
  • 1:04 - 1:05
    و شرط می‌بندم که
  • 1:06 - 1:08
    اگر دولت بخواهد که یک تراشه
    در مغز شما قرار دهد
  • 1:08 - 1:13
    تا همه‌ی افکار شما را به یک
    کامپیوتر مرکزی دولتی مخابره کند،
  • 1:13 - 1:14
    سخت جلویش می‌ایستید.
  • 1:14 - 1:17
    (خنده)
  • 1:17 - 1:19
    چون‌ حریم خصوصی‌تان
    برایتان مهم است.
  • 1:19 - 1:20
    مثل هر انسان دیگر.
  • 1:21 - 1:24
    پس، جهان ما به سرعت تغییر کرده است.
  • 1:24 - 1:28
    و امروزه، به طرز قابل درکی
    سردرگمی‌های زیادی وجود دارد
  • 1:28 - 1:31
    در مورد حریم خصوصی
    و اینکه چرا اهمیت دارد.
  • 1:32 - 1:34
    حریم خصوصی پنهان‌کاری نیست.
  • 1:34 - 1:36
    کنترل است.
  • 1:37 - 1:41
    من با پزشکم اطلاعاتی را در مورد بدنم
    و سلامتی‌ام به اشتراک می گذارم،
  • 1:41 - 1:43
    و انتظار دارم که نرود
  • 1:43 - 1:46
    آن اطلاعات را با پدر و مادرم،
  • 1:46 - 1:49
    یا رئیسم یا فرزندانم به اشتراک بگذارد.
  • 1:50 - 1:52
    این اطلاعات خصوصی
    هستند، راز نیستند.
  • 1:53 - 1:56
    من روی این که چه طور این اطلاعات
    به اشتراک گذاشته شود کنترل دارم.
  • 1:58 - 2:01
    احتمالا تا به حال شنیده‌اید که بگویند
    که یک تنش بنیادی وجود دارد
  • 2:01 - 2:03
    بین حریم خصوصی از یک سو
  • 2:03 - 2:05
    و امنیت از سوی دیگر.
  • 2:06 - 2:08
    اما فن‌آوری‌هایی که باعث
    پیشرفت حریم خصوصی هستند
  • 2:09 - 2:10
    باعث پیشرفت امنیت هم هستند.
  • 2:10 - 2:13
    برای مثال نرده‌ها را در نظر
    بگیرید یا قفل درها را،
  • 2:13 - 2:15
    پرده‌های پنجره‌هامان، پسوردها،
  • 2:15 - 2:17
    نرم‌افزارهای رمزگذاری.
  • 2:18 - 2:19
    همه‌ی این فن‌آوری‌ها
  • 2:19 - 2:23
    همزمان از حریم خصوصی
    و امنیت ما محافظت می‌کنند.
  • 2:25 - 2:28
    نظارت جهت به دام‌اندازی، از سوی دیگر،
    هیچ کدام را محافظت نمی کند.
  • 2:29 - 2:31
    در سال‌های اخیر،
  • 2:31 - 2:34
    دولت فدرال
    به یک گروه خبره
  • 2:34 - 2:37
    به نام هیات نظارت بر
    حریم خصوصی و آزادی‌های مدنی
  • 2:37 - 2:40
    ماموریت داد تا برنامه‌های نظارتی دولت
    پس از ١١ سپتامبر را بررسی کند،
  • 2:40 - 2:42
    برنامه‌های نظارتی جهت به دام‌اندازی.
  • 2:42 - 2:45
    این افراد خبره نتوانستند حتی یک نمونه
  • 2:45 - 2:49
    از آن برنامه‌های نظارتی پیدا کنند
    که در جهت پیشبرد امنیت باشند--
  • 2:49 - 2:52
    هیچ حمله‌ی تروریستی را شناسایی
    نکردند یا جلویش را نگرفتند.
  • 2:53 - 2:56
    ولی، می‌دانید که آن اطلاعات
    به چه دردی می‌خوردند؟
  • 2:56 - 2:59
    کمک به آژانس امنیت ملی برای
    جاسوسی برای منافع عاشقانه خودشان.
  • 2:59 - 3:01
    (خنده)
  • 3:01 - 3:02
    (حضار: عجب.)
  • 3:03 - 3:05
    یک مثال دیگر که به ما نزدیک‌تر است.
  • 3:05 - 3:07
    میلیون‌ها انسان در امریکا و دیگر کشورها
  • 3:07 - 3:10
    از دستگاه‎‌های «خانه‌ی هوشمند»
    استفاده می‌کنند،
  • 3:10 - 3:12
    مثل دوربین‌های مداربسته که
    با اینترنت به هم وصل هستند.
  • 3:13 - 3:16
    اما می‌دانیم که هر فن‌آوری‌ که
    به اینترنت وصل شود
  • 3:16 - 3:17
    می‌تواند هک شود.
  • 3:19 - 3:20
    پس اگر یک هکر
  • 3:20 - 3:24
    وارد دوربین‌های مداربسته‌ی
    متصل به اینترنت در خانه شود،
  • 3:24 - 3:26
    می تواند شما و خانواده‌تان را
    ببیند که می‌آیید و می‌روید،
  • 3:26 - 3:29
    و زمان مناسب را پیدا کند که ضربه بزند.
  • 3:30 - 3:32
    می‌دانید چه چیزی را نمی‌توان
    از راه دور هک کرد؟
  • 3:32 - 3:34
    پرده‌ها را.
  • 3:34 - 3:35
    (خنده)
  • 3:35 - 3:36
    نرده‌ها را.
  • 3:36 - 3:37
    قفل درها را.
  • 3:37 - 3:38
    (خنده)
  • 3:38 - 3:41
    حریم خصوصی دشمن امنیت نیست.
  • 3:41 - 3:43
    ضامن آن هست.
  • 3:44 - 3:48
    به هر حال، ما روزانه با یک
    هجمه‌ی تبلیغاتی مواجه هستیم
  • 3:48 - 3:52
    که به ما می‌گویند که باید از یک سری
    حریم‌های خصوصی در جهت کسب امنیت
  • 3:52 - 3:54
    از طریق برنامه‌های نظارتی بگذریم.
  • 3:55 - 3:59
    نظارت بر چهره از خطرناک‌ترین
    گونه این‌ فن‌آوری‌هاست.
  • 4:00 - 4:05
    دولت‌های امروز به دو روش اصلی
    این فن‌آوری‌ها را به کار می‌گیرند.
  • 4:05 - 4:07
    یکی تشخیص چهره است.
  • 4:07 - 4:10
    که برای شناسایی فرد
    در تصویر به کار می‌رود.
  • 4:10 - 4:12
    دومی نظارت بر چهره است،
  • 4:12 - 4:14
    که در کنسرت‌ها می‌توان
    از آن استفاده کرد
  • 4:14 - 4:17
    با استفاده از شبکه‌ دوربین‌های
    نظارتی و پایگاه‌های داده
  • 4:17 - 4:21
    تا تمامی حرکات، عادات
    و ارتباطات افراد را
  • 4:21 - 4:23
    در فضای عمومی را ضبط کند،
  • 4:23 - 4:26
    که به طور موثری یک زندان
    دیجیتالی مدور بسازد.
  • 4:27 - 4:29
    این یک پانوپتیکون است.
  • 4:29 - 4:33
    یک زندان که به نحوی طراحی شده
    که چند نگهبان در مرکزحلقه بتوانند
  • 4:33 - 4:37
    هر چه که در سلول‌های محیط
    حلقه‌ی زندان اتفاق می‌افتد را نظارت کنند.
  • 4:37 - 4:42
    افراد داخل این سلول‌ها نمی‌توانند
    داخل برج نگهبانی را ببینند،
  • 4:42 - 4:46
    اما نگهبان‌ها می توانند
    سانت به سانت سلول‌ها را ببینند.
  • 4:47 - 4:49
    ایده اصلی اینجاست که
  • 4:49 - 4:52
    اگر آدم‌های درون سلول زندان
  • 4:52 - 4:54
    بدانند که در تمام لحظات
    تحت نظر هستند،
  • 4:54 - 4:55
    یا می‌توانند باشند،
  • 4:55 - 4:57
    رفتارشان را تطبیق خواهند داد.
  • 4:57 - 5:01
    به طریق مشابه، نظارت بر چهره
    به قدرت مرکزی -- در این مورد، دولت--
  • 5:01 - 5:03
    این اجازه را می‌دهد
  • 5:03 - 5:06
    که کلیت حرکات و ارتباطات
    انسانی را در فضای عمومی
  • 5:06 - 5:08
    تحت نظر بگیرد.
  • 5:08 - 5:09
    و در دنیای واقعی هم
  • 5:09 - 5:11
    به همین صورت است.
  • 5:11 - 5:14
    در این حالت، نگهبان برج نداریم،
  • 5:14 - 5:17
    ولی به جایش یک تحلیلگر پلیس
    در مرکز جاسوسی داریم.
  • 5:18 - 5:21
    زندان ازمحدوده‌ی دیوارهایش فراتر می‌رود،
  • 5:21 - 5:23
    همه را شامل می‌شود،
  • 5:23 - 5:25
    هر جا، هر زمان.
  • 5:26 - 5:27
    در یک جامعه‌ی آزاد،
  • 5:28 - 5:30
    این خیلی هراس‌انگیز به نظر می‌سد.
  • 5:32 - 5:34
    دهه‌هاست که، ما شاهد سریال‌های پلیسی هستیم
  • 5:34 - 5:36
    که این روایت رو القا می‌کنند که
  • 5:36 - 5:40
    فن‌آوری‌هایی مثل نظارت بر چهره
    در نهایت در خدمت منافع عمومی هستند.
  • 5:40 - 5:43
    اما دنیای واقعی سریال پلیسی نیست.
  • 5:44 - 5:46
    آدم بده همیشه واقعا خلاف نکرده،
  • 5:46 - 5:49
    پلیس‌ها قطعا همیشه آدم خوبه نیستند
  • 5:49 - 5:52
    و فن‌آوری‌ها همیشه درست کار نمی‌کنند.
  • 5:53 - 5:54
    مثال استیو تالی را در نظر بگیرید،
  • 5:55 - 5:57
    یک تحلیلگر اقتصادی اهل کلرادو.
  • 5:57 - 6:01
    در سال ٢٠١٥، تالی دست‌گیر شد،
    و به سرقت بانک متهم شد
  • 6:01 - 6:04
    بر اساس یک اشتباه که در
    سیستم تشخیص چهره رخ داده بود.
  • 6:05 - 6:06
    تالی با این پرونده‌ جنگید
  • 6:06 - 6:08
    و سر آخر از آن اتهامات پاک شد،
  • 6:08 - 6:11
    اما زمانی که توسط دولت
    تحت تعقیب و بازجویی بود،
  • 6:11 - 6:15
    خانه‌اش، شغلش و فرزندانش را از دست داد.
  • 6:16 - 6:18
    پرونده‌ی استیو تالی یک نمونه است
  • 6:18 - 6:20
    از آن‌چه که می‌تواند در اثر
    شکست فن‌آوری اتفاق بیافتد.
  • 6:21 - 6:25
    اما نظارت بر چهره حتی وقتی که به درستی
    کار کند هم به همان اندازه خطرناک است.
  • 6:27 - 6:30
    فقط در نظر بگیرید که چقدر
  • 6:30 - 6:32
    برای یک آژانس حکومتی ساده
    است که بیرون ساختمانی که
  • 6:32 - 6:36
    افراد برای جلسات الکلی‌های ناشناس
    ملاقات دارند، دوربین نظارت قرار دهد.
  • 6:37 - 6:39
    می‌توانند آن دوربین را
  • 6:39 - 6:41
    به الگوریتم نظارت چهره و
    یک پایگاه داده وصل کنند،
  • 6:41 - 6:43
    یک دکمه را بزنند و بنشینند و
  • 6:43 - 6:47
    پیشینه‌ی هر فردی که برای درمان
    اعتیاد به الکل مراجعه کرده را ضبط کنند.
  • 6:48 - 6:50
    همین قدر برای آژانس حکومتی ساده است که
  • 6:50 - 6:53
    از این فن‌آوری برای
    تشخیص خودکار
  • 6:53 - 6:56
    هر شخصی که در راهپیمایی زنان
  • 6:56 - 6:58
    یا تظاهرات سیاه‌پوستان
    شرکت می کند استفاده کند.
  • 6:59 - 7:03
    حتی صنعت فن‌آوری‌ هم از
    سنگینی این مساله آگاه است.
  • 7:04 - 7:08
    برد اسمیت رییس مایکروسافت
    از کنگره خواست تا مداخله کند.
  • 7:09 - 7:11
    گوگل، از سوی خودش،
  • 7:11 - 7:14
    به صورت عمومی از فرستادن
    محصولات نظارت بر چهره سر باز زد،
  • 7:14 - 7:18
    بخشی‌ از آن به خاطر نگرانی‌های
    عمیق حقوق مدنی و انسانی بود.
  • 7:19 - 7:20
    و این چیز خوبی‌ است.
  • 7:21 - 7:22
    چرا که در نهایت،
  • 7:22 - 7:26
    حفاظت از جامعه‌ی آزاد
    خیلی بیشتر اهمیت دارد
  • 7:26 - 7:27
    تا سود شرکت‌های بزرگ.
  • 7:29 - 7:31
    پویش ملی اتحادیه آزادی‌های مدنی آمریکا
  • 7:31 - 7:33
    برای این که دولت را در به‌کارگیری
  • 7:33 - 7:36
    این فن‌آوری خطرناک وادار به عقب‌نشینی کند
  • 7:36 - 7:39
    یک سوال منطقی
    برای آدم‌های اهل تفکر طرح کرد.
  • 7:40 - 7:43
    چه چیزی این فن‌آوری خاص را
    تا این حد خطرناک کرده؟
  • 7:44 - 7:46
    چرا نمی‌توانیم برای آن
    مقررات وضع کنیم؟
  • 7:46 - 7:48
    خلاصه کلام، این زنگ خطر برای چیست؟
  • 7:49 - 7:54
    نظارت بر چهره به طور منحصر به فردی
    خطرناک است به دو دلیل مرتبط.
  • 7:54 - 7:57
    یکی طبیعت خود فن‌آوری است.
  • 7:57 - 8:00
    و دومی این است که سیستم ما
  • 8:00 - 8:04
    به طور اساسی فاقد سازوکار
    نظارتی و مسوولیت‌پذیری است
  • 8:04 - 8:05
    که لازمه‌ی این است
  • 8:05 - 8:09
    که اطمینان حاصل کنیم که نمی تواند
    به دست دولت مورد سو استفاده قرار گیرد.
  • 8:11 - 8:15
    اول این که، نظارت بر چهره
    یک نوع نظارت جامع را فراهم می‌کند
  • 8:15 - 8:17
    که در گذشته غیرممکن بود.
  • 8:18 - 8:22
    هر دفعه که شخصی دوستی را ملاقات می‌کند،
  • 8:22 - 8:24
    به اداره‌ی دولتی می‌رود،
  • 8:24 - 8:26
    یا به مکان مذهبی،
  • 8:26 - 8:27
    مرکز تنظیم خانواده،
  • 8:27 - 8:29
    دخانیات و ماریجوانا فروشی،
  • 8:29 - 8:30
    کلاب برهنگی؛
  • 8:31 - 8:35
    کوچک‌ترین حرکات عمومی تک تک
    افراد، و عادت‌ها و ارتباطاتشان
  • 8:35 - 8:37
    مستند و ثبت می‌شود،
  • 8:37 - 8:39
    نه یک روز، بلکه هر روز،
  • 8:39 - 8:41
    تنها با فشردن یک دکمه.
  • 8:42 - 8:45
    این نوع نظارت انبوه جامع
  • 8:45 - 8:48
    اساساٌ معنی زندگی در جامعه‌‌ی
    آزاد را زیر سوال می‎برد.
  • 8:48 - 8:51
    آزادی بیان،
    آزادی وابستگی،
  • 8:51 - 8:53
    آزادی مذهب،
  • 8:53 - 8:54
    آزادی رسانه‌ای،
  • 8:54 - 8:55
    حریم خصوصی‌مان،
  • 8:55 - 8:57
    حق این که به حال
    خودمان رها باشیم.
  • 8:58 - 9:00
    شاید فکر کنید،
  • 9:00 - 9:03
    «خیلی خب، بی‌خیال، هزاران راه هست که
    دولت بتواند جاسوسی‌مان را بکند.»
  • 9:03 - 9:05
    و بله، درست است،
  • 9:05 - 9:07
    دولت می‌تواند ما را از طریق
    تلفن همراه‌ ردیابی کند،
  • 9:07 - 9:11
    اما اگر بخواهم بروم بچه‌ام را سقط کنم،
  • 9:11 - 9:12
    یا در یک جلسه‌ی سیاسی شرکت کنم،
  • 9:12 - 9:17
    یا حتی فقط به بهانه مریضی سر کار نروم
    و به جایش در ساحل تفریح کنم ...
  • 9:17 - 9:18
    (خنده)
  • 9:18 - 9:20
    می‌توانم گوشی‌ام را در خانه جا بگذارم.
  • 9:21 - 9:23
    ولی چهره‌ام را نمی‌توانم در خانه بگذارم.
  • 9:25 - 9:28
    و این باعث نگرانی اصلی بعدی من می‌شود:
  • 9:28 - 9:31
    چگونه می‌توان مقررات معناداری
    برای این فن‌آوری وضع کرد.
  • 9:32 - 9:36
    امروز، اگر دولت بخواهد بداند
    که من هفته‌ی پیش کجا بوده‌ام،
  • 9:36 - 9:41
    نمی‌تواند به‌ سادگی سوار ماشین زمان شود
    و مرا در گذشته تعقیب کند.
  • 9:42 - 9:44
    و همچنین، در حال حاضر پلیس محلی،
  • 9:44 - 9:48
    هیچ سیستم مرکزی برای ردیابی برقرار نکرده،
  • 9:48 - 9:51
    که در آن حرکات عمومی تک تک
    افراد را در هر زمان ثبت کند،
  • 9:51 - 9:54
    برای مواقعی که این اطلاعات به کار بیایند.
  • 9:55 - 9:58
    امروز، اگر دولت بخواهد بداند
    که من هفته‌ی پیش،
  • 9:58 - 10:00
    یا ماه یا سال پیش کجا بوده‌ام،
  • 10:00 - 10:02
    باید برود پیش یک قاضی، و حکم بگیرد
  • 10:02 - 10:04
    و حکم را نشان ارائه‌دهنده
    سرویس تلفن من بدهد،
  • 10:04 - 10:08
    که از قضا، نفع مالی‌اش در این است
    که حریم خصوصی من را حفظ کند.
  • 10:09 - 10:11
    با وجود سیستم‌های نظارت بر چهره،
  • 10:11 - 10:13
    چنین محدودیتی وجود ندارد.
  • 10:13 - 10:18
    این فن‌آوری‌ است که ١٠٠ درصد
    توسط خود دولت کنترل می‌شود.
  • 10:19 - 10:23
    خب چه‌طور استلزام به داشتن
    حکم اینجا رعایت می‌شود؟
  • 10:24 - 10:26
    آیا قرار است دولت برود پیش قاضی
  • 10:26 - 10:27
    و حکم بگیرد،
  • 10:28 - 10:30
    و بعد حکم را به خودش ارائه دهد؟
  • 10:30 - 10:32
    مثل این که من دفتر خاطراتم را بدهم به شما،
  • 10:32 - 10:35
    و بگویم، «بفرمایید، می‌توانید
    برای همیشه نگهش دارید،
  • 10:35 - 10:37
    اما نمی‌توانید تا زمانی که
    من نگفتم آن را بخوانید.»
  • 10:38 - 10:39
    پس چه‌ کار می‎‌شود کرد؟
  • 10:41 - 10:43
    تنها جواب به این تهدید
  • 10:43 - 10:47
    از سوی دولت در مورد استفاده از نظارت چهره
  • 10:47 - 10:52
    این است که ظرفیت‌های دولت برای
    زیر پا گذاشتن اعتماد عمومی را محدود کنیم،
  • 10:52 - 10:54
    با اجازه ندادن به دولت
  • 10:54 - 10:57
    برای ساختن شبکه‌های نظارت
    بر چهره در تاسیسات خودشان
  • 10:58 - 11:00
    و این دقیقا همان کار‌ی‌ است
    که داریم می‌کنیم.
  • 11:01 - 11:04
    اتحادیه آزادی‌های مدنی آمریکا
    بخشی از یک پویش ملی‌ است
  • 11:04 - 11:08
    که مانع استفاده‌ی دولت
    از این فن‌آوری خطرناک می‌شود.
  • 11:08 - 11:10
    در این زمینه موفق بوده‌ایم،
  • 11:10 - 11:13
    از سان‌فرانسیسکو تا
    سامرویل در ماساچوست،
  • 11:13 - 11:15
    قانون شهری برای منع
  • 11:15 - 11:17
    استفاده دولت از این فن‌آوری وضع کرده‌ایم.
  • 11:17 - 11:20
    و خیلی از انجمن‌های دیگر
    اینجا در ماساچوست
  • 11:20 - 11:21
    و در سطح کشور
  • 11:21 - 11:23
    دارند روی تدابیر مشابه مذاکره می‌کنند.
  • 11:23 - 11:26
    یک سری افراد به من گفته‌اند که
    این جنبش آخرش به شکست منجر می‌شود.
  • 11:27 - 11:28
    و این که در نهایت،
  • 11:28 - 11:30
    همین که این فن‌آوری وجود دارد،
  • 11:30 - 11:33
    در هر زمینه‌ای به کار گرفته می‌شود
  • 11:33 - 11:36
    توسط همه‌ی دوات‌ها هرجا که باشند.
  • 11:38 - 11:40
    حریم خصوصی دیگر
    معنا ندارد، درست است؟
  • 11:40 - 11:42
    روایت که حاکی از این است.
  • 11:43 - 11:45
    خب، من از قبول این روایت سر باز می‌زنم.
  • 11:45 - 11:47
    و شما هم، باید ردش بکنید.
  • 11:48 - 11:52
    نباید بگذاریم جف بیزوس یا اف بی آی
  • 11:52 - 11:56
    حد و مرز آزادی ما را در قرن ٢١ تعیین کنند.
  • 11:57 - 12:00
    اگر در دموکراسی زندگی می‌کنیم،
  • 12:00 - 12:02
    این ماییم که در صندلی راننده نشسته‌ایم،
  • 12:02 - 12:04
    و آینده جمعی‌مان را شکل می‌دهیم.
  • 12:05 - 12:07
    در حال حاضر به خروجی جاده رسیده‌ایم.
  • 12:07 - 12:10
    می توانیم مثل همیشه مستقیم ادامه بدهیم،
  • 12:10 - 12:14
    و به دولت اجازه بدهیم این فن‌آوری‌ها را
    بدون بررسی به کار بگیرد و توسعه بدهد،
  • 12:14 - 12:17
    در محله‌ها، خیابان‌ها
    و مدارس‌مان،
  • 12:17 - 12:22
    یا این که همین حالا یک قدم بزرگ برداریم
  • 12:22 - 12:26
    تا به دولت فشار بیاوریم که استفاده
    از نظارت چهره را متوقف کند،
  • 12:26 - 12:28
    از حریم خصوصی‌مان محافظت کنیم
  • 12:28 - 12:31
    و آینده‌ی امن‌تر، و آزادتری بسازیم
  • 12:31 - 12:33
    برای همه‌مان.
  • 12:33 - 12:34
    سپاسگزارم.
  • 12:34 - 12:36
    (تشویق و هورا)
Title:
آنچه که باید در مورد فن‌آوری نظارت بر چهره بدانید
Speaker:
کاد کراکفورد
Description:

حریم خصوصی نمرده است، اما فن‌آوری نظارت بر چهره ممکن است به آن خاتمه می‌دهد، کاد کارکفورد فعال حقوق مدنی. کاد در یک سخنرانی جالب توجه، دلایل متحیرکننده‌ای ارایه می دهد از این که چرا چنین فن‌آوری متهاجمی -- که با بهره‌گیری از پایگاه‌های داده غالبا پرنقص تشخیص چهره، افراد را بدون اطلاع خودشان ردیابی می‌کند -- تهدیدات بی‌سابقه‌ای را متوجه حقوق اساسی‌تان می‌کند. دریابید که چه‌طور قبل از این‌که خیلی دیر شود می‌توان دولت را از استفاده از آن منع کرد.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:49

Persian subtitles

Revisions