< Return to Video

وقتی تکنولوژی بتواند افکارمان را بخواند، چگونه می‌خواهیم از حریم خصوصی‌مان محافظت کنیم؟

  • 0:01 - 0:06
    در ماههای بعد از انتخابات
    ریاست جمهوری ۲۰۰۹ در ایران،
  • 0:06 - 0:09
    اعتراضات تمام کشور را فرا گرفت.
  • 0:10 - 0:13
    حکومت ایران با خشونت
  • 0:13 - 0:17
    چیزی که بعنوان جنبش سبز ایران
    شناخته شد را سرکوب کرد،
  • 0:17 - 0:19
    حتی سیگنالهای موبایل هم مسدود شد
  • 0:19 - 0:21
    تا ارتباط بین معترضان قطع شود.
  • 0:22 - 0:27
    والدین من، که در اواخر دهه ۱۹۶۰
    به ایالات متحده مهاجرت کرده بودند،
  • 0:27 - 0:29
    زمان قابل توجهی را آنجا میگذراندند،
  • 0:29 - 0:32
    جایی که خانوادهٔ بزرگ
    و پرجمعیت من زندگی میکنند.
  • 0:33 - 0:36
    وقتی میخواهم با خانوادهام
    در تهران تماس بگیرم
  • 0:36 - 0:39
    در طول برخی از خشنترین
    سرکوبهای معترضین،
  • 0:39 - 0:43
    هیچ کدام از آنها جرئت نمیکردند دربارهٔ
    آنچه رخ میداد به من توضیح بدهند.
  • 0:43 - 0:47
    آنها یا من میدانستیم که باید سریع
    بحث را به سمت موضوعات دیگر ببریم.
  • 0:47 - 0:51
    همهٔ ما فهمیده بودیم که عواقب
  • 0:51 - 0:53
    آشکار شدن اقدام مخالف چه خواهد بود.
  • 0:54 - 0:58
    ولی من هنوز آرزو دارم که میتوانستم
    بدانم در سر آنها چه میگذشته
  • 0:58 - 0:59
    یا چه احساسی داشتند.
  • 1:00 - 1:02
    چه میشد اگر میتوانستم؟
  • 1:02 - 1:03
    و یا ترسناکتر،
  • 1:03 - 1:06
    چه میشد اگر حکومت ایران میتوانست؟
  • 1:07 - 1:10
    آیا میتوانستند بر اساس آنچه که در
    مغز آنها میگذرد دستگیرشان کنند؟
  • 1:11 - 1:14
    چنین روزی از آنچه فکر میکنید نزدیکتراست.
  • 1:15 - 1:18
    با رشد قابلیتهایمان
    در علوم اعصاب، هوش مصنوعی،
  • 1:18 - 1:20
    و یادگیری ماشین،
  • 1:20 - 1:24
    شاید خیلی زود دربارهٔ آنچه که
    در مغز انسان میگذرد بیشتر بدانیم.
  • 1:25 - 1:28
    بعنوان یک متخصص اخلاق زیستی،
    یک وکیل، یک فیلسوف،
  • 1:28 - 1:30
    و یک ایرانی-آمریکایی،
  • 1:30 - 1:34
    عمیقا نگران معنای آن
    برای آزادیهایمان هستم
  • 1:34 - 1:36
    و این که به چه نوع حمایتهایی نیاز داریم.
  • 1:37 - 1:40
    من معتقدم ما به حق
    آزادی شناختی نیاز داریم،
  • 1:40 - 1:43
    بعنوان یک حق بشر که باید حمایت شود.
  • 1:44 - 1:46
    اگر نشود، آزادی تفکر ما،
  • 1:46 - 1:49
    پردازش و کنترل بر روی مغزهایمان
  • 1:49 - 1:52
    و حریم روحی ما مورد تهدید
    قرار خواهد گرفت.
  • 1:54 - 1:55
    به این توجه کنید:
  • 1:55 - 1:58
    روزانه هزاران فکر
    از سر یک فرد متوسط میگذرد.
  • 1:59 - 2:00
    وقتی یک فکر شکل میگیرد،
  • 2:00 - 2:05
    مثل یک محاسبه ریاضی یا یک عدد، یک کلمه،
  • 2:05 - 2:08
    رشتههای عصبی در مغز
    در حال فعل و انفعال هستند،
  • 2:08 - 2:11
    تا تخلیهٔ الکتریکی کوچکی شکل گیرد.
  • 2:12 - 2:15
    وقتی شما وضعیت روحی
    ثابتی مثل آرامش دارید،
  • 2:15 - 2:19
    صدها و هزاران یاختهٔ عصبی
    در مغز شلیک میشوند،
  • 2:19 - 2:24
    تا تخلیههای الکتریکی همزمانی را
    با الگوهای مشخص ایجاد کنند
  • 2:24 - 2:28
    که به وسیلهٔ نوار مغزی،
    یا EEG قابل اندازهگیری هستند.
  • 2:29 - 2:31
    در حقیقت، درست همین چیزی که الان میبینید.
  • 2:32 - 2:36
    شما فعالیت مغزی من را میبینید
    که در زمان فعالیت
  • 2:36 - 2:39
    با دستگاهی ساده ضبط شدهاند
    که سرم را پوشانده بود.
  • 2:40 - 2:45
    چیزی که میبینید فعالیت مغزی من است
    وقتی در وضعیت آرامش و کنجکاوی بودم.
  • 2:46 - 2:48
    برای به اشتراک گذاشتن
    این اطلاعات با شما،
  • 2:48 - 2:51
    یکی از جدیدترین دستگاههای نوار مغزی
    مصرف کننده - محور را سرم گذاشتم
  • 2:51 - 2:52
    مثل این یکی،
  • 2:52 - 2:56
    که فعالیت الکتریکی در مغزم را
    در زمان فعالیت ضبط میکرد.
  • 2:57 - 3:01
    فرقی با ثبت کنندههای تناسب اندام ندارد
    که بعضی از شما ممکن است بپوشید
  • 3:01 - 3:04
    تا ضربان قلب یا تعداد قدمهایتان
  • 3:04 - 3:06
    و یا حتی فعالیت در خواب را
    اندازهگیری کنید.
  • 3:07 - 3:11
    اصلاً این طور نیست که پیچیدهترین تکنیک
    تصویربرداری عصبی موجود در بازار باشد.
  • 3:12 - 3:14
    اما در حال حاضر قابل حملترین
  • 3:14 - 3:17
    و به احتمال زیاد موثرترین در
    زندگیهای روزمره ما است.
  • 3:18 - 3:19
    فوقالعاده است.
  • 3:19 - 3:22
    از طریق یک دستگاه ساده، و قابل پوشش،
  • 3:22 - 3:26
    میتوانیم دقیقاً درون مغز انسان را ببینیم
  • 3:26 - 3:32
    و جنبههایی از چشمانداز روحیمان را
    بدون حتی ادا کردن یک کلمه یاد بگیریم.
  • 3:33 - 3:36
    درحالیکه هنوز نمیتوانیم بطور قابل استنادی
    افکار پیچیده را رمزگشایی کنیم،
  • 3:37 - 3:39
    ما الان قادریم حالت یک فرد را بسنجیم،
  • 3:39 - 3:42
    و با کمک هوش مصنوعی،
  • 3:42 - 3:46
    میتوانیم حتی برخی از اعداد تک رقمی
  • 3:46 - 3:51
    یا اشکال یا کلمات ساده
    که یک شخص به آن فکر میکند
  • 3:51 - 3:53
    یا میشنود، یا میبیند را رمزگشایی کنیم.
  • 3:54 - 3:58
    علیرغم برخی محدودیتهای
    ذاتی در نوار مغزی،
  • 3:58 - 4:02
    فکر میکنم ایرادی نداشته باشد بگوییم
    که با پیشرفتهایمان در تکنولوژی،
  • 4:02 - 4:06
    هرچه بیشتر از آنچه در مغز انسان میگذرد
  • 4:06 - 4:09
    به مرور زمان قابلیت رمزگشایی خواهد داشت.
  • 4:09 - 4:12
    هم اکنون، با استفاده
    از یکی از این دستگاهها،
  • 4:12 - 4:16
    یک فرد مبتلا به صرع میتواند بفهمد که
    چه موقع مورد حمله صرع قرار خواهد گرفت
  • 4:16 - 4:17
    قبل از وقوع آن.
  • 4:17 - 4:22
    شخص دچار فلج میتواند
    تنها با افکارش روی کامپیوتر تایپ کند.
  • 4:22 - 4:27
    شرکتی آمریکایی یک فناوری را
    توسعه داده تا این حسگرها
  • 4:27 - 4:29
    در زیرسری صندلی ماشینها جاسازی شود
  • 4:29 - 4:31
    تا آنها بتوانند تمرکز راننده،
  • 4:31 - 4:34
    و حواس پرتی و قدرت تشخیص را
    در هنگام رانندگی ثبت کنند.
  • 4:35 - 4:39
    نیسان، شرکتهای بیمه و انجمن خودروسازان
    امریکا همگی آن را مورد لحاظ قرار دادهاند.
  • 4:40 - 4:44
    شما حتی میتوانید این را بعنوان فیلم -
    ماجراجویی-خودت را-انتخاب کن تماشا کنید
  • 4:44 - 4:49
    «لحظه،» که یک سربند نوار مغزی،
  • 4:49 - 4:53
    فیلم را به واسطهٔ واکنشهای
    مغز-محور شما تغییر میدهد،
  • 4:53 - 4:57
    و هر بار که توجه شما کاهش یابد
    یک پایان متفاوت به شما ارائه میدهد.
  • 4:59 - 5:02
    ممکن است همهٔ اینها بنظر عالی بیایند،
  • 5:02 - 5:04
    و بعنوان متخصص اخلاق زیستی،
  • 5:04 - 5:08
    به شدت طرفدار توانمدسازی مردم هستم
  • 5:08 - 5:10
    تا مسئول سلامتی و تندرستی خود شوند
  • 5:10 - 5:13
    با دادن دسترسی به اطلاعات
    درمورد خودشان به آنها،
  • 5:13 - 5:16
    از جمله این تکنولوژی جدید
    رمزگشای مغزی اعجابانگیز.
  • 5:18 - 5:19
    ولی من نگرانم.
  • 5:20 - 5:24
    من نگرانم از اینکه ما
    داوطلبانه یا غیر داوطلبانه
  • 5:25 - 5:29
    آخرین سنگر آزادیمان را رها کنیم،
    حریم خصوصی مغزیمان.
  • 5:29 - 5:32
    که باعث میشود فعالیت مغزیمان را
  • 5:32 - 5:35
    برای تخفیف یا کاهش قیمت بیمه معامله کنیم،
  • 5:36 - 5:39
    یا دستیابی رایگان به کاربری
    شبکههای اجتماعی …
  • 5:40 - 5:42
    یا حتی برای نگهداشتن کارمان.
  • 5:43 - 5:45
    در حقیقت، در چین،
  • 5:46 - 5:52
    رانندههای قطار که بر روی خطوط پرسرعت
    پکن-شانگهای کار میکنند،
  • 5:52 - 5:55
    شلوغترین از نوع خودش در جهان،
  • 5:55 - 5:57
    ملزم هستند که دستگاههای
    نوار مغزی را بر سر بگذارند
  • 5:57 - 6:00
    تا فعالیت مغزی آنها
    در هنگام رانندگی مشاهده شود.
  • 6:00 - 6:02
    بر اساس برخی منابع خبری،
  • 6:02 - 6:05
    در کارخانجات دولت-گردان در چین،
  • 6:05 - 6:10
    کارگرها لازم است که این دستگاههای
    نوار مغزی را بپوشند تا کارآمدی
  • 6:10 - 6:13
    و وضعیت احساسی آنها در کار بررسی شود.
  • 6:13 - 6:16
    کارگرها حتی به خانه فرستاده میشوند
  • 6:16 - 6:20
    اگر مغز آنها تمرکزی کمتر-از-ایدهآل
    بر روی کارشان داشته باشد،
  • 6:20 - 6:22
    یا آشفتگی احساسی داشته باشند.
  • 6:23 - 6:25
    این همین فردا اتفاق نمیافتد،
  • 6:25 - 6:28
    ولی ما به سوی جهانی با
    شفافیت مغزی پیش میرویم.
  • 6:29 - 6:32
    و فکر نمیکنم مردم بفهمند
    که آن میتواند همه چیز را تفییر دهد.
  • 6:32 - 6:35
    هر چیزی از تعاریف ما از
    حریم خصوصی اطلاعات گرفته
  • 6:35 - 6:38
    تا قانونها و ایدههایمان درباره آزادی.
  • 6:39 - 6:42
    در حقیقت، در آزمایشگاه من در دانشگاه دوک،
  • 6:42 - 6:45
    ما اخیراً یک تحقیق در سراسر کشور
    ایالات متحده را اداره میکنیم
  • 6:45 - 6:47
    تا میزان استقبال مردم
  • 6:47 - 6:49
    از حساسیت اطلاعات مغزیشان را بررسی کنیم.
  • 6:50 - 6:54
    از مردم خواستیم که حساسیت ادراکیشان را
  • 6:54 - 6:56
    از ۳۳ نوع اطلاعات مختلف ارزیابی کنند،
  • 6:56 - 6:58
    از شمارههای امنیت ملیشان
  • 6:58 - 7:01
    تا محتوای مکالمات تلفنیشان،
  • 7:01 - 7:03
    تاریخچهٔ روابطشان،
  • 7:03 - 7:05
    احساساتشان، اضطرابشان،
  • 7:05 - 7:07
    تصاویر مغزی در ذهنشان
  • 7:07 - 7:09
    و تفکرات در ذهنشان.
  • 7:09 - 7:15
    شگفتا، مردم شمارههای امنیت ملیشان را
    با حساسیت بیشتری ارزیابی کردند
  • 7:15 - 7:17
    نسبت به هر نوع اطلاعات دیگری،
  • 7:17 - 7:19
    از جمله اطلاعات مغزیشان.
  • 7:20 - 7:24
    فکر میکنم به خاطر این است
    که مردم هنوز درک نمیکنند
  • 7:24 - 7:28
    یا باور نمیکنند پیامدهای این
    تکنولوژی جدید رمزگشای مغزی چیست.
  • 7:29 - 7:32
    به هر حال، اگر ما بتوانیم
    کارکردهای درونی مغز بشر را بفهمیم،
  • 7:32 - 7:35
    شمارههای امنیت ملیمان
    کمترین نگرانی ما خواهد بود.
  • 7:35 - 7:36
    (خنده)
  • 7:36 - 7:37
    به آن فکر کنید.
  • 7:37 - 7:40
    در یک جهان با شفافیت مغزی کامل،
  • 7:40 - 7:42
    چه کسی جرات میکند یک تفکر
    مخالف سیاسی داشته باشد؟
  • 7:43 - 7:45
    یا یک تفکر خلاق؟
  • 7:46 - 7:49
    من نگرانم که مردم
  • 7:49 - 7:52
    از ترس طرد شدن توسط جامعه
    خودشان را سانسور کنند،
  • 7:52 - 7:56
    یا مردم کارشان را به خاطر کاهش تمرکز
  • 7:56 - 7:58
    یا ناپایداری احساسی،
  • 7:58 - 8:02
    یا به دلیل فکر کردن به اقدامات جمعی
    برعلیه کارفرماهایشان از دست بدهند.
  • 8:02 - 8:06
    که اگر اینطور شود
    دیگر یک انتخاب نخواهد بود،
  • 8:06 - 8:11
    بدلیل اینکه طول خواهد کشید تا مغزهای مردم
    گرایشهای جنسیشان را برملا کنند،
  • 8:11 - 8:13
    ایدئولوژیهای سیاسیشان
  • 8:13 - 8:15
    یا اولویتهای مذهبی شان را،
  • 8:15 - 8:18
    بسیار قبل از اینکه آنها آماده باشند
    تا آگاهانه اطلاعاتشان را
  • 8:18 - 8:20
    با بقیه مردم به اشتراک بگذارند.
  • 8:20 - 8:25
    من نگران توانمندی قانونمان درتطابق
    با تغییرات تکنولوژی هستم.
  • 8:25 - 8:28
    اولین اصلاحیهٔ قانون اساسی ایالات
    متحده آمریکا را درنظر بگیرید،
  • 8:28 - 8:29
    که از آزادی بیان حمایت میکند.
  • 8:29 - 8:32
    آیا از آزادی فکر هم حمایت میکند؟
  • 8:32 - 8:36
    و در اینصورت، یعنی آیا آزادیم تفکراتمان
    را هرطور خواستیم تغییر دهیم؟
  • 8:36 - 8:41
    یا دولت و جامعه میتوانند به ما بگویند
    که با مغزهایمان چه کار کنیم؟
  • 8:42 - 8:45
    آیا NSA میتواند با این ابزار جدید
    موبایلی از مغزهلی ما جاسوسی کند؟
  • 8:46 - 8:50
    آیا شرکتهایی که اطلاعات مغزی را
    از فرمهای ثبت نامی جمع میکنند
  • 8:50 - 8:52
    میتوانند این اطلاعات را
    به شخص ثالث بفروشند؟
  • 8:53 - 8:57
    در حال حاضر، هیچ قانونی
    برای جلوگیری از انجام آنها وجود ندارد.
  • 8:57 - 8:59
    میتواند حتی دردسرسازتر هم بشود
  • 8:59 - 9:01
    در کشورهایی که مردم آزادیهایی
  • 9:01 - 9:05
    مانند آنچه مردم در ایالات متحده
    از آن لذت میبرند را ندارند.
  • 9:05 - 9:09
    در طی جنبش سبز ایرانیان
    چه اتفاقی میتوانست بیفتد
  • 9:09 - 9:13
    اگر دولت فعالیت مغزی
    خانوادهٔ من را زیر نظر داشت،
  • 9:13 - 9:17
    و به این باور رسیده بود که آنها
    با معترضین همدردی میکنند؟
  • 9:18 - 9:21
    آیا خیلی بعید است که یک جامعه را تصور کرد
  • 9:21 - 9:24
    که مردمانش بر اساس تفکراتشان
  • 9:24 - 9:26
    در مورد ارتکاب به یک جرم دستگیر میشوند،
  • 9:26 - 9:30
    مثل داستانهای علمی-تخیلی
    جامعه دوگانه در «گزارش اقلیت.»
  • 9:30 - 9:35
    در حال حاضر، در ایالات متحده، در ایندیانا،
  • 9:35 - 9:40
    یک پسر ۱۸ ساله به اقدام برای
    ارعاب در مدرسهاش محکوم شد
  • 9:40 - 9:43
    به خاطر ارسال ویدیویی از خودش که
    در حال شلیک به مردم در راهرو است ...
  • 9:44 - 9:47
    با این تفاوت که مردم به شکل زامبیها بودند
  • 9:47 - 9:52
    و فیلم از بازی خودش در یک
    بازی ویدیویی واقعیت افزوده بود،
  • 9:52 - 9:57
    که از آن به عنوان تصویرسازی ذهنی
    از قصد درونی او برداشت شد.
  • 9:58 - 10:03
    دقیقاً به همین دلیل مغز ما
    نیاز به حفاظت خاص دارد.
  • 10:03 - 10:07
    اگر مغزهای ما فقط در حال نگهداری کردن
    اطلاعات و تجمیع آنها بود
  • 10:07 - 10:09
    بعنوان دادهها و تراکنشهای مالیمان،
  • 10:09 - 10:14
    اگر مغزهایمان میتوانستند مثل فعالیتهای
    آنلاین ما موبایلهایمان و اپلیکیشنهایمان،
  • 10:14 - 10:16
    هک شده و ردیابی شوند،
  • 10:16 - 10:20
    آن وقت ما در آستانهٔ یک تهدید خطرناک
    برای جامعهٔ انسانی بودیم.
  • 10:21 - 10:23
    قبل از اینکه بترسید،
  • 10:24 - 10:27
    من معتقدم که راه حلهایی برای این
    نگرانیها وجود دارد،
  • 10:27 - 10:30
    ولی ما باید با تمرکز
    روی چیزهای درست شروع کنیم.
  • 10:31 - 10:34
    وقتی بطور کلی مربوط به محافظت از
    حریم شخصی میشود،
  • 10:34 - 10:35
    فکر میکنم یک جنگ باطل انجام میدهیم
  • 10:35 - 10:38
    با تلاش برای محدود کردن جریان اطلاعات.
  • 10:38 - 10:42
    درعوض ، ما باید بر روی
    تأمین حقوق و راه حلها تمرکز کنیم
  • 10:42 - 10:45
    در مقابل سوءاستفاده از اطلاعاتمان.
  • 10:45 - 10:49
    اگر مردم حق تصمیم گیری درباره نحوه
    اشتراکگذاری اطلاعاتشان داشتند،
  • 10:49 - 10:52
    و مهمتر از همه، داشتن قانون جبران خسارت
  • 10:52 - 10:54
    اگر از اطلاعاتشان
    علیه خودشان سوءاستفاده میشد،
  • 10:54 - 10:57
    مثلا برای تبعیض قائل شدن علیه آنها
    در یک ساختار استخدامی
  • 10:57 - 11:00
    یا در بهداشت یا تحصیلات،
  • 11:00 - 11:03
    بسیار طول میکشید تا اعتماد سازی شود.
  • 11:03 - 11:05
    در حقیقت، در برخی نمونهها،
  • 11:05 - 11:08
    ما میخواهیم اطلاعات شخصی بیشتری را
    به اشتراک بگذاریم.
  • 11:09 - 11:12
    مطالعه اطلاعات جمع آوری شده
    میتواند به ما خیلی چیزها بگوید
  • 11:12 - 11:15
    دربارهٔ سلامتمان و تندرستیمان،
  • 11:15 - 11:18
    ولی برای اینکه قادر باشیم اطلاعاتمان را
    با امنیت به اشتراک بگذاریم،
  • 11:18 - 11:21
    به حمایتهای مخصوص برای
    حریم شخصی مغزی نیاز داریم.
  • 11:22 - 11:25
    این دلیل نیاز ما به یک حق
    آزادی شناختی است.
  • 11:26 - 11:30
    این حق آزادی تفکر و اندیشه را
    برای ما تأمین میکند،
  • 11:30 - 11:32
    آزادی تشخیص شخصیمان،
  • 11:32 - 11:37
    و اطمینان میدهد که ما حق
    پذیرش یا رد کردن
  • 11:37 - 11:39
    دستیابی و تغییر مغزهایمان
    توسط دیگران را داریم.
  • 11:40 - 11:42
    این حق میتواند تحت عنوان قسمتی از
  • 11:42 - 11:45
    اعلامیهٔ جهانی حقوق بشر شناخته شود،
  • 11:45 - 11:47
    که سازوکارهایی را ایجاد کرده است
  • 11:47 - 11:50
    برای اجرایی کردن
    این مدلهای حقوق اجتماعی.
  • 11:52 - 11:54
    در طول جنبش سبز ایرانیان،
  • 11:54 - 11:59
    معترضین از اینترنت
    و شعارهای قدیمی خوب استفاده کردند
  • 11:59 - 12:01
    تا راهپیماییهایشان را هماهنگ کنند.
  • 12:02 - 12:05
    و برخی از ظالمانهترین محدودیتها در ایران
  • 12:05 - 12:07
    در نتیجه برداشته شد.
  • 12:08 - 12:12
    ولی چه میشد اگر دولت ایران از
    نظارت مغزی استفاده میکرد
  • 12:12 - 12:15
    که جستجو کند و از اعتراض پیشگیری کند؟
  • 12:17 - 12:20
    آیا جهان فریاد معترضین را میشنید؟
  • 12:22 - 12:27
    برای ما زمان آن رسیده که برای دگرگونی
    آزادی شناختی اقدام کنیم.
  • 12:28 - 12:31
    تا مطمئن شویم که ما مسئولانه
    تکنولوژی را توسعه میدهیم
  • 12:31 - 12:34
    که میتواند ما را قادر به پذیرش آینده کند
  • 12:34 - 12:41
    در حالی که از ما در برابر هر شخص،
    شرکت یا دولتی به شدت حفاظت کند
  • 12:41 - 12:46
    که با بیقانونی به درونیترین مسائل
    زندگی ما دسترسی پیدا کند و تغییرشان دهد.
  • 12:47 - 12:48
    متشکرم.
  • 12:48 - 12:51
    (تشویق)
Title:
وقتی تکنولوژی بتواند افکارمان را بخواند، چگونه می‌خواهیم از حریم خصوصی‌مان محافظت کنیم؟
Speaker:
نیتا ای فراهانی
Description:

وکیل و اخلاق‌گرا نیتا فراهانی می‌گوید، تکنولوژیی که می‌تواند فعالیت مغزی شما را رمزگشایی کند و آنچه شما فکر می‌کنید و احساس می‌کنید را برملا کند در راه است. برای حس خشونتگرای کنونی حریم خصوصی چه معنایی خواهد داشت؟ در گفتاری هشداردهنده، فراهانی درباره جامعه‌ای هشدار می‌دهد که افرادش صرفا به خاطر فکر انجام جرم دستگیر می‌شوند (مانند مورد "گزارش اقلیت") و علاقه‌های خصوصی اطلاعات مغزی مان را می‌فروشند -- و دلیل می‌آورد چرا یک آزادی شناختی که از آزادی فکر و خود-تصمیم گیری ما حمایت می‌کند حق ما است.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:04

Persian subtitles

Revisions