0:00:01.096,0:00:05.810 در ماههای بعد از انتخابات[br]ریاست جمهوری ۲۰۰۹ در ایران، 0:00:05.834,0:00:08.728 اعتراضات تمام کشور را فرا گرفت. 0:00:09.685,0:00:12.581 حکومت ایران با خشونت 0:00:12.605,0:00:16.584 چیزی که بعنوان جنبش سبز ایران[br]شناخته شد را سرکوب کرد، 0:00:16.608,0:00:18.661 حتی سیگنالهای موبایل هم مسدود شد 0:00:18.685,0:00:21.399 تا ارتباط بین معترضان قطع شود. 0:00:22.316,0:00:26.985 والدین من، که در اواخر دهه ۱۹۶۰[br]به ایالات متحده مهاجرت کرده بودند، 0:00:27.009,0:00:28.803 زمان قابل توجهی را آنجا میگذراندند، 0:00:28.827,0:00:31.980 جایی که خانوادهٔ بزرگ[br]و پرجمعیت من زندگی میکنند. 0:00:32.832,0:00:35.961 وقتی میخواهم با خانوادهام [br]در تهران تماس بگیرم 0:00:35.985,0:00:39.437 در طول برخی از خشنترین [br]سرکوبهای معترضین، 0:00:39.461,0:00:42.973 هیچ کدام از آنها جرئت نمیکردند دربارهٔ[br]آنچه رخ میداد به من توضیح بدهند. 0:00:43.196,0:00:46.725 آنها یا من میدانستیم که باید سریع[br]بحث را به سمت موضوعات دیگر ببریم. 0:00:47.163,0:00:50.543 همهٔ ما فهمیده بودیم که عواقب 0:00:50.567,0:00:53.497 آشکار شدن اقدام مخالف چه خواهد بود. 0:00:54.095,0:00:57.564 ولی من هنوز آرزو دارم که میتوانستم [br]بدانم در سر آنها چه میگذشته 0:00:57.588,0:00:59.006 یا چه احساسی داشتند. 0:01:00.217,0:01:01.610 چه میشد اگر میتوانستم؟ 0:01:02.149,0:01:03.300 و یا ترسناکتر، 0:01:03.324,0:01:06.085 چه میشد اگر حکومت ایران میتوانست؟ 0:01:06.695,0:01:09.939 آیا میتوانستند بر اساس آنچه که در[br]مغز آنها میگذرد دستگیرشان کنند؟ 0:01:10.933,0:01:13.877 چنین روزی از آنچه فکر میکنید نزدیکتراست. 0:01:14.527,0:01:18.338 با رشد قابلیتهایمان[br]در علوم اعصاب، هوش مصنوعی، 0:01:18.362,0:01:20.065 و یادگیری ماشین، 0:01:20.089,0:01:24.164 شاید خیلی زود دربارهٔ آنچه که[br]در مغز انسان میگذرد بیشتر بدانیم. 0:01:25.083,0:01:28.393 بعنوان یک متخصص اخلاق زیستی،[br]یک وکیل، یک فیلسوف، 0:01:28.417,0:01:30.284 و یک ایرانی-آمریکایی، 0:01:30.308,0:01:34.095 عمیقا نگران معنای آن[br]برای آزادیهایمان هستم 0:01:34.119,0:01:36.290 و این که به چه نوع حمایتهایی نیاز داریم. 0:01:36.993,0:01:40.453 من معتقدم ما به حق[br]آزادی شناختی نیاز داریم، 0:01:40.477,0:01:43.369 بعنوان یک حق بشر که باید حمایت شود. 0:01:43.772,0:01:46.415 اگر نشود، آزادی تفکر ما، 0:01:46.439,0:01:49.463 پردازش و کنترل بر روی مغزهایمان 0:01:49.487,0:01:52.328 و حریم روحی ما مورد تهدید[br]قرار خواهد گرفت. 0:01:53.698,0:01:54.856 به این توجه کنید: 0:01:54.880,0:01:58.194 روزانه هزاران فکر[br]از سر یک فرد متوسط میگذرد. 0:01:58.697,0:02:00.288 وقتی یک فکر شکل میگیرد، 0:02:00.328,0:02:04.928 مثل یک محاسبه ریاضی یا یک عدد، یک کلمه، 0:02:04.952,0:02:07.837 رشتههای عصبی در مغز[br]در حال فعل و انفعال هستند، 0:02:07.861,0:02:10.949 تا تخلیهٔ الکتریکی کوچکی شکل گیرد. 0:02:11.713,0:02:15.165 وقتی شما وضعیت روحی [br]ثابتی مثل آرامش دارید، 0:02:15.189,0:02:19.364 صدها و هزاران یاختهٔ عصبی[br]در مغز شلیک میشوند، 0:02:19.388,0:02:23.606 تا تخلیههای الکتریکی همزمانی را[br]با الگوهای مشخص ایجاد کنند 0:02:23.630,0:02:28.495 که به وسیلهٔ نوار مغزی،[br]یا EEG قابل اندازهگیری هستند. 0:02:29.118,0:02:31.278 در حقیقت، درست همین چیزی که الان میبینید. 0:02:31.956,0:02:35.920 شما فعالیت مغزی من را میبینید[br]که در زمان فعالیت 0:02:35.944,0:02:38.679 با دستگاهی ساده ضبط شدهاند[br]که سرم را پوشانده بود. 0:02:39.669,0:02:45.322 چیزی که میبینید فعالیت مغزی من است[br]وقتی در وضعیت آرامش و کنجکاوی بودم. 0:02:46.097,0:02:48.002 برای به اشتراک گذاشتن[br]این اطلاعات با شما،[br] 0:02:48.002,0:02:51.206 یکی از جدیدترین دستگاههای نوار مغزی[br]مصرف کننده - محور را سرم گذاشتم 0:02:51.206,0:02:52.281 مثل این یکی، 0:02:52.281,0:02:56.143 که فعالیت الکتریکی در مغزم را[br]در زمان فعالیت ضبط میکرد. 0:02:56.849,0:03:00.675 فرقی با ثبت کنندههای تناسب اندام ندارد[br]که بعضی از شما ممکن است بپوشید 0:03:00.699,0:03:04.285 تا ضربان قلب یا تعداد قدمهایتان 0:03:04.309,0:03:06.386 و یا حتی فعالیت در خواب را[br]اندازهگیری کنید. 0:03:07.154,0:03:11.318 اصلاً این طور نیست که پیچیدهترین تکنیک[br]تصویربرداری عصبی موجود در بازار باشد. 0:03:11.597,0:03:13.975 اما در حال حاضر قابل حملترین 0:03:13.999,0:03:17.151 و به احتمال زیاد موثرترین در[br]زندگیهای روزمره ما است. 0:03:17.915,0:03:19.418 فوقالعاده است. 0:03:19.442,0:03:21.947 از طریق یک دستگاه ساده، و قابل پوشش، 0:03:21.971,0:03:25.519 میتوانیم دقیقاً درون مغز انسان را ببینیم 0:03:25.543,0:03:32.019 و جنبههایی از چشمانداز روحیمان را[br]بدون حتی ادا کردن یک کلمه یاد بگیریم. 0:03:32.829,0:03:36.482 درحالیکه هنوز نمیتوانیم بطور قابل استنادی[br]افکار پیچیده را رمزگشایی کنیم، 0:03:36.506,0:03:39.025 ما الان قادریم حالت یک فرد را بسنجیم، 0:03:39.049,0:03:41.922 و با کمک هوش مصنوعی، 0:03:41.946,0:03:46.287 میتوانیم حتی برخی از اعداد تک رقمی 0:03:46.311,0:03:51.193 یا اشکال یا کلمات ساده[br]که یک شخص به آن فکر میکند 0:03:51.217,0:03:53.406 یا میشنود، یا میبیند را رمزگشایی کنیم. 0:03:54.345,0:03:57.710 علیرغم برخی محدودیتهای[br]ذاتی در نوار مغزی، 0:03:57.734,0:04:02.454 فکر میکنم ایرادی نداشته باشد بگوییم[br]که با پیشرفتهایمان در تکنولوژی، 0:04:02.478,0:04:06.287 هرچه بیشتر از آنچه در مغز انسان میگذرد 0:04:06.311,0:04:08.621 به مرور زمان قابلیت رمزگشایی خواهد داشت. 0:04:09.362,0:04:12.108 هم اکنون، با استفاده[br]از یکی از این دستگاهها، 0:04:12.132,0:04:15.717 یک فرد مبتلا به صرع میتواند بفهمد که [br]چه موقع مورد حمله صرع قرار خواهد گرفت 0:04:15.717,0:04:16.977 قبل از وقوع آن. 0:04:17.007,0:04:21.574 شخص دچار فلج میتواند[br]تنها با افکارش روی کامپیوتر تایپ کند. 0:04:22.485,0:04:26.668 شرکتی آمریکایی یک فناوری را[br]توسعه داده تا این حسگرها 0:04:26.692,0:04:28.922 در زیرسری صندلی ماشینها جاسازی شود 0:04:28.946,0:04:31.451 تا آنها بتوانند تمرکز راننده، 0:04:31.475,0:04:34.142 و حواس پرتی و قدرت تشخیص را[br]در هنگام رانندگی ثبت کنند. 0:04:34.912,0:04:38.970 نیسان، شرکتهای بیمه و انجمن خودروسازان [br]امریکا همگی آن را مورد لحاظ قرار دادهاند. 0:04:39.949,0:04:44.457 شما حتی میتوانید این را بعنوان فیلم - [br]ماجراجویی-خودت را-انتخاب کن تماشا کنید 0:04:44.481,0:04:48.721 «لحظه،» که یک سربند نوار مغزی، 0:04:48.745,0:04:52.671 فیلم را به واسطهٔ واکنشهای[br]مغز-محور شما تغییر میدهد، 0:04:52.695,0:04:57.048 و هر بار که توجه شما کاهش یابد[br]یک پایان متفاوت به شما ارائه میدهد. 0:04:59.154,0:05:01.917 ممکن است همهٔ اینها بنظر عالی بیایند، 0:05:01.941,0:05:04.130 و بعنوان متخصص اخلاق زیستی، 0:05:04.154,0:05:07.767 به شدت طرفدار توانمدسازی مردم هستم 0:05:07.791,0:05:10.407 تا مسئول سلامتی و تندرستی خود شوند 0:05:10.431,0:05:13.349 با دادن دسترسی به اطلاعات[br]درمورد خودشان به آنها، 0:05:13.373,0:05:16.389 از جمله این تکنولوژی جدید [br]رمزگشای مغزی اعجابانگیز. 0:05:17.878,0:05:19.045 ولی من نگرانم. 0:05:19.736,0:05:24.496 من نگرانم از اینکه ما[br]داوطلبانه یا غیر داوطلبانه 0:05:24.520,0:05:28.968 آخرین سنگر آزادیمان را رها کنیم،[br]حریم خصوصی مغزیمان. 0:05:29.302,0:05:32.227 که باعث میشود فعالیت مغزیمان را 0:05:32.251,0:05:35.297 برای تخفیف یا کاهش قیمت بیمه معامله کنیم، 0:05:36.391,0:05:38.994 یا دستیابی رایگان به کاربری[br]شبکههای اجتماعی … 0:05:40.444,0:05:42.292 یا حتی برای نگهداشتن کارمان. 0:05:42.900,0:05:45.093 در حقیقت، در چین، 0:05:46.199,0:05:52.096 رانندههای قطار که بر روی خطوط پرسرعت[br]پکن-شانگهای کار میکنند، 0:05:52.120,0:05:54.652 شلوغترین از نوع خودش در جهان، 0:05:54.676,0:05:57.152 ملزم هستند که دستگاههای[br]نوار مغزی را بر سر بگذارند 0:05:57.176,0:05:59.713 تا فعالیت مغزی آنها[br]در هنگام رانندگی مشاهده شود. 0:06:00.157,0:06:02.383 بر اساس برخی منابع خبری، 0:06:02.407,0:06:05.086 در کارخانجات دولت-گردان در چین، 0:06:05.110,0:06:10.474 کارگرها لازم است که این دستگاههای[br]نوار مغزی را بپوشند تا کارآمدی 0:06:10.498,0:06:12.613 و وضعیت احساسی آنها در کار بررسی شود. 0:06:13.267,0:06:15.577 کارگرها حتی به خانه فرستاده میشوند 0:06:15.601,0:06:19.655 اگر مغز آنها تمرکزی کمتر-از-ایدهآل[br]بر روی کارشان داشته باشد، 0:06:19.679,0:06:21.801 یا آشفتگی احساسی داشته باشند. 0:06:23.189,0:06:24.934 این همین فردا اتفاق نمیافتد، 0:06:24.958,0:06:28.044 ولی ما به سوی جهانی با[br]شفافیت مغزی پیش میرویم. 0:06:28.537,0:06:31.977 و فکر نمیکنم مردم بفهمند[br]که آن میتواند همه چیز را تفییر دهد. 0:06:32.474,0:06:35.454 هر چیزی از تعاریف ما از[br]حریم خصوصی اطلاعات گرفته 0:06:35.484,0:06:37.973 تا قانونها و ایدههایمان درباره آزادی. 0:06:38.731,0:06:41.808 در حقیقت، در آزمایشگاه من در دانشگاه دوک، 0:06:41.832,0:06:45.007 ما اخیراً یک تحقیق در سراسر کشور[br]ایالات متحده را اداره میکنیم 0:06:45.031,0:06:46.990 تا میزان استقبال مردم 0:06:47.014,0:06:49.085 از حساسیت اطلاعات مغزیشان را بررسی کنیم. 0:06:50.356,0:06:53.712 از مردم خواستیم که حساسیت ادراکیشان را 0:06:53.736,0:06:55.967 از ۳۳ نوع اطلاعات مختلف ارزیابی کنند، 0:06:55.991,0:06:58.211 از شمارههای امنیت ملیشان 0:06:58.235,0:07:00.832 تا محتوای مکالمات تلفنیشان، 0:07:00.856,0:07:03.049 تاریخچهٔ روابطشان، 0:07:03.073,0:07:05.015 احساساتشان، اضطرابشان، 0:07:05.039,0:07:06.985 تصاویر مغزی در ذهنشان 0:07:07.009,0:07:08.547 و تفکرات در ذهنشان. 0:07:09.481,0:07:14.710 شگفتا، مردم شمارههای امنیت ملیشان را[br]با حساسیت بیشتری ارزیابی کردند 0:07:14.734,0:07:16.937 نسبت به هر نوع اطلاعات دیگری، 0:07:16.961,0:07:19.396 از جمله اطلاعات مغزیشان. 0:07:20.380,0:07:23.596 فکر میکنم به خاطر این است[br]که مردم هنوز درک نمیکنند 0:07:23.620,0:07:27.863 یا باور نمیکنند پیامدهای این[br]تکنولوژی جدید رمزگشای مغزی چیست. 0:07:28.629,0:07:31.918 به هر حال، اگر ما بتوانیم[br]کارکردهای درونی مغز بشر را بفهمیم، 0:07:31.942,0:07:34.648 شمارههای امنیت ملیمان[br]کمترین نگرانی ما خواهد بود. 0:07:34.672,0:07:35.957 (خنده) 0:07:35.981,0:07:37.148 به آن فکر کنید. 0:07:37.172,0:07:39.568 در یک جهان با شفافیت مغزی کامل، 0:07:39.592,0:07:42.021 چه کسی جرات میکند یک تفکر[br]مخالف سیاسی داشته باشد؟ 0:07:43.279,0:07:44.820 یا یک تفکر خلاق؟ 0:07:45.503,0:07:48.979 من نگرانم که مردم 0:07:49.003,0:07:52.305 از ترس طرد شدن توسط جامعه[br]خودشان را سانسور کنند، 0:07:52.329,0:07:56.142 یا مردم کارشان را به خاطر کاهش تمرکز 0:07:56.166,0:07:58.316 یا ناپایداری احساسی، 0:07:58.340,0:08:01.890 یا به دلیل فکر کردن به اقدامات جمعی[br]برعلیه کارفرماهایشان از دست بدهند. 0:08:02.478,0:08:05.655 که اگر اینطور شود[br]دیگر یک انتخاب نخواهد بود، 0:08:05.679,0:08:10.746 بدلیل اینکه طول خواهد کشید تا مغزهای مردم[br]گرایشهای جنسیشان را برملا کنند، 0:08:10.770,0:08:12.592 ایدئولوژیهای سیاسیشان 0:08:12.616,0:08:14.641 یا اولویتهای مذهبی شان را، 0:08:14.665,0:08:17.860 بسیار قبل از اینکه آنها آماده باشند[br]تا آگاهانه اطلاعاتشان را 0:08:17.860,0:08:19.542 با بقیه مردم به اشتراک بگذارند. 0:08:19.565,0:08:24.747 من نگران توانمندی قانونمان درتطابق[br]با تغییرات تکنولوژی هستم. 0:08:24.986,0:08:27.946 اولین اصلاحیهٔ قانون اساسی ایالات[br]متحده آمریکا را درنظر بگیرید، 0:08:27.966,0:08:29.428 که از آزادی بیان حمایت میکند. 0:08:29.468,0:08:31.669 آیا از آزادی فکر هم حمایت میکند؟ 0:08:31.944,0:08:36.113 و در اینصورت، یعنی آیا آزادیم تفکراتمان [br]را هرطور خواستیم تغییر دهیم؟ 0:08:36.137,0:08:40.811 یا دولت و جامعه میتوانند به ما بگویند[br]که با مغزهایمان چه کار کنیم؟ 0:08:41.591,0:08:45.308 آیا NSA میتواند با این ابزار جدید[br]موبایلی از مغزهلی ما جاسوسی کند؟ 0:08:46.053,0:08:50.172 آیا شرکتهایی که اطلاعات مغزی را[br]از فرمهای ثبت نامی جمع میکنند 0:08:50.196,0:08:52.390 میتوانند این اطلاعات را[br]به شخص ثالث بفروشند؟ 0:08:53.174,0:08:56.676 در حال حاضر، هیچ قانونی[br]برای جلوگیری از انجام آنها وجود ندارد. 0:08:57.203,0:08:59.228 میتواند حتی دردسرسازتر هم بشود 0:08:59.252,0:09:01.414 در کشورهایی که مردم آزادیهایی 0:09:01.414,0:09:04.538 مانند آنچه مردم در ایالات متحده[br]از آن لذت میبرند را ندارند. 0:09:04.883,0:09:08.670 در طی جنبش سبز ایرانیان[br]چه اتفاقی میتوانست بیفتد 0:09:08.694,0:09:12.595 اگر دولت فعالیت مغزی[br]خانوادهٔ من را زیر نظر داشت، 0:09:12.619,0:09:16.626 و به این باور رسیده بود که آنها[br]با معترضین همدردی میکنند؟ 0:09:18.091,0:09:21.138 آیا خیلی بعید است که یک جامعه را تصور کرد 0:09:21.162,0:09:24.004 که مردمانش بر اساس تفکراتشان 0:09:24.028,0:09:26.135 در مورد ارتکاب به یک جرم دستگیر میشوند، 0:09:26.165,0:09:29.531 مثل داستانهای علمی-تخیلی[br]جامعه دوگانه در «گزارش اقلیت.» 0:09:30.286,0:09:34.609 در حال حاضر، در ایالات متحده، در ایندیانا، 0:09:34.633,0:09:39.570 یک پسر ۱۸ ساله به اقدام برای[br]ارعاب در مدرسهاش محکوم شد 0:09:39.594,0:09:42.903 به خاطر ارسال ویدیویی از خودش که[br]در حال شلیک به مردم در راهرو است ... 0:09:43.881,0:09:46.888 با این تفاوت که مردم به شکل زامبیها بودند 0:09:46.912,0:09:51.959 و فیلم از بازی خودش در یک[br]بازی ویدیویی واقعیت افزوده بود، 0:09:51.983,0:09:56.755 که از آن به عنوان تصویرسازی ذهنی[br]از قصد درونی او برداشت شد. 0:09:58.456,0:10:03.068 دقیقاً به همین دلیل مغز ما[br]نیاز به حفاظت خاص دارد. 0:10:03.092,0:10:06.648 اگر مغزهای ما فقط در حال نگهداری کردن[br]اطلاعات و تجمیع آنها بود 0:10:06.672,0:10:09.204 بعنوان دادهها و تراکنشهای مالیمان، 0:10:09.228,0:10:13.513 اگر مغزهایمان میتوانستند مثل فعالیتهای[br]آنلاین ما موبایلهایمان و اپلیکیشنهایمان، 0:10:13.537,0:10:15.898 هک شده و ردیابی شوند، 0:10:15.922,0:10:20.191 آن وقت ما در آستانهٔ یک تهدید خطرناک[br]برای جامعهٔ انسانی بودیم. 0:10:21.406,0:10:22.715 قبل از اینکه بترسید، 0:10:24.012,0:10:27.156 من معتقدم که راه حلهایی برای این[br]نگرانیها وجود دارد، 0:10:27.180,0:10:30.005 ولی ما باید با تمرکز[br]روی چیزهای درست شروع کنیم. 0:10:30.580,0:10:33.501 وقتی بطور کلی مربوط به محافظت از[br]حریم شخصی میشود، 0:10:33.525,0:10:35.351 فکر میکنم یک جنگ باطل انجام میدهیم 0:10:35.375,0:10:38.233 با تلاش برای محدود کردن جریان اطلاعات. 0:10:38.257,0:10:42.314 درعوض ، ما باید بر روی[br]تأمین حقوق و راه حلها تمرکز کنیم 0:10:42.338,0:10:44.863 در مقابل سوءاستفاده از اطلاعاتمان. 0:10:45.291,0:10:49.096 اگر مردم حق تصمیم گیری درباره نحوه[br]اشتراکگذاری اطلاعاتشان داشتند، 0:10:49.106,0:10:51.521 و مهمتر از همه، داشتن قانون جبران خسارت 0:10:51.545,0:10:54.133 اگر از اطلاعاتشان[br]علیه خودشان سوءاستفاده میشد، 0:10:54.133,0:10:56.913 مثلا برای تبعیض قائل شدن علیه آنها[br]در یک ساختار استخدامی 0:10:56.943,0:10:59.592 یا در بهداشت یا تحصیلات، 0:10:59.616,0:11:02.557 بسیار طول میکشید تا اعتماد سازی شود. 0:11:02.843,0:11:04.561 در حقیقت، در برخی نمونهها، 0:11:04.585,0:11:08.109 ما میخواهیم اطلاعات شخصی بیشتری را[br]به اشتراک بگذاریم. 0:11:08.697,0:11:11.744 مطالعه اطلاعات جمع آوری شده[br]میتواند به ما خیلی چیزها بگوید 0:11:11.768,0:11:14.515 دربارهٔ سلامتمان و تندرستیمان، 0:11:14.539,0:11:17.852 ولی برای اینکه قادر باشیم اطلاعاتمان را[br]با امنیت به اشتراک بگذاریم، 0:11:17.876,0:11:21.099 به حمایتهای مخصوص برای[br]حریم شخصی مغزی نیاز داریم. 0:11:21.832,0:11:24.979 این دلیل نیاز ما به یک حق[br]آزادی شناختی است. 0:11:25.543,0:11:29.622 این حق آزادی تفکر و اندیشه را[br]برای ما تأمین میکند، 0:11:29.646,0:11:32.186 آزادی تشخیص شخصیمان، 0:11:32.210,0:11:36.600 و اطمینان میدهد که ما حق[br]پذیرش یا رد کردن 0:11:36.624,0:11:39.481 دستیابی و تغییر مغزهایمان[br]توسط دیگران را داریم. 0:11:39.811,0:11:41.923 این حق میتواند تحت عنوان قسمتی از 0:11:41.947,0:11:44.830 اعلامیهٔ جهانی حقوق بشر شناخته شود، 0:11:44.854,0:11:47.242 که سازوکارهایی را ایجاد کرده است 0:11:47.266,0:11:50.372 برای اجرایی کردن[br]این مدلهای حقوق اجتماعی. 0:11:51.872,0:11:53.942 در طول جنبش سبز ایرانیان، 0:11:53.966,0:11:59.152 معترضین از اینترنت[br]و شعارهای قدیمی خوب استفاده کردند 0:11:59.176,0:12:01.124 تا راهپیماییهایشان را هماهنگ کنند. 0:12:02.238,0:12:05.007 و برخی از ظالمانهترین محدودیتها در ایران 0:12:05.031,0:12:06.908 در نتیجه برداشته شد. 0:12:08.047,0:12:12.134 ولی چه میشد اگر دولت ایران از[br]نظارت مغزی استفاده میکرد 0:12:12.158,0:12:15.219 که جستجو کند و از اعتراض پیشگیری کند؟ 0:12:16.847,0:12:20.023 آیا جهان فریاد معترضین را میشنید؟ 0:12:21.732,0:12:26.853 برای ما زمان آن رسیده که برای دگرگونی[br]آزادی شناختی اقدام کنیم. 0:12:27.559,0:12:30.823 تا مطمئن شویم که ما مسئولانه[br]تکنولوژی را توسعه میدهیم 0:12:30.847,0:12:33.825 که میتواند ما را قادر به پذیرش آینده کند 0:12:33.849,0:12:40.566 در حالی که از ما در برابر هر شخص،[br]شرکت یا دولتی به شدت حفاظت کند 0:12:40.590,0:12:45.630 که با بیقانونی به درونیترین مسائل[br]زندگی ما دسترسی پیدا کند و تغییرشان دهد. 0:12:46.659,0:12:47.833 متشکرم. 0:12:47.857,0:12:51.349 (تشویق)