0:00:00.910,0:00:02.183 چند سال قبل 0:00:02.207,0:00:07.119 با پسرم، که آن موقع فقط پنج سالش بود،[br]سوار هواپیما بودم. 0:00:08.245,0:00:13.340 پسرم خیلی هیجان داشت [br]که با مامانی سوار هواپیما شده. 0:00:13.364,0:00:16.304 مدام به اینسو و آنسو نگاه می‌کرد[br]و همه چیز را برانداز می‌کرد 0:00:16.328,0:00:18.164 و آدم‌ها را هم یکی‌یکی وارسی می‌کرد. 0:00:18.188,0:00:19.818 بعد مردی را دید و گفت: 0:00:19.842,0:00:22.703 «مامان، این آقا شبیه باباست». 0:00:23.882,0:00:25.802 وقتی به آن مرد نگاه کردم، 0:00:25.826,0:00:29.556 دیدم حتی یک ذره هم شبیه شوهرم نیست. 0:00:29.580,0:00:30.949 اصلاً و ابداً! 0:00:31.461,0:00:33.797 بعد که خوب داخل هواپیما را برانداز کردم، 0:00:33.821,0:00:39.706 دیدم آن آقا تنها مسافر سیاه‌پوست است. 0:00:40.874,0:00:42.286 بعد با خودم گفتم: 0:00:42.310,0:00:43.504 «که این طور! 0:00:44.369,0:00:46.894 باید به پسرم گوشزد کنم که 0:00:46.918,0:00:49.847 سیاه‌پوست‌ بودن دلیل هم‌شکل بودن نیست» 0:00:49.871,0:00:54.248 بعد، پسرم سرش را بالا آورد [br]و به من گفت: 0:00:56.246,0:00:58.617 «خدا کنه هواپیما رو ندزده!» 0:00:59.359,0:01:01.874 من گفتم: «چی؟ چی فرمودی؟» 0:01:01.898,0:01:05.326 گفت: [br]«گفتم خدا کنه اون آقا هواپیما رو ندزده». 0:01:07.200,0:01:09.952 ازش پرسیدم:[br]«برای چی این حرف رو می‌زنی؟ 0:01:10.486,0:01:13.149 اگر بابا بود که این کار رو نمی‌کرد». 0:01:13.173,0:01:15.485 گفت: «آره، آره، خودمم می‌دونم». 0:01:16.179,0:01:18.306 بعد من گفتم: «پس چرا گفتی؟» 0:01:20.346,0:01:23.303 با چشم‌هایی واقعاً غمگین[br]به من نگاه کرد و 0:01:24.168,0:01:25.422 گفت: 0:01:26.890,0:01:28.996 «خودمم نمی‌دونم چرا این حرف رو زدم. 0:01:30.600,0:01:32.958 نمی‌دونم چرا این فکر رو کردم». 0:01:33.724,0:01:37.242 ما در دنیایی زندگی می‌کنیم[br]که چنین لایه‌های عمیقی از نژادپرستی دارد. 0:01:37.266,0:01:42.326 که حتی بچه‌ای پنج ساله هم گمان می‌کند[br]می‌داند قرار است چه اتفاقی بیفتد. 0:01:43.990,0:01:46.097 یک بچه معصوم، 0:01:46.121,0:01:48.700 که پر از صفاست. 0:01:50.184,0:01:54.097 این تلاقی میان سیاه بودن و مجرم بودن 0:01:54.121,0:01:58.455 در ذهن پسر پنج‌ساله‌ی من هم رسوخ کرده. 0:01:59.787,0:02:03.050 در ذهن همه‌ی بچه‌های ما رسوخ می‌کند. 0:02:04.201,0:02:05.592 در ذهن همه‌ی ما. 0:02:06.793,0:02:10.317 ذهن همه‌ی ما با تبعیض‌های نژادی که 0:02:10.341,0:02:11.933 در اطرافمان می‌بینیم خو می‌گیرد 0:02:12.752,0:02:18.093 و داستان‌سرایی‌ها موجب می‌شود [br]که به این تبعیض‌ها منطق هم بدهیم: 0:02:19.637,0:02:22.163 «این آدم‌ها مجرمند»، 0:02:22.187,0:02:24.112 «این آدم‌ها خشن‌اند»، 0:02:24.136,0:02:27.101 «این آدم‌ها ترسناکند». 0:02:27.814,0:02:31.005 وقتی گروه تحقیقاتی ما[br]افرادی را به آزمایشگاهمان آوردند 0:02:31.029,0:02:33.312 و به آنها تصاویر صورت‌هایی را نشان دادند، 0:02:33.336,0:02:40.336 متوجه شدیم که مواجهه با صورت سیاه‌پوستان،[br]باعث می‌شود تصاویر محو اسلحه را 0:02:40.360,0:02:43.616 با دقت و سرعت بیشتری ببینند. 0:02:43.640,0:02:46.994 تعصب افزون بر اینکه تعیین می‌کند[br]«چه چیزی بینیم»، 0:02:47.018,0:02:48.666 در «به کجا نگاه کنیم»[br]هم دخیل است. 0:02:48.690,0:02:52.134 پی بردیم که وقتی از آنها می‌خواهیم[br]به جرایم خشن فکر کنند 0:02:52.158,0:02:56.454 ممکن است باعث شود نگاهشان به سمت [br]صورت سیاه‌پوستی برده شود 0:02:56.478,0:02:58.608 و از صورت سفید دور بشود. 0:02:58.632,0:03:02.474 وقتی از افسران پلیس خواسته شد[br]به دستگیری و شلیک و 0:03:02.498,0:03:03.727 بازداشت فکر کنند 0:03:03.751,0:03:07.610 نگاه آنها هم روی صورت‌ سیاهان می‌نشیند. 0:03:07.634,0:03:12.700 تعصب می‌تواند به تمام جنبه‌های[br]نظام قضایی ما هم سرایت کند. 0:03:13.100,0:03:16.031 در میان انبوه پرونده‌های دادرسی،[br]با امکان صدور حکم اعدام، 0:03:16.055,0:03:20.412 پی بردیم هرچه پوست تیره‌تری داشته باشی،[br]احتمال محکومیتت به 0:03:20.436,0:03:22.493 اعدام از دوبرابر هم بیشتر می‌شود؛ 0:03:23.494,0:03:25.921 دست کم وقتی قربانی سفیدپوست باشد. 0:03:25.945,0:03:27.383 حتی وقتی عامل شدت جرم و 0:03:27.407,0:03:30.708 جذابیت متهم را بازتنظیم می‌کردیم[br]باز هم چنین رابطه‌ای 0:03:30.732,0:03:33.013 برقرار بود. 0:03:33.037,0:03:35.686 هر عاملی را هم که بازتنظیم کردیم، 0:03:35.710,0:03:39.055 باز هم سیاه‌پوستان 0:03:39.079,0:03:43.404 به نسبت تیرگی رنگ پوستشان[br]بیشتر مجازات شده بودند: 0:03:43.428,0:03:45.309 هرچه تیره‌تر باشی، 0:03:45.333,0:03:47.086 بیشتر مستحق مرگی. 0:03:47.110,0:03:51.319 افزون بر اینها، تعصب می‌تواند روی معلمان[br]در نحوه‌ی اداره‌ی کلاس هم اثر بگذارد. 0:03:51.781,0:03:56.188 من و همکارانم به این نتیجه رسیدیم[br]که معلمان برای تأدیب دانش‌آموز متوسطه‌ای 0:03:56.212,0:03:59.778 که سیاه‌پوست است خیلی خشن‌تر [br]برخورد می‌کنند 0:03:59.802,0:04:00.970 تا دانش‌آموز سفیدی 0:04:00.994,0:04:03.570 که مرتکب همان خطا شده است. 0:04:03.594,0:04:04.888 در پژوهش جدیدی 0:04:04.912,0:04:09.270 کم‌وبیش پی برده‌ایم که معلمان دانش‌آموزان[br]سیاه‌پوست را دسته‌جمعی می‌بینند 0:04:09.294,0:04:11.725 ولی سفیدپوستان را تک‌به‌تک. 0:04:12.126,0:04:15.725 یعنی اگر یک دانش‌آموز سیاه‌پوست[br]مرتکب خطایی شود، 0:04:15.749,0:04:20.534 و دانش‌آموز سیاه‌پوست دیگری چند روز بعد[br]کار اشتباهی بکند 0:04:20.558,0:04:23.786 معلم، دانش‌آموز دوم را طوری تنبیه می‌کند 0:04:23.810,0:04:26.435 که انگار دو بار کار اشتباهی انجام داده. 0:04:26.952,0:04:29.763 انگار گناهان یک کودک را دیگری باید 0:04:29.787,0:04:31.963 بر دوش بکشد. 0:04:31.987,0:04:35.281 ما برای درک بهتر جهان [br]طبقه‌بندی‌هایی ایجاد می‌کنیم 0:04:35.305,0:04:39.788 تا پدید‌هایی را [br]که شبانه‌روز با آنها مواجه می‌شویم 0:04:39.812,0:04:43.902 به هم ربط دهیم و محدودشان کنیم. 0:04:43.926,0:04:47.894 طبقه‌بندی کردن و تعصبی که حاصل آن است، 0:04:47.918,0:04:52.940 موجب می‌شوند مغز ما[br]سریع‌تر و راحت‌تر قضاوت کند. 0:04:52.964,0:04:56.366 ما این کار را ناخودآگاه[br]و بر پایه‌ی الگوهایی انجام می‌دهیم 0:04:56.390,0:04:58.059 که ظاهراً قابلیت پیش‌بینی دارند. 0:04:58.083,0:05:04.026 هنوز، به همان اندازه که این طبقه‌بندی کردن[br]به ما امکان تصمیم‌گیری آنی می‌دهد، 0:05:04.050,0:05:06.552 زمینه‌‌ساز تعصب هم می‌شوند. 0:05:06.576,0:05:09.968 یعنی درست همان چیزهایی[br]که به ما کمک می‌کند این جهان را ببینیم، 0:05:11.104,0:05:13.084 ممکن است چشم ما را به روی آن ببندند. 0:05:13.509,0:05:16.287 خیلی راحت انتخاب‌های ما را جهت‌دهی می‌کند، 0:05:16.311,0:05:17.680 بدون هیچ دردسری. 0:05:18.956,0:05:21.401 البته هزینه‌های آن بسیار سنگین است. 0:05:22.158,0:05:23.569 حال چه کار می‌توانیم کنیم؟ 0:05:24.507,0:05:26.998 همه‌ی ما در معرض خطر تعصب هستیم، 0:05:27.022,0:05:29.702 ولی این طور نیست که همیشه[br]متعصبانه عمل کرده باشیم. 0:05:29.726,0:05:33.370 شرایط خاصی هست که ممکن است[br]تعصب را بیدار کند 0:05:33.394,0:05:35.927 و شرایط دیگری که می‌تواند[br]آن‌ را خاموش کند. 0:05:35.951,0:05:37.798 اجازه بدهید برایتان مثالی بزنم. 0:05:38.663,0:05:43.223 خیلی‌ها شرکت فناوری نِکست‌دُر[br]را می‌شناسند. 0:05:44.073,0:05:50.526 همه هدفشان ایجاد محله‌هایی[br]بادوام‌تر و سالم‌تر و امن‌تر است. 0:05:51.468,0:05:54.389 برای همین فضای آنلاینی را ایجاد کرده‌اند 0:05:54.413,0:05:57.562 که در آن همسایه‌ها دور هم جمع می‌شوند[br]و اطلاعات رد و بدل می کنند. 0:05:57.586,0:06:01.712 ولی نِکست‌دُر خیلی زود پی برد[br]که به معضل صفحات 0:06:01.736,0:06:03.404 نژادپرستانه دچار شده‌اند. 0:06:04.012,0:06:05.979 معمولاً، 0:06:06.003,0:06:08.399 وقتی آدم‌ها از پنجره [br]بیرون را تماشا می‌کنند 0:06:08.423,0:06:12.472 و مرد سیاه‌پوستی را می‌بینند[br]که در برابر همسایه سیفیدپوستشان ایستاده، 0:06:12.496,0:06:17.211 سریع پیش‌داوری می‌کنند[br]که آن مرد خیالاتی در سر دارد، 0:06:17.235,0:06:20.586 حتی وقتی که هیچ سند و مدرکی [br]بر انجام کاری مجرمانه وجود ندارد. 0:06:20.610,0:06:23.544 از جهات زیادی، رفتار ما در اینترنت 0:06:23.568,0:06:26.682 بازتابی از رفتار ما در جهان واقعی است. 0:06:27.117,0:06:31.062 ولی کاری که نباید انجام دهیم[br]ایجاد سامانه‌ای است که در دسترس همگان باشد 0:06:31.086,0:06:35.249 و به تعصبات دامن بزند[br]و نابرابری نژادی را گسترده‌تر کند، 0:06:36.129,0:06:38.395 به جای اینکه آن را فرو بکاهد. 0:06:38.863,0:06:42.292 برای همین یکی از بنیان‌گذاران نِکست‌دُر[br]سراغ چند نفر رفت، از جمله من، 0:06:42.316,0:06:44.447 تا برای این مسأله راه حلی پیدا کند. 0:06:44.471,0:06:48.417 آنها پی بردند که برای محدود کردن[br]صفحات با محتوای نژادگرایانه، 0:06:48.441,0:06:50.363 باید دست‌اندازهایی ایجاد کنند؛ 0:06:50.387,0:06:53.045 یعنی باید روند کارشان را کند کرد. 0:06:53.069,0:06:55.264 حالا نِکست‌دُر راه‌حلی پیش پایش داشت. 0:06:55.288,0:06:57.766 آنها تصمیم گرفتند در برابر هر نشانه‌ای 0:06:57.790,0:06:59.906 مانعی ایجاد کنند. 0:07:00.397,0:07:03.837 این کار را هم تنها با اضافه کردن[br]یک چک‌لیست ساده انجام دادند. 0:07:03.861,0:07:05.531 سه مورد وجود داشت: 0:07:06.111,0:07:09.052 یک؛ از کاربران می‌خواستند کمی مکث کند 0:07:09.076,0:07:14.193 و فکر کند که «این شخص دارد چه کار می‌کند[br]که باعث می‌شود به او بدگمان شوند؟» 0:07:14.876,0:07:19.409 «سیاه‌پوست بودن» هم جزء گزینه‌ها نیست. 0:07:19.433,0:07:24.572 دوم؛ از کاربران می‌خواستند[br]ویژگی‌های ظاهری شخص را توصیف کنند، 0:07:24.596,0:07:27.031 سوای از نژاد و جنسیت. 0:07:27.642,0:07:31.025 سوم؛ فهمیدند که بسیاری از مردم 0:07:31.049,0:07:33.977 ظاهراً نه می‌دانند صفحه‌ی نژادپرستانه[br]چه محتوایی دارد، و نه 0:07:34.001,0:07:35.960 می‌دانند در ترویج این محتوا[br]دست دارند. 0:07:36.462,0:07:39.656 این شد که نکست‌دُر برای آنان[br]توضیحی ارائه کرد 0:07:39.680,0:07:42.582 و به انها گفت که چنین کاری[br]اکیداً ممنوع است. 0:07:43.071,0:07:45.683 بیشتر شما این تابلوها را[br]در فرودگاه‌ها و 0:07:45.707,0:07:49.409 ایستگاه‌های مترو دیده‌اید:[br]«فقط آنچه را دیده‌اید، به زبان بیاورید». 0:07:49.928,0:07:52.742 نِکست‌دُر کمی آن را تغییر داد: 0:07:53.584,0:07:56.156 «اگر چیز شک‌برانگیزی دیدید، 0:07:56.180,0:07:58.253 سراغ حواشی نروید». 0:07:59.491,0:08:03.937 و با همین راهبرد ِ کند کردن حرکت افراد، 0:08:03.961,0:08:09.652 نِکست‌دُر توانست تا ۷۵ درصد[br]صفحات با محتوای نژادپرستانه را محدود کند. 0:08:10.496,0:08:12.586 شاید خیلی‌ها به من بگویند: 0:08:12.610,0:08:17.323 «تو که نمی‌توانی هر جایی و با هر محتوایی[br]دست‌انداز ایجاد کنی، 0:08:17.347,0:08:21.993 مخصوصاً دربرابر کسانی که همیشه[br]لحظه‌ای تصمیم می‌گیرند». 0:08:22.730,0:08:25.293 ولی معلوم شده [br]خیلی بیشتر از آنچه گمان می‌کنیم 0:08:25.317,0:08:27.593 می‌توانیم مانع ایجاد کنیم. 0:08:28.031,0:08:30.105 در نتیجه‌ی کار با پلیس اوکلند 0:08:30.129,0:08:31.546 در کالیفرنیا، 0:08:31.570,0:08:35.426 من و تعدادی از همکارانم[br]توانستیم به آنها کمک کنیم 0:08:35.450,0:08:38.121 تا تعداد دفعات توقفی را کاهش بدهند 0:08:38.145,0:08:41.745 که در آن افراد[br]مرتکب خلاف چندان مهمی نشده بودند. 0:08:41.769,0:08:44.134 برای این کار افسران را وادار کردیم 0:08:44.158,0:08:48.601 هر باری که می‌خواهند [br]توقف کنند، از خود بپرسند: 0:08:49.451,0:08:52.466 «آیا دستور من پلیسی-عقلانی است؛ 0:08:52.490,0:08:53.941 بله یا نه؟» 0:08:55.353,0:08:56.749 به بیان دیگر، 0:08:57.621,0:09:02.105 آیا دلیل موجهی برای ربط دادن[br]این شخص خاص به فلان جرم دارم؟ 0:09:02.129,0:09:03.730 با افزودن این سؤال 0:09:04.587,0:09:06.045 به فرمی که افسران 0:09:06.069,0:09:09.148 هنگام متوقف کردن دیگران پر می‌کنند، 0:09:09.172,0:09:10.981 شتابشان گرفته شد؛ مکث می‌کردند، 0:09:11.005,0:09:15.225 با خود فکر می‌کردند[br]«الان برای چی این آدم را متوقف کنم؟» 0:09:16.721,0:09:22.282 سال ۲۰۱۷، پیش از آنکه این پرسش را[br]به فرم اضافه کنیم، 0:09:23.655,0:09:27.601 افسران پلیس در سطح شهر[br]تقریباً ۳۲ هزار دستور توقف می‌دادند. 0:09:27.625,0:09:31.740 سال بعدش، پس از اضافه شدن این پرسش، 0:09:31.764,0:09:34.208 رسید به ۱۹ هزار بار. 0:09:34.232,0:09:39.193 توقف آفریقایی‌آمریکایی‌ها[br]خودش به تنهایی ۴۳ درصد کاسته شد. 0:09:39.905,0:09:44.343 و کمتر دستور ایست دادن به سیاه‌پوستان[br]شهر را هیچ خطرناک‌تر نکرد. 0:09:44.367,0:09:47.101 راستش میزان جرم‌وجنایت هم کاسته شد، 0:09:47.125,0:09:50.462 و شهر برای همگان امن‌تر شد. 0:09:50.486,0:09:55.841 پس یک راه‌حل می‌شود[br]کاهش تعداد دستورات بی‌دلیل توقف. 0:09:56.285,0:10:00.555 یکی دیگر ممکن است [br]بهبود شیوه‌ی برخوردشان 0:10:00.579,0:10:01.884 با افراد باشد. 0:10:02.512,0:10:05.108 و فناوری می‌تواند به کمک ما بیاید. 0:10:05.132,0:10:07.547 همه ما ماجرای مرگ جرج فلوید را می‌دانیم، 0:10:08.499,0:10:13.271 چون آنهایی که سعی داشتند به کمکش بیایند[br]دوربین موبایل‌هایشان را روشن کردند 0:10:13.295,0:10:18.726 تا این صحنه‌ی دهشتناک و مرگ‌آور ِ[br]مواجهه‌ی با پلیس را ضبط کنند. 0:10:18.750,0:10:23.781 ولی ابزارهای زیادی داریم[br]که از آنها به درستی استفاده نمی‌کنیم. 0:10:23.805,0:10:26.308 امروزه واحدهای پلیس سرتاسر کشور 0:10:26.332,0:10:29.885 باید روی لباس افسران دوریبن نصب کنند 0:10:29.909,0:10:35.839 تا افزون بر ویدیوی[br]شدیدترین و هولناک‌ترین درگیری‌ها، 0:10:35.863,0:10:38.617 برخوردهای هرروزه‌شان نیز ضبط شود. 0:10:38.641,0:10:41.418 به همراه گروهی چندوجهی در استنفورد، 0:10:41.442,0:10:44.129 و با استفاده از روش‌های داده‌کاوی 0:10:44.153,0:10:47.520 شروع کردیم به تحلیل انبوهی از برخوردها. 0:10:47.544,0:10:52.155 می‌خواستیم بدانیم در جریان یک دستور[br]ایست معمولی به یک خودرو چه می‌گذرد. 0:10:52.179,0:10:54.334 به این ترتیب پی بردیم 0:10:54.358,0:10:58.020 حتی وقتی افسران پلیس اصولی رفتار می‌کنند، 0:10:58.860,0:11:03.322 با رانندگان سفیدپوست، محترمانه‌تر از[br]رانندگان سیاه‌پوست صحبت می‌کنند. 0:11:04.052,0:11:08.127 راستش فقط از روی کلماتی[br]که به کار می‌بردند، 0:11:08.151,0:11:13.313 می‌توانستیم حدس بزنیم آیا دارد[br]با یک سیاه‌پوست حرف می‌زند یا یک سفیدپوست. 0:11:13.337,0:11:19.099 مشکل این است که واحدهای پلیس[br]از اکثر قریب به اتفاق این فیلم‌ها 0:11:19.123,0:11:21.210 هیچ بهره‌ای نمی‌برند 0:11:21.234,0:11:23.510 تا بفهمند کف خیابان چه خبر است 0:11:23.534,0:11:25.777 یا اینکه به افسران آموزش بدهند. 0:11:26.554,0:11:28.012 و این مایه شرمساری است. 0:11:28.796,0:11:33.585 چطور یک بازرسی ساده‌ی پلیس[br]به مواجهه‌ای مرگبار ختم می‌شود؟ 0:11:33.609,0:11:36.279 چطور این بلا بر سر جرج فلوید آمد؟ 0:11:37.588,0:11:39.670 بر سر بقیه چطور آمده بود؟ 0:11:39.694,0:11:43.090 زمانی که پسر بزرگم شانزده ساله بود، 0:11:43.114,0:11:46.253 فهمید وقتی سفیدپوستان نگاهش می‌کنند 0:11:46.277,0:11:47.838 حس ترس دارند. 0:11:49.123,0:11:51.784 به قول خودش[br]درون آسانسور از همه جا بدتر است. 0:11:52.313,0:11:54.644 وقتی درهایش بسته می‌شوند، 0:11:54.668,0:11:57.751 آدم‌ها در این فضای محدود[br]به همراه کسی گرفتار می‌شوند، 0:11:57.775,0:12:02.242 که بهشان یاد داده‌اند،[br]این شخص آمیخته‌ با خطر است. 0:12:02.744,0:12:05.964 پسرم بی‌قراری‌شان را حس می‌کند، 0:12:05.988,0:12:09.145 و برای اینکه خیالشان راحت شود[br]به رویشان لبخند می‌زند، 0:12:09.169,0:12:10.938 که ترسشان بریزد. 0:12:11.351,0:12:13.296 وقتی شروع به صحبت می‌کند 0:12:13.320,0:12:15.003 آن وقت آرام می‌شوند. 0:12:15.442,0:12:17.345 آرام‌تر نفس می‌کشند. 0:12:17.369,0:12:19.900 از شیوه‌ی برخورد او، رفتارش، بیانش 0:12:19.924,0:12:22.241 احساس آرامش می‌کنند. 0:12:22.986,0:12:24.829 شبیه یکی از خودشان می‌شود. 0:12:24.853,0:12:29.583 همیشه گمان می‌کردم که پسرم، مثل پدرش،[br]ذاتاً برون‌گراست. 0:12:29.607,0:12:33.157 ولی بعد از این ماجرا،[br]و بعد از حرف‌هایی که زدیم فهمیدم 0:12:34.143,0:12:39.221 که لبخندش نشانی از تمایل به ارتباط 0:12:39.245,0:12:41.209 با غریبه‌ها نیست. 0:12:41.920,0:12:45.572 شگردی بود برای محافظت از خودش؛ 0:12:45.596,0:12:51.815 مهارتی نجات‌بخش که پس از هزاران بار[br]سوار شدن بر آسانسور، آموخته بود. 0:12:52.387,0:12:57.558 رفته‌رفته یاد گرفته بود که چطور[br]تنش ناشی از رنگ پوستش را برطرف کند، 0:12:59.026,0:13:01.693 تنشی که زندگی‌اش را به خطر می‌انداخت. 0:13:02.619,0:13:06.402 همه می‌دانیم که تعصب در مغز ریشه می‌دواند، 0:13:06.426,0:13:10.891 و یک راه برای برهم زدنش[br]این است که درنگ کنیم 0:13:10.915,0:13:13.220 و به مبانی پیش‌فرض‌هایمان درست بنگریم. 0:13:13.244,0:13:14.999 یعنی باید از خودمان بپرسیم: 0:13:15.023,0:13:19.688 وقتی پا در آسانسور می‌گذارم،[br]چه پیش‌فرض‌هایی در ذهنم دارم؟ 0:13:21.776,0:13:23.087 یا در هواپیما؟ 0:13:23.532,0:13:28.131 چطور خودمان را [br]نسبت به تعصبات ناخودآگاهمان هشیار می‌کنیم؟ 0:13:28.155,0:13:30.506 آیا این پیش‌فرض‌ها از جان کسی محافظت کرده؟ 0:13:32.615,0:13:34.547 آیا جان کسی را به خطر انداخته؟ 0:13:35.649,0:13:38.003 تا وقتی که چنین سؤال‌هایی از خود نپرسیم 0:13:38.978,0:13:43.602 و پافشارانه [br]در مدارس و دادگاه‌ها و ادارات پلیس 0:13:43.626,0:13:46.168 و دیگر نهادها هم همین کار نشود، 0:13:47.835,0:13:51.664 یعنی قبول کرده‌ایم که تعصب[br]چشمان ما را 0:13:51.688,0:13:52.966 کور کند. 0:13:53.348,0:13:54.757 ولی اگر چنین نکنیم، 0:13:56.066,0:13:59.274 هیج کداممان آسایش نخواهیم داشت. 0:14:02.103,0:14:03.411 سپاسگزارم.