1 00:00:00,910 --> 00:00:02,183 چند سال قبل 2 00:00:02,207 --> 00:00:07,119 با پسرم، که آن موقع فقط پنج سالش بود، سوار هواپیما بودم. 3 00:00:08,245 --> 00:00:13,340 پسرم خیلی هیجان داشت که با مامانی سوار هواپیما شده. 4 00:00:13,364 --> 00:00:16,304 مدام به اینسو و آنسو نگاه می‌کرد و همه چیز را برانداز می‌کرد 5 00:00:16,328 --> 00:00:18,164 و آدم‌ها را هم یکی‌یکی وارسی می‌کرد. 6 00:00:18,188 --> 00:00:19,818 بعد مردی را دید و گفت: 7 00:00:19,842 --> 00:00:22,703 «مامان، این آقا شبیه باباست». 8 00:00:23,882 --> 00:00:25,802 وقتی به آن مرد نگاه کردم، 9 00:00:25,826 --> 00:00:29,556 دیدم حتی یک ذره هم شبیه شوهرم نیست. 10 00:00:29,580 --> 00:00:30,949 اصلاً و ابداً! 11 00:00:31,461 --> 00:00:33,797 بعد که خوب داخل هواپیما را برانداز کردم، 12 00:00:33,821 --> 00:00:39,706 دیدم آن آقا تنها مسافر سیاه‌پوست است. 13 00:00:40,874 --> 00:00:42,286 بعد با خودم گفتم: 14 00:00:42,310 --> 00:00:43,504 «که این طور! 15 00:00:44,369 --> 00:00:46,894 باید به پسرم گوشزد کنم که 16 00:00:46,918 --> 00:00:49,847 سیاه‌پوست‌ بودن دلیل هم‌شکل بودن نیست» 17 00:00:49,871 --> 00:00:54,248 بعد، پسرم سرش را بالا آورد و به من گفت: 18 00:00:56,246 --> 00:00:58,617 «خدا کنه هواپیما رو ندزده!» 19 00:00:59,359 --> 00:01:01,874 من گفتم: «چی؟ چی فرمودی؟» 20 00:01:01,898 --> 00:01:05,326 گفت: «گفتم خدا کنه اون آقا هواپیما رو ندزده». 21 00:01:07,200 --> 00:01:09,952 ازش پرسیدم: «برای چی این حرف رو می‌زنی؟ 22 00:01:10,486 --> 00:01:13,149 اگر بابا بود که این کار رو نمی‌کرد». 23 00:01:13,173 --> 00:01:15,485 گفت: «آره، آره، خودمم می‌دونم». 24 00:01:16,179 --> 00:01:18,306 بعد من گفتم: «پس چرا گفتی؟» 25 00:01:20,346 --> 00:01:23,303 با چشم‌هایی واقعاً غمگین به من نگاه کرد و 26 00:01:24,168 --> 00:01:25,422 گفت: 27 00:01:26,890 --> 00:01:28,996 «خودمم نمی‌دونم چرا این حرف رو زدم. 28 00:01:30,600 --> 00:01:32,958 نمی‌دونم چرا این فکر رو کردم». 29 00:01:33,724 --> 00:01:37,242 ما در دنیایی زندگی می‌کنیم که چنین لایه‌های عمیقی از نژادپرستی دارد. 30 00:01:37,266 --> 00:01:42,326 که حتی بچه‌ای پنج ساله هم گمان می‌کند می‌داند قرار است چه اتفاقی بیفتد. 31 00:01:43,990 --> 00:01:46,097 یک بچه معصوم، 32 00:01:46,121 --> 00:01:48,700 که پر از صفاست. 33 00:01:50,184 --> 00:01:54,097 این تلاقی میان سیاه بودن و مجرم بودن 34 00:01:54,121 --> 00:01:58,455 در ذهن پسر پنج‌ساله‌ی من هم رسوخ کرده. 35 00:01:59,787 --> 00:02:03,050 در ذهن همه‌ی بچه‌های ما رسوخ می‌کند. 36 00:02:04,201 --> 00:02:05,592 در ذهن همه‌ی ما. 37 00:02:06,793 --> 00:02:10,317 ذهن همه‌ی ما با تبعیض‌های نژادی که 38 00:02:10,341 --> 00:02:11,933 در اطرافمان می‌بینیم خو می‌گیرد 39 00:02:12,752 --> 00:02:18,093 و داستان‌سرایی‌ها موجب می‌شود که به این تبعیض‌ها منطق هم بدهیم: 40 00:02:19,637 --> 00:02:22,163 «این آدم‌ها مجرمند»، 41 00:02:22,187 --> 00:02:24,112 «این آدم‌ها خشن‌اند»، 42 00:02:24,136 --> 00:02:27,101 «این آدم‌ها ترسناکند». 43 00:02:27,814 --> 00:02:31,005 وقتی گروه تحقیقاتی ما افرادی را به آزمایشگاهمان آوردند 44 00:02:31,029 --> 00:02:33,312 و به آنها تصاویر صورت‌هایی را نشان دادند، 45 00:02:33,336 --> 00:02:40,336 متوجه شدیم که مواجهه با صورت سیاه‌پوستان، باعث می‌شود تصاویر محو اسلحه را 46 00:02:40,360 --> 00:02:43,616 با دقت و سرعت بیشتری ببینند. 47 00:02:43,640 --> 00:02:46,994 تعصب افزون بر اینکه تعیین می‌کند «چه چیزی بینیم»، 48 00:02:47,018 --> 00:02:48,666 در «به کجا نگاه کنیم» هم دخیل است. 49 00:02:48,690 --> 00:02:52,134 پی بردیم که وقتی از آنها می‌خواهیم به جرایم خشن فکر کنند 50 00:02:52,158 --> 00:02:56,454 ممکن است باعث شود نگاهشان به سمت صورت سیاه‌پوستی برده شود 51 00:02:56,478 --> 00:02:58,608 و از صورت سفید دور بشود. 52 00:02:58,632 --> 00:03:02,474 وقتی از افسران پلیس خواسته شد به دستگیری و شلیک و 53 00:03:02,498 --> 00:03:03,727 بازداشت فکر کنند 54 00:03:03,751 --> 00:03:07,610 نگاه آنها هم روی صورت‌ سیاهان می‌نشیند. 55 00:03:07,634 --> 00:03:12,700 تعصب می‌تواند به تمام جنبه‌های نظام قضایی ما هم سرایت کند. 56 00:03:13,100 --> 00:03:16,031 در میان انبوه پرونده‌های دادرسی، با امکان صدور حکم اعدام، 57 00:03:16,055 --> 00:03:20,412 پی بردیم هرچه پوست تیره‌تری داشته باشی، احتمال محکومیتت به 58 00:03:20,436 --> 00:03:22,493 اعدام از دوبرابر هم بیشتر می‌شود؛ 59 00:03:23,494 --> 00:03:25,921 دست کم وقتی قربانی سفیدپوست باشد. 60 00:03:25,945 --> 00:03:27,383 حتی وقتی عامل شدت جرم و 61 00:03:27,407 --> 00:03:30,708 جذابیت متهم را بازتنظیم می‌کردیم باز هم چنین رابطه‌ای 62 00:03:30,732 --> 00:03:33,013 برقرار بود. 63 00:03:33,037 --> 00:03:35,686 هر عاملی را هم که بازتنظیم کردیم، 64 00:03:35,710 --> 00:03:39,055 باز هم سیاه‌پوستان 65 00:03:39,079 --> 00:03:43,404 به نسبت تیرگی رنگ پوستشان بیشتر مجازات شده بودند: 66 00:03:43,428 --> 00:03:45,309 هرچه تیره‌تر باشی، 67 00:03:45,333 --> 00:03:47,086 بیشتر مستحق مرگی. 68 00:03:47,110 --> 00:03:51,319 افزون بر اینها، تعصب می‌تواند روی معلمان در نحوه‌ی اداره‌ی کلاس هم اثر بگذارد. 69 00:03:51,781 --> 00:03:56,188 من و همکارانم به این نتیجه رسیدیم که معلمان برای تأدیب دانش‌آموز متوسطه‌ای 70 00:03:56,212 --> 00:03:59,778 که سیاه‌پوست است خیلی خشن‌تر برخورد می‌کنند 71 00:03:59,802 --> 00:04:00,970 تا دانش‌آموز سفیدی 72 00:04:00,994 --> 00:04:03,570 که مرتکب همان خطا شده است. 73 00:04:03,594 --> 00:04:04,888 در پژوهش جدیدی 74 00:04:04,912 --> 00:04:09,270 کم‌وبیش پی برده‌ایم که معلمان دانش‌آموزان سیاه‌پوست را دسته‌جمعی می‌بینند 75 00:04:09,294 --> 00:04:11,725 ولی سفیدپوستان را تک‌به‌تک. 76 00:04:12,126 --> 00:04:15,725 یعنی اگر یک دانش‌آموز سیاه‌پوست مرتکب خطایی شود، 77 00:04:15,749 --> 00:04:20,534 و دانش‌آموز سیاه‌پوست دیگری چند روز بعد کار اشتباهی بکند 78 00:04:20,558 --> 00:04:23,786 معلم، دانش‌آموز دوم را طوری تنبیه می‌کند 79 00:04:23,810 --> 00:04:26,435 که انگار دو بار کار اشتباهی انجام داده. 80 00:04:26,952 --> 00:04:29,763 انگار گناهان یک کودک را دیگری باید 81 00:04:29,787 --> 00:04:31,963 بر دوش بکشد. 82 00:04:31,987 --> 00:04:35,281 ما برای درک بهتر جهان طبقه‌بندی‌هایی ایجاد می‌کنیم 83 00:04:35,305 --> 00:04:39,788 تا پدید‌هایی را که شبانه‌روز با آنها مواجه می‌شویم 84 00:04:39,812 --> 00:04:43,902 به هم ربط دهیم و محدودشان کنیم. 85 00:04:43,926 --> 00:04:47,894 طبقه‌بندی کردن و تعصبی که حاصل آن است، 86 00:04:47,918 --> 00:04:52,940 موجب می‌شوند مغز ما سریع‌تر و راحت‌تر قضاوت کند. 87 00:04:52,964 --> 00:04:56,366 ما این کار را ناخودآگاه و بر پایه‌ی الگوهایی انجام می‌دهیم 88 00:04:56,390 --> 00:04:58,059 که ظاهراً قابلیت پیش‌بینی دارند. 89 00:04:58,083 --> 00:05:04,026 هنوز، به همان اندازه که این طبقه‌بندی کردن به ما امکان تصمیم‌گیری آنی می‌دهد، 90 00:05:04,050 --> 00:05:06,552 زمینه‌‌ساز تعصب هم می‌شوند. 91 00:05:06,576 --> 00:05:09,968 یعنی درست همان چیزهایی که به ما کمک می‌کند این جهان را ببینیم، 92 00:05:11,104 --> 00:05:13,084 ممکن است چشم ما را به روی آن ببندند. 93 00:05:13,509 --> 00:05:16,287 خیلی راحت انتخاب‌های ما را جهت‌دهی می‌کند، 94 00:05:16,311 --> 00:05:17,680 بدون هیچ دردسری. 95 00:05:18,956 --> 00:05:21,401 البته هزینه‌های آن بسیار سنگین است. 96 00:05:22,158 --> 00:05:23,569 حال چه کار می‌توانیم کنیم؟ 97 00:05:24,507 --> 00:05:26,998 همه‌ی ما در معرض خطر تعصب هستیم، 98 00:05:27,022 --> 00:05:29,702 ولی این طور نیست که همیشه متعصبانه عمل کرده باشیم. 99 00:05:29,726 --> 00:05:33,370 شرایط خاصی هست که ممکن است تعصب را بیدار کند 100 00:05:33,394 --> 00:05:35,927 و شرایط دیگری که می‌تواند آن‌ را خاموش کند. 101 00:05:35,951 --> 00:05:37,798 اجازه بدهید برایتان مثالی بزنم. 102 00:05:38,663 --> 00:05:43,223 خیلی‌ها شرکت فناوری نِکست‌دُر را می‌شناسند. 103 00:05:44,073 --> 00:05:50,526 همه هدفشان ایجاد محله‌هایی بادوام‌تر و سالم‌تر و امن‌تر است. 104 00:05:51,468 --> 00:05:54,389 برای همین فضای آنلاینی را ایجاد کرده‌اند 105 00:05:54,413 --> 00:05:57,562 که در آن همسایه‌ها دور هم جمع می‌شوند و اطلاعات رد و بدل می کنند. 106 00:05:57,586 --> 00:06:01,712 ولی نِکست‌دُر خیلی زود پی برد که به معضل صفحات 107 00:06:01,736 --> 00:06:03,404 نژادپرستانه دچار شده‌اند. 108 00:06:04,012 --> 00:06:05,979 معمولاً، 109 00:06:06,003 --> 00:06:08,399 وقتی آدم‌ها از پنجره بیرون را تماشا می‌کنند 110 00:06:08,423 --> 00:06:12,472 و مرد سیاه‌پوستی را می‌بینند که در برابر همسایه سیفیدپوستشان ایستاده، 111 00:06:12,496 --> 00:06:17,211 سریع پیش‌داوری می‌کنند که آن مرد خیالاتی در سر دارد، 112 00:06:17,235 --> 00:06:20,586 حتی وقتی که هیچ سند و مدرکی بر انجام کاری مجرمانه وجود ندارد. 113 00:06:20,610 --> 00:06:23,544 از جهات زیادی، رفتار ما در اینترنت 114 00:06:23,568 --> 00:06:26,682 بازتابی از رفتار ما در جهان واقعی است. 115 00:06:27,117 --> 00:06:31,062 ولی کاری که نباید انجام دهیم ایجاد سامانه‌ای است که در دسترس همگان باشد 116 00:06:31,086 --> 00:06:35,249 و به تعصبات دامن بزند و نابرابری نژادی را گسترده‌تر کند، 117 00:06:36,129 --> 00:06:38,395 به جای اینکه آن را فرو بکاهد. 118 00:06:38,863 --> 00:06:42,292 برای همین یکی از بنیان‌گذاران نِکست‌دُر سراغ چند نفر رفت، از جمله من، 119 00:06:42,316 --> 00:06:44,447 تا برای این مسأله راه حلی پیدا کند. 120 00:06:44,471 --> 00:06:48,417 آنها پی بردند که برای محدود کردن صفحات با محتوای نژادگرایانه، 121 00:06:48,441 --> 00:06:50,363 باید دست‌اندازهایی ایجاد کنند؛ 122 00:06:50,387 --> 00:06:53,045 یعنی باید روند کارشان را کند کرد. 123 00:06:53,069 --> 00:06:55,264 حالا نِکست‌دُر راه‌حلی پیش پایش داشت. 124 00:06:55,288 --> 00:06:57,766 آنها تصمیم گرفتند در برابر هر نشانه‌ای 125 00:06:57,790 --> 00:06:59,906 مانعی ایجاد کنند. 126 00:07:00,397 --> 00:07:03,837 این کار را هم تنها با اضافه کردن یک چک‌لیست ساده انجام دادند. 127 00:07:03,861 --> 00:07:05,531 سه مورد وجود داشت: 128 00:07:06,111 --> 00:07:09,052 یک؛ از کاربران می‌خواستند کمی مکث کند 129 00:07:09,076 --> 00:07:14,193 و فکر کند که «این شخص دارد چه کار می‌کند که باعث می‌شود به او بدگمان شوند؟» 130 00:07:14,876 --> 00:07:19,409 «سیاه‌پوست بودن» هم جزء گزینه‌ها نیست. 131 00:07:19,433 --> 00:07:24,572 دوم؛ از کاربران می‌خواستند ویژگی‌های ظاهری شخص را توصیف کنند، 132 00:07:24,596 --> 00:07:27,031 سوای از نژاد و جنسیت. 133 00:07:27,642 --> 00:07:31,025 سوم؛ فهمیدند که بسیاری از مردم 134 00:07:31,049 --> 00:07:33,977 ظاهراً نه می‌دانند صفحه‌ی نژادپرستانه چه محتوایی دارد، و نه 135 00:07:34,001 --> 00:07:35,960 می‌دانند در ترویج این محتوا دست دارند. 136 00:07:36,462 --> 00:07:39,656 این شد که نکست‌دُر برای آنان توضیحی ارائه کرد 137 00:07:39,680 --> 00:07:42,582 و به انها گفت که چنین کاری اکیداً ممنوع است. 138 00:07:43,071 --> 00:07:45,683 بیشتر شما این تابلوها را در فرودگاه‌ها و 139 00:07:45,707 --> 00:07:49,409 ایستگاه‌های مترو دیده‌اید: «فقط آنچه را دیده‌اید، به زبان بیاورید». 140 00:07:49,928 --> 00:07:52,742 نِکست‌دُر کمی آن را تغییر داد: 141 00:07:53,584 --> 00:07:56,156 «اگر چیز شک‌برانگیزی دیدید، 142 00:07:56,180 --> 00:07:58,253 سراغ حواشی نروید». 143 00:07:59,491 --> 00:08:03,937 و با همین راهبرد ِ کند کردن حرکت افراد، 144 00:08:03,961 --> 00:08:09,652 نِکست‌دُر توانست تا ۷۵ درصد صفحات با محتوای نژادپرستانه را محدود کند. 145 00:08:10,496 --> 00:08:12,586 شاید خیلی‌ها به من بگویند: 146 00:08:12,610 --> 00:08:17,323 «تو که نمی‌توانی هر جایی و با هر محتوایی دست‌انداز ایجاد کنی، 147 00:08:17,347 --> 00:08:21,993 مخصوصاً دربرابر کسانی که همیشه لحظه‌ای تصمیم می‌گیرند». 148 00:08:22,730 --> 00:08:25,293 ولی معلوم شده خیلی بیشتر از آنچه گمان می‌کنیم 149 00:08:25,317 --> 00:08:27,593 می‌توانیم مانع ایجاد کنیم. 150 00:08:28,031 --> 00:08:30,105 در نتیجه‌ی کار با پلیس اوکلند 151 00:08:30,129 --> 00:08:31,546 در کالیفرنیا، 152 00:08:31,570 --> 00:08:35,426 من و تعدادی از همکارانم توانستیم به آنها کمک کنیم 153 00:08:35,450 --> 00:08:38,121 تا تعداد دفعات توقفی را کاهش بدهند 154 00:08:38,145 --> 00:08:41,745 که در آن افراد مرتکب خلاف چندان مهمی نشده بودند. 155 00:08:41,769 --> 00:08:44,134 برای این کار افسران را وادار کردیم 156 00:08:44,158 --> 00:08:48,601 هر باری که می‌خواهند توقف کنند، از خود بپرسند: 157 00:08:49,451 --> 00:08:52,466 «آیا دستور من پلیسی-عقلانی است؛ 158 00:08:52,490 --> 00:08:53,941 بله یا نه؟» 159 00:08:55,353 --> 00:08:56,749 به بیان دیگر، 160 00:08:57,621 --> 00:09:02,105 آیا دلیل موجهی برای ربط دادن این شخص خاص به فلان جرم دارم؟ 161 00:09:02,129 --> 00:09:03,730 با افزودن این سؤال 162 00:09:04,587 --> 00:09:06,045 به فرمی که افسران 163 00:09:06,069 --> 00:09:09,148 هنگام متوقف کردن دیگران پر می‌کنند، 164 00:09:09,172 --> 00:09:10,981 شتابشان گرفته شد؛ مکث می‌کردند، 165 00:09:11,005 --> 00:09:15,225 با خود فکر می‌کردند «الان برای چی این آدم را متوقف کنم؟» 166 00:09:16,721 --> 00:09:22,282 سال ۲۰۱۷، پیش از آنکه این پرسش را به فرم اضافه کنیم، 167 00:09:23,655 --> 00:09:27,601 افسران پلیس در سطح شهر تقریباً ۳۲ هزار دستور توقف می‌دادند. 168 00:09:27,625 --> 00:09:31,740 سال بعدش، پس از اضافه شدن این پرسش، 169 00:09:31,764 --> 00:09:34,208 رسید به ۱۹ هزار بار. 170 00:09:34,232 --> 00:09:39,193 توقف آفریقایی‌آمریکایی‌ها خودش به تنهایی ۴۳ درصد کاسته شد. 171 00:09:39,905 --> 00:09:44,343 و کمتر دستور ایست دادن به سیاه‌پوستان شهر را هیچ خطرناک‌تر نکرد. 172 00:09:44,367 --> 00:09:47,101 راستش میزان جرم‌وجنایت هم کاسته شد، 173 00:09:47,125 --> 00:09:50,462 و شهر برای همگان امن‌تر شد. 174 00:09:50,486 --> 00:09:55,841 پس یک راه‌حل می‌شود کاهش تعداد دستورات بی‌دلیل توقف. 175 00:09:56,285 --> 00:10:00,555 یکی دیگر ممکن است بهبود شیوه‌ی برخوردشان 176 00:10:00,579 --> 00:10:01,884 با افراد باشد. 177 00:10:02,512 --> 00:10:05,108 و فناوری می‌تواند به کمک ما بیاید. 178 00:10:05,132 --> 00:10:07,547 همه ما ماجرای مرگ جرج فلوید را می‌دانیم، 179 00:10:08,499 --> 00:10:13,271 چون آنهایی که سعی داشتند به کمکش بیایند دوربین موبایل‌هایشان را روشن کردند 180 00:10:13,295 --> 00:10:18,726 تا این صحنه‌ی دهشتناک و مرگ‌آور ِ مواجهه‌ی با پلیس را ضبط کنند. 181 00:10:18,750 --> 00:10:23,781 ولی ابزارهای زیادی داریم که از آنها به درستی استفاده نمی‌کنیم. 182 00:10:23,805 --> 00:10:26,308 امروزه واحدهای پلیس سرتاسر کشور 183 00:10:26,332 --> 00:10:29,885 باید روی لباس افسران دوریبن نصب کنند 184 00:10:29,909 --> 00:10:35,839 تا افزون بر ویدیوی شدیدترین و هولناک‌ترین درگیری‌ها، 185 00:10:35,863 --> 00:10:38,617 برخوردهای هرروزه‌شان نیز ضبط شود. 186 00:10:38,641 --> 00:10:41,418 به همراه گروهی چندوجهی در استنفورد، 187 00:10:41,442 --> 00:10:44,129 و با استفاده از روش‌های داده‌کاوی 188 00:10:44,153 --> 00:10:47,520 شروع کردیم به تحلیل انبوهی از برخوردها. 189 00:10:47,544 --> 00:10:52,155 می‌خواستیم بدانیم در جریان یک دستور ایست معمولی به یک خودرو چه می‌گذرد. 190 00:10:52,179 --> 00:10:54,334 به این ترتیب پی بردیم 191 00:10:54,358 --> 00:10:58,020 حتی وقتی افسران پلیس اصولی رفتار می‌کنند، 192 00:10:58,860 --> 00:11:03,322 با رانندگان سفیدپوست، محترمانه‌تر از رانندگان سیاه‌پوست صحبت می‌کنند. 193 00:11:04,052 --> 00:11:08,127 راستش فقط از روی کلماتی که به کار می‌بردند، 194 00:11:08,151 --> 00:11:13,313 می‌توانستیم حدس بزنیم آیا دارد با یک سیاه‌پوست حرف می‌زند یا یک سفیدپوست. 195 00:11:13,337 --> 00:11:19,099 مشکل این است که واحدهای پلیس از اکثر قریب به اتفاق این فیلم‌ها 196 00:11:19,123 --> 00:11:21,210 هیچ بهره‌ای نمی‌برند 197 00:11:21,234 --> 00:11:23,510 تا بفهمند کف خیابان چه خبر است 198 00:11:23,534 --> 00:11:25,777 یا اینکه به افسران آموزش بدهند. 199 00:11:26,554 --> 00:11:28,012 و این مایه شرمساری است. 200 00:11:28,796 --> 00:11:33,585 چطور یک بازرسی ساده‌ی پلیس به مواجهه‌ای مرگبار ختم می‌شود؟ 201 00:11:33,609 --> 00:11:36,279 چطور این بلا بر سر جرج فلوید آمد؟ 202 00:11:37,588 --> 00:11:39,670 بر سر بقیه چطور آمده بود؟ 203 00:11:39,694 --> 00:11:43,090 زمانی که پسر بزرگم شانزده ساله بود، 204 00:11:43,114 --> 00:11:46,253 فهمید وقتی سفیدپوستان نگاهش می‌کنند 205 00:11:46,277 --> 00:11:47,838 حس ترس دارند. 206 00:11:49,123 --> 00:11:51,784 به قول خودش درون آسانسور از همه جا بدتر است. 207 00:11:52,313 --> 00:11:54,644 وقتی درهایش بسته می‌شوند، 208 00:11:54,668 --> 00:11:57,751 آدم‌ها در این فضای محدود به همراه کسی گرفتار می‌شوند، 209 00:11:57,775 --> 00:12:02,242 که بهشان یاد داده‌اند، این شخص آمیخته‌ با خطر است. 210 00:12:02,744 --> 00:12:05,964 پسرم بی‌قراری‌شان را حس می‌کند، 211 00:12:05,988 --> 00:12:09,145 و برای اینکه خیالشان راحت شود به رویشان لبخند می‌زند، 212 00:12:09,169 --> 00:12:10,938 که ترسشان بریزد. 213 00:12:11,351 --> 00:12:13,296 وقتی شروع به صحبت می‌کند 214 00:12:13,320 --> 00:12:15,003 آن وقت آرام می‌شوند. 215 00:12:15,442 --> 00:12:17,345 آرام‌تر نفس می‌کشند. 216 00:12:17,369 --> 00:12:19,900 از شیوه‌ی برخورد او، رفتارش، بیانش 217 00:12:19,924 --> 00:12:22,241 احساس آرامش می‌کنند. 218 00:12:22,986 --> 00:12:24,829 شبیه یکی از خودشان می‌شود. 219 00:12:24,853 --> 00:12:29,583 همیشه گمان می‌کردم که پسرم، مثل پدرش، ذاتاً برون‌گراست. 220 00:12:29,607 --> 00:12:33,157 ولی بعد از این ماجرا، و بعد از حرف‌هایی که زدیم فهمیدم 221 00:12:34,143 --> 00:12:39,221 که لبخندش نشانی از تمایل به ارتباط 222 00:12:39,245 --> 00:12:41,209 با غریبه‌ها نیست. 223 00:12:41,920 --> 00:12:45,572 شگردی بود برای محافظت از خودش؛ 224 00:12:45,596 --> 00:12:51,815 مهارتی نجات‌بخش که پس از هزاران بار سوار شدن بر آسانسور، آموخته بود. 225 00:12:52,387 --> 00:12:57,558 رفته‌رفته یاد گرفته بود که چطور تنش ناشی از رنگ پوستش را برطرف کند، 226 00:12:59,026 --> 00:13:01,693 تنشی که زندگی‌اش را به خطر می‌انداخت. 227 00:13:02,619 --> 00:13:06,402 همه می‌دانیم که تعصب در مغز ریشه می‌دواند، 228 00:13:06,426 --> 00:13:10,891 و یک راه برای برهم زدنش این است که درنگ کنیم 229 00:13:10,915 --> 00:13:13,220 و به مبانی پیش‌فرض‌هایمان درست بنگریم. 230 00:13:13,244 --> 00:13:14,999 یعنی باید از خودمان بپرسیم: 231 00:13:15,023 --> 00:13:19,688 وقتی پا در آسانسور می‌گذارم، چه پیش‌فرض‌هایی در ذهنم دارم؟ 232 00:13:21,776 --> 00:13:23,087 یا در هواپیما؟ 233 00:13:23,532 --> 00:13:28,131 چطور خودمان را نسبت به تعصبات ناخودآگاهمان هشیار می‌کنیم؟ 234 00:13:28,155 --> 00:13:30,506 آیا این پیش‌فرض‌ها از جان کسی محافظت کرده؟ 235 00:13:32,615 --> 00:13:34,547 آیا جان کسی را به خطر انداخته؟ 236 00:13:35,649 --> 00:13:38,003 تا وقتی که چنین سؤال‌هایی از خود نپرسیم 237 00:13:38,978 --> 00:13:43,602 و پافشارانه در مدارس و دادگاه‌ها و ادارات پلیس 238 00:13:43,626 --> 00:13:46,168 و دیگر نهادها هم همین کار نشود، 239 00:13:47,835 --> 00:13:51,664 یعنی قبول کرده‌ایم که تعصب چشمان ما را 240 00:13:51,688 --> 00:13:52,966 کور کند. 241 00:13:53,348 --> 00:13:54,757 ولی اگر چنین نکنیم، 242 00:13:56,066 --> 00:13:59,274 هیج کداممان آسایش نخواهیم داشت. 243 00:14:02,103 --> 00:14:03,411 سپاسگزارم.