WEBVTT 00:00:00.910 --> 00:00:02.183 Een aantal jaar geleden 00:00:02.207 --> 00:00:07.119 was ik op een vliegtuig met mijn zoon, die destijds vijf jaar oud was. 00:00:08.245 --> 00:00:13.340 Mijn zoon was zo enthousiast om samen met mama op een vliegtuig te zitten. 00:00:13.364 --> 00:00:16.304 Hij kijkt rond, bekijkt de dingen 00:00:16.328 --> 00:00:18.164 en de mensen. 00:00:18.188 --> 00:00:19.818 Hij ziet een man en zegt: 00:00:19.842 --> 00:00:22.703 "Hey! Die man lijkt op papa!" 00:00:23.882 --> 00:00:25.802 En ik kijk naar de man, 00:00:25.826 --> 00:00:29.556 en hij leek absoluut niet op mijn man. 00:00:29.580 --> 00:00:30.949 Helemaal niet. 00:00:31.461 --> 00:00:33.797 Dus ik begon rond te kijken op het vliegtuig 00:00:33.821 --> 00:00:39.706 en merk op dat deze man de enige zwarte man was op het vliegtuig. 00:00:40.874 --> 00:00:42.286 En ik dacht: 00:00:42.310 --> 00:00:43.504 "Oké, 00:00:44.369 --> 00:00:46.894 ik ga een gesprek moeten voeren met mijn zoon 00:00:46.918 --> 00:00:49.847 over hoe niet alle zwarte mensen op elkaar lijken." 00:00:49.871 --> 00:00:54.248 Mijn zoon tilt zijn hoofd op en zegt tegen me: 00:00:56.246 --> 00:00:58.617 "Ik hoop dat hij het vliegtuig niet berooft." 00:00:59.359 --> 00:01:01.874 En ik zei: "Wat? Wat zei je?" 00:01:01.898 --> 00:01:05.326 En hij zegt: "Ik hoop dat die man het vliegtuig niet berooft." 00:01:07.200 --> 00:01:09.952 En ik zei: "Wel, waarom zou je dat zeggen? 00:01:10.486 --> 00:01:13.149 Je weet dat papa nooit een vliegtuig zou beroven." 00:01:13.173 --> 00:01:15.485 En hij zegt: "Ja, ja, wel, ik weet het." 00:01:16.179 --> 00:01:18.306 En ik zei: "Waarom zou je dat zeggen?" 00:01:20.346 --> 00:01:23.303 En hij kijkt naar mij met dit droevig gezicht, 00:01:24.168 --> 00:01:25.422 en hij zegt: 00:01:26.890 --> 00:01:28.996 "Ik weet niet waarom ik dat zei." 00:01:30.600 --> 00:01:32.958 "Ik weet niet waarom ik dat dacht." NOTE Paragraph 00:01:33.724 --> 00:01:37.242 We leven met zo een ernstige raciale stratificatie 00:01:37.266 --> 00:01:39.796 dat zelfs een vijfjarige 00:01:39.796 --> 00:01:42.326 ons kan vertellen wat er hierna moet gebeuren. 00:01:43.990 --> 00:01:46.097 Zelfs zonder slechte bedoeling. 00:01:46.121 --> 00:01:48.700 Zelfs zonder expliciete haat. 00:01:50.184 --> 00:01:54.097 Deze associatie tussen zwartheid en misdaad 00:01:54.121 --> 00:01:58.455 is binnengedrongen in de geest van mijn vijfjarige. 00:01:59.787 --> 00:02:03.050 Het baant zich een weg in al onze kinderen, 00:02:04.201 --> 00:02:05.592 in ons allemaal. 00:02:06.793 --> 00:02:10.317 Onze geesten worden gevormd door raciale vooroordelen 00:02:10.341 --> 00:02:11.933 die we in de wereld zien 00:02:12.752 --> 00:02:18.093 en de verhalen die ons helpen betekenis te geven aan de ongelijkheden. NOTE Paragraph 00:02:19.637 --> 00:02:22.163 "Die mensen zijn criminelen." 00:02:22.187 --> 00:02:24.112 "Die mensen zijn gewelddadig." 00:02:24.136 --> 00:02:27.101 "Die mensen moeten worden gevreesd." NOTE Paragraph 00:02:27.814 --> 00:02:31.005 Toen mijn onderzoeksteam mensen in een lab bracht 00:02:31.029 --> 00:02:33.312 en hen blootstelde aan gezichten, 00:02:33.336 --> 00:02:40.336 vonden we dat zwarte gezichten zorgden dat vage beelden van geweren 00:02:40.360 --> 00:02:43.616 met meer zekerheid en snelheid werden herkend. 00:02:43.640 --> 00:02:46.994 Vooroordelen controleren niet enkel wat we zien, 00:02:47.018 --> 00:02:48.666 maar ook waar we kijken. 00:02:48.690 --> 00:02:52.134 Wanneer mensen werden geprompt om aan gewelddadige misdaden te denken, NOTE Paragraph 00:02:52.158 --> 00:02:56.454 leidde dit hun blik naar het zwarte gezicht 00:02:56.478 --> 00:02:58.608 en weg van een wit gezicht. 00:02:58.632 --> 00:03:00.173 Het prompten van politieagenten 00:03:00.173 --> 00:03:03.727 om na te denken over oppakken, schieten en arresteren, 00:03:03.751 --> 00:03:07.610 leidt ook hun blik naar zwarte gezichten. NOTE Paragraph 00:03:07.634 --> 00:03:12.700 Vooroordelen kunnen alle aspecten van ons strafrechtsysteem infecteren. 00:03:13.100 --> 00:03:16.031 In een grote dataset van potentiële doodstrafveroordelingen 00:03:16.055 --> 00:03:20.412 vonden we dat er zwarter uitzien hun kans meer dan verdubbelde 00:03:20.436 --> 00:03:22.493 om de doodstraf te krijgen -- 00:03:23.494 --> 00:03:25.921 tenminste als hun slachtoffers wit waren. 00:03:25.945 --> 00:03:27.383 Dit effect is significant 00:03:27.407 --> 00:03:30.708 zelfs als we rekening hielden met de ernst van de misdaad 00:03:30.732 --> 00:03:33.013 en de aantrekkelijkheid van de beklaagde. 00:03:33.037 --> 00:03:35.686 Ongeacht waarmee we rekening hielden, 00:03:35.710 --> 00:03:39.055 vonden we dat zwarte mensen werden gestraft 00:03:39.079 --> 00:03:43.404 in proportie tot de zwartheid van hun fysieke kenmerken. 00:03:43.428 --> 00:03:45.309 Hoe zwarter, 00:03:45.333 --> 00:03:47.086 hoe meer doodwaardig. NOTE Paragraph 00:03:47.110 --> 00:03:51.319 Vooroordelen beïnvloeden ook hoe leerkrachten studenten straffen. 00:03:51.781 --> 00:03:55.622 Mijn collega's en ik vonden dat leerkrachten de neiging hadden 00:03:55.622 --> 00:03:58.838 om een zwarte student op de middelbare school 00:03:58.838 --> 00:04:00.970 harder te straffen dan een witte student 00:04:00.994 --> 00:04:03.570 voor dezelfde herhaalde overtredingen. 00:04:03.594 --> 00:04:04.888 In een recente studie 00:04:04.912 --> 00:04:09.270 vonden we dat leerkrachten zwarte studenten als groep behandelen, 00:04:09.294 --> 00:04:11.725 maar witte studenten als individuen. 00:04:12.126 --> 00:04:13.087 Bijvoorbeeld, 00:04:13.087 --> 00:04:15.725 als een zwarte student zich misdraagt 00:04:15.749 --> 00:04:20.113 en dan een andere zwarte student zich een paar dagen later misdraagt, 00:04:20.501 --> 00:04:23.786 reageert de leerkracht op de tweede zwarte student 00:04:23.810 --> 00:04:26.435 alsof die zich twee keer heeft misdragen. 00:04:26.952 --> 00:04:29.763 Het is alsof de zonden van één kind 00:04:29.787 --> 00:04:31.963 op de ander worden overgedragen. NOTE Paragraph 00:04:31.987 --> 00:04:35.281 We creëren categorieën om betekenis te geven aan de wereld, 00:04:35.305 --> 00:04:39.788 om er controle over uit te oefenen en een coherent beeld te scheppen 00:04:39.812 --> 00:04:43.902 van de stimuli die ons constant bombarderen. 00:04:43.926 --> 00:04:45.348 Categorisatie 00:04:45.348 --> 00:04:47.894 en de vooroordelen die dat veroorzaakt, 00:04:47.918 --> 00:04:52.940 laten onze hersenen sneller en meer efficiënt oordelen vellen. 00:04:52.964 --> 00:04:55.343 En we doen dit door instinctief te steunen 00:04:55.343 --> 00:04:58.059 op patronen die voorspelbaar lijken. 00:04:58.083 --> 00:05:04.026 Maar net zoals de categorieën helpen bij het maken van snelle beslissingen, 00:05:04.050 --> 00:05:06.552 gaan deze ook vooroordelen versterken. 00:05:06.576 --> 00:05:09.968 Dus datgene wat ons helpt om de wereld te zien, 00:05:11.104 --> 00:05:13.084 kan ons ook ervoor blind maken. 00:05:13.509 --> 00:05:16.287 Ze maken onze keuzes moeiteloos, 00:05:16.311 --> 00:05:17.680 vrij van frictie. 00:05:18.956 --> 00:05:21.401 Maar ze eisen een hoge tol. NOTE Paragraph 00:05:22.158 --> 00:05:23.569 Maar wat kunnen wij doen? 00:05:24.507 --> 00:05:26.998 We zijn allemaal kwetsbaar voor vooroordelen, 00:05:27.022 --> 00:05:29.702 maar we handelen niet steeds naar deze vooroordelen. 00:05:29.726 --> 00:05:33.370 Er zijn bepaalde condities die vooroordelen aanwakkeren 00:05:33.394 --> 00:05:35.927 en andere condities die deze kunnen dempen. NOTE Paragraph 00:05:35.951 --> 00:05:37.798 Laat me een voorbeeld geven. 00:05:38.663 --> 00:05:43.223 Veel mensen kennen het techbedrijf Nextdoor. 00:05:44.073 --> 00:05:46.831 Hun doel is het creëren 00:05:46.831 --> 00:05:50.526 van sterkere, gezondere, veiligere buurten. 00:05:51.468 --> 00:05:54.389 En dus bieden zij deze online ruimte aan 00:05:54.413 --> 00:05:57.562 waar buren bijeen kunnen komen en informatie delen. 00:05:57.586 --> 00:06:01.712 Echter, Nextdoor kwam er snel achter dat ze een probleem hadden 00:06:01.736 --> 00:06:03.404 met raciale profilering. 00:06:04.012 --> 00:06:05.979 In een typisch geval 00:06:06.003 --> 00:06:08.399 zouden mensen uit hun raam kijken 00:06:08.423 --> 00:06:12.472 en een zwarte man zien in een witte buurt. 00:06:12.496 --> 00:06:17.211 Ze zouden snel oordelen dat deze niks goeds van plan was, 00:06:17.235 --> 00:06:20.586 zelfs als hier geen enkel bewijs was van crimineel gedrag. 00:06:20.610 --> 00:06:23.544 Op vele vlakken is hoe we ons online gedragen 00:06:23.568 --> 00:06:26.682 een reflectie van hoe we ons in de wereld gedragen. 00:06:27.117 --> 00:06:31.062 Maar wat we niet willen is een makkelijk te gebruiken systeem creëren 00:06:31.086 --> 00:06:35.249 dat vooroordelen versterkt en raciale ongelijkheden uitdiept, 00:06:36.129 --> 00:06:38.395 in plaats van deze te ontmantelen. NOTE Paragraph 00:06:38.863 --> 00:06:42.292 Dus de oprichters van Nextdoor namen contact op met mij en ook anderen 00:06:42.316 --> 00:06:44.447 om na te gaan wat er aan gedaan kon worden. 00:06:44.471 --> 00:06:48.417 En ze realiseerden zich dat om etnische profilering aan te pakken, 00:06:48.441 --> 00:06:50.363 ze frictie moeten toevoegen, 00:06:50.387 --> 00:06:53.045 wat wil zeggen dat ze mensen moesten gaan afremmen. 00:06:53.069 --> 00:06:55.264 Nextdoor moest een keuze maken 00:06:55.288 --> 00:06:57.766 en tegen elke impuls in 00:06:57.790 --> 00:06:59.906 beslisten ze om frictie toe te voegen. 00:07:00.397 --> 00:07:03.837 Dit deden ze door het toevoegen van een simpele checklist. 00:07:03.861 --> 00:07:05.531 Die behelsde drie items. 00:07:06.111 --> 00:07:09.052 Eerst werd er de gebruiker gevraagd om te pauzeren 00:07:09.076 --> 00:07:14.193 en te denken: wat was deze persoon aan het doen dat hem verdacht maakte? 00:07:14.876 --> 00:07:19.409 De categorie 'zwarte man' was geen grond voor verdenking. 00:07:19.433 --> 00:07:21.603 Ten tweede werd aan de gebruiker gevraagd 00:07:21.603 --> 00:07:24.572 om de fysieke eigenschappen te beschrijven, 00:07:24.596 --> 00:07:27.031 niet enkel hun ras en gender. 00:07:27.642 --> 00:07:29.872 Ten derde realiseerden ze zich 00:07:29.872 --> 00:07:33.977 dat veel mensen niet leken te weten wat etnische profilering was, 00:07:34.001 --> 00:07:35.960 noch dat ze dit zelf deden. 00:07:36.462 --> 00:07:39.656 Dus voorzag Nextdoor een definitie 00:07:39.680 --> 00:07:42.582 en vertelde hen dat het strikt verboden was. 00:07:43.071 --> 00:07:44.940 De meesten hebben deze tekens gezien 00:07:44.940 --> 00:07:47.378 op de luchthaven en in metro stations: 00:07:47.378 --> 00:07:49.409 "Als je iets ziet, zeg iets." 00:07:49.928 --> 00:07:52.742 Nextdoor heeft dit proberen aanpassen. 00:07:53.584 --> 00:07:56.156 "Als je iets verdacht ziet, 00:07:56.180 --> 00:07:58.253 zeg dan iets specifiek." 00:07:59.491 --> 00:08:03.937 En door deze strategie te gebruiken, door het afremmen van mensen, 00:08:03.961 --> 00:08:09.875 slaagde Nextdoor er in raciale profilering te verminderen met 75 procent. NOTE Paragraph 00:08:10.263 --> 00:08:12.586 Mensen zeggen vaak tegen mij: 00:08:12.610 --> 00:08:17.323 "Je kan geen frictie toevoegen in elke situatie, in elke context, 00:08:17.347 --> 00:08:21.993 en vooral voor mensen die altijd razendsnel beslissingen nemen." 00:08:22.730 --> 00:08:25.293 Maar het blijkt dat we frictie kunnen toevoegen 00:08:25.317 --> 00:08:27.593 in meer situaties dan we denken. 00:08:28.031 --> 00:08:30.105 Werkend bij de politie in Oakland 00:08:30.129 --> 00:08:31.546 in Californië, 00:08:31.570 --> 00:08:35.426 konden ik en een aantal van mijn collega's hen helpen 00:08:35.450 --> 00:08:38.121 bij het verminderen van het aantal stops dat ze maakten 00:08:38.145 --> 00:08:41.745 van mensen die geen ernstige misdrijven aan het plegen waren. 00:08:41.769 --> 00:08:44.134 En we deden dit door agenten aan te zetten 00:08:44.158 --> 00:08:48.601 om zichzelf een vraag te stellen bij elke aanhouding die ze maakten: 00:08:49.451 --> 00:08:52.466 is deze aanhouding informatiegestuurd, 00:08:52.490 --> 00:08:53.941 ja of nee? 00:08:55.353 --> 00:08:56.749 Met andere woorden: 00:08:57.621 --> 00:09:02.105 heb ik voorafgaande informatie om deze specifieke persoon te linken 00:09:02.129 --> 00:09:03.730 aan een specifiek misdrijf? 00:09:04.587 --> 00:09:06.045 Door deze vraag toe te voegen 00:09:06.069 --> 00:09:09.148 aan het formulier dat agenten invulden bij een aanhouding, 00:09:09.172 --> 00:09:10.981 vertraagden zij, pauzeerden zij, 00:09:11.005 --> 00:09:15.225 dachten ze: waarom overweeg ik om deze persoon te stoppen? NOTE Paragraph 00:09:16.721 --> 00:09:18.123 In 2017, 00:09:18.123 --> 00:09:22.282 voor we de informatiegestuurde vraag hadden toegevoegd aan het formulier, 00:09:23.655 --> 00:09:27.601 maakten agenten rond de 32.000 stops over de hele stad. 00:09:27.625 --> 00:09:31.740 In het volgende jaar, na het toevoegen van de vraag, 00:09:31.764 --> 00:09:34.208 daalde dit naar 19.000 stops. 00:09:34.232 --> 00:09:39.193 De stops van Afro-Amerikanen daalde met 43 procent. 00:09:39.905 --> 00:09:44.343 Het minder stoppen van zwarte mensen maakte de stad niet gevaarlijker. 00:09:44.367 --> 00:09:47.101 De criminaliteitscijfers bleven verder dalen 00:09:47.125 --> 00:09:50.462 en de stad werd veiliger voor iedereen. NOTE Paragraph 00:09:50.486 --> 00:09:52.345 Een oplossing kan zijn 00:09:52.345 --> 00:09:55.841 om het aantal onnodige stops te verminderen. 00:09:56.285 --> 00:10:00.555 Een andere is het verbeteren van de kwaliteit van de stops 00:10:00.579 --> 00:10:02.268 die agenten maken. 00:10:02.512 --> 00:10:05.108 En technologie kan ons hierbij helpen. 00:10:05.132 --> 00:10:07.547 We kennen allemaal George Floyd's dood, 00:10:08.499 --> 00:10:13.271 omdat mensen die hem probeerden te helpen gsm-camera's bijhadden 00:10:13.295 --> 00:10:18.726 en de afschuwelijke confrontatie met de politie vastlegden. 00:10:18.750 --> 00:10:23.781 Maar we hebben allerlei technologie waar we geen gebruik van maken. 00:10:23.805 --> 00:10:26.308 Politiekorpsen doorheen het land 00:10:26.332 --> 00:10:29.885 dragen nu verplicht bodycams. 00:10:29.909 --> 00:10:35.839 Bijgevolg hebben we niet enkel beelden van gruwelijke confrontaties, 00:10:35.863 --> 00:10:38.617 maar ook van alledaagse interacties. NOTE Paragraph 00:10:38.641 --> 00:10:41.175 Samen met een interdisciplinair team aan Stanford 00:10:41.175 --> 00:10:44.129 begonnen we gebruik te maken van machinaal-lerentechnieken 00:10:44.153 --> 00:10:47.520 voor het analyseren van een groot aantal van deze confrontaties. 00:10:47.544 --> 00:10:52.155 Dit om beter te begrijpen wat er gebeurt bij routinematige verkeersstops. 00:10:52.179 --> 00:10:57.984 We vonden dat zelfs wanneer de agenten zich professioneel gedroegen, 00:10:58.860 --> 00:11:03.322 ze minder respectvol spraken tegen zwarte dan tegen witte bestuurders. 00:11:04.052 --> 00:11:08.127 We konden zelf op basis van het woordgebruik van de agenten alleen 00:11:08.151 --> 00:11:13.313 voorspellen of ze tegen een zwarte of witte bestuurder aan het praten waren. NOTE Paragraph 00:11:13.337 --> 00:11:19.099 Het probleem is hier dat de meerderheid van de beelden van deze camera's 00:11:19.123 --> 00:11:21.210 niet wordt benut in politiekorpsen 00:11:21.234 --> 00:11:23.510 om beter te begrijpen wat op straat gebeurt 00:11:23.534 --> 00:11:25.777 of om agenten te trainen. 00:11:26.554 --> 00:11:28.012 En dat is spijtig. 00:11:28.796 --> 00:11:33.585 Hoe draait een routineaanhouding uit op een dodelijke situatie? 00:11:33.609 --> 00:11:36.279 Hoe gebeurde dit in het geval van George Floyd? 00:11:37.588 --> 00:11:39.670 Hoe gebeurde dit in andere gevallen? NOTE Paragraph 00:11:39.694 --> 00:11:43.090 Toen mijn oudste zoon 16 jaar was, 00:11:43.114 --> 00:11:46.253 ontdekte hij dat wanneer witte mensen naar hem kijken, 00:11:46.277 --> 00:11:47.838 ze angst ervaren. 00:11:49.123 --> 00:11:51.784 "Liften zijn het ergste", zei hij. 00:11:52.313 --> 00:11:54.644 Als de deuren sluiten, 00:11:54.668 --> 00:11:57.751 zitten mensen vast in deze kleine ruimte 00:11:57.775 --> 00:12:02.242 met iemand die ze hebben leren associëren met gevaar. 00:12:02.744 --> 00:12:05.964 Mijn zoon voelt dat ze zich oncomfortabel voelen 00:12:05.988 --> 00:12:09.145 en hij lacht om hen op hun gemak te stellen, 00:12:09.169 --> 00:12:10.938 om hun angsten te verminderen. 00:12:11.351 --> 00:12:13.296 Wanneer hij spreekt, 00:12:13.320 --> 00:12:15.003 ontspannen hun lichamen. 00:12:15.442 --> 00:12:17.345 Ze ademen rustiger. 00:12:17.369 --> 00:12:19.900 Ze nemen plezier in zijn ritme, 00:12:19.924 --> 00:12:22.241 zijn uitspraak, zijn woordkeuze. 00:12:22.986 --> 00:12:24.829 Hij klinkt als een van hen. 00:12:24.853 --> 00:12:29.583 Vroeger dacht ik dat mijn zoon zoals zijn vader een extravert was. 00:12:29.607 --> 00:12:33.157 Maar ik realiseerde mij dat op dat moment in die conversatie 00:12:34.143 --> 00:12:39.221 zijn glimlach geen teken was dat hij contact wou maken 00:12:39.245 --> 00:12:41.209 met zogenaamde vreemden, 00:12:41.920 --> 00:12:45.572 maar een talisman die hij gebruikte om zichzelf te beschermen, 00:12:45.596 --> 00:12:51.815 een overlevingsvaardigheid die hij met duizenden liftritten had aangescherpt. 00:12:52.387 --> 00:12:57.558 Hij leerde zich aan te passen aan de spanning die zijn kleur genereerde 00:12:59.026 --> 00:13:01.693 en die zijn leven in gevaar bracht. NOTE Paragraph 00:13:02.619 --> 00:13:06.402 We weten dat onze hersenen bedraad zijn voor vooroordelen, 00:13:06.426 --> 00:13:08.889 en een manier om deze vooroordelen te verstoren 00:13:08.889 --> 00:13:13.220 is pauzeren en reflecteren over het bewijs van onze aanname. 00:13:13.244 --> 00:13:14.999 Dus we moeten ons zelf vragen: 00:13:15.023 --> 00:13:19.688 welke aannames nemen we mee wanneer we in een lift stappen? 00:13:21.776 --> 00:13:23.087 Of op een vliegtuig? 00:13:23.532 --> 00:13:28.131 Hoe maken we onszelf bewust van onze onbewuste vooroordelen? 00:13:28.155 --> 00:13:30.506 Wie houden deze aannames veilig? 00:13:32.615 --> 00:13:34.547 Wie brengen ze in gevaar? 00:13:35.649 --> 00:13:38.003 Totdat we onszelf deze vragen stellen 00:13:38.978 --> 00:13:43.602 en erop staan dat onze scholen, gerechten en politiekorpsen 00:13:43.626 --> 00:13:46.168 en ieder instituut hetzelfde doen, 00:13:47.835 --> 00:13:51.664 blijven we vooroordelen toelaten 00:13:51.688 --> 00:13:52.966 om ons te verblinden. 00:13:53.348 --> 00:13:54.757 En wanneer we dat doen, 00:13:56.066 --> 00:13:59.274 is niemand echt veilig. NOTE Paragraph 00:14:02.103 --> 00:14:03.411 Bedankt.