0:00:00.910,0:00:02.183 Een aantal jaar geleden 0:00:02.207,0:00:07.119 was ik op een vliegtuig met mijn zoon, [br]die destijds vijf jaar oud was. 0:00:08.245,0:00:13.340 Mijn zoon was zo enthousiast om samen [br]met mama op een vliegtuig te zitten. 0:00:13.364,0:00:16.304 Hij kijkt rond, bekijkt de dingen 0:00:16.328,0:00:18.164 en de mensen. 0:00:18.188,0:00:19.818 Hij ziet een man en zegt: 0:00:19.842,0:00:22.703 "Hey! Die man lijkt op papa!" 0:00:23.882,0:00:25.802 En ik kijk naar de man, 0:00:25.826,0:00:29.556 en hij leek absoluut niet op mijn man. 0:00:29.580,0:00:30.949 Helemaal niet. 0:00:31.461,0:00:33.797 Dus ik begon rond te kijken [br]op het vliegtuig 0:00:33.821,0:00:39.706 en merk op dat deze man de enige [br]zwarte man was op het vliegtuig. 0:00:40.874,0:00:42.286 En ik dacht: 0:00:42.310,0:00:43.504 "Oké, 0:00:44.369,0:00:46.894 ik ga een gesprek [br]moeten voeren met mijn zoon 0:00:46.918,0:00:49.847 over hoe niet alle zwarte mensen [br]op elkaar lijken." 0:00:49.871,0:00:54.248 Mijn zoon tilt zijn hoofd op [br]en zegt tegen me: 0:00:56.246,0:00:58.617 "Ik hoop dat hij [br]het vliegtuig niet berooft." 0:00:59.359,0:01:01.874 En ik zei: "Wat? Wat zei je?" 0:01:01.898,0:01:05.326 En hij zegt: "Ik hoop dat die man [br]het vliegtuig niet berooft." 0:01:07.200,0:01:09.952 En ik zei: "Wel, waarom zou je dat zeggen? 0:01:10.486,0:01:13.149 Je weet dat papa[br]nooit een vliegtuig zou beroven." 0:01:13.173,0:01:15.485 En hij zegt: "Ja, ja, wel, ik weet het." 0:01:16.179,0:01:18.306 En ik zei: "Waarom zou je dat zeggen?" 0:01:20.346,0:01:23.303 En hij kijkt naar mij[br]met dit droevig gezicht, 0:01:24.168,0:01:25.422 en hij zegt: 0:01:26.890,0:01:28.996 "Ik weet niet waarom ik dat zei." 0:01:30.600,0:01:32.958 "Ik weet niet waarom ik dat dacht." 0:01:33.724,0:01:37.242 We leven met zo een ernstige[br]raciale stratificatie 0:01:37.266,0:01:39.796 dat zelfs een vijfjarige 0:01:39.796,0:01:42.326 ons kan vertellen [br]wat er hierna moet gebeuren. 0:01:43.990,0:01:46.097 Zelfs zonder slechte bedoeling. 0:01:46.121,0:01:48.700 Zelfs zonder expliciete haat. 0:01:50.184,0:01:54.097 Deze associatie [br]tussen zwartheid en misdaad 0:01:54.121,0:01:58.455 is binnengedrongen in de geest[br]van mijn vijfjarige. 0:01:59.787,0:02:03.050 Het baant zich een weg [br]in al onze kinderen, 0:02:04.201,0:02:05.592 in ons allemaal. 0:02:06.793,0:02:10.317 Onze geesten worden gevormd[br]door raciale vooroordelen 0:02:10.341,0:02:11.933 die we in de wereld zien 0:02:12.752,0:02:18.093 en de verhalen die ons helpen [br]betekenis te geven aan de ongelijkheden. 0:02:19.637,0:02:22.163 "Die mensen zijn criminelen." 0:02:22.187,0:02:24.112 "Die mensen zijn gewelddadig." 0:02:24.136,0:02:27.101 "Die mensen moeten worden gevreesd." 0:02:27.814,0:02:31.005 Toen mijn onderzoeksteam [br]mensen in een lab bracht 0:02:31.029,0:02:33.312 en hen blootstelde aan gezichten, 0:02:33.336,0:02:40.336 vonden we dat zwarte gezichten[br]zorgden dat vage beelden van geweren 0:02:40.360,0:02:43.616 met meer zekerheid en snelheid [br]werden herkend. 0:02:43.640,0:02:46.994 Vooroordelen controleren [br]niet enkel wat we zien, 0:02:47.018,0:02:48.666 maar ook waar we kijken. 0:02:48.690,0:02:52.134 Wanneer mensen werden geprompt [br]om aan gewelddadige misdaden te denken, 0:02:52.158,0:02:56.454 leidde dit hun blik [br]naar het zwarte gezicht 0:02:56.478,0:02:58.608 en weg van een wit gezicht. 0:02:58.632,0:03:00.173 Het prompten van politieagenten 0:03:00.173,0:03:03.727 om na te denken over oppakken, [br]schieten en arresteren, 0:03:03.751,0:03:07.610 leidt ook hun blik naar zwarte gezichten. 0:03:07.634,0:03:12.700 Vooroordelen kunnen alle aspecten [br]van ons strafrechtsysteem infecteren. 0:03:13.100,0:03:16.031 In een grote dataset[br]van potentiële doodstrafveroordelingen 0:03:16.055,0:03:20.412 vonden we dat er zwarter uitzien [br]hun kans meer dan verdubbelde 0:03:20.436,0:03:22.493 om de doodstraf te krijgen -- 0:03:23.494,0:03:25.921 tenminste als hun slachtoffers wit waren. 0:03:25.945,0:03:27.383 Dit effect is significant 0:03:27.407,0:03:30.708 zelfs als we rekening hielden [br]met de ernst van de misdaad 0:03:30.732,0:03:33.013 en de aantrekkelijkheid van de beklaagde. 0:03:33.037,0:03:35.686 Ongeacht waarmee we rekening hielden, 0:03:35.710,0:03:39.055 vonden we dat zwarte mensen [br]werden gestraft 0:03:39.079,0:03:43.404 in proportie tot de zwartheid [br]van hun fysieke kenmerken. 0:03:43.428,0:03:45.309 Hoe zwarter, 0:03:45.333,0:03:47.086 hoe meer doodwaardig. 0:03:47.110,0:03:51.319 Vooroordelen beïnvloeden ook [br]hoe leerkrachten studenten straffen. 0:03:51.781,0:03:55.622 Mijn collega's en ik vonden [br]dat leerkrachten de neiging hadden 0:03:55.622,0:03:58.838 om een zwarte student [br]op de middelbare school 0:03:58.838,0:04:00.970 harder te straffen dan een witte student 0:04:00.994,0:04:03.570 voor dezelfde herhaalde overtredingen. 0:04:03.594,0:04:04.888 In een recente studie 0:04:04.912,0:04:09.270 vonden we dat leerkrachten [br]zwarte studenten als groep behandelen, 0:04:09.294,0:04:11.725 maar witte studenten als individuen. 0:04:12.126,0:04:13.087 Bijvoorbeeld, 0:04:13.087,0:04:15.725 als een zwarte student zich misdraagt 0:04:15.749,0:04:20.113 en dan een andere zwarte student [br]zich een paar dagen later misdraagt, 0:04:20.501,0:04:23.786 reageert de leerkracht [br]op de tweede zwarte student 0:04:23.810,0:04:26.435 alsof die zich twee keer heeft misdragen. 0:04:26.952,0:04:29.763 Het is alsof de zonden van één kind 0:04:29.787,0:04:31.963 op de ander worden overgedragen. 0:04:31.987,0:04:35.281 We creëren categorieën[br]om betekenis te geven aan de wereld, 0:04:35.305,0:04:39.788 om er controle over uit te oefenen [br]en een coherent beeld te scheppen 0:04:39.812,0:04:43.902 van de stimuli die ons [br]constant bombarderen. 0:04:43.926,0:04:45.348 Categorisatie 0:04:45.348,0:04:47.894 en de vooroordelen die dat veroorzaakt, 0:04:47.918,0:04:52.940 laten onze hersenen sneller [br]en meer efficiënt oordelen vellen. 0:04:52.964,0:04:55.343 En we doen dit door instinctief te steunen 0:04:55.343,0:04:58.059 op patronen die voorspelbaar lijken. 0:04:58.083,0:05:04.026 Maar net zoals de categorieën helpen[br]bij het maken van snelle beslissingen, 0:05:04.050,0:05:06.552 gaan deze ook vooroordelen versterken. 0:05:06.576,0:05:09.968 Dus datgene wat ons [br]helpt om de wereld te zien, 0:05:11.104,0:05:13.084 kan ons ook ervoor blind maken. 0:05:13.509,0:05:16.287 Ze maken onze keuzes moeiteloos, 0:05:16.311,0:05:17.680 vrij van frictie. 0:05:18.956,0:05:21.401 Maar ze eisen een hoge tol. 0:05:22.158,0:05:23.569 Maar wat kunnen wij doen? 0:05:24.507,0:05:26.998 We zijn allemaal kwetsbaar [br]voor vooroordelen, 0:05:27.022,0:05:29.702 maar we handelen [br]niet steeds naar deze vooroordelen. 0:05:29.726,0:05:33.370 Er zijn bepaalde condities [br]die vooroordelen aanwakkeren 0:05:33.394,0:05:35.927 en andere condities [br]die deze kunnen dempen. 0:05:35.951,0:05:37.798 Laat me een voorbeeld geven. 0:05:38.663,0:05:43.223 Veel mensen kennen [br]het techbedrijf Nextdoor. 0:05:44.073,0:05:46.831 Hun doel is het creëren 0:05:46.831,0:05:50.526 van sterkere, gezondere, [br]veiligere buurten. 0:05:51.468,0:05:54.389 En dus bieden zij deze online ruimte aan 0:05:54.413,0:05:57.562 waar buren bijeen kunnen komen [br]en informatie delen. 0:05:57.586,0:06:01.712 Echter, Nextdoor kwam er snel achter[br]dat ze een probleem hadden 0:06:01.736,0:06:03.404 met raciale profilering. 0:06:04.012,0:06:05.979 In een typisch geval 0:06:06.003,0:06:08.399 zouden mensen uit hun raam kijken 0:06:08.423,0:06:12.472 en een zwarte man zien in een witte buurt. 0:06:12.496,0:06:17.211 Ze zouden snel oordelen[br]dat deze niks goeds van plan was, 0:06:17.235,0:06:20.586 zelfs als hier geen enkel bewijs was [br]van crimineel gedrag. 0:06:20.610,0:06:23.544 Op vele vlakken [br]is hoe we ons online gedragen 0:06:23.568,0:06:26.682 een reflectie van hoe [br]we ons in de wereld gedragen. 0:06:27.117,0:06:31.062 Maar wat we niet willen is [br]een makkelijk te gebruiken systeem creëren 0:06:31.086,0:06:35.249 dat vooroordelen versterkt[br]en raciale ongelijkheden uitdiept, 0:06:36.129,0:06:38.395 in plaats van deze te ontmantelen. 0:06:38.863,0:06:42.292 Dus de oprichters van Nextdoor [br]namen contact op met mij en ook anderen 0:06:42.316,0:06:44.447 om na te gaan wat [br]er aan gedaan kon worden. 0:06:44.471,0:06:48.417 En ze realiseerden zich[br]dat om etnische profilering aan te pakken, 0:06:48.441,0:06:50.363 ze frictie moeten toevoegen, 0:06:50.387,0:06:53.045 wat wil zeggen dat ze mensen[br]moesten gaan afremmen. 0:06:53.069,0:06:55.264 Nextdoor moest een keuze maken 0:06:55.288,0:06:57.766 en tegen elke impuls in 0:06:57.790,0:06:59.906 beslisten ze om frictie toe te voegen. 0:07:00.397,0:07:03.837 Dit deden ze door het toevoegen[br]van een simpele checklist. 0:07:03.861,0:07:05.531 Die behelsde drie items. 0:07:06.111,0:07:09.052 Eerst werd er de gebruiker [br]gevraagd om te pauzeren 0:07:09.076,0:07:14.193 en te denken: wat was deze persoon [br]aan het doen dat hem verdacht maakte? 0:07:14.876,0:07:19.409 De categorie 'zwarte man' [br]was geen grond voor verdenking. 0:07:19.433,0:07:21.603 Ten tweede werd aan de gebruiker gevraagd 0:07:21.603,0:07:24.572 om de fysieke eigenschappen [br]te beschrijven, 0:07:24.596,0:07:27.031 niet enkel hun ras en gender. 0:07:27.642,0:07:29.872 Ten derde realiseerden ze zich 0:07:29.872,0:07:33.977 dat veel mensen niet leken te weten[br]wat etnische profilering was, 0:07:34.001,0:07:35.960 noch dat ze dit zelf deden. 0:07:36.462,0:07:39.656 Dus voorzag Nextdoor een definitie 0:07:39.680,0:07:42.582 en vertelde hen[br]dat het strikt verboden was. 0:07:43.071,0:07:44.940 De meesten hebben deze tekens gezien 0:07:44.940,0:07:47.378 op de luchthaven en in metro stations: 0:07:47.378,0:07:49.409 "Als je iets ziet, zeg iets." 0:07:49.928,0:07:52.742 Nextdoor heeft dit proberen aanpassen. 0:07:53.584,0:07:56.156 "Als je iets verdacht ziet, 0:07:56.180,0:07:58.253 zeg dan iets specifiek." 0:07:59.491,0:08:03.937 En door deze strategie te gebruiken, [br]door het afremmen van mensen, 0:08:03.961,0:08:09.875 slaagde Nextdoor er in raciale profilering[br]te verminderen met 75 procent. 0:08:10.263,0:08:12.586 Mensen zeggen vaak tegen mij: 0:08:12.610,0:08:17.323 "Je kan geen frictie toevoegen [br]in elke situatie, in elke context, 0:08:17.347,0:08:21.993 en vooral voor mensen die altijd [br]razendsnel beslissingen nemen." 0:08:22.730,0:08:25.293 Maar het blijkt dat we [br]frictie kunnen toevoegen 0:08:25.317,0:08:27.593 in meer situaties dan we denken. 0:08:28.031,0:08:30.105 Werkend bij de politie in Oakland 0:08:30.129,0:08:31.546 in Californië, 0:08:31.570,0:08:35.426 konden ik en een aantal[br]van mijn collega's hen helpen 0:08:35.450,0:08:38.121 bij het verminderen [br]van het aantal stops dat ze maakten 0:08:38.145,0:08:41.745 van mensen die geen ernstige [br]misdrijven aan het plegen waren. 0:08:41.769,0:08:44.134 En we deden dit door agenten aan te zetten 0:08:44.158,0:08:48.601 om zichzelf een vraag te stellen[br]bij elke aanhouding die ze maakten: 0:08:49.451,0:08:52.466 is deze aanhouding informatiegestuurd, 0:08:52.490,0:08:53.941 ja of nee? 0:08:55.353,0:08:56.749 Met andere woorden: 0:08:57.621,0:09:02.105 heb ik voorafgaande informatie[br]om deze specifieke persoon te linken 0:09:02.129,0:09:03.730 aan een specifiek misdrijf? 0:09:04.587,0:09:06.045 Door deze vraag toe te voegen 0:09:06.069,0:09:09.148 aan het formulier dat agenten[br]invulden bij een aanhouding, 0:09:09.172,0:09:10.981 vertraagden zij, pauzeerden zij, 0:09:11.005,0:09:15.225 dachten ze: waarom overweeg ik [br]om deze persoon te stoppen? 0:09:16.721,0:09:18.123 In 2017, 0:09:18.123,0:09:22.282 voor we de informatiegestuurde vraag[br]hadden toegevoegd aan het formulier, 0:09:23.655,0:09:27.601 maakten agenten rond de 32.000 stops[br]over de hele stad. 0:09:27.625,0:09:31.740 In het volgende jaar,[br]na het toevoegen van de vraag, 0:09:31.764,0:09:34.208 daalde dit naar 19.000 stops. 0:09:34.232,0:09:39.193 De stops van Afro-Amerikanen[br]daalde met 43 procent. 0:09:39.905,0:09:44.343 Het minder stoppen van zwarte mensen [br]maakte de stad niet gevaarlijker. 0:09:44.367,0:09:47.101 De criminaliteitscijfers[br]bleven verder dalen 0:09:47.125,0:09:50.462 en de stad werd veiliger voor iedereen. 0:09:50.486,0:09:52.345 Een oplossing kan zijn 0:09:52.345,0:09:55.841 om het aantal onnodige[br]stops te verminderen. 0:09:56.285,0:10:00.555 Een andere is het verbeteren[br]van de kwaliteit van de stops 0:10:00.579,0:10:02.268 die agenten maken. 0:10:02.512,0:10:05.108 En technologie kan ons hierbij helpen. 0:10:05.132,0:10:07.547 We kennen allemaal George Floyd's dood, 0:10:08.499,0:10:13.271 omdat mensen die hem probeerden te helpen [br]gsm-camera's bijhadden 0:10:13.295,0:10:18.726 en de afschuwelijke confrontatie [br]met de politie vastlegden. 0:10:18.750,0:10:23.781 Maar we hebben allerlei technologie[br]waar we geen gebruik van maken. 0:10:23.805,0:10:26.308 Politiekorpsen doorheen het land 0:10:26.332,0:10:29.885 dragen nu verplicht bodycams. 0:10:29.909,0:10:35.839 Bijgevolg hebben we niet enkel beelden [br]van gruwelijke confrontaties, 0:10:35.863,0:10:38.617 maar ook van alledaagse interacties. 0:10:38.641,0:10:41.175 Samen met een interdisciplinair [br]team aan Stanford 0:10:41.175,0:10:44.129 begonnen we gebruik te maken[br]van machinaal-lerentechnieken 0:10:44.153,0:10:47.520 voor het analyseren van een groot [br]aantal van deze confrontaties. 0:10:47.544,0:10:52.155 Dit om beter te begrijpen wat er gebeurt [br]bij routinematige verkeersstops. 0:10:52.179,0:10:57.984 We vonden dat zelfs wanneer de agenten[br]zich professioneel gedroegen, 0:10:58.860,0:11:03.322 ze minder respectvol spraken[br]tegen zwarte dan tegen witte bestuurders. 0:11:04.052,0:11:08.127 We konden zelf op basis van [br]het woordgebruik van de agenten alleen 0:11:08.151,0:11:13.313 voorspellen of ze tegen een zwarte [br]of witte bestuurder aan het praten waren. 0:11:13.337,0:11:19.099 Het probleem is hier dat de meerderheid [br]van de beelden van deze camera's 0:11:19.123,0:11:21.210 niet wordt benut in politiekorpsen 0:11:21.234,0:11:23.510 om beter te begrijpen [br]wat op straat gebeurt 0:11:23.534,0:11:25.777 of om agenten te trainen. 0:11:26.554,0:11:28.012 En dat is spijtig. 0:11:28.796,0:11:33.585 Hoe draait een routineaanhouding uit[br]op een dodelijke situatie? 0:11:33.609,0:11:36.279 Hoe gebeurde dit [br]in het geval van George Floyd? 0:11:37.588,0:11:39.670 Hoe gebeurde dit in andere gevallen? 0:11:39.694,0:11:43.090 Toen mijn oudste zoon 16 jaar was, 0:11:43.114,0:11:46.253 ontdekte hij dat wanneer[br]witte mensen naar hem kijken, 0:11:46.277,0:11:47.838 ze angst ervaren. 0:11:49.123,0:11:51.784 "Liften zijn het ergste", zei hij. 0:11:52.313,0:11:54.644 Als de deuren sluiten, 0:11:54.668,0:11:57.751 zitten mensen vast in deze kleine ruimte 0:11:57.775,0:12:02.242 met iemand die ze hebben leren [br]associëren met gevaar. 0:12:02.744,0:12:05.964 Mijn zoon voelt [br]dat ze zich oncomfortabel voelen 0:12:05.988,0:12:09.145 en hij lacht om hen [br]op hun gemak te stellen, 0:12:09.169,0:12:10.938 om hun angsten te verminderen. 0:12:11.351,0:12:13.296 Wanneer hij spreekt, 0:12:13.320,0:12:15.003 ontspannen hun lichamen. 0:12:15.442,0:12:17.345 Ze ademen rustiger. 0:12:17.369,0:12:19.900 Ze nemen plezier in zijn ritme, 0:12:19.924,0:12:22.241 zijn uitspraak, zijn woordkeuze. 0:12:22.986,0:12:24.829 Hij klinkt als een van hen. 0:12:24.853,0:12:29.583 Vroeger dacht ik dat mijn zoon[br]zoals zijn vader een extravert was. 0:12:29.607,0:12:33.157 Maar ik realiseerde mij[br]dat op dat moment in die conversatie 0:12:34.143,0:12:39.221 zijn glimlach geen teken was [br]dat hij contact wou maken 0:12:39.245,0:12:41.209 met zogenaamde vreemden, 0:12:41.920,0:12:45.572 maar een talisman die hij gebruikte [br]om zichzelf te beschermen, 0:12:45.596,0:12:51.815 een overlevingsvaardigheid die hij[br]met duizenden liftritten had aangescherpt. 0:12:52.387,0:12:57.558 Hij leerde zich aan te passen[br]aan de spanning die zijn kleur genereerde 0:12:59.026,0:13:01.693 en die zijn leven in gevaar bracht. 0:13:02.619,0:13:06.402 We weten dat onze hersenen [br]bedraad zijn voor vooroordelen, 0:13:06.426,0:13:08.889 en een manier om deze[br]vooroordelen te verstoren 0:13:08.889,0:13:13.220 is pauzeren en reflecteren[br]over het bewijs van onze aanname. 0:13:13.244,0:13:14.999 Dus we moeten ons zelf vragen: 0:13:15.023,0:13:19.688 welke aannames nemen we mee [br]wanneer we in een lift stappen? 0:13:21.776,0:13:23.087 Of op een vliegtuig? 0:13:23.532,0:13:28.131 Hoe maken we onszelf bewust [br]van onze onbewuste vooroordelen? 0:13:28.155,0:13:30.506 Wie houden deze aannames veilig? 0:13:32.615,0:13:34.547 Wie brengen ze in gevaar? 0:13:35.649,0:13:38.003 Totdat we onszelf deze vragen stellen 0:13:38.978,0:13:43.602 en erop staan dat onze scholen, [br]gerechten en politiekorpsen 0:13:43.626,0:13:46.168 en ieder instituut hetzelfde doen, 0:13:47.835,0:13:51.664 blijven we vooroordelen toelaten 0:13:51.688,0:13:52.966 om ons te verblinden. 0:13:53.348,0:13:54.757 En wanneer we dat doen, 0:13:56.066,0:13:59.274 is niemand echt veilig. 0:14:02.103,0:14:03.411 Bedankt.