1 00:00:00,910 --> 00:00:02,183 Een aantal jaar geleden 2 00:00:02,207 --> 00:00:07,119 was ik op een vliegtuig met mijn zoon, die destijds vijf jaar oud was. 3 00:00:08,245 --> 00:00:13,340 Mijn zoon was zo enthousiast om samen met mama op een vliegtuig te zitten. 4 00:00:13,364 --> 00:00:16,304 Hij kijkt rond, bekijkt de dingen 5 00:00:16,328 --> 00:00:18,164 en de mensen. 6 00:00:18,188 --> 00:00:19,818 Hij ziet een man en zegt: 7 00:00:19,842 --> 00:00:22,703 "Hey! Die man lijkt op papa!" 8 00:00:23,882 --> 00:00:25,802 En ik kijk naar de man, 9 00:00:25,826 --> 00:00:29,556 en hij leek absoluut niet op mijn man. 10 00:00:29,580 --> 00:00:30,949 Helemaal niet. 11 00:00:31,461 --> 00:00:33,797 Dus ik begon rond te kijken op het vliegtuig 12 00:00:33,821 --> 00:00:39,706 en merk op dat deze man de enige zwarte man was op het vliegtuig. 13 00:00:40,874 --> 00:00:42,286 En ik dacht: 14 00:00:42,310 --> 00:00:43,504 "Oké, 15 00:00:44,369 --> 00:00:46,894 ik ga een gesprek moeten voeren met mijn zoon 16 00:00:46,918 --> 00:00:49,847 over hoe niet alle zwarte mensen op elkaar lijken." 17 00:00:49,871 --> 00:00:54,248 Mijn zoon tilt zijn hoofd op en zegt tegen me: 18 00:00:56,246 --> 00:00:58,617 "Ik hoop dat hij het vliegtuig niet berooft." 19 00:00:59,359 --> 00:01:01,874 En ik zei: "Wat? Wat zei je?" 20 00:01:01,898 --> 00:01:05,326 En hij zegt: "Ik hoop dat die man het vliegtuig niet berooft." 21 00:01:07,200 --> 00:01:09,952 En ik zei: "Wel, waarom zou je dat zeggen? 22 00:01:10,486 --> 00:01:13,149 Je weet dat papa nooit een vliegtuig zou beroven." 23 00:01:13,173 --> 00:01:15,485 En hij zegt: "Ja, ja, wel, ik weet het." 24 00:01:16,179 --> 00:01:18,306 En ik zei: "Waarom zou je dat zeggen?" 25 00:01:20,346 --> 00:01:23,303 En hij kijkt naar mij met dit droevig gezicht, 26 00:01:24,168 --> 00:01:25,422 en hij zegt: 27 00:01:26,890 --> 00:01:28,996 "Ik weet niet waarom ik dat zei." 28 00:01:30,600 --> 00:01:32,958 "Ik weet niet waarom ik dat dacht." 29 00:01:33,724 --> 00:01:37,242 We leven met zo een ernstige raciale stratificatie 30 00:01:37,266 --> 00:01:39,796 dat zelfs een vijfjarige 31 00:01:39,796 --> 00:01:42,326 ons kan vertellen wat er hierna moet gebeuren. 32 00:01:43,990 --> 00:01:46,097 Zelfs zonder slechte bedoeling. 33 00:01:46,121 --> 00:01:48,700 Zelfs zonder expliciete haat. 34 00:01:50,184 --> 00:01:54,097 Deze associatie tussen zwartheid en misdaad 35 00:01:54,121 --> 00:01:58,455 is binnengedrongen in de geest van mijn vijfjarige. 36 00:01:59,787 --> 00:02:03,050 Het baant zich een weg in al onze kinderen, 37 00:02:04,201 --> 00:02:05,592 in ons allemaal. 38 00:02:06,793 --> 00:02:10,317 Onze geesten worden gevormd door raciale vooroordelen 39 00:02:10,341 --> 00:02:11,933 die we in de wereld zien 40 00:02:12,752 --> 00:02:18,093 en de verhalen die ons helpen betekenis te geven aan de ongelijkheden. 41 00:02:19,637 --> 00:02:22,163 "Die mensen zijn criminelen." 42 00:02:22,187 --> 00:02:24,112 "Die mensen zijn gewelddadig." 43 00:02:24,136 --> 00:02:27,101 "Die mensen moeten worden gevreesd." 44 00:02:27,814 --> 00:02:31,005 Toen mijn onderzoeksteam mensen in een lab bracht 45 00:02:31,029 --> 00:02:33,312 en hen blootstelde aan gezichten, 46 00:02:33,336 --> 00:02:40,336 vonden we dat zwarte gezichten zorgden dat vage beelden van geweren 47 00:02:40,360 --> 00:02:43,616 met meer zekerheid en snelheid werden herkend. 48 00:02:43,640 --> 00:02:46,994 Vooroordelen controleren niet enkel wat we zien, 49 00:02:47,018 --> 00:02:48,666 maar ook waar we kijken. 50 00:02:48,690 --> 00:02:52,134 Wanneer mensen werden geprompt om aan gewelddadige misdaden te denken, 51 00:02:52,158 --> 00:02:56,454 leidde dit hun blik naar het zwarte gezicht 52 00:02:56,478 --> 00:02:58,608 en weg van een wit gezicht. 53 00:02:58,632 --> 00:03:00,173 Het prompten van politieagenten 54 00:03:00,173 --> 00:03:03,727 om na te denken over oppakken, schieten en arresteren, 55 00:03:03,751 --> 00:03:07,610 leidt ook hun blik naar zwarte gezichten. 56 00:03:07,634 --> 00:03:12,700 Vooroordelen kunnen alle aspecten van ons strafrechtsysteem infecteren. 57 00:03:13,100 --> 00:03:16,031 In een grote dataset van potentiële doodstrafveroordelingen 58 00:03:16,055 --> 00:03:20,412 vonden we dat er zwarter uitzien hun kans meer dan verdubbelde 59 00:03:20,436 --> 00:03:22,493 om de doodstraf te krijgen -- 60 00:03:23,494 --> 00:03:25,921 tenminste als hun slachtoffers wit waren. 61 00:03:25,945 --> 00:03:27,383 Dit effect is significant 62 00:03:27,407 --> 00:03:30,708 zelfs als we rekening hielden met de ernst van de misdaad 63 00:03:30,732 --> 00:03:33,013 en de aantrekkelijkheid van de beklaagde. 64 00:03:33,037 --> 00:03:35,686 Ongeacht waarmee we rekening hielden, 65 00:03:35,710 --> 00:03:39,055 vonden we dat zwarte mensen werden gestraft 66 00:03:39,079 --> 00:03:43,404 in proportie tot de zwartheid van hun fysieke kenmerken. 67 00:03:43,428 --> 00:03:45,309 Hoe zwarter, 68 00:03:45,333 --> 00:03:47,086 hoe meer doodwaardig. 69 00:03:47,110 --> 00:03:51,319 Vooroordelen beïnvloeden ook hoe leerkrachten studenten straffen. 70 00:03:51,781 --> 00:03:55,622 Mijn collega's en ik vonden dat leerkrachten de neiging hadden 71 00:03:55,622 --> 00:03:58,838 om een zwarte student op de middelbare school 72 00:03:58,838 --> 00:04:00,970 harder te straffen dan een witte student 73 00:04:00,994 --> 00:04:03,570 voor dezelfde herhaalde overtredingen. 74 00:04:03,594 --> 00:04:04,888 In een recente studie 75 00:04:04,912 --> 00:04:09,270 vonden we dat leerkrachten zwarte studenten als groep behandelen, 76 00:04:09,294 --> 00:04:11,725 maar witte studenten als individuen. 77 00:04:12,126 --> 00:04:13,087 Bijvoorbeeld, 78 00:04:13,087 --> 00:04:15,725 als een zwarte student zich misdraagt 79 00:04:15,749 --> 00:04:20,113 en dan een andere zwarte student zich een paar dagen later misdraagt, 80 00:04:20,501 --> 00:04:23,786 reageert de leerkracht op de tweede zwarte student 81 00:04:23,810 --> 00:04:26,435 alsof die zich twee keer heeft misdragen. 82 00:04:26,952 --> 00:04:29,763 Het is alsof de zonden van één kind 83 00:04:29,787 --> 00:04:31,963 op de ander worden overgedragen. 84 00:04:31,987 --> 00:04:35,281 We creëren categorieën om betekenis te geven aan de wereld, 85 00:04:35,305 --> 00:04:39,788 om er controle over uit te oefenen en een coherent beeld te scheppen 86 00:04:39,812 --> 00:04:43,902 van de stimuli die ons constant bombarderen. 87 00:04:43,926 --> 00:04:45,348 Categorisatie 88 00:04:45,348 --> 00:04:47,894 en de vooroordelen die dat veroorzaakt, 89 00:04:47,918 --> 00:04:52,940 laten onze hersenen sneller en meer efficiënt oordelen vellen. 90 00:04:52,964 --> 00:04:55,343 En we doen dit door instinctief te steunen 91 00:04:55,343 --> 00:04:58,059 op patronen die voorspelbaar lijken. 92 00:04:58,083 --> 00:05:04,026 Maar net zoals de categorieën helpen bij het maken van snelle beslissingen, 93 00:05:04,050 --> 00:05:06,552 gaan deze ook vooroordelen versterken. 94 00:05:06,576 --> 00:05:09,968 Dus datgene wat ons helpt om de wereld te zien, 95 00:05:11,104 --> 00:05:13,084 kan ons ook ervoor blind maken. 96 00:05:13,509 --> 00:05:16,287 Ze maken onze keuzes moeiteloos, 97 00:05:16,311 --> 00:05:17,680 vrij van frictie. 98 00:05:18,956 --> 00:05:21,401 Maar ze eisen een hoge tol. 99 00:05:22,158 --> 00:05:23,569 Maar wat kunnen wij doen? 100 00:05:24,507 --> 00:05:26,998 We zijn allemaal kwetsbaar voor vooroordelen, 101 00:05:27,022 --> 00:05:29,702 maar we handelen niet steeds naar deze vooroordelen. 102 00:05:29,726 --> 00:05:33,370 Er zijn bepaalde condities die vooroordelen aanwakkeren 103 00:05:33,394 --> 00:05:35,927 en andere condities die deze kunnen dempen. 104 00:05:35,951 --> 00:05:37,798 Laat me een voorbeeld geven. 105 00:05:38,663 --> 00:05:43,223 Veel mensen kennen het techbedrijf Nextdoor. 106 00:05:44,073 --> 00:05:46,831 Hun doel is het creëren 107 00:05:46,831 --> 00:05:50,526 van sterkere, gezondere, veiligere buurten. 108 00:05:51,468 --> 00:05:54,389 En dus bieden zij deze online ruimte aan 109 00:05:54,413 --> 00:05:57,562 waar buren bijeen kunnen komen en informatie delen. 110 00:05:57,586 --> 00:06:01,712 Echter, Nextdoor kwam er snel achter dat ze een probleem hadden 111 00:06:01,736 --> 00:06:03,404 met raciale profilering. 112 00:06:04,012 --> 00:06:05,979 In een typisch geval 113 00:06:06,003 --> 00:06:08,399 zouden mensen uit hun raam kijken 114 00:06:08,423 --> 00:06:12,472 en een zwarte man zien in een witte buurt. 115 00:06:12,496 --> 00:06:17,211 Ze zouden snel oordelen dat deze niks goeds van plan was, 116 00:06:17,235 --> 00:06:20,586 zelfs als hier geen enkel bewijs was van crimineel gedrag. 117 00:06:20,610 --> 00:06:23,544 Op vele vlakken is hoe we ons online gedragen 118 00:06:23,568 --> 00:06:26,682 een reflectie van hoe we ons in de wereld gedragen. 119 00:06:27,117 --> 00:06:31,062 Maar wat we niet willen is een makkelijk te gebruiken systeem creëren 120 00:06:31,086 --> 00:06:35,249 dat vooroordelen versterkt en raciale ongelijkheden uitdiept, 121 00:06:36,129 --> 00:06:38,395 in plaats van deze te ontmantelen. 122 00:06:38,863 --> 00:06:42,292 Dus de oprichters van Nextdoor namen contact op met mij en ook anderen 123 00:06:42,316 --> 00:06:44,447 om na te gaan wat er aan gedaan kon worden. 124 00:06:44,471 --> 00:06:48,417 En ze realiseerden zich dat om etnische profilering aan te pakken, 125 00:06:48,441 --> 00:06:50,363 ze frictie moeten toevoegen, 126 00:06:50,387 --> 00:06:53,045 wat wil zeggen dat ze mensen moesten gaan afremmen. 127 00:06:53,069 --> 00:06:55,264 Nextdoor moest een keuze maken 128 00:06:55,288 --> 00:06:57,766 en tegen elke impuls in 129 00:06:57,790 --> 00:06:59,906 beslisten ze om frictie toe te voegen. 130 00:07:00,397 --> 00:07:03,837 Dit deden ze door het toevoegen van een simpele checklist. 131 00:07:03,861 --> 00:07:05,531 Die behelsde drie items. 132 00:07:06,111 --> 00:07:09,052 Eerst werd er de gebruiker gevraagd om te pauzeren 133 00:07:09,076 --> 00:07:14,193 en te denken: wat was deze persoon aan het doen dat hem verdacht maakte? 134 00:07:14,876 --> 00:07:19,409 De categorie 'zwarte man' was geen grond voor verdenking. 135 00:07:19,433 --> 00:07:21,603 Ten tweede werd aan de gebruiker gevraagd 136 00:07:21,603 --> 00:07:24,572 om de fysieke eigenschappen te beschrijven, 137 00:07:24,596 --> 00:07:27,031 niet enkel hun ras en gender. 138 00:07:27,642 --> 00:07:29,872 Ten derde realiseerden ze zich 139 00:07:29,872 --> 00:07:33,977 dat veel mensen niet leken te weten wat etnische profilering was, 140 00:07:34,001 --> 00:07:35,960 noch dat ze dit zelf deden. 141 00:07:36,462 --> 00:07:39,656 Dus voorzag Nextdoor een definitie 142 00:07:39,680 --> 00:07:42,582 en vertelde hen dat het strikt verboden was. 143 00:07:43,071 --> 00:07:44,940 De meesten hebben deze tekens gezien 144 00:07:44,940 --> 00:07:47,378 op de luchthaven en in metro stations: 145 00:07:47,378 --> 00:07:49,409 "Als je iets ziet, zeg iets." 146 00:07:49,928 --> 00:07:52,742 Nextdoor heeft dit proberen aanpassen. 147 00:07:53,584 --> 00:07:56,156 "Als je iets verdacht ziet, 148 00:07:56,180 --> 00:07:58,253 zeg dan iets specifiek." 149 00:07:59,491 --> 00:08:03,937 En door deze strategie te gebruiken, door het afremmen van mensen, 150 00:08:03,961 --> 00:08:09,875 slaagde Nextdoor er in raciale profilering te verminderen met 75 procent. 151 00:08:10,263 --> 00:08:12,586 Mensen zeggen vaak tegen mij: 152 00:08:12,610 --> 00:08:17,323 "Je kan geen frictie toevoegen in elke situatie, in elke context, 153 00:08:17,347 --> 00:08:21,993 en vooral voor mensen die altijd razendsnel beslissingen nemen." 154 00:08:22,730 --> 00:08:25,293 Maar het blijkt dat we frictie kunnen toevoegen 155 00:08:25,317 --> 00:08:27,593 in meer situaties dan we denken. 156 00:08:28,031 --> 00:08:30,105 Werkend bij de politie in Oakland 157 00:08:30,129 --> 00:08:31,546 in Californië, 158 00:08:31,570 --> 00:08:35,426 konden ik en een aantal van mijn collega's hen helpen 159 00:08:35,450 --> 00:08:38,121 bij het verminderen van het aantal stops dat ze maakten 160 00:08:38,145 --> 00:08:41,745 van mensen die geen ernstige misdrijven aan het plegen waren. 161 00:08:41,769 --> 00:08:44,134 En we deden dit door agenten aan te zetten 162 00:08:44,158 --> 00:08:48,601 om zichzelf een vraag te stellen bij elke aanhouding die ze maakten: 163 00:08:49,451 --> 00:08:52,466 is deze aanhouding informatiegestuurd, 164 00:08:52,490 --> 00:08:53,941 ja of nee? 165 00:08:55,353 --> 00:08:56,749 Met andere woorden: 166 00:08:57,621 --> 00:09:02,105 heb ik voorafgaande informatie om deze specifieke persoon te linken 167 00:09:02,129 --> 00:09:03,730 aan een specifiek misdrijf? 168 00:09:04,587 --> 00:09:06,045 Door deze vraag toe te voegen 169 00:09:06,069 --> 00:09:09,148 aan het formulier dat agenten invulden bij een aanhouding, 170 00:09:09,172 --> 00:09:10,981 vertraagden zij, pauzeerden zij, 171 00:09:11,005 --> 00:09:15,225 dachten ze: waarom overweeg ik om deze persoon te stoppen? 172 00:09:16,721 --> 00:09:18,123 In 2017, 173 00:09:18,123 --> 00:09:22,282 voor we de informatiegestuurde vraag hadden toegevoegd aan het formulier, 174 00:09:23,655 --> 00:09:27,601 maakten agenten rond de 32.000 stops over de hele stad. 175 00:09:27,625 --> 00:09:31,740 In het volgende jaar, na het toevoegen van de vraag, 176 00:09:31,764 --> 00:09:34,208 daalde dit naar 19.000 stops. 177 00:09:34,232 --> 00:09:39,193 De stops van Afro-Amerikanen daalde met 43 procent. 178 00:09:39,905 --> 00:09:44,343 Het minder stoppen van zwarte mensen maakte de stad niet gevaarlijker. 179 00:09:44,367 --> 00:09:47,101 De criminaliteitscijfers bleven verder dalen 180 00:09:47,125 --> 00:09:50,462 en de stad werd veiliger voor iedereen. 181 00:09:50,486 --> 00:09:52,345 Een oplossing kan zijn 182 00:09:52,345 --> 00:09:55,841 om het aantal onnodige stops te verminderen. 183 00:09:56,285 --> 00:10:00,555 Een andere is het verbeteren van de kwaliteit van de stops 184 00:10:00,579 --> 00:10:02,268 die agenten maken. 185 00:10:02,512 --> 00:10:05,108 En technologie kan ons hierbij helpen. 186 00:10:05,132 --> 00:10:07,547 We kennen allemaal George Floyd's dood, 187 00:10:08,499 --> 00:10:13,271 omdat mensen die hem probeerden te helpen gsm-camera's bijhadden 188 00:10:13,295 --> 00:10:18,726 en de afschuwelijke confrontatie met de politie vastlegden. 189 00:10:18,750 --> 00:10:23,781 Maar we hebben allerlei technologie waar we geen gebruik van maken. 190 00:10:23,805 --> 00:10:26,308 Politiekorpsen doorheen het land 191 00:10:26,332 --> 00:10:29,885 dragen nu verplicht bodycams. 192 00:10:29,909 --> 00:10:35,839 Bijgevolg hebben we niet enkel beelden van gruwelijke confrontaties, 193 00:10:35,863 --> 00:10:38,617 maar ook van alledaagse interacties. 194 00:10:38,641 --> 00:10:41,175 Samen met een interdisciplinair team aan Stanford 195 00:10:41,175 --> 00:10:44,129 begonnen we gebruik te maken van machinaal-lerentechnieken 196 00:10:44,153 --> 00:10:47,520 voor het analyseren van een groot aantal van deze confrontaties. 197 00:10:47,544 --> 00:10:52,155 Dit om beter te begrijpen wat er gebeurt bij routinematige verkeersstops. 198 00:10:52,179 --> 00:10:57,984 We vonden dat zelfs wanneer de agenten zich professioneel gedroegen, 199 00:10:58,860 --> 00:11:03,322 ze minder respectvol spraken tegen zwarte dan tegen witte bestuurders. 200 00:11:04,052 --> 00:11:08,127 We konden zelf op basis van het woordgebruik van de agenten alleen 201 00:11:08,151 --> 00:11:13,313 voorspellen of ze tegen een zwarte of witte bestuurder aan het praten waren. 202 00:11:13,337 --> 00:11:19,099 Het probleem is hier dat de meerderheid van de beelden van deze camera's 203 00:11:19,123 --> 00:11:21,210 niet wordt benut in politiekorpsen 204 00:11:21,234 --> 00:11:23,510 om beter te begrijpen wat op straat gebeurt 205 00:11:23,534 --> 00:11:25,777 of om agenten te trainen. 206 00:11:26,554 --> 00:11:28,012 En dat is spijtig. 207 00:11:28,796 --> 00:11:33,585 Hoe draait een routineaanhouding uit op een dodelijke situatie? 208 00:11:33,609 --> 00:11:36,279 Hoe gebeurde dit in het geval van George Floyd? 209 00:11:37,588 --> 00:11:39,670 Hoe gebeurde dit in andere gevallen? 210 00:11:39,694 --> 00:11:43,090 Toen mijn oudste zoon 16 jaar was, 211 00:11:43,114 --> 00:11:46,253 ontdekte hij dat wanneer witte mensen naar hem kijken, 212 00:11:46,277 --> 00:11:47,838 ze angst ervaren. 213 00:11:49,123 --> 00:11:51,784 "Liften zijn het ergste", zei hij. 214 00:11:52,313 --> 00:11:54,644 Als de deuren sluiten, 215 00:11:54,668 --> 00:11:57,751 zitten mensen vast in deze kleine ruimte 216 00:11:57,775 --> 00:12:02,242 met iemand die ze hebben leren associëren met gevaar. 217 00:12:02,744 --> 00:12:05,964 Mijn zoon voelt dat ze zich oncomfortabel voelen 218 00:12:05,988 --> 00:12:09,145 en hij lacht om hen op hun gemak te stellen, 219 00:12:09,169 --> 00:12:10,938 om hun angsten te verminderen. 220 00:12:11,351 --> 00:12:13,296 Wanneer hij spreekt, 221 00:12:13,320 --> 00:12:15,003 ontspannen hun lichamen. 222 00:12:15,442 --> 00:12:17,345 Ze ademen rustiger. 223 00:12:17,369 --> 00:12:19,900 Ze nemen plezier in zijn ritme, 224 00:12:19,924 --> 00:12:22,241 zijn uitspraak, zijn woordkeuze. 225 00:12:22,986 --> 00:12:24,829 Hij klinkt als een van hen. 226 00:12:24,853 --> 00:12:29,583 Vroeger dacht ik dat mijn zoon zoals zijn vader een extravert was. 227 00:12:29,607 --> 00:12:33,157 Maar ik realiseerde mij dat op dat moment in die conversatie 228 00:12:34,143 --> 00:12:39,221 zijn glimlach geen teken was dat hij contact wou maken 229 00:12:39,245 --> 00:12:41,209 met zogenaamde vreemden, 230 00:12:41,920 --> 00:12:45,572 maar een talisman die hij gebruikte om zichzelf te beschermen, 231 00:12:45,596 --> 00:12:51,815 een overlevingsvaardigheid die hij met duizenden liftritten had aangescherpt. 232 00:12:52,387 --> 00:12:57,558 Hij leerde zich aan te passen aan de spanning die zijn kleur genereerde 233 00:12:59,026 --> 00:13:01,693 en die zijn leven in gevaar bracht. 234 00:13:02,619 --> 00:13:06,402 We weten dat onze hersenen bedraad zijn voor vooroordelen, 235 00:13:06,426 --> 00:13:08,889 en een manier om deze vooroordelen te verstoren 236 00:13:08,889 --> 00:13:13,220 is pauzeren en reflecteren over het bewijs van onze aanname. 237 00:13:13,244 --> 00:13:14,999 Dus we moeten ons zelf vragen: 238 00:13:15,023 --> 00:13:19,688 welke aannames nemen we mee wanneer we in een lift stappen? 239 00:13:21,776 --> 00:13:23,087 Of op een vliegtuig? 240 00:13:23,532 --> 00:13:28,131 Hoe maken we onszelf bewust van onze onbewuste vooroordelen? 241 00:13:28,155 --> 00:13:30,506 Wie houden deze aannames veilig? 242 00:13:32,615 --> 00:13:34,547 Wie brengen ze in gevaar? 243 00:13:35,649 --> 00:13:38,003 Totdat we onszelf deze vragen stellen 244 00:13:38,978 --> 00:13:43,602 en erop staan dat onze scholen, gerechten en politiekorpsen 245 00:13:43,626 --> 00:13:46,168 en ieder instituut hetzelfde doen, 246 00:13:47,835 --> 00:13:51,664 blijven we vooroordelen toelaten 247 00:13:51,688 --> 00:13:52,966 om ons te verblinden. 248 00:13:53,348 --> 00:13:54,757 En wanneer we dat doen, 249 00:13:56,066 --> 00:13:59,274 is niemand echt veilig. 250 00:14:02,103 --> 00:14:03,411 Bedankt.