1 00:00:00,830 --> 00:00:02,133 Qualche anno fa, 2 00:00:02,133 --> 00:00:07,119 ero su un aereo con mio figlio che all'epoca aveva cinque anni. 3 00:00:08,245 --> 00:00:13,287 Mio figlio era felicissimo di essere su un aereo con la sua mamma. 4 00:00:13,364 --> 00:00:16,284 Si guardava intorno, osservava le cose che vedeva, 5 00:00:16,284 --> 00:00:18,164 osservava le persone. 6 00:00:18,164 --> 00:00:19,788 Vide un uomo e disse: 7 00:00:19,788 --> 00:00:22,703 "Ehi! Quel signore è uguale a papà!" 8 00:00:23,882 --> 00:00:25,802 Io guardai il signore, 9 00:00:25,802 --> 00:00:29,556 non assomigliava affatto a mio marito, 10 00:00:29,556 --> 00:00:30,949 proprio per niente. 11 00:00:31,461 --> 00:00:33,797 Allora mi guardai intorno nell'aereo, 12 00:00:33,821 --> 00:00:39,706 e notai che questo signore era l'unico uomo nero a bordo. 13 00:00:40,874 --> 00:00:42,286 E pensai: 14 00:00:42,310 --> 00:00:43,504 "Bene. 15 00:00:44,369 --> 00:00:46,894 Dovrò fare un bel discorso a mio figlio 16 00:00:46,894 --> 00:00:49,767 sul fatto che le persone di colore non sono tutte uguali". 17 00:00:49,871 --> 00:00:54,248 Mio figlio alzò lo sguardo e mi disse: 18 00:00:56,246 --> 00:00:58,617 "Spero che non rapini l'aereo". 19 00:00:59,359 --> 00:01:01,874 E io risposi: "Cos'hai detto?" 20 00:01:01,898 --> 00:01:05,326 Lui ripetè: "Spero che non rapini l'aereo". 21 00:01:07,200 --> 00:01:09,952 E io dissi: "Perché dici così? 22 00:01:10,486 --> 00:01:13,009 Lo sai che papà non rapinerebbe un aereo". 23 00:01:13,173 --> 00:01:15,485 Lui disse: "Sì certo, lo so". 24 00:01:16,179 --> 00:01:18,306 E io: "Allora perché l'hai detto?" 25 00:01:20,346 --> 00:01:23,303 Lui mi guardò con una faccia triste, 26 00:01:24,168 --> 00:01:25,422 e mi disse: 27 00:01:26,890 --> 00:01:28,996 "Non so perché l'ho detto. 28 00:01:30,600 --> 00:01:32,958 Non so perché l'ho pensato". 29 00:01:33,724 --> 00:01:37,242 Viviamo con una stratificazione razziale così rigida 30 00:01:37,266 --> 00:01:42,326 che perfino un bambino di cinque anni può dirci cosa si suppone accadrà, 31 00:01:43,990 --> 00:01:46,097 anche se non ci sono malfattori, 32 00:01:46,121 --> 00:01:48,700 anche se non c'è un'esplicita ostilità. 33 00:01:50,184 --> 00:01:54,097 L'associazione tra essere nero e crimine 34 00:01:54,121 --> 00:01:58,455 è arrivata fino alla mente del mio bambino di cinque anni. 35 00:01:59,787 --> 00:02:03,050 Arriva a tutti i nostri bambini, 36 00:02:04,201 --> 00:02:05,592 a tutti noi. 37 00:02:06,793 --> 00:02:10,317 Le nostre menti sono plasmate dalle disparità razziali 38 00:02:10,341 --> 00:02:11,933 che vediamo nel mondo 39 00:02:12,752 --> 00:02:18,093 e dai racconti che ci aiutano a dare un senso a quelle disparità: 40 00:02:19,637 --> 00:02:22,163 "Quelle persone sono criminali". 41 00:02:22,187 --> 00:02:24,112 "Quelle persone sono violente". 42 00:02:24,136 --> 00:02:27,101 "Quelle persone devono essere temute". 43 00:02:27,814 --> 00:02:31,005 In una ricerca fatta nel nostro laboratorio 44 00:02:31,029 --> 00:02:33,312 abbiamo mostrato dei volti a delle persone 45 00:02:33,336 --> 00:02:36,452 e abbiamo notato che dopo aver visto volti neri 46 00:02:36,452 --> 00:02:43,138 vedevano immagini sfocate di pistole con maggiore nitidezza e velocità. 47 00:02:43,640 --> 00:02:46,994 Il pregiudizio non controlla solo ciò che vediamo, 48 00:02:47,018 --> 00:02:48,666 ma anche dove guardiamo. 49 00:02:48,690 --> 00:02:52,134 Si è notato che indurre le persone a pensare a crimini violenti 50 00:02:52,158 --> 00:02:56,454 può portare il loro sguardo verso i volti neri 51 00:02:56,478 --> 00:02:58,608 e lontano da quelli bianchi. 52 00:02:58,632 --> 00:03:02,474 Anche indurre dei poliziotti a pensare a una cattura, a una sparatoria 53 00:03:02,498 --> 00:03:03,727 e a un arresto 54 00:03:03,751 --> 00:03:07,610 li porta a volgere lo sguardo verso i volti neri. 55 00:03:07,634 --> 00:03:12,700 Il pregiudizio può infettare ogni aspetto del sistema di giustizia penale. 56 00:03:13,040 --> 00:03:16,185 Studiando un archivio di imputati che rischiavano la pena di morte, 57 00:03:16,185 --> 00:03:20,412 abbiamo scoperto che l'essere nero aumentava più del doppio la possibilità 58 00:03:20,436 --> 00:03:22,493 di ricevere la pena capitale, 59 00:03:23,494 --> 00:03:25,921 almeno quando le vittime erano bianche. 60 00:03:25,945 --> 00:03:27,383 Il risultato è significativo, 61 00:03:27,407 --> 00:03:30,708 anche tenendo conto della gravità del crimine 62 00:03:30,732 --> 00:03:33,013 e dell'aspetto fisico dell'imputato. 63 00:03:33,037 --> 00:03:35,686 E qualsiasi aspetto controllassimo, 64 00:03:35,710 --> 00:03:39,055 abbiamo scoperto che le persone di colore venivano punite 65 00:03:39,079 --> 00:03:43,404 in proporzione a quanto nera fosse la loro pelle: 66 00:03:43,428 --> 00:03:45,309 più nero, 67 00:03:45,333 --> 00:03:47,086 più degno di morire. 68 00:03:47,110 --> 00:03:48,976 Il pregiudizio può anche influenzare 69 00:03:48,976 --> 00:03:51,781 come gli insegnanti puniscono gli studenti. 70 00:03:51,781 --> 00:03:53,668 Io e miei colleghi abbiamo scoperto 71 00:03:53,668 --> 00:03:59,778 che gli insegnanti tendono a punire uno studente nero in modo più duro 72 00:03:59,802 --> 00:04:00,970 rispetto a uno bianco 73 00:04:00,994 --> 00:04:03,570 per le stesse infrazioni. 74 00:04:03,594 --> 00:04:04,888 Da uno studio recente, 75 00:04:04,912 --> 00:04:09,270 emerge che gli studenti neri vengono trattati come un gruppo 76 00:04:09,294 --> 00:04:11,725 mentre quelli bianchi come individui. 77 00:04:12,126 --> 00:04:15,725 Per esempio, se uno studente nero si comporta male 78 00:04:15,749 --> 00:04:20,534 e qualche giorno dopo un altro studente nero si comporta male, 79 00:04:20,558 --> 00:04:23,786 l'insegnante risponde al secondo studente 80 00:04:23,810 --> 00:04:26,435 come se si fosse comportato male due volte. 81 00:04:26,952 --> 00:04:29,763 È come se le colpe di un bambino 82 00:04:29,787 --> 00:04:31,963 si sommassero a quelle di un altro. 83 00:04:31,987 --> 00:04:35,281 Creiamo categorie per trovare un senso al mondo, 84 00:04:35,305 --> 00:04:43,623 per dare coerenza agli stimoli con cui siamo bombardati di continuo. 85 00:04:43,926 --> 00:04:47,894 La categorizzazione e il pregiudizio che ne deriva 86 00:04:47,918 --> 00:04:52,940 permettono al nostro cervello di giudicare in modo veloce ed efficiente. 87 00:04:52,964 --> 00:04:56,366 Questo perché ci affidiamo istintivamente a degli schemi 88 00:04:56,390 --> 00:04:58,059 che sembrano prevedibili. 89 00:04:58,083 --> 00:05:04,026 Ma mentre le categorie che creiamo ci aiutano a prendere decisioni rapide, 90 00:05:04,050 --> 00:05:06,552 rinforzano anche il pregiudizio. 91 00:05:06,576 --> 00:05:09,968 Quindi proprio gli strumenti che ci aiutano a vedere il mondo 92 00:05:11,104 --> 00:05:13,084 possono anche renderci ciechi. 93 00:05:13,509 --> 00:05:16,287 Rendono le nostre scelte più semplici, 94 00:05:16,311 --> 00:05:17,680 prive di resistenze. 95 00:05:18,956 --> 00:05:21,401 Eppure comportano pesanti conseguenze. 96 00:05:22,158 --> 00:05:23,569 Quindi cosa possiamo fare? 97 00:05:24,507 --> 00:05:26,998 Siamo tutti vulnerabili ai pregiudizi, 98 00:05:27,022 --> 00:05:29,702 ma non agiamo sempre in base ai pregiudizi. 99 00:05:29,726 --> 00:05:33,370 Ci sono situazioni che fanno emergere i pregiudizi 100 00:05:33,394 --> 00:05:35,927 e altre che li smorzano. 101 00:05:35,951 --> 00:05:37,798 Vi faccio un esempio. 102 00:05:38,663 --> 00:05:43,223 Molti conoscono l'azienda tecnologica Nextdoor. 103 00:05:44,073 --> 00:05:50,526 Il suo obiettivo è creare quartieri più forti, sani e sicuri. 104 00:05:51,468 --> 00:05:54,389 Offre uno spazio online 105 00:05:54,413 --> 00:05:57,562 dove persone dello stesso quartiere dialogano e scambiano notizie. 106 00:05:57,586 --> 00:06:01,712 Nextdoor ha subito notato di avere un problema 107 00:06:01,736 --> 00:06:03,404 con la profilazione razziale. 108 00:06:04,012 --> 00:06:05,979 Nel caso tipico, 109 00:06:06,003 --> 00:06:08,399 le persone guardavano fuori dalla finestra 110 00:06:08,423 --> 00:06:12,472 e vedendo un uomo nero nel loro quartiere di gente bianca 111 00:06:12,496 --> 00:06:17,211 supponevano subito che avesse cattive intenzioni, 112 00:06:17,235 --> 00:06:20,586 anche senza evidenza di atti criminali. 113 00:06:20,610 --> 00:06:23,544 Spesso il modo in cui ci comportiamo online 114 00:06:23,568 --> 00:06:26,682 riflette il modo in cui ci comportiamo nel mondo. 115 00:06:27,117 --> 00:06:31,062 Ma non vogliamo creare un sistema semplice 116 00:06:31,086 --> 00:06:35,249 che amplifichi i pregiudizi e intensifichi le disparità razziali, 117 00:06:36,129 --> 00:06:38,395 invece che eliminarli. 118 00:06:38,863 --> 00:06:42,292 Quindi il cofondatore di Nextdoor ha contattato me e altre persone 119 00:06:42,316 --> 00:06:44,137 per capire cosa fare. 120 00:06:44,471 --> 00:06:48,034 E ha capito che per diminuire la profilazione razziale sulla piattaforma 121 00:06:48,141 --> 00:06:50,363 dovevano aggiungere un elemento frenante, 122 00:06:50,387 --> 00:06:53,045 dovevano mettere un freno alle persone. 123 00:06:53,069 --> 00:06:55,264 Nextdoor aveva una scelta da fare, 124 00:06:55,288 --> 00:06:57,766 e contro ogni impulso, 125 00:06:57,790 --> 00:06:59,906 ha deciso di aggiungere un elemento frenante. 126 00:07:00,397 --> 00:07:03,837 E l'ha fatto aggiungendo una semplice lista, 127 00:07:03,861 --> 00:07:05,531 con tre domande. 128 00:07:06,111 --> 00:07:09,608 Prima di tutto ha chiesto agli utenti di fermarsi a pensare: 129 00:07:09,608 --> 00:07:14,193 "Cos'ha fatto di sospetto questa persona?" 130 00:07:14,876 --> 00:07:19,409 La categoria "uomo nero" non è motivo di sospetto. 131 00:07:19,433 --> 00:07:24,572 Poi, ha chiesto di descrivere i tratti fisici della persona, 132 00:07:24,596 --> 00:07:27,031 non semplicemente la razza e il sesso. 133 00:07:27,642 --> 00:07:29,795 Infine, hanno notato 134 00:07:29,795 --> 00:07:33,977 che molti non sembravano sapere cosa fosse la profilazione razziale, 135 00:07:34,001 --> 00:07:35,960 né che vi stavano partecipando. 136 00:07:36,462 --> 00:07:39,656 Quindi Nextdoor ha dato loro una definizione 137 00:07:39,680 --> 00:07:42,582 aggiungendo che era severamente proibito. 138 00:07:43,011 --> 00:07:45,683 Molti di voi avranno visto quel cartello negli aeroporti 139 00:07:45,707 --> 00:07:49,409 e nelle stazioni metro: "Se vedi qualcosa, dì qualcosa". 140 00:07:49,928 --> 00:07:52,742 Nextdoor ha provato a modificarlo: 141 00:07:53,584 --> 00:07:56,156 "Se vedi qualcosa di sospetto, 142 00:07:56,180 --> 00:07:58,253 dì qualcosa di specifico". 143 00:07:59,491 --> 00:08:03,937 E usando questa strategia, mettendo un freno alle persone, 144 00:08:03,961 --> 00:08:09,652 Nexdoor è riuscita a ridurre la profilazione razziale del 75%. 145 00:08:10,496 --> 00:08:12,586 Spesso mi è stato detto: 146 00:08:12,610 --> 00:08:17,323 "Non puoi aggiungere un elemento frenante in ogni situazione o contesto, 147 00:08:17,347 --> 00:08:21,993 soprattutto per chi prende decisioni rapide di continuo". 148 00:08:22,730 --> 00:08:25,293 Ma in realtà possiamo aggiungere un elemento frenante 149 00:08:25,317 --> 00:08:27,593 più spesso di quanto pensiamo. 150 00:08:28,031 --> 00:08:30,105 Lavorando con la Polizia di Oakland 151 00:08:30,129 --> 00:08:31,546 in California, 152 00:08:31,570 --> 00:08:35,426 io e dei miei colleghi siamo riusciti ad aiutare il dipartimento 153 00:08:35,450 --> 00:08:37,884 a ridurre il numero di fermi 154 00:08:37,884 --> 00:08:41,745 di persone che non avevano commesso alcun crimine grave. 155 00:08:41,769 --> 00:08:44,134 Siamo riusciti a farlo spingendo i poliziotti 156 00:08:44,158 --> 00:08:48,601 a farsi una domanda prima di ogni fermo: 157 00:08:49,451 --> 00:08:52,466 "Questo fermo è motivato, 158 00:08:52,490 --> 00:08:53,941 sì o no?" 159 00:08:55,353 --> 00:08:56,749 In altre parole, 160 00:08:57,621 --> 00:09:02,105 ho abbastanza informazioni per associare questa persona 161 00:09:02,129 --> 00:09:03,730 a un crimine ben preciso? 162 00:09:04,587 --> 00:09:06,045 Aggiungendo questa domanda 163 00:09:06,069 --> 00:09:09,148 alla scheda che completano quando fermano qualcuno, 164 00:09:09,172 --> 00:09:10,981 rallentano, si fermano un momento, 165 00:09:11,005 --> 00:09:15,225 e pensano: "Perché sto fermando questa persona?" 166 00:09:16,721 --> 00:09:22,282 Nel 2017, prima di aver aggiunto questa domanda alla scheda, 167 00:09:23,655 --> 00:09:27,601 la polizia ha effettuato circa 32.000 fermi in tutta la città. 168 00:09:27,625 --> 00:09:31,740 L'anno successivo, con l'aggiunta di questa domanda, 169 00:09:31,764 --> 00:09:34,208 sono scesi a 19.000 casi. 170 00:09:34,232 --> 00:09:39,193 Il numero di afroamericani fermati è sceso del 43%. 171 00:09:39,905 --> 00:09:44,253 E fermare meno gente di colore non ha reso la città più pericolosa. 172 00:09:44,367 --> 00:09:47,101 In realtà, il tasso di criminalità è diminuito, 173 00:09:47,101 --> 00:09:50,382 e la città è diventata più sicura per tutti. 174 00:09:50,486 --> 00:09:55,841 Una soluzione può essere ridurre il numero di fermi ingiustificati. 175 00:09:56,285 --> 00:10:00,555 Un'altra può essere migliorare la qualità 176 00:10:00,579 --> 00:10:01,884 di queste operazioni. 177 00:10:02,512 --> 00:10:05,018 E in questo la tecnologia più aiutarci. 178 00:10:05,132 --> 00:10:07,547 Sappiamo tutti della morte di George Floyd, 179 00:10:08,499 --> 00:10:13,271 perché chi ha provato ad aiutarlo ha fatto un video con il cellulare 180 00:10:13,295 --> 00:10:18,256 di quel terribile e fatale incontro con la polizia. 181 00:10:18,750 --> 00:10:23,651 Ma ci sono diverse tecnologie che non sfruttiamo nel modo giusto. 182 00:10:23,805 --> 00:10:26,308 Nei dipartimenti di polizia di tutto il paese 183 00:10:26,332 --> 00:10:29,885 sono ora tenuti a tenere addosso delle telecamere 184 00:10:29,909 --> 00:10:35,839 quindi non abbiamo solo registrazioni degli incontri più estremi e terrificanti 185 00:10:35,863 --> 00:10:38,617 ma anche delle interazioni di tutti i giorni. 186 00:10:38,641 --> 00:10:41,418 Con un team interdisciplinare dell'Università di Stanford, 187 00:10:41,442 --> 00:10:44,129 abbiamo usato tecniche di apprendimento automatico 188 00:10:44,153 --> 00:10:47,520 per analizzare un gran numero di incontri. 189 00:10:47,544 --> 00:10:51,955 Questo per capire meglio cosa succede quando qualcuno viene fermato. 190 00:10:52,179 --> 00:10:54,334 Abbiamo scoperto 191 00:10:54,358 --> 00:10:58,020 che anche quando i poliziotti si comportano in modo professionale, 192 00:10:58,860 --> 00:11:03,322 si rivolgono meno rispettosamente agli autisti neri che a quelli bianchi. 193 00:11:04,052 --> 00:11:08,127 Solo dalle parole usate dai poliziotti, 194 00:11:08,151 --> 00:11:12,993 potevamo intuire se stavano parlando a un autista nero o bianco. 195 00:11:13,337 --> 00:11:19,099 Il problema è che la maggior parte dei video di queste telecamere 196 00:11:19,123 --> 00:11:21,210 non viene usata dai dipartimenti di polizia 197 00:11:21,234 --> 00:11:23,510 per capire cosa succede sulla strada 198 00:11:23,534 --> 00:11:25,777 o per formare i poliziotti. 199 00:11:26,554 --> 00:11:28,012 E questa è una vergogna. 200 00:11:28,796 --> 00:11:33,445 Come può un'operazione di routine trasformarsi in un incontro mortale? 201 00:11:33,609 --> 00:11:36,279 Com'è potuto succedere nel caso di George Floyd? 202 00:11:37,588 --> 00:11:39,670 Com'è potuto succedere in altri casi? 203 00:11:39,694 --> 00:11:43,090 A 16 anni, mio figlio maggiore 204 00:11:43,114 --> 00:11:47,635 ha scoperto che quando i bianchi lo guardano, provano paura. 205 00:11:49,123 --> 00:11:51,784 Il peggio sono gli ascensori, diceva. 206 00:11:52,313 --> 00:11:54,644 Quando quelle porte si chiudono, 207 00:11:54,668 --> 00:11:57,751 la gente si trova in trappola in uno spazio ristretto 208 00:11:57,775 --> 00:12:02,242 con qualcuno che hanno imparato ad associare al pericolo. 209 00:12:02,744 --> 00:12:05,964 Mio figlio sente il loro disagio, 210 00:12:05,988 --> 00:12:09,145 sorride per metterli a proprio agio, 211 00:12:09,169 --> 00:12:10,938 per calmare le loro paure. 212 00:12:11,351 --> 00:12:13,296 Quando parla, 213 00:12:13,320 --> 00:12:15,003 i loro corpi si rilassano. 214 00:12:15,442 --> 00:12:17,205 Respirano più facilmente. 215 00:12:17,369 --> 00:12:19,900 Apprezzano la sua cadenza, 216 00:12:19,924 --> 00:12:22,241 la sua dizione, la scelta delle parole. 217 00:12:22,986 --> 00:12:24,759 Sembra uno di loro. 218 00:12:24,853 --> 00:12:29,423 Prima pensavo che mio figlio fosse un estroverso come suo padre. 219 00:12:29,607 --> 00:12:33,157 Ma ho capito in quel momento, in quella conversazione, 220 00:12:34,143 --> 00:12:39,221 che il suo sorriso non era un desiderio di socializzare 221 00:12:39,245 --> 00:12:41,209 con presunti sconosciuti. 222 00:12:41,920 --> 00:12:45,572 Era un talismano che usava per proteggersi, 223 00:12:45,596 --> 00:12:51,815 una capacità di sopravvivenza affinata nei ripetuti viaggi in ascensore. 224 00:12:52,387 --> 00:12:57,558 Ha imparato ad attenuare la tensione generata dal colore della sua pelle 225 00:12:59,026 --> 00:13:01,693 e che metteva a rischio la sua vita. 226 00:13:02,619 --> 00:13:06,372 Sappiamo che il nostro cervello è predisposto al pregiudizio, 227 00:13:06,426 --> 00:13:10,851 e un modo per contrastarlo è fermarsi e riflettere 228 00:13:10,915 --> 00:13:13,136 sull'evidenza delle nostre supposizioni. 229 00:13:13,244 --> 00:13:14,999 Quindi dobbiamo chiederci: 230 00:13:15,023 --> 00:13:19,688 Quali supposizioni facciamo quando saliamo su un ascensore? 231 00:13:21,776 --> 00:13:23,087 O su un aereo? 232 00:13:23,532 --> 00:13:28,131 Come ci rendiamo conto del nostro pregiudizio inconscio? 233 00:13:28,155 --> 00:13:30,506 Chi proteggono queste supposizioni? 234 00:13:32,615 --> 00:13:34,547 Chi mettono a rischio? 235 00:13:35,649 --> 00:13:38,003 Finché non ci facciamo queste domande 236 00:13:38,978 --> 00:13:43,602 insistendo che le scuole, i tribunali, i dipartimenti di polizia 237 00:13:43,626 --> 00:13:46,168 e tutte le istituzioni facciano lo stesso, 238 00:13:47,835 --> 00:13:52,626 continueremo a permettere che il pregiudizio ci accechi. 239 00:13:53,348 --> 00:13:54,757 E se lo facciamo, 240 00:13:56,066 --> 00:13:59,274 nessuno di noi è veramente al sicuro. 241 00:14:02,103 --> 00:14:03,411 Grazie.