WEBVTT 00:00:00.830 --> 00:00:02.133 Qualche anno fa, 00:00:02.133 --> 00:00:07.119 ero su un aereo con mio figlio che all'epoca aveva cinque anni. 00:00:08.245 --> 00:00:13.287 Mio figlio era felicissimo di essere su un aereo con la sua mamma. 00:00:13.364 --> 00:00:16.284 Si guardava intorno, osservava le cose che vedeva, 00:00:16.284 --> 00:00:18.164 osservava le persone. 00:00:18.164 --> 00:00:19.788 Vide un uomo e disse: 00:00:19.788 --> 00:00:22.703 "Ehi! Quel signore è uguale a papà!" 00:00:23.882 --> 00:00:25.802 Io guardai il signore, 00:00:25.802 --> 00:00:29.556 non assomigliava affatto a mio marito, 00:00:29.556 --> 00:00:30.949 proprio per niente. 00:00:31.461 --> 00:00:33.797 Allora mi guardai intorno nell'aereo, 00:00:33.821 --> 00:00:39.706 e notai che questo signore era l'unico uomo nero a bordo. 00:00:40.874 --> 00:00:42.286 E pensai: 00:00:42.310 --> 00:00:43.504 "Bene. 00:00:44.369 --> 00:00:46.894 Dovrò fare un bel discorso a mio figlio 00:00:46.894 --> 00:00:49.767 sul fatto che le persone di colore non sono tutte uguali". 00:00:49.871 --> 00:00:54.248 Mio figlio alzò lo sguardo e mi disse: 00:00:56.246 --> 00:00:58.617 "Spero che non rapini l'aereo". 00:00:59.359 --> 00:01:01.874 E io risposi: "Cos'hai detto?" 00:01:01.898 --> 00:01:05.326 Lui ripetè: "Spero che non rapini l'aereo". 00:01:07.200 --> 00:01:09.952 E io dissi: "Perché dici così? 00:01:10.486 --> 00:01:13.009 Lo sai che papà non rapinerebbe un aereo". 00:01:13.173 --> 00:01:15.485 Lui disse: "Sì certo, lo so". 00:01:16.179 --> 00:01:18.306 E io: "Allora perché l'hai detto?" 00:01:20.346 --> 00:01:23.303 Lui mi guardò con una faccia triste, 00:01:24.168 --> 00:01:25.422 e mi disse: 00:01:26.890 --> 00:01:28.996 "Non so perché l'ho detto. 00:01:30.600 --> 00:01:32.958 Non so perché l'ho pensato". NOTE Paragraph 00:01:33.724 --> 00:01:37.242 Viviamo con una stratificazione razziale così rigida 00:01:37.266 --> 00:01:42.326 che perfino un bambino di cinque anni può dirci cosa si suppone accadrà, 00:01:43.990 --> 00:01:46.097 anche se non ci sono malfattori, 00:01:46.121 --> 00:01:48.700 anche se non c'è un'esplicita ostilità. 00:01:50.184 --> 00:01:54.097 L'associazione tra essere nero e crimine 00:01:54.121 --> 00:01:58.455 è arrivata fino alla mente del mio bambino di cinque anni. 00:01:59.787 --> 00:02:03.050 Arriva a tutti i nostri bambini, 00:02:04.201 --> 00:02:05.592 a tutti noi. 00:02:06.793 --> 00:02:10.317 Le nostre menti sono plasmate dalle disparità razziali 00:02:10.341 --> 00:02:11.933 che vediamo nel mondo 00:02:12.752 --> 00:02:18.093 e dai racconti che ci aiutano a dare un senso a quelle disparità: 00:02:19.637 --> 00:02:22.163 "Quelle persone sono criminali". 00:02:22.187 --> 00:02:24.112 "Quelle persone sono violente". 00:02:24.136 --> 00:02:27.101 "Quelle persone devono essere temute". NOTE Paragraph 00:02:27.814 --> 00:02:31.005 In una ricerca fatta nel nostro laboratorio 00:02:31.029 --> 00:02:33.312 abbiamo mostrato dei volti a delle persone 00:02:33.336 --> 00:02:36.452 e abbiamo notato che dopo aver visto volti neri 00:02:36.452 --> 00:02:43.138 vedevano immagini sfocate di pistole con maggiore nitidezza e velocità. 00:02:43.640 --> 00:02:46.994 Il pregiudizio non controlla solo ciò che vediamo, 00:02:47.018 --> 00:02:48.666 ma anche dove guardiamo. 00:02:48.690 --> 00:02:52.134 Si è notato che indurre le persone a pensare a crimini violenti 00:02:52.158 --> 00:02:56.454 può portare il loro sguardo verso i volti neri 00:02:56.478 --> 00:02:58.608 e lontano da quelli bianchi. 00:02:58.632 --> 00:03:02.474 Anche indurre dei poliziotti a pensare a una cattura, a una sparatoria 00:03:02.498 --> 00:03:03.727 e a un arresto 00:03:03.751 --> 00:03:07.610 li porta a volgere lo sguardo verso i volti neri. NOTE Paragraph 00:03:07.634 --> 00:03:12.700 Il pregiudizio può infettare ogni aspetto del sistema di giustizia penale. 00:03:13.040 --> 00:03:16.185 Studiando un archivio di imputati che rischiavano la pena di morte, 00:03:16.185 --> 00:03:20.412 abbiamo scoperto che l'essere nero aumentava più del doppio la possibilità 00:03:20.436 --> 00:03:22.493 di ricevere la pena capitale, 00:03:23.494 --> 00:03:25.921 almeno quando le vittime erano bianche. 00:03:25.945 --> 00:03:27.383 Il risultato è significativo, 00:03:27.407 --> 00:03:30.708 anche tenendo conto della gravità del crimine 00:03:30.732 --> 00:03:33.013 e dell'aspetto fisico dell'imputato. 00:03:33.037 --> 00:03:35.686 E qualsiasi aspetto controllassimo, 00:03:35.710 --> 00:03:39.055 abbiamo scoperto che le persone di colore venivano punite 00:03:39.079 --> 00:03:43.404 in proporzione a quanto nera fosse la loro pelle: 00:03:43.428 --> 00:03:45.309 più nero, 00:03:45.333 --> 00:03:47.086 più degno di morire. NOTE Paragraph 00:03:47.110 --> 00:03:48.976 Il pregiudizio può anche influenzare 00:03:48.976 --> 00:03:51.781 come gli insegnanti puniscono gli studenti. 00:03:51.781 --> 00:03:53.668 Io e miei colleghi abbiamo scoperto 00:03:53.668 --> 00:03:59.778 che gli insegnanti tendono a punire uno studente nero in modo più duro 00:03:59.802 --> 00:04:00.970 rispetto a uno bianco 00:04:00.994 --> 00:04:03.570 per le stesse infrazioni. 00:04:03.594 --> 00:04:04.888 Da uno studio recente, 00:04:04.912 --> 00:04:09.270 emerge che gli studenti neri vengono trattati come un gruppo 00:04:09.294 --> 00:04:11.725 mentre quelli bianchi come individui. 00:04:12.126 --> 00:04:15.725 Per esempio, se uno studente nero si comporta male 00:04:15.749 --> 00:04:20.534 e qualche giorno dopo un altro studente nero si comporta male, 00:04:20.558 --> 00:04:23.786 l'insegnante risponde al secondo studente 00:04:23.810 --> 00:04:26.435 come se si fosse comportato male due volte. 00:04:26.952 --> 00:04:29.763 È come se le colpe di un bambino 00:04:29.787 --> 00:04:31.963 si sommassero a quelle di un altro. NOTE Paragraph 00:04:31.987 --> 00:04:35.281 Creiamo categorie per trovare un senso al mondo, 00:04:35.305 --> 00:04:43.623 per dare coerenza agli stimoli con cui siamo bombardati di continuo. 00:04:43.926 --> 00:04:47.894 La categorizzazione e il pregiudizio che ne deriva 00:04:47.918 --> 00:04:52.940 permettono al nostro cervello di giudicare in modo veloce ed efficiente. 00:04:52.964 --> 00:04:56.366 Questo perché ci affidiamo istintivamente a degli schemi 00:04:56.390 --> 00:04:58.059 che sembrano prevedibili. 00:04:58.083 --> 00:05:04.026 Ma mentre le categorie che creiamo ci aiutano a prendere decisioni rapide, 00:05:04.050 --> 00:05:06.552 rinforzano anche il pregiudizio. 00:05:06.576 --> 00:05:09.968 Quindi proprio gli strumenti che ci aiutano a vedere il mondo 00:05:11.104 --> 00:05:13.084 possono anche renderci ciechi. 00:05:13.509 --> 00:05:16.287 Rendono le nostre scelte più semplici, 00:05:16.311 --> 00:05:17.680 prive di resistenze. 00:05:18.956 --> 00:05:21.401 Eppure comportano pesanti conseguenze. NOTE Paragraph 00:05:22.158 --> 00:05:23.569 Quindi cosa possiamo fare? 00:05:24.507 --> 00:05:26.998 Siamo tutti vulnerabili ai pregiudizi, 00:05:27.022 --> 00:05:29.702 ma non agiamo sempre in base ai pregiudizi. 00:05:29.726 --> 00:05:33.370 Ci sono situazioni che fanno emergere i pregiudizi 00:05:33.394 --> 00:05:35.927 e altre che li smorzano. NOTE Paragraph 00:05:35.951 --> 00:05:37.798 Vi faccio un esempio. 00:05:38.663 --> 00:05:43.223 Molti conoscono l'azienda tecnologica Nextdoor. 00:05:44.073 --> 00:05:50.526 Il suo obiettivo è creare quartieri più forti, sani e sicuri. 00:05:51.468 --> 00:05:54.389 Offre uno spazio online 00:05:54.413 --> 00:05:57.562 dove persone dello stesso quartiere dialogano e scambiano notizie. 00:05:57.586 --> 00:06:01.712 Nextdoor ha subito notato di avere un problema 00:06:01.736 --> 00:06:03.404 con la profilazione razziale. 00:06:04.012 --> 00:06:05.979 Nel caso tipico, 00:06:06.003 --> 00:06:08.399 le persone guardavano fuori dalla finestra 00:06:08.423 --> 00:06:12.472 e vedendo un uomo nero nel loro quartiere di gente bianca 00:06:12.496 --> 00:06:17.211 supponevano subito che avesse cattive intenzioni, 00:06:17.235 --> 00:06:20.586 anche senza evidenza di atti criminali. 00:06:20.610 --> 00:06:23.544 Spesso il modo in cui ci comportiamo online 00:06:23.568 --> 00:06:26.682 riflette il modo in cui ci comportiamo nel mondo. 00:06:27.117 --> 00:06:31.062 Ma non vogliamo creare un sistema semplice 00:06:31.086 --> 00:06:35.249 che amplifichi i pregiudizi e intensifichi le disparità razziali, 00:06:36.129 --> 00:06:38.395 invece che eliminarli. NOTE Paragraph 00:06:38.863 --> 00:06:42.292 Quindi il cofondatore di Nextdoor ha contattato me e altre persone 00:06:42.316 --> 00:06:44.137 per capire cosa fare. 00:06:44.471 --> 00:06:48.034 E ha capito che per diminuire la profilazione razziale sulla piattaforma 00:06:48.141 --> 00:06:50.363 dovevano aggiungere un elemento frenante, 00:06:50.387 --> 00:06:53.045 dovevano mettere un freno alle persone. 00:06:53.069 --> 00:06:55.264 Nextdoor aveva una scelta da fare, 00:06:55.288 --> 00:06:57.766 e contro ogni impulso, 00:06:57.790 --> 00:06:59.906 ha deciso di aggiungere un elemento frenante. 00:07:00.397 --> 00:07:03.837 E l'ha fatto aggiungendo una semplice lista, 00:07:03.861 --> 00:07:05.531 con tre domande. 00:07:06.111 --> 00:07:09.608 Prima di tutto ha chiesto agli utenti di fermarsi a pensare: 00:07:09.608 --> 00:07:14.193 "Cos'ha fatto di sospetto questa persona?" 00:07:14.876 --> 00:07:19.409 La categoria "uomo nero" non è motivo di sospetto. 00:07:19.433 --> 00:07:24.572 Poi, ha chiesto di descrivere i tratti fisici della persona, 00:07:24.596 --> 00:07:27.031 non semplicemente la razza e il sesso. 00:07:27.642 --> 00:07:29.795 Infine, hanno notato 00:07:29.795 --> 00:07:33.977 che molti non sembravano sapere cosa fosse la profilazione razziale, 00:07:34.001 --> 00:07:35.960 né che vi stavano partecipando. 00:07:36.462 --> 00:07:39.656 Quindi Nextdoor ha dato loro una definizione 00:07:39.680 --> 00:07:42.582 aggiungendo che era severamente proibito. 00:07:43.011 --> 00:07:45.683 Molti di voi avranno visto quel cartello negli aeroporti 00:07:45.707 --> 00:07:49.409 e nelle stazioni metro: "Se vedi qualcosa, dì qualcosa". 00:07:49.928 --> 00:07:52.742 Nextdoor ha provato a modificarlo: 00:07:53.584 --> 00:07:56.156 "Se vedi qualcosa di sospetto, 00:07:56.180 --> 00:07:58.253 dì qualcosa di specifico". 00:07:59.491 --> 00:08:03.937 E usando questa strategia, mettendo un freno alle persone, 00:08:03.961 --> 00:08:09.652 Nexdoor è riuscita a ridurre la profilazione razziale del 75%. NOTE Paragraph 00:08:10.496 --> 00:08:12.586 Spesso mi è stato detto: 00:08:12.610 --> 00:08:17.323 "Non puoi aggiungere un elemento frenante in ogni situazione o contesto, 00:08:17.347 --> 00:08:21.993 soprattutto per chi prende decisioni rapide di continuo". 00:08:22.730 --> 00:08:25.293 Ma in realtà possiamo aggiungere un elemento frenante 00:08:25.317 --> 00:08:27.593 più spesso di quanto pensiamo. 00:08:28.031 --> 00:08:30.105 Lavorando con la Polizia di Oakland 00:08:30.129 --> 00:08:31.546 in California, 00:08:31.570 --> 00:08:35.426 io e dei miei colleghi siamo riusciti ad aiutare il dipartimento 00:08:35.450 --> 00:08:37.884 a ridurre il numero di fermi 00:08:37.884 --> 00:08:41.745 di persone che non avevano commesso alcun crimine grave. 00:08:41.769 --> 00:08:44.134 Siamo riusciti a farlo spingendo i poliziotti 00:08:44.158 --> 00:08:48.601 a farsi una domanda prima di ogni fermo: 00:08:49.451 --> 00:08:52.466 "Questo fermo è motivato, 00:08:52.490 --> 00:08:53.941 sì o no?" 00:08:55.353 --> 00:08:56.749 In altre parole, 00:08:57.621 --> 00:09:02.105 ho abbastanza informazioni per associare questa persona 00:09:02.129 --> 00:09:03.730 a un crimine ben preciso? 00:09:04.587 --> 00:09:06.045 Aggiungendo questa domanda 00:09:06.069 --> 00:09:09.148 alla scheda che completano quando fermano qualcuno, 00:09:09.172 --> 00:09:10.981 rallentano, si fermano un momento, 00:09:11.005 --> 00:09:15.225 e pensano: "Perché sto fermando questa persona?" NOTE Paragraph 00:09:16.721 --> 00:09:22.282 Nel 2017, prima di aver aggiunto questa domanda alla scheda, 00:09:23.655 --> 00:09:27.601 la polizia ha effettuato circa 32.000 fermi in tutta la città. 00:09:27.625 --> 00:09:31.740 L'anno successivo, con l'aggiunta di questa domanda, 00:09:31.764 --> 00:09:34.208 sono scesi a 19.000 casi. 00:09:34.232 --> 00:09:39.193 Il numero di afroamericani fermati è sceso del 43%. 00:09:39.905 --> 00:09:44.253 E fermare meno gente di colore non ha reso la città più pericolosa. 00:09:44.367 --> 00:09:47.101 In realtà, il tasso di criminalità è diminuito, 00:09:47.101 --> 00:09:50.382 e la città è diventata più sicura per tutti. NOTE Paragraph 00:09:50.486 --> 00:09:55.841 Una soluzione può essere ridurre il numero di fermi ingiustificati. 00:09:56.285 --> 00:10:00.555 Un'altra può essere migliorare la qualità 00:10:00.579 --> 00:10:01.884 di queste operazioni. 00:10:02.512 --> 00:10:05.018 E in questo la tecnologia più aiutarci. 00:10:05.132 --> 00:10:07.547 Sappiamo tutti della morte di George Floyd, 00:10:08.499 --> 00:10:13.271 perché chi ha provato ad aiutarlo ha fatto un video con il cellulare 00:10:13.295 --> 00:10:18.256 di quel terribile e fatale incontro con la polizia. 00:10:18.750 --> 00:10:23.651 Ma ci sono diverse tecnologie che non sfruttiamo nel modo giusto. 00:10:23.805 --> 00:10:26.308 Nei dipartimenti di polizia di tutto il paese 00:10:26.332 --> 00:10:29.885 sono ora tenuti a tenere addosso delle telecamere 00:10:29.909 --> 00:10:35.839 quindi non abbiamo solo registrazioni degli incontri più estremi e terrificanti 00:10:35.863 --> 00:10:38.617 ma anche delle interazioni di tutti i giorni. NOTE Paragraph 00:10:38.641 --> 00:10:41.418 Con un team interdisciplinare dell'Università di Stanford, 00:10:41.442 --> 00:10:44.129 abbiamo usato tecniche di apprendimento automatico 00:10:44.153 --> 00:10:47.520 per analizzare un gran numero di incontri. 00:10:47.544 --> 00:10:51.955 Questo per capire meglio cosa succede quando qualcuno viene fermato. 00:10:52.179 --> 00:10:54.334 Abbiamo scoperto 00:10:54.358 --> 00:10:58.020 che anche quando i poliziotti si comportano in modo professionale, 00:10:58.860 --> 00:11:03.322 si rivolgono meno rispettosamente agli autisti neri che a quelli bianchi. 00:11:04.052 --> 00:11:08.127 Solo dalle parole usate dai poliziotti, 00:11:08.151 --> 00:11:12.993 potevamo intuire se stavano parlando a un autista nero o bianco. NOTE Paragraph 00:11:13.337 --> 00:11:19.099 Il problema è che la maggior parte dei video di queste telecamere 00:11:19.123 --> 00:11:21.210 non viene usata dai dipartimenti di polizia 00:11:21.234 --> 00:11:23.510 per capire cosa succede sulla strada 00:11:23.534 --> 00:11:25.777 o per formare i poliziotti. 00:11:26.554 --> 00:11:28.012 E questa è una vergogna. 00:11:28.796 --> 00:11:33.445 Come può un'operazione di routine trasformarsi in un incontro mortale? 00:11:33.609 --> 00:11:36.279 Com'è potuto succedere nel caso di George Floyd? 00:11:37.588 --> 00:11:39.670 Com'è potuto succedere in altri casi? NOTE Paragraph 00:11:39.694 --> 00:11:43.090 A 16 anni, mio figlio maggiore 00:11:43.114 --> 00:11:47.635 ha scoperto che quando i bianchi lo guardano, provano paura. 00:11:49.123 --> 00:11:51.784 Il peggio sono gli ascensori, diceva. 00:11:52.313 --> 00:11:54.644 Quando quelle porte si chiudono, 00:11:54.668 --> 00:11:57.751 la gente si trova in trappola in uno spazio ristretto 00:11:57.775 --> 00:12:02.242 con qualcuno che hanno imparato ad associare al pericolo. 00:12:02.744 --> 00:12:05.964 Mio figlio sente il loro disagio, 00:12:05.988 --> 00:12:09.145 sorride per metterli a proprio agio, 00:12:09.169 --> 00:12:10.938 per calmare le loro paure. 00:12:11.351 --> 00:12:13.296 Quando parla, 00:12:13.320 --> 00:12:15.003 i loro corpi si rilassano. 00:12:15.442 --> 00:12:17.205 Respirano più facilmente. 00:12:17.369 --> 00:12:19.900 Apprezzano la sua cadenza, 00:12:19.924 --> 00:12:22.241 la sua dizione, la scelta delle parole. 00:12:22.986 --> 00:12:24.759 Sembra uno di loro. 00:12:24.853 --> 00:12:29.423 Prima pensavo che mio figlio fosse un estroverso come suo padre. 00:12:29.607 --> 00:12:33.157 Ma ho capito in quel momento, in quella conversazione, 00:12:34.143 --> 00:12:39.221 che il suo sorriso non era un desiderio di socializzare 00:12:39.245 --> 00:12:41.209 con presunti sconosciuti. 00:12:41.920 --> 00:12:45.572 Era un talismano che usava per proteggersi, 00:12:45.596 --> 00:12:51.815 una capacità di sopravvivenza affinata nei ripetuti viaggi in ascensore. 00:12:52.387 --> 00:12:57.558 Ha imparato ad attenuare la tensione generata dal colore della sua pelle 00:12:59.026 --> 00:13:01.693 e che metteva a rischio la sua vita. NOTE Paragraph 00:13:02.619 --> 00:13:06.372 Sappiamo che il nostro cervello è predisposto al pregiudizio, 00:13:06.426 --> 00:13:10.851 e un modo per contrastarlo è fermarsi e riflettere 00:13:10.915 --> 00:13:13.136 sull'evidenza delle nostre supposizioni. 00:13:13.244 --> 00:13:14.999 Quindi dobbiamo chiederci: 00:13:15.023 --> 00:13:19.688 Quali supposizioni facciamo quando saliamo su un ascensore? 00:13:21.776 --> 00:13:23.087 O su un aereo? 00:13:23.532 --> 00:13:28.131 Come ci rendiamo conto del nostro pregiudizio inconscio? 00:13:28.155 --> 00:13:30.506 Chi proteggono queste supposizioni? 00:13:32.615 --> 00:13:34.547 Chi mettono a rischio? 00:13:35.649 --> 00:13:38.003 Finché non ci facciamo queste domande 00:13:38.978 --> 00:13:43.602 insistendo che le scuole, i tribunali, i dipartimenti di polizia 00:13:43.626 --> 00:13:46.168 e tutte le istituzioni facciano lo stesso, 00:13:47.835 --> 00:13:52.626 continueremo a permettere che il pregiudizio ci accechi. 00:13:53.348 --> 00:13:54.757 E se lo facciamo, 00:13:56.066 --> 00:13:59.274 nessuno di noi è veramente al sicuro. NOTE Paragraph 00:14:02.103 --> 00:14:03.411 Grazie.