0:00:00.830,0:00:02.133 Qualche anno fa, 0:00:02.133,0:00:07.119 ero su un aereo con mio figlio[br]che all'epoca aveva cinque anni. 0:00:08.245,0:00:13.287 Mio figlio era felicissimo[br]di essere su un aereo con la sua mamma. 0:00:13.364,0:00:16.284 Si guardava intorno,[br]osservava le cose che vedeva, 0:00:16.284,0:00:18.164 osservava le persone. 0:00:18.164,0:00:19.788 Vide un uomo e disse: 0:00:19.788,0:00:22.703 "Ehi! Quel signore è uguale a papà!" 0:00:23.882,0:00:25.802 Io guardai il signore, 0:00:25.802,0:00:29.556 non assomigliava affatto a mio marito, 0:00:29.556,0:00:30.949 proprio per niente. 0:00:31.461,0:00:33.797 Allora mi guardai intorno nell'aereo, 0:00:33.821,0:00:39.706 e notai che questo signore[br]era l'unico uomo nero a bordo. 0:00:40.874,0:00:42.286 E pensai: 0:00:42.310,0:00:43.504 "Bene. 0:00:44.369,0:00:46.894 Dovrò fare un bel discorso a mio figlio 0:00:46.894,0:00:49.767 sul fatto che le persone di colore[br]non sono tutte uguali". 0:00:49.871,0:00:54.248 Mio figlio alzò lo sguardo e mi disse: 0:00:56.246,0:00:58.617 "Spero che non rapini l'aereo". 0:00:59.359,0:01:01.874 E io risposi: "Cos'hai detto?" 0:01:01.898,0:01:05.326 Lui ripetè:[br]"Spero che non rapini l'aereo". 0:01:07.200,0:01:09.952 E io dissi: "Perché dici così? 0:01:10.486,0:01:13.009 Lo sai che papà non rapinerebbe un aereo". 0:01:13.173,0:01:15.485 Lui disse: "Sì certo, lo so". 0:01:16.179,0:01:18.306 E io: "Allora perché l'hai detto?" 0:01:20.346,0:01:23.303 Lui mi guardò con una faccia triste, 0:01:24.168,0:01:25.422 e mi disse: 0:01:26.890,0:01:28.996 "Non so perché l'ho detto. 0:01:30.600,0:01:32.958 Non so perché l'ho pensato". 0:01:33.724,0:01:37.242 Viviamo con una stratificazione[br]razziale così rigida 0:01:37.266,0:01:42.326 che perfino un bambino di cinque anni[br]può dirci cosa si suppone accadrà, 0:01:43.990,0:01:46.097 anche se non ci sono malfattori, 0:01:46.121,0:01:48.700 anche se non c'è un'esplicita ostilità. 0:01:50.184,0:01:54.097 L'associazione tra essere nero e crimine 0:01:54.121,0:01:58.455 è arrivata fino alla mente[br]del mio bambino di cinque anni. 0:01:59.787,0:02:03.050 Arriva a tutti i nostri bambini, 0:02:04.201,0:02:05.592 a tutti noi. 0:02:06.793,0:02:10.317 Le nostre menti sono plasmate[br]dalle disparità razziali 0:02:10.341,0:02:11.933 che vediamo nel mondo 0:02:12.752,0:02:18.093 e dai racconti che ci aiutano[br]a dare un senso a quelle disparità: 0:02:19.637,0:02:22.163 "Quelle persone sono criminali". 0:02:22.187,0:02:24.112 "Quelle persone sono violente". 0:02:24.136,0:02:27.101 "Quelle persone devono essere temute". 0:02:27.814,0:02:31.005 In una ricerca[br]fatta nel nostro laboratorio 0:02:31.029,0:02:33.312 abbiamo mostrato dei volti a delle persone 0:02:33.336,0:02:36.452 e abbiamo notato[br]che dopo aver visto volti neri 0:02:36.452,0:02:43.138 vedevano immagini sfocate di pistole[br]con maggiore nitidezza e velocità. 0:02:43.640,0:02:46.994 Il pregiudizio non controlla[br]solo ciò che vediamo, 0:02:47.018,0:02:48.666 ma anche dove guardiamo. 0:02:48.690,0:02:52.134 Si è notato che indurre le persone[br]a pensare a crimini violenti 0:02:52.158,0:02:56.454 può portare il loro sguardo[br]verso i volti neri 0:02:56.478,0:02:58.608 e lontano da quelli bianchi. 0:02:58.632,0:03:02.474 Anche indurre dei poliziotti[br]a pensare a una cattura, a una sparatoria 0:03:02.498,0:03:03.727 e a un arresto 0:03:03.751,0:03:07.610 li porta a volgere lo sguardo[br]verso i volti neri. 0:03:07.634,0:03:12.700 Il pregiudizio può infettare ogni aspetto[br]del sistema di giustizia penale. 0:03:13.040,0:03:16.185 Studiando un archivio di imputati[br]che rischiavano la pena di morte, 0:03:16.185,0:03:20.412 abbiamo scoperto che l'essere nero[br]aumentava più del doppio la possibilità 0:03:20.436,0:03:22.493 di ricevere la pena capitale, 0:03:23.494,0:03:25.921 almeno quando le vittime erano bianche. 0:03:25.945,0:03:27.383 Il risultato è significativo, 0:03:27.407,0:03:30.708 anche tenendo conto[br]della gravità del crimine 0:03:30.732,0:03:33.013 e dell'aspetto fisico dell'imputato. 0:03:33.037,0:03:35.686 E qualsiasi aspetto controllassimo, 0:03:35.710,0:03:39.055 abbiamo scoperto[br]che le persone di colore venivano punite 0:03:39.079,0:03:43.404 in proporzione a quanto nera[br]fosse la loro pelle: 0:03:43.428,0:03:45.309 più nero, 0:03:45.333,0:03:47.086 più degno di morire. 0:03:47.110,0:03:48.976 Il pregiudizio può anche influenzare 0:03:48.976,0:03:51.781 come gli insegnanti[br]puniscono gli studenti. 0:03:51.781,0:03:53.668 Io e miei colleghi abbiamo scoperto 0:03:53.668,0:03:59.778 che gli insegnanti tendono a punire[br]uno studente nero in modo più duro 0:03:59.802,0:04:00.970 rispetto a uno bianco 0:04:00.994,0:04:03.570 per le stesse infrazioni. 0:04:03.594,0:04:04.888 Da uno studio recente, 0:04:04.912,0:04:09.270 emerge che gli studenti neri[br]vengono trattati come un gruppo 0:04:09.294,0:04:11.725 mentre quelli bianchi come individui. 0:04:12.126,0:04:15.725 Per esempio, se uno studente nero[br]si comporta male 0:04:15.749,0:04:20.534 e qualche giorno dopo[br]un altro studente nero si comporta male, 0:04:20.558,0:04:23.786 l'insegnante risponde al secondo studente 0:04:23.810,0:04:26.435 come se si fosse[br]comportato male due volte. 0:04:26.952,0:04:29.763 È come se le colpe di un bambino 0:04:29.787,0:04:31.963 si sommassero a quelle di un altro. 0:04:31.987,0:04:35.281 Creiamo categorie[br]per trovare un senso al mondo, 0:04:35.305,0:04:43.623 per dare coerenza agli stimoli[br]con cui siamo bombardati di continuo. 0:04:43.926,0:04:47.894 La categorizzazione[br]e il pregiudizio che ne deriva 0:04:47.918,0:04:52.940 permettono al nostro cervello[br]di giudicare in modo veloce ed efficiente. 0:04:52.964,0:04:56.366 Questo perché ci affidiamo[br]istintivamente a degli schemi 0:04:56.390,0:04:58.059 che sembrano prevedibili. 0:04:58.083,0:05:04.026 Ma mentre le categorie che creiamo[br]ci aiutano a prendere decisioni rapide, 0:05:04.050,0:05:06.552 rinforzano anche il pregiudizio. 0:05:06.576,0:05:09.968 Quindi proprio gli strumenti[br]che ci aiutano a vedere il mondo 0:05:11.104,0:05:13.084 possono anche renderci ciechi. 0:05:13.509,0:05:16.287 Rendono le nostre scelte più semplici, 0:05:16.311,0:05:17.680 prive di resistenze. 0:05:18.956,0:05:21.401 Eppure comportano pesanti conseguenze. 0:05:22.158,0:05:23.569 Quindi cosa possiamo fare? 0:05:24.507,0:05:26.998 Siamo tutti vulnerabili ai pregiudizi, 0:05:27.022,0:05:29.702 ma non agiamo sempre[br]in base ai pregiudizi. 0:05:29.726,0:05:33.370 Ci sono situazioni[br]che fanno emergere i pregiudizi 0:05:33.394,0:05:35.927 e altre che li smorzano. 0:05:35.951,0:05:37.798 Vi faccio un esempio. 0:05:38.663,0:05:43.223 Molti conoscono[br]l'azienda tecnologica Nextdoor. 0:05:44.073,0:05:50.526 Il suo obiettivo è creare[br]quartieri più forti, sani e sicuri. 0:05:51.468,0:05:54.389 Offre uno spazio online 0:05:54.413,0:05:57.562 dove persone dello stesso quartiere[br]dialogano e scambiano notizie. 0:05:57.586,0:06:01.712 Nextdoor ha subito notato[br]di avere un problema 0:06:01.736,0:06:03.404 con la profilazione razziale. 0:06:04.012,0:06:05.979 Nel caso tipico, 0:06:06.003,0:06:08.399 le persone guardavano[br]fuori dalla finestra 0:06:08.423,0:06:12.472 e vedendo un uomo nero[br]nel loro quartiere di gente bianca 0:06:12.496,0:06:17.211 supponevano subito[br]che avesse cattive intenzioni, 0:06:17.235,0:06:20.586 anche senza evidenza di atti criminali. 0:06:20.610,0:06:23.544 Spesso il modo[br]in cui ci comportiamo online 0:06:23.568,0:06:26.682 riflette il modo[br]in cui ci comportiamo nel mondo. 0:06:27.117,0:06:31.062 Ma non vogliamo creare[br]un sistema semplice 0:06:31.086,0:06:35.249 che amplifichi i pregiudizi[br]e intensifichi le disparità razziali, 0:06:36.129,0:06:38.395 invece che eliminarli. 0:06:38.863,0:06:42.292 Quindi il cofondatore di Nextdoor[br]ha contattato me e altre persone 0:06:42.316,0:06:44.137 per capire cosa fare. 0:06:44.471,0:06:48.034 E ha capito che per diminuire[br]la profilazione razziale sulla piattaforma 0:06:48.141,0:06:50.363 dovevano aggiungere un elemento frenante, 0:06:50.387,0:06:53.045 dovevano mettere un freno alle persone. 0:06:53.069,0:06:55.264 Nextdoor aveva una scelta da fare, 0:06:55.288,0:06:57.766 e contro ogni impulso, 0:06:57.790,0:06:59.906 ha deciso di aggiungere[br]un elemento frenante. 0:07:00.397,0:07:03.837 E l'ha fatto[br]aggiungendo una semplice lista, 0:07:03.861,0:07:05.531 con tre domande. 0:07:06.111,0:07:09.608 Prima di tutto ha chiesto agli utenti[br]di fermarsi a pensare: 0:07:09.608,0:07:14.193 "Cos'ha fatto di sospetto questa persona?" 0:07:14.876,0:07:19.409 La categoria "uomo nero"[br]non è motivo di sospetto. 0:07:19.433,0:07:24.572 Poi, ha chiesto di descrivere[br]i tratti fisici della persona, 0:07:24.596,0:07:27.031 non semplicemente la razza e il sesso. 0:07:27.642,0:07:29.795 Infine, hanno notato 0:07:29.795,0:07:33.977 che molti non sembravano sapere[br]cosa fosse la profilazione razziale, 0:07:34.001,0:07:35.960 né che vi stavano partecipando. 0:07:36.462,0:07:39.656 Quindi Nextdoor[br]ha dato loro una definizione 0:07:39.680,0:07:42.582 aggiungendo che era severamente proibito. 0:07:43.011,0:07:45.683 Molti di voi avranno visto[br]quel cartello negli aeroporti 0:07:45.707,0:07:49.409 e nelle stazioni metro:[br]"Se vedi qualcosa, dì qualcosa". 0:07:49.928,0:07:52.742 Nextdoor ha provato a modificarlo: 0:07:53.584,0:07:56.156 "Se vedi qualcosa di sospetto, 0:07:56.180,0:07:58.253 dì qualcosa di specifico". 0:07:59.491,0:08:03.937 E usando questa strategia,[br]mettendo un freno alle persone, 0:08:03.961,0:08:09.652 Nexdoor è riuscita a ridurre[br]la profilazione razziale del 75%. 0:08:10.496,0:08:12.586 Spesso mi è stato detto: 0:08:12.610,0:08:17.323 "Non puoi aggiungere un elemento frenante[br]in ogni situazione o contesto, 0:08:17.347,0:08:21.993 soprattutto per chi prende[br]decisioni rapide di continuo". 0:08:22.730,0:08:25.293 Ma in realtà possiamo aggiungere[br]un elemento frenante 0:08:25.317,0:08:27.593 più spesso di quanto pensiamo. 0:08:28.031,0:08:30.105 Lavorando con la Polizia di Oakland 0:08:30.129,0:08:31.546 in California, 0:08:31.570,0:08:35.426 io e dei miei colleghi[br]siamo riusciti ad aiutare il dipartimento 0:08:35.450,0:08:37.884 a ridurre il numero di fermi 0:08:37.884,0:08:41.745 di persone che non avevano commesso[br]alcun crimine grave. 0:08:41.769,0:08:44.134 Siamo riusciti a farlo[br]spingendo i poliziotti 0:08:44.158,0:08:48.601 a farsi una domanda prima di ogni fermo: 0:08:49.451,0:08:52.466 "Questo fermo è motivato, 0:08:52.490,0:08:53.941 sì o no?" 0:08:55.353,0:08:56.749 In altre parole, 0:08:57.621,0:09:02.105 ho abbastanza informazioni[br]per associare questa persona 0:09:02.129,0:09:03.730 a un crimine ben preciso? 0:09:04.587,0:09:06.045 Aggiungendo questa domanda 0:09:06.069,0:09:09.148 alla scheda che completano[br]quando fermano qualcuno, 0:09:09.172,0:09:10.981 rallentano, si fermano un momento, 0:09:11.005,0:09:15.225 e pensano: "Perché[br]sto fermando questa persona?" 0:09:16.721,0:09:22.282 Nel 2017, prima di aver aggiunto[br]questa domanda alla scheda, 0:09:23.655,0:09:27.601 la polizia ha effettuato[br]circa 32.000 fermi in tutta la città. 0:09:27.625,0:09:31.740 L'anno successivo,[br]con l'aggiunta di questa domanda, 0:09:31.764,0:09:34.208 sono scesi a 19.000 casi. 0:09:34.232,0:09:39.193 Il numero di afroamericani fermati[br]è sceso del 43%. 0:09:39.905,0:09:44.253 E fermare meno gente di colore[br]non ha reso la città più pericolosa. 0:09:44.367,0:09:47.101 In realtà, il tasso[br]di criminalità è diminuito, 0:09:47.101,0:09:50.382 e la città è diventata[br]più sicura per tutti. 0:09:50.486,0:09:55.841 Una soluzione può essere ridurre[br]il numero di fermi ingiustificati. 0:09:56.285,0:10:00.555 Un'altra può essere migliorare la qualità 0:10:00.579,0:10:01.884 di queste operazioni. 0:10:02.512,0:10:05.018 E in questo la tecnologia più aiutarci. 0:10:05.132,0:10:07.547 Sappiamo tutti[br]della morte di George Floyd, 0:10:08.499,0:10:13.271 perché chi ha provato ad aiutarlo[br]ha fatto un video con il cellulare 0:10:13.295,0:10:18.256 di quel terribile e fatale[br]incontro con la polizia. 0:10:18.750,0:10:23.651 Ma ci sono diverse tecnologie[br]che non sfruttiamo nel modo giusto. 0:10:23.805,0:10:26.308 Nei dipartimenti di polizia[br]di tutto il paese 0:10:26.332,0:10:29.885 sono ora tenuti a tenere addosso[br]delle telecamere 0:10:29.909,0:10:35.839 quindi non abbiamo solo registrazioni[br]degli incontri più estremi e terrificanti 0:10:35.863,0:10:38.617 ma anche delle interazioni[br]di tutti i giorni. 0:10:38.641,0:10:41.418 Con un team interdisciplinare[br]dell'Università di Stanford, 0:10:41.442,0:10:44.129 abbiamo usato tecniche[br]di apprendimento automatico 0:10:44.153,0:10:47.520 per analizzare[br]un gran numero di incontri. 0:10:47.544,0:10:51.955 Questo per capire meglio cosa succede[br]quando qualcuno viene fermato. 0:10:52.179,0:10:54.334 Abbiamo scoperto 0:10:54.358,0:10:58.020 che anche quando i poliziotti[br]si comportano in modo professionale, 0:10:58.860,0:11:03.322 si rivolgono meno rispettosamente[br]agli autisti neri che a quelli bianchi. 0:11:04.052,0:11:08.127 Solo dalle parole usate dai poliziotti, 0:11:08.151,0:11:12.993 potevamo intuire se stavano parlando[br]a un autista nero o bianco. 0:11:13.337,0:11:19.099 Il problema è che la maggior parte[br]dei video di queste telecamere 0:11:19.123,0:11:21.210 non viene usata[br]dai dipartimenti di polizia 0:11:21.234,0:11:23.510 per capire cosa succede sulla strada 0:11:23.534,0:11:25.777 o per formare i poliziotti. 0:11:26.554,0:11:28.012 E questa è una vergogna. 0:11:28.796,0:11:33.445 Come può un'operazione di routine[br]trasformarsi in un incontro mortale? 0:11:33.609,0:11:36.279 Com'è potuto succedere[br]nel caso di George Floyd? 0:11:37.588,0:11:39.670 Com'è potuto succedere in altri casi? 0:11:39.694,0:11:43.090 A 16 anni, mio figlio maggiore 0:11:43.114,0:11:47.635 ha scoperto che quando i bianchi[br]lo guardano, provano paura. 0:11:49.123,0:11:51.784 Il peggio sono gli ascensori, diceva. 0:11:52.313,0:11:54.644 Quando quelle porte si chiudono, 0:11:54.668,0:11:57.751 la gente si trova in trappola[br]in uno spazio ristretto 0:11:57.775,0:12:02.242 con qualcuno che hanno imparato[br]ad associare al pericolo. 0:12:02.744,0:12:05.964 Mio figlio sente il loro disagio, 0:12:05.988,0:12:09.145 sorride per metterli a proprio agio, 0:12:09.169,0:12:10.938 per calmare le loro paure. 0:12:11.351,0:12:13.296 Quando parla, 0:12:13.320,0:12:15.003 i loro corpi si rilassano. 0:12:15.442,0:12:17.205 Respirano più facilmente. 0:12:17.369,0:12:19.900 Apprezzano la sua cadenza, 0:12:19.924,0:12:22.241 la sua dizione, la scelta delle parole. 0:12:22.986,0:12:24.759 Sembra uno di loro. 0:12:24.853,0:12:29.423 Prima pensavo che mio figlio[br]fosse un estroverso come suo padre. 0:12:29.607,0:12:33.157 Ma ho capito in quel momento,[br]in quella conversazione, 0:12:34.143,0:12:39.221 che il suo sorriso[br]non era un desiderio di socializzare 0:12:39.245,0:12:41.209 con presunti sconosciuti. 0:12:41.920,0:12:45.572 Era un talismano[br]che usava per proteggersi, 0:12:45.596,0:12:51.815 una capacità di sopravvivenza[br]affinata nei ripetuti viaggi in ascensore. 0:12:52.387,0:12:57.558 Ha imparato ad attenuare la tensione[br]generata dal colore della sua pelle 0:12:59.026,0:13:01.693 e che metteva a rischio la sua vita. 0:13:02.619,0:13:06.372 Sappiamo che il nostro cervello[br]è predisposto al pregiudizio, 0:13:06.426,0:13:10.851 e un modo per contrastarlo[br]è fermarsi e riflettere 0:13:10.915,0:13:13.136 sull'evidenza delle nostre supposizioni. 0:13:13.244,0:13:14.999 Quindi dobbiamo chiederci: 0:13:15.023,0:13:19.688 Quali supposizioni facciamo[br]quando saliamo su un ascensore? 0:13:21.776,0:13:23.087 O su un aereo? 0:13:23.532,0:13:28.131 Come ci rendiamo conto[br]del nostro pregiudizio inconscio? 0:13:28.155,0:13:30.506 Chi proteggono queste supposizioni? 0:13:32.615,0:13:34.547 Chi mettono a rischio? 0:13:35.649,0:13:38.003 Finché non ci facciamo queste domande 0:13:38.978,0:13:43.602 insistendo che le scuole,[br]i tribunali, i dipartimenti di polizia 0:13:43.626,0:13:46.168 e tutte le istituzioni facciano lo stesso, 0:13:47.835,0:13:52.626 continueremo a permettere[br]che il pregiudizio ci accechi. 0:13:53.348,0:13:54.757 E se lo facciamo, 0:13:56.066,0:13:59.274 nessuno di noi è veramente al sicuro. 0:14:02.103,0:14:03.411 Grazie.