0:00:01.041,0:00:04.175 Ciao, sono Joy, una poetessa [br]della programmazione, 0:00:04.199,0:00:09.192 in missione per fermare[br]una crescente forza inattesa. 0:00:09.216,0:00:12.072 Una forza che ho chiamato [br]"sguardo programmato", 0:00:12.096,0:00:15.405 la mia espressione [br]per la parzialità algoritmica. 0:00:15.429,0:00:19.729 La parzialità algoritmica,[br]come quella umana, produce ingiustizia. 0:00:19.753,0:00:25.775 Tuttavia gli algoritmi, come i virus,[br]si possono diffondere su ampia scala 0:00:25.799,0:00:27.381 in tempi rapidi. 0:00:27.943,0:00:32.330 La parzialità algoritmica può anche [br]portare a esperienze di esclusione 0:00:32.354,0:00:34.482 e pratiche discriminatorie. 0:00:34.506,0:00:36.567 Vi mostro cosa voglio dire. 0:00:36.980,0:00:39.416 (Video) Joy Buolamwini: Ciao.[br]Ho una faccia. 0:00:40.162,0:00:42.026 Puoi vedere la mia faccia? 0:00:42.051,0:00:43.676 Senza occhiali? 0:00:43.701,0:00:45.915 Puoi vedere la sua faccia. 0:00:46.237,0:00:48.482 Che dici della mia faccia? 0:00:51.890,0:00:55.640 Ho qui una maschera. [br]Vedi la mia maschera? 0:00:56.474,0:00:58.839 Joy Buolamwini: Com'è successo? 0:00:58.863,0:01:02.004 Perché ero seduta davanti al computer 0:01:02.028,0:01:03.452 con una maschera bianca, 0:01:03.476,0:01:07.126 tentando di essere individuata[br]da una webcam economica? 0:01:07.150,0:01:09.505 Quando non combatto[br]"lo sguardo programmato" 0:01:09.505,0:01:11.035 da poetessa[br]della programmazione, 0:01:11.035,0:01:14.281 sono una studentessa di laurea magistrale[br]al Media Lab del MIT, 0:01:14.305,0:01:19.222 dove ho avuto la opportunità di lavorare[br]su ogni tipo di progetto stravagante, 0:01:19.246,0:01:21.273 incluso lo Specchio dei Desideri, 0:01:21.297,0:01:26.431 un progetto che mi consente di proiettare[br]una maschera digitale sul mio riflesso. 0:01:26.455,0:01:28.805 Così la mattina, se voglio sentirmi forte, 0:01:28.829,0:01:30.263 posso indossare leone. 0:01:30.287,0:01:33.783 Se volessi essere rialzata, [br]potrei avere un'altezza. 0:01:33.807,0:01:36.796 Ho utilizzzato un generico software[br]di riconoscimento facciale 0:01:36.820,0:01:38.171 per costruire il sistema, 0:01:38.195,0:01:43.298 ma ho trovato molto difficile provarlo[br]a meno di indossare una maschera bianca. 0:01:44.282,0:01:48.628 Sfortunatamente, [br]ho già toccato questo tema. 0:01:48.652,0:01:52.955 Quando ero unastudentessa di Informatica[br]al Georgia Tech 0:01:52.979,0:01:55.034 ero abituata a lavorare sui robot sociali, 0:01:55.058,0:01:58.835 e uno dei miei compiti era di far giocare[br]un robot a "booh! chi sono?", 0:01:58.859,0:02:00.542 un semplice gioco a turni, 0:02:00.566,0:02:04.887 dove i compagni nascondono la faccia e[br]poi la scoprono dicendo "booh! chi sono?" 0:02:04.911,0:02:09.340 Il problema è che il gioco non funziona [br]veramente se non vi vedo, 0:02:09.364,0:02:11.863 e il mio robot non mi poteva vedere. 0:02:11.887,0:02:15.837 Allora mi sono fatta prestare il volto[br]della mia compagna di stanza, 0:02:15.861,0:02:17.241 e ho consegnato il compito, 0:02:17.265,0:02:21.018 e ho pensato che qualcun altro [br]risolvesse il problema. 0:02:21.669,0:02:23.672 Non molto dopo, 0:02:23.696,0:02:27.855 ero a Hong Kong per una gara [br]sulla imprenditorialità. 0:02:28.339,0:02:31.033 Gli organizzatori decisero [br]di scegliere i partecipanti 0:02:31.057,0:02:33.429 esaminando le start-up locali. 0:02:33.453,0:02:36.168 Una delle start-up aveva un robot sociale, 0:02:36.192,0:02:38.104 e loro decisero di fare un demo. 0:02:38.128,0:02:41.108 Il demo funzionò finché non giunsero a me, 0:02:41.132,0:02:43.055 e forse indovinate perché. 0:02:43.079,0:02:46.044 Non poteva individuare la mia faccia. 0:02:46.068,0:02:48.579 Ho chiesto agli sviluppatori[br]cosa stava succedendo, 0:02:48.603,0:02:54.136 e risultò che usavano lo stesso software[br]generico di riconoscimento facciale. 0:02:54.160,0:02:55.810 Dall'altra parte del mondo, 0:02:55.834,0:02:59.686 ho imparato che la parzialità algoritmica[br]può viaggiare velocemente 0:02:59.710,0:03:02.880 visto che basta scaricare qualche file[br]da internet. 0:03:03.745,0:03:06.821 Cosa stava succedendo?[br]Perchè la mia faccia non era riconosciuta? 0:03:06.845,0:03:10.201 Dobbiamo vedere come [br]diamo la vista alle macchine. 0:03:10.225,0:03:13.634 La visione tramite computer usa[br]tecniche di auto-apprendimento 0:03:13.658,0:03:15.538 per il riconoscimento facciale. 0:03:15.562,0:03:19.459 Come funziona: si creano esempi di facce[br]per l'apprendimento. 0:03:19.483,0:03:22.301 Questa è una faccia. Anche questa.[br]Questa non è una faccia. 0:03:22.325,0:03:26.844 Con il tempo, si può insegnare al computer[br]come riconoscere altre facce. 0:03:26.868,0:03:30.857 Ma se gli esempi per l'addestramento[br]non sono veramente diversi, 0:03:30.881,0:03:34.230 qualsiasi faccia che devia troppo[br]dalla norma stabilita 0:03:34.254,0:03:35.903 sarà difficile da riconoscere, 0:03:35.927,0:03:37.890 che era quanto mi stava capitando. 0:03:37.914,0:03:40.296 Ma non vi preoccupate,[br]ci sono buone notizie. 0:03:40.320,0:03:43.091 Gli esempi per l'addestramento[br]non nascono dal nulla. 0:03:43.115,0:03:44.903 Siamo noi a crearli. 0:03:44.927,0:03:49.103 C'è quindi la possibilità di creare gruppi[br]di esempi ad ampio spettro 0:03:49.127,0:03:52.951 che riflettono un più ricco [br]ritratto dell'umanità. 0:03:52.975,0:03:55.196 Avete ora visto nei miei esempi 0:03:55.220,0:03:56.988 come tramite i robot sociali 0:03:57.012,0:04:01.623 ho scopertoa l'esclusione[br]dovuta alla parzialità algoritmica. 0:04:01.647,0:04:06.462 Ma la parzialità algoritmica può condurre [br]anche a pratiche discriminatorie. 0:04:07.437,0:04:08.890 Negli USA, 0:04:08.914,0:04:13.112 i dipartimenti di polizia iniziano a usare[br]software di riconoscimento facciale 0:04:13.136,0:04:15.595 nel loro arsenale di battaglia al crimine. 0:04:15.619,0:04:17.632 Georgetown Law ha pubblicato un rapporto 0:04:17.656,0:04:24.419 che mostra come uno su due adulti in USA,[br]cioè 117 milioni di persone, 0:04:24.443,0:04:27.977 ha la sua faccia nelle reti [br]per il riconoscimento facciale. 0:04:28.001,0:04:32.553 I dipartimenti di polizia possono ora [br]utilizzare queste reti non regolamentate, 0:04:32.577,0:04:36.863 che usano algoritmi non verificati[br]sulla loro accuratezza. 0:04:36.887,0:04:40.751 Certo si sa che il riconoscimento [br]facciale non è a prova di errore, 0:04:40.775,0:04:44.954 ed etichettare le facce coerentemente[br]rimane una sfida. 0:04:44.978,0:04:46.740 Si può vedere ciò anche su Facebook. 0:04:46.764,0:04:49.752 I miei amici ed io ridiamo quando[br]vediamo altre persone 0:04:49.776,0:04:52.234 etichettate male nelle nostre foto. 0:04:52.258,0:04:57.849 Ma identificare male un sospetto criminale[br]non è una cosa da riderci su, 0:04:57.873,0:05:00.700 neppure violare le nostre libertà civili. 0:05:00.724,0:05:03.929 Si usa l'apprendimento automatico[br]per il riconoscimento facciale, 0:05:03.953,0:05:08.458 ma si sta estendendo oltre il campo [br]della visione via computer. 0:05:09.266,0:05:13.282 Nel suo libro,[br]"Armi per la Distruzione Matematica", 0:05:13.306,0:05:19.987 la scienzata sui dati Cathy O'Neil[br]ci parla dei crescenti nuovi WMD, 0:05:20.011,0:05:24.364 algoritmi diffusi, [br]misteriosi e distruttivi 0:05:24.388,0:05:27.352 che sono sempre più usati[br]per prendere decisioni 0:05:27.376,0:05:30.553 che influiscono su molti aspetti[br]delle nostre vite. 0:05:30.577,0:05:32.447 Così, chi viene assunto o licenziato? 0:05:32.471,0:05:34.583 Ottenete quel mutuo?[br]E la assicurazione? 0:05:34.607,0:05:38.110 Siete ammessi al college[br]al quale volete andare? 0:05:38.134,0:05:41.643 Voi ed io paghiamo lo stesso prezzo[br]per lo stesso prodotto 0:05:41.667,0:05:44.109 comprato sulla stessa piattaforma?[br][e-commerce] 0:05:44.133,0:05:47.892 Le forze dell'ordine stanno iniziando[br]a usare l'apprendimento automatico 0:05:47.916,0:05:50.205 per compiti di "polizia predittiva". 0:05:50.229,0:05:53.723 Alcuni giudici usano valutazioni[br]di rischio automatiche per determinare 0:05:53.747,0:05:58.149 quanto tempo una persona[br]deve passare in prigione. 0:05:58.173,0:06:00.627 Veramente dobbiamo riflettere[br]su queste decisioni. 0:06:00.651,0:06:01.833 Sono giuste? 0:06:01.857,0:06:04.747 Abbiamo visto che[br]la parzialità algoritmica 0:06:04.771,0:06:08.145 non necessariamente porta [br]a esiti giusti. 0:06:08.169,0:06:10.133 Cosa possiamo fare per questo? 0:06:10.157,0:06:13.837 Possiamo iniziare a riflettere su come[br]possiamo creare codice più inclusivo 0:06:13.861,0:06:16.851 e impiegare criteri di codifica inclusivi. 0:06:16.875,0:06:19.184 In effetti si parte dalle persone. 0:06:19.708,0:06:21.669 Con chi è interessato al codice. 0:06:21.693,0:06:25.812 Stiamo veramente creando squadre [br]ad ampio spettro, con diversi individui 0:06:25.836,0:06:28.247 che possano verificare [br]i punti oscuri dell'altro? 0:06:28.271,0:06:31.816 Da un punto di vista tecnico,[br]il modo in cui codifichiamo è importante. 0:06:31.840,0:06:35.491 Stiamo puntando sulla imparzialità[br]quando sviluppiamo i sistemi? 0:06:35.515,0:06:38.428 E alla fine, perché[br]ci interessa la codifica. 0:06:38.785,0:06:43.868 Usiamo strumenti di sviluppo elaborativo [br]per liberare immense ricchezze. 0:06:43.892,0:06:48.339 Ora abbiamo l'opportunità di dar vita[br]a una uguaglianza più vasta 0:06:48.363,0:06:51.293 se diamo priorità al cambiamento sociale 0:06:51.317,0:06:53.487 e non lo consideriamo [br]un pensiero aggiuntivo. 0:06:54.008,0:06:58.530 Vi sono quindi tre principi che sorreggono[br]il movimento di "codifica inclusiva". 0:06:58.554,0:07:00.206 A chi interessa il codice, 0:07:00.230,0:07:01.773 come ci interessa il codice 0:07:01.797,0:07:03.820 e perché ci interessa il codice. 0:07:03.844,0:07:06.943 Per puntare alla "codifica inclusiva",[br]possiamo partire pensando 0:07:06.967,0:07:10.131 di costruire piattaforme che possano[br]identificare le parzialità 0:07:10.155,0:07:13.233 raccogliendo le esperienze delle persone[br]come quelle condivise, 0:07:13.257,0:07:16.327 ma anche verificando[br]il software esistente. 0:07:16.351,0:07:20.116 Possiamo anche iniziare a creare[br]un modello formativo più inclusivo. 0:07:20.140,0:07:22.943 Pensate a una campagna mediatica[br]"Selfie per l'inclusione" 0:07:22.967,0:07:26.622 dove voi ed io possiamo aiutare [br]gli sviluppatori a provare e creare 0:07:26.646,0:07:28.739 modelli formativi più inclusivi. 0:07:29.302,0:07:32.130 Possiamo anche iniziare a riflettere[br]più consciamente 0:07:32.154,0:07:37.545 sull'impatto sociale della tecnologia[br]che stiamo sviluppando. 0:07:37.569,0:07:39.962 Per avviare il movimento[br]di "codifica inclusiva", 0:07:39.986,0:07:42.833 ho lanciato la Lega per[br]la Giustizia Algoritmica, 0:07:42.857,0:07:48.729 dove ognuno che ha a cuore la giustizia [br]può combattere "lo sguardo programmato". 0:07:48.753,0:07:52.049 Su codedgaze.com si possono[br]segnalare parzialità, 0:07:52.073,0:07:54.518 richiedere verifiche, [br]diventare un collaudatore 0:07:54.542,0:07:57.313 e unirsi alla conversazione corrente, 0:07:57.337,0:07:59.624 #codedgaze. 0:08:00.742,0:08:03.229 Vi invito quidi ad unirvi a me 0:08:03.253,0:08:06.972 nel creare un mondo dove la tecnologia[br]lavori per tutti noi, 0:08:06.996,0:08:08.893 non solo per qualcuno di noi, 0:08:08.917,0:08:13.505 un mondo dove diamo valore alla inclusione[br]e ci concentriamo sul cambiamento sociale. 0:08:13.529,0:08:14.704 Grazie. 0:08:14.728,0:08:18.999 (Applausi) 0:08:20.873,0:08:23.727 Ma ho una domanda: 0:08:23.751,0:08:25.810 Vi unirete a me nella battaglia? 0:08:25.834,0:08:27.119 (Risate) 0:08:27.143,0:08:30.830 (Applausi)