WEBVTT 00:00:01.041 --> 00:00:04.175 Ciao, sono Joy, una poetessa della programmazione, 00:00:04.199 --> 00:00:09.192 in missione per fermare una crescente forza inattesa. 00:00:09.216 --> 00:00:12.072 Una forza che ho chiamato "sguardo programmato", 00:00:12.096 --> 00:00:15.405 la mia espressione per la parzialità algoritmica. NOTE Paragraph 00:00:15.429 --> 00:00:19.729 La parzialità algoritmica, come quella umana, produce ingiustizia. 00:00:19.753 --> 00:00:25.775 Tuttavia gli algoritmi, come i virus, si possono diffondere su ampia scala 00:00:25.799 --> 00:00:27.381 in tempi rapidi. 00:00:27.943 --> 00:00:32.330 La parzialità algoritmica può anche portare a esperienze di esclusione 00:00:32.354 --> 00:00:34.482 e pratiche discriminatorie. 00:00:34.506 --> 00:00:36.567 Vi mostro cosa voglio dire. NOTE Paragraph 00:00:36.980 --> 00:00:39.416 (Video) Joy Buolamwini: Ciao. Ho una faccia. 00:00:40.162 --> 00:00:42.026 Puoi vedere la mia faccia? 00:00:42.051 --> 00:00:43.676 Senza occhiali? 00:00:43.701 --> 00:00:45.915 Puoi vedere la sua faccia. 00:00:46.237 --> 00:00:48.482 Che dici della mia faccia? 00:00:51.890 --> 00:00:55.640 Ho qui una maschera. Vedi la mia maschera? NOTE Paragraph 00:00:56.474 --> 00:00:58.839 Joy Buolamwini: Com'è successo? 00:00:58.863 --> 00:01:02.004 Perché ero seduta davanti al computer 00:01:02.028 --> 00:01:03.452 con una maschera bianca, 00:01:03.476 --> 00:01:07.126 tentando di essere individuata da una webcam economica? 00:01:07.150 --> 00:01:09.505 Quando non combatto "lo sguardo programmato" 00:01:09.505 --> 00:01:11.035 da poetessa della programmazione, 00:01:11.035 --> 00:01:14.281 sono una studentessa di laurea magistrale al Media Lab del MIT, 00:01:14.305 --> 00:01:19.222 dove ho avuto la opportunità di lavorare su ogni tipo di progetto stravagante, 00:01:19.246 --> 00:01:21.273 incluso lo Specchio dei Desideri, 00:01:21.297 --> 00:01:26.431 un progetto che mi consente di proiettare una maschera digitale sul mio riflesso. 00:01:26.455 --> 00:01:28.805 Così la mattina, se voglio sentirmi forte, 00:01:28.829 --> 00:01:30.263 posso indossare leone. 00:01:30.287 --> 00:01:33.783 Se volessi essere rialzata, potrei avere un'altezza. 00:01:33.807 --> 00:01:36.796 Ho utilizzzato un generico software di riconoscimento facciale 00:01:36.820 --> 00:01:38.171 per costruire il sistema, 00:01:38.195 --> 00:01:43.298 ma ho trovato molto difficile provarlo a meno di indossare una maschera bianca. NOTE Paragraph 00:01:44.282 --> 00:01:48.628 Sfortunatamente, ho già toccato questo tema. 00:01:48.652 --> 00:01:52.955 Quando ero unastudentessa di Informatica al Georgia Tech 00:01:52.979 --> 00:01:55.034 ero abituata a lavorare sui robot sociali, 00:01:55.058 --> 00:01:58.835 e uno dei miei compiti era di far giocare un robot a "booh! chi sono?", 00:01:58.859 --> 00:02:00.542 un semplice gioco a turni, 00:02:00.566 --> 00:02:04.887 dove i compagni nascondono la faccia e poi la scoprono dicendo "booh! chi sono?" 00:02:04.911 --> 00:02:09.340 Il problema è che il gioco non funziona veramente se non vi vedo, 00:02:09.364 --> 00:02:11.863 e il mio robot non mi poteva vedere. 00:02:11.887 --> 00:02:15.837 Allora mi sono fatta prestare il volto della mia compagna di stanza, 00:02:15.861 --> 00:02:17.241 e ho consegnato il compito, 00:02:17.265 --> 00:02:21.018 e ho pensato che qualcun altro risolvesse il problema. NOTE Paragraph 00:02:21.669 --> 00:02:23.672 Non molto dopo, 00:02:23.696 --> 00:02:27.855 ero a Hong Kong per una gara sulla imprenditorialità. 00:02:28.339 --> 00:02:31.033 Gli organizzatori decisero di scegliere i partecipanti 00:02:31.057 --> 00:02:33.429 esaminando le start-up locali. 00:02:33.453 --> 00:02:36.168 Una delle start-up aveva un robot sociale, 00:02:36.192 --> 00:02:38.104 e loro decisero di fare un demo. NOTE Paragraph 00:02:38.128 --> 00:02:41.108 Il demo funzionò finché non giunsero a me, 00:02:41.132 --> 00:02:43.055 e forse indovinate perché. 00:02:43.079 --> 00:02:46.044 Non poteva individuare la mia faccia. 00:02:46.068 --> 00:02:48.579 Ho chiesto agli sviluppatori cosa stava succedendo, 00:02:48.603 --> 00:02:54.136 e risultò che usavano lo stesso software generico di riconoscimento facciale. 00:02:54.160 --> 00:02:55.810 Dall'altra parte del mondo, 00:02:55.834 --> 00:02:59.686 ho imparato che la parzialità algoritmica può viaggiare velocemente 00:02:59.710 --> 00:03:02.880 visto che basta scaricare qualche file da internet. NOTE Paragraph 00:03:03.745 --> 00:03:06.821 Cosa stava succedendo? Perchè la mia faccia non era riconosciuta? 00:03:06.845 --> 00:03:10.201 Dobbiamo vedere come diamo la vista alle macchine. 00:03:10.225 --> 00:03:13.634 La visione tramite computer usa tecniche di auto-apprendimento 00:03:13.658 --> 00:03:15.538 per il riconoscimento facciale. 00:03:15.562 --> 00:03:19.459 Come funziona: si creano esempi di facce per l'apprendimento. 00:03:19.483 --> 00:03:22.301 Questa è una faccia. Anche questa. Questa non è una faccia. 00:03:22.325 --> 00:03:26.844 Con il tempo, si può insegnare al computer come riconoscere altre facce. 00:03:26.868 --> 00:03:30.857 Ma se gli esempi per l'addestramento non sono veramente diversi, 00:03:30.881 --> 00:03:34.230 qualsiasi faccia che devia troppo dalla norma stabilita 00:03:34.254 --> 00:03:35.903 sarà difficile da riconoscere, 00:03:35.927 --> 00:03:37.890 che era quanto mi stava capitando. NOTE Paragraph 00:03:37.914 --> 00:03:40.296 Ma non vi preoccupate, ci sono buone notizie. 00:03:40.320 --> 00:03:43.091 Gli esempi per l'addestramento non nascono dal nulla. 00:03:43.115 --> 00:03:44.903 Siamo noi a crearli. 00:03:44.927 --> 00:03:49.103 C'è quindi la possibilità di creare gruppi di esempi ad ampio spettro 00:03:49.127 --> 00:03:52.951 che riflettono un più ricco ritratto dell'umanità. NOTE Paragraph 00:03:52.975 --> 00:03:55.196 Avete ora visto nei miei esempi 00:03:55.220 --> 00:03:56.988 come tramite i robot sociali 00:03:57.012 --> 00:04:01.623 ho scopertoa l'esclusione dovuta alla parzialità algoritmica. 00:04:01.647 --> 00:04:06.462 Ma la parzialità algoritmica può condurre anche a pratiche discriminatorie. 00:04:07.437 --> 00:04:08.890 Negli USA, 00:04:08.914 --> 00:04:13.112 i dipartimenti di polizia iniziano a usare software di riconoscimento facciale 00:04:13.136 --> 00:04:15.595 nel loro arsenale di battaglia al crimine. 00:04:15.619 --> 00:04:17.632 Georgetown Law ha pubblicato un rapporto 00:04:17.656 --> 00:04:24.419 che mostra come uno su due adulti in USA, cioè 117 milioni di persone, 00:04:24.443 --> 00:04:27.977 ha la sua faccia nelle reti per il riconoscimento facciale. 00:04:28.001 --> 00:04:32.553 I dipartimenti di polizia possono ora utilizzare queste reti non regolamentate, 00:04:32.577 --> 00:04:36.863 che usano algoritmi non verificati sulla loro accuratezza. 00:04:36.887 --> 00:04:40.751 Certo si sa che il riconoscimento facciale non è a prova di errore, 00:04:40.775 --> 00:04:44.954 ed etichettare le facce coerentemente rimane una sfida. 00:04:44.978 --> 00:04:46.740 Si può vedere ciò anche su Facebook. 00:04:46.764 --> 00:04:49.752 I miei amici ed io ridiamo quando vediamo altre persone 00:04:49.776 --> 00:04:52.234 etichettate male nelle nostre foto. 00:04:52.258 --> 00:04:57.849 Ma identificare male un sospetto criminale non è una cosa da riderci su, 00:04:57.873 --> 00:05:00.700 neppure violare le nostre libertà civili. NOTE Paragraph 00:05:00.724 --> 00:05:03.929 Si usa l'apprendimento automatico per il riconoscimento facciale, 00:05:03.953 --> 00:05:08.458 ma si sta estendendo oltre il campo della visione via computer. 00:05:09.266 --> 00:05:13.282 Nel suo libro, "Armi per la Distruzione Matematica", 00:05:13.306 --> 00:05:19.987 la scienzata sui dati Cathy O'Neil ci parla dei crescenti nuovi WMD, 00:05:20.011 --> 00:05:24.364 algoritmi diffusi, misteriosi e distruttivi 00:05:24.388 --> 00:05:27.352 che sono sempre più usati per prendere decisioni 00:05:27.376 --> 00:05:30.553 che influiscono su molti aspetti delle nostre vite. 00:05:30.577 --> 00:05:32.447 Così, chi viene assunto o licenziato? 00:05:32.471 --> 00:05:34.583 Ottenete quel mutuo? E la assicurazione? 00:05:34.607 --> 00:05:38.110 Siete ammessi al college al quale volete andare? 00:05:38.134 --> 00:05:41.643 Voi ed io paghiamo lo stesso prezzo per lo stesso prodotto 00:05:41.667 --> 00:05:44.109 comprato sulla stessa piattaforma? [e-commerce] NOTE Paragraph 00:05:44.133 --> 00:05:47.892 Le forze dell'ordine stanno iniziando a usare l'apprendimento automatico 00:05:47.916 --> 00:05:50.205 per compiti di "polizia predittiva". 00:05:50.229 --> 00:05:53.723 Alcuni giudici usano valutazioni di rischio automatiche per determinare 00:05:53.747 --> 00:05:58.149 quanto tempo una persona deve passare in prigione. 00:05:58.173 --> 00:06:00.627 Veramente dobbiamo riflettere su queste decisioni. 00:06:00.651 --> 00:06:01.833 Sono giuste? 00:06:01.857 --> 00:06:04.747 Abbiamo visto che la parzialità algoritmica 00:06:04.771 --> 00:06:08.145 non necessariamente porta a esiti giusti. NOTE Paragraph 00:06:08.169 --> 00:06:10.133 Cosa possiamo fare per questo? 00:06:10.157 --> 00:06:13.837 Possiamo iniziare a riflettere su come possiamo creare codice più inclusivo 00:06:13.861 --> 00:06:16.851 e impiegare criteri di codifica inclusivi. 00:06:16.875 --> 00:06:19.184 In effetti si parte dalle persone. 00:06:19.708 --> 00:06:21.669 Con chi è interessato al codice. 00:06:21.693 --> 00:06:25.812 Stiamo veramente creando squadre ad ampio spettro, con diversi individui 00:06:25.836 --> 00:06:28.247 che possano verificare i punti oscuri dell'altro? 00:06:28.271 --> 00:06:31.816 Da un punto di vista tecnico, il modo in cui codifichiamo è importante. 00:06:31.840 --> 00:06:35.491 Stiamo puntando sulla imparzialità quando sviluppiamo i sistemi? 00:06:35.515 --> 00:06:38.428 E alla fine, perché ci interessa la codifica. 00:06:38.785 --> 00:06:43.868 Usiamo strumenti di sviluppo elaborativo per liberare immense ricchezze. 00:06:43.892 --> 00:06:48.339 Ora abbiamo l'opportunità di dar vita a una uguaglianza più vasta 00:06:48.363 --> 00:06:51.293 se diamo priorità al cambiamento sociale 00:06:51.317 --> 00:06:53.487 e non lo consideriamo un pensiero aggiuntivo. 00:06:54.008 --> 00:06:58.530 Vi sono quindi tre principi che sorreggono il movimento di "codifica inclusiva". 00:06:58.554 --> 00:07:00.206 A chi interessa il codice, 00:07:00.230 --> 00:07:01.773 come ci interessa il codice 00:07:01.797 --> 00:07:03.820 e perché ci interessa il codice. NOTE Paragraph 00:07:03.844 --> 00:07:06.943 Per puntare alla "codifica inclusiva", possiamo partire pensando 00:07:06.967 --> 00:07:10.131 di costruire piattaforme che possano identificare le parzialità 00:07:10.155 --> 00:07:13.233 raccogliendo le esperienze delle persone come quelle condivise, 00:07:13.257 --> 00:07:16.327 ma anche verificando il software esistente. 00:07:16.351 --> 00:07:20.116 Possiamo anche iniziare a creare un modello formativo più inclusivo. 00:07:20.140 --> 00:07:22.943 Pensate a una campagna mediatica "Selfie per l'inclusione" 00:07:22.967 --> 00:07:26.622 dove voi ed io possiamo aiutare gli sviluppatori a provare e creare 00:07:26.646 --> 00:07:28.739 modelli formativi più inclusivi. 00:07:29.302 --> 00:07:32.130 Possiamo anche iniziare a riflettere più consciamente 00:07:32.154 --> 00:07:37.545 sull'impatto sociale della tecnologia che stiamo sviluppando. NOTE Paragraph 00:07:37.569 --> 00:07:39.962 Per avviare il movimento di "codifica inclusiva", 00:07:39.986 --> 00:07:42.833 ho lanciato la Lega per la Giustizia Algoritmica, 00:07:42.857 --> 00:07:48.729 dove ognuno che ha a cuore la giustizia può combattere "lo sguardo programmato". 00:07:48.753 --> 00:07:52.049 Su codedgaze.com si possono segnalare parzialità, 00:07:52.073 --> 00:07:54.518 richiedere verifiche, diventare un collaudatore 00:07:54.542 --> 00:07:57.313 e unirsi alla conversazione corrente, 00:07:57.337 --> 00:07:59.624 #codedgaze. NOTE Paragraph 00:08:00.742 --> 00:08:03.229 Vi invito quidi ad unirvi a me 00:08:03.253 --> 00:08:06.972 nel creare un mondo dove la tecnologia lavori per tutti noi, 00:08:06.996 --> 00:08:08.893 non solo per qualcuno di noi, 00:08:08.917 --> 00:08:13.505 un mondo dove diamo valore alla inclusione e ci concentriamo sul cambiamento sociale. NOTE Paragraph 00:08:13.529 --> 00:08:14.704 Grazie. NOTE Paragraph 00:08:14.728 --> 00:08:18.999 (Applausi) NOTE Paragraph 00:08:20.873 --> 00:08:23.727 Ma ho una domanda: 00:08:23.751 --> 00:08:25.810 Vi unirete a me nella battaglia? NOTE Paragraph 00:08:25.834 --> 00:08:27.119 (Risate) NOTE Paragraph 00:08:27.143 --> 00:08:30.830 (Applausi)