Come sto combattendo la parzialità algoritmica
-
0:01 - 0:04Ciao, sono Joy, una poetessa
della programmazione, -
0:04 - 0:09in missione per fermare
una crescente forza inattesa. -
0:09 - 0:12Una forza che ho chiamato
"sguardo programmato", -
0:12 - 0:15la mia espressione
per la parzialità algoritmica. -
0:15 - 0:20La parzialità algoritmica,
come quella umana, produce ingiustizia. -
0:20 - 0:26Tuttavia gli algoritmi, come i virus,
si possono diffondere su ampia scala -
0:26 - 0:27in tempi rapidi.
-
0:28 - 0:32La parzialità algoritmica può anche
portare a esperienze di esclusione -
0:32 - 0:34e pratiche discriminatorie.
-
0:35 - 0:37Vi mostro cosa voglio dire.
-
0:37 - 0:39(Video) Joy Buolamwini: Ciao.
Ho una faccia. -
0:40 - 0:42Puoi vedere la mia faccia?
-
0:42 - 0:44Senza occhiali?
-
0:44 - 0:46Puoi vedere la sua faccia.
-
0:46 - 0:48Che dici della mia faccia?
-
0:52 - 0:56Ho qui una maschera.
Vedi la mia maschera? -
0:56 - 0:59Joy Buolamwini: Com'è successo?
-
0:59 - 1:02Perché ero seduta davanti al computer
-
1:02 - 1:03con una maschera bianca,
-
1:03 - 1:07tentando di essere individuata
da una webcam economica? -
1:07 - 1:10Quando non combatto
"lo sguardo programmato" -
1:10 - 1:11da poetessa
della programmazione, -
1:11 - 1:14sono una studentessa di laurea magistrale
al Media Lab del MIT, -
1:14 - 1:19dove ho avuto la opportunità di lavorare
su ogni tipo di progetto stravagante, -
1:19 - 1:21incluso lo Specchio dei Desideri,
-
1:21 - 1:26un progetto che mi consente di proiettare
una maschera digitale sul mio riflesso. -
1:26 - 1:29Così la mattina, se voglio sentirmi forte,
-
1:29 - 1:30posso indossare leone.
-
1:30 - 1:34Se volessi essere rialzata,
potrei avere un'altezza. -
1:34 - 1:37Ho utilizzzato un generico software
di riconoscimento facciale -
1:37 - 1:38per costruire il sistema,
-
1:38 - 1:43ma ho trovato molto difficile provarlo
a meno di indossare una maschera bianca. -
1:44 - 1:49Sfortunatamente,
ho già toccato questo tema. -
1:49 - 1:53Quando ero unastudentessa di Informatica
al Georgia Tech -
1:53 - 1:55ero abituata a lavorare sui robot sociali,
-
1:55 - 1:59e uno dei miei compiti era di far giocare
un robot a "booh! chi sono?", -
1:59 - 2:01un semplice gioco a turni,
-
2:01 - 2:05dove i compagni nascondono la faccia e
poi la scoprono dicendo "booh! chi sono?" -
2:05 - 2:09Il problema è che il gioco non funziona
veramente se non vi vedo, -
2:09 - 2:12e il mio robot non mi poteva vedere.
-
2:12 - 2:16Allora mi sono fatta prestare il volto
della mia compagna di stanza, -
2:16 - 2:17e ho consegnato il compito,
-
2:17 - 2:21e ho pensato che qualcun altro
risolvesse il problema. -
2:22 - 2:24Non molto dopo,
-
2:24 - 2:28ero a Hong Kong per una gara
sulla imprenditorialità. -
2:28 - 2:31Gli organizzatori decisero
di scegliere i partecipanti -
2:31 - 2:33esaminando le start-up locali.
-
2:33 - 2:36Una delle start-up aveva un robot sociale,
-
2:36 - 2:38e loro decisero di fare un demo.
-
2:38 - 2:41Il demo funzionò finché non giunsero a me,
-
2:41 - 2:43e forse indovinate perché.
-
2:43 - 2:46Non poteva individuare la mia faccia.
-
2:46 - 2:49Ho chiesto agli sviluppatori
cosa stava succedendo, -
2:49 - 2:54e risultò che usavano lo stesso software
generico di riconoscimento facciale. -
2:54 - 2:56Dall'altra parte del mondo,
-
2:56 - 3:00ho imparato che la parzialità algoritmica
può viaggiare velocemente -
3:00 - 3:03visto che basta scaricare qualche file
da internet. -
3:04 - 3:07Cosa stava succedendo?
Perchè la mia faccia non era riconosciuta? -
3:07 - 3:10Dobbiamo vedere come
diamo la vista alle macchine. -
3:10 - 3:14La visione tramite computer usa
tecniche di auto-apprendimento -
3:14 - 3:16per il riconoscimento facciale.
-
3:16 - 3:19Come funziona: si creano esempi di facce
per l'apprendimento. -
3:19 - 3:22Questa è una faccia. Anche questa.
Questa non è una faccia. -
3:22 - 3:27Con il tempo, si può insegnare al computer
come riconoscere altre facce. -
3:27 - 3:31Ma se gli esempi per l'addestramento
non sono veramente diversi, -
3:31 - 3:34qualsiasi faccia che devia troppo
dalla norma stabilita -
3:34 - 3:36sarà difficile da riconoscere,
-
3:36 - 3:38che era quanto mi stava capitando.
-
3:38 - 3:40Ma non vi preoccupate,
ci sono buone notizie. -
3:40 - 3:43Gli esempi per l'addestramento
non nascono dal nulla. -
3:43 - 3:45Siamo noi a crearli.
-
3:45 - 3:49C'è quindi la possibilità di creare gruppi
di esempi ad ampio spettro -
3:49 - 3:53che riflettono un più ricco
ritratto dell'umanità. -
3:53 - 3:55Avete ora visto nei miei esempi
-
3:55 - 3:57come tramite i robot sociali
-
3:57 - 4:02ho scopertoa l'esclusione
dovuta alla parzialità algoritmica. -
4:02 - 4:06Ma la parzialità algoritmica può condurre
anche a pratiche discriminatorie. -
4:07 - 4:09Negli USA,
-
4:09 - 4:13i dipartimenti di polizia iniziano a usare
software di riconoscimento facciale -
4:13 - 4:16nel loro arsenale di battaglia al crimine.
-
4:16 - 4:18Georgetown Law ha pubblicato un rapporto
-
4:18 - 4:24che mostra come uno su due adulti in USA,
cioè 117 milioni di persone, -
4:24 - 4:28ha la sua faccia nelle reti
per il riconoscimento facciale. -
4:28 - 4:33I dipartimenti di polizia possono ora
utilizzare queste reti non regolamentate, -
4:33 - 4:37che usano algoritmi non verificati
sulla loro accuratezza. -
4:37 - 4:41Certo si sa che il riconoscimento
facciale non è a prova di errore, -
4:41 - 4:45ed etichettare le facce coerentemente
rimane una sfida. -
4:45 - 4:47Si può vedere ciò anche su Facebook.
-
4:47 - 4:50I miei amici ed io ridiamo quando
vediamo altre persone -
4:50 - 4:52etichettate male nelle nostre foto.
-
4:52 - 4:58Ma identificare male un sospetto criminale
non è una cosa da riderci su, -
4:58 - 5:01neppure violare le nostre libertà civili.
-
5:01 - 5:04Si usa l'apprendimento automatico
per il riconoscimento facciale, -
5:04 - 5:08ma si sta estendendo oltre il campo
della visione via computer. -
5:09 - 5:13Nel suo libro,
"Armi per la Distruzione Matematica", -
5:13 - 5:20la scienzata sui dati Cathy O'Neil
ci parla dei crescenti nuovi WMD, -
5:20 - 5:24algoritmi diffusi,
misteriosi e distruttivi -
5:24 - 5:27che sono sempre più usati
per prendere decisioni -
5:27 - 5:31che influiscono su molti aspetti
delle nostre vite. -
5:31 - 5:32Così, chi viene assunto o licenziato?
-
5:32 - 5:35Ottenete quel mutuo?
E la assicurazione? -
5:35 - 5:38Siete ammessi al college
al quale volete andare? -
5:38 - 5:42Voi ed io paghiamo lo stesso prezzo
per lo stesso prodotto -
5:42 - 5:44comprato sulla stessa piattaforma?
[e-commerce] -
5:44 - 5:48Le forze dell'ordine stanno iniziando
a usare l'apprendimento automatico -
5:48 - 5:50per compiti di "polizia predittiva".
-
5:50 - 5:54Alcuni giudici usano valutazioni
di rischio automatiche per determinare -
5:54 - 5:58quanto tempo una persona
deve passare in prigione. -
5:58 - 6:01Veramente dobbiamo riflettere
su queste decisioni. -
6:01 - 6:02Sono giuste?
-
6:02 - 6:05Abbiamo visto che
la parzialità algoritmica -
6:05 - 6:08non necessariamente porta
a esiti giusti. -
6:08 - 6:10Cosa possiamo fare per questo?
-
6:10 - 6:14Possiamo iniziare a riflettere su come
possiamo creare codice più inclusivo -
6:14 - 6:17e impiegare criteri di codifica inclusivi.
-
6:17 - 6:19In effetti si parte dalle persone.
-
6:20 - 6:22Con chi è interessato al codice.
-
6:22 - 6:26Stiamo veramente creando squadre
ad ampio spettro, con diversi individui -
6:26 - 6:28che possano verificare
i punti oscuri dell'altro? -
6:28 - 6:32Da un punto di vista tecnico,
il modo in cui codifichiamo è importante. -
6:32 - 6:35Stiamo puntando sulla imparzialità
quando sviluppiamo i sistemi? -
6:36 - 6:38E alla fine, perché
ci interessa la codifica. -
6:39 - 6:44Usiamo strumenti di sviluppo elaborativo
per liberare immense ricchezze. -
6:44 - 6:48Ora abbiamo l'opportunità di dar vita
a una uguaglianza più vasta -
6:48 - 6:51se diamo priorità al cambiamento sociale
-
6:51 - 6:53e non lo consideriamo
un pensiero aggiuntivo. -
6:54 - 6:59Vi sono quindi tre principi che sorreggono
il movimento di "codifica inclusiva". -
6:59 - 7:00A chi interessa il codice,
-
7:00 - 7:02come ci interessa il codice
-
7:02 - 7:04e perché ci interessa il codice.
-
7:04 - 7:07Per puntare alla "codifica inclusiva",
possiamo partire pensando -
7:07 - 7:10di costruire piattaforme che possano
identificare le parzialità -
7:10 - 7:13raccogliendo le esperienze delle persone
come quelle condivise, -
7:13 - 7:16ma anche verificando
il software esistente. -
7:16 - 7:20Possiamo anche iniziare a creare
un modello formativo più inclusivo. -
7:20 - 7:23Pensate a una campagna mediatica
"Selfie per l'inclusione" -
7:23 - 7:27dove voi ed io possiamo aiutare
gli sviluppatori a provare e creare -
7:27 - 7:29modelli formativi più inclusivi.
-
7:29 - 7:32Possiamo anche iniziare a riflettere
più consciamente -
7:32 - 7:38sull'impatto sociale della tecnologia
che stiamo sviluppando. -
7:38 - 7:40Per avviare il movimento
di "codifica inclusiva", -
7:40 - 7:43ho lanciato la Lega per
la Giustizia Algoritmica, -
7:43 - 7:49dove ognuno che ha a cuore la giustizia
può combattere "lo sguardo programmato". -
7:49 - 7:52Su codedgaze.com si possono
segnalare parzialità, -
7:52 - 7:55richiedere verifiche,
diventare un collaudatore -
7:55 - 7:57e unirsi alla conversazione corrente,
-
7:57 - 8:00#codedgaze.
-
8:01 - 8:03Vi invito quidi ad unirvi a me
-
8:03 - 8:07nel creare un mondo dove la tecnologia
lavori per tutti noi, -
8:07 - 8:09non solo per qualcuno di noi,
-
8:09 - 8:14un mondo dove diamo valore alla inclusione
e ci concentriamo sul cambiamento sociale. -
8:14 - 8:15Grazie.
-
8:15 - 8:19(Applausi)
-
8:21 - 8:24Ma ho una domanda:
-
8:24 - 8:26Vi unirete a me nella battaglia?
-
8:26 - 8:27(Risate)
-
8:27 - 8:31(Applausi)
- Title:
- Come sto combattendo la parzialità algoritmica
- Speaker:
- Joy Buolamwini
- Description:
-
Joy Buolamwini, studentessa magistrale al MIT, stava lavorando sul software di riconoscimento facciale quando si è accorta di un problema: il software non riconosceva la sua faccia, poiché chi aveva programmato l'algoritmo non aveva pensato a come identificare un'ampia gamma di colori di pelle e di strutture facciali. Ora lei si è impegnata nella missione di combattere la parzialità nell'apprendimento automatico, un fenomeno che lei chiama "lo sguardo programmato". Questa è una conferenza che ci apre gli occhi sulla necessità di responsabilizzare il modo di codificare i programmi... visto che gli algoritmi coinvolgono sempre più aspetti della nostra vita.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 08:46
Alessandra Tadiotto approved Italian subtitles for How I'm fighting bias in algorithms | ||
Alessandra Tadiotto edited Italian subtitles for How I'm fighting bias in algorithms | ||
Alessandra Tadiotto edited Italian subtitles for How I'm fighting bias in algorithms | ||
Nadia Ahmed accepted Italian subtitles for How I'm fighting bias in algorithms | ||
Nadia Ahmed edited Italian subtitles for How I'm fighting bias in algorithms | ||
Francesco Truzzi edited Italian subtitles for How I'm fighting bias in algorithms | ||
Federico MINELLE edited Italian subtitles for How I'm fighting bias in algorithms | ||
Federico MINELLE edited Italian subtitles for How I'm fighting bias in algorithms |