< Return to Video

Come sto combattendo la parzialità algoritmica

  • 0:01 - 0:04
    Ciao, sono Joy, una poetessa
    della programmazione,
  • 0:04 - 0:09
    in missione per fermare
    una crescente forza inattesa.
  • 0:09 - 0:12
    Una forza che ho chiamato
    "sguardo programmato",
  • 0:12 - 0:15
    la mia espressione
    per la parzialità algoritmica.
  • 0:15 - 0:20
    La parzialità algoritmica,
    come quella umana, produce ingiustizia.
  • 0:20 - 0:26
    Tuttavia gli algoritmi, come i virus,
    si possono diffondere su ampia scala
  • 0:26 - 0:27
    in tempi rapidi.
  • 0:28 - 0:32
    La parzialità algoritmica può anche
    portare a esperienze di esclusione
  • 0:32 - 0:34
    e pratiche discriminatorie.
  • 0:35 - 0:37
    Vi mostro cosa voglio dire.
  • 0:37 - 0:39
    (Video) Joy Buolamwini: Ciao.
    Ho una faccia.
  • 0:40 - 0:42
    Puoi vedere la mia faccia?
  • 0:42 - 0:44
    Senza occhiali?
  • 0:44 - 0:46
    Puoi vedere la sua faccia.
  • 0:46 - 0:48
    Che dici della mia faccia?
  • 0:52 - 0:56
    Ho qui una maschera.
    Vedi la mia maschera?
  • 0:56 - 0:59
    Joy Buolamwini: Com'è successo?
  • 0:59 - 1:02
    Perché ero seduta davanti al computer
  • 1:02 - 1:03
    con una maschera bianca,
  • 1:03 - 1:07
    tentando di essere individuata
    da una webcam economica?
  • 1:07 - 1:10
    Quando non combatto
    "lo sguardo programmato"
  • 1:10 - 1:11
    da poetessa
    della programmazione,
  • 1:11 - 1:14
    sono una studentessa di laurea magistrale
    al Media Lab del MIT,
  • 1:14 - 1:19
    dove ho avuto la opportunità di lavorare
    su ogni tipo di progetto stravagante,
  • 1:19 - 1:21
    incluso lo Specchio dei Desideri,
  • 1:21 - 1:26
    un progetto che mi consente di proiettare
    una maschera digitale sul mio riflesso.
  • 1:26 - 1:29
    Così la mattina, se voglio sentirmi forte,
  • 1:29 - 1:30
    posso indossare leone.
  • 1:30 - 1:34
    Se volessi essere rialzata,
    potrei avere un'altezza.
  • 1:34 - 1:37
    Ho utilizzzato un generico software
    di riconoscimento facciale
  • 1:37 - 1:38
    per costruire il sistema,
  • 1:38 - 1:43
    ma ho trovato molto difficile provarlo
    a meno di indossare una maschera bianca.
  • 1:44 - 1:49
    Sfortunatamente,
    ho già toccato questo tema.
  • 1:49 - 1:53
    Quando ero unastudentessa di Informatica
    al Georgia Tech
  • 1:53 - 1:55
    ero abituata a lavorare sui robot sociali,
  • 1:55 - 1:59
    e uno dei miei compiti era di far giocare
    un robot a "booh! chi sono?",
  • 1:59 - 2:01
    un semplice gioco a turni,
  • 2:01 - 2:05
    dove i compagni nascondono la faccia e
    poi la scoprono dicendo "booh! chi sono?"
  • 2:05 - 2:09
    Il problema è che il gioco non funziona
    veramente se non vi vedo,
  • 2:09 - 2:12
    e il mio robot non mi poteva vedere.
  • 2:12 - 2:16
    Allora mi sono fatta prestare il volto
    della mia compagna di stanza,
  • 2:16 - 2:17
    e ho consegnato il compito,
  • 2:17 - 2:21
    e ho pensato che qualcun altro
    risolvesse il problema.
  • 2:22 - 2:24
    Non molto dopo,
  • 2:24 - 2:28
    ero a Hong Kong per una gara
    sulla imprenditorialità.
  • 2:28 - 2:31
    Gli organizzatori decisero
    di scegliere i partecipanti
  • 2:31 - 2:33
    esaminando le start-up locali.
  • 2:33 - 2:36
    Una delle start-up aveva un robot sociale,
  • 2:36 - 2:38
    e loro decisero di fare un demo.
  • 2:38 - 2:41
    Il demo funzionò finché non giunsero a me,
  • 2:41 - 2:43
    e forse indovinate perché.
  • 2:43 - 2:46
    Non poteva individuare la mia faccia.
  • 2:46 - 2:49
    Ho chiesto agli sviluppatori
    cosa stava succedendo,
  • 2:49 - 2:54
    e risultò che usavano lo stesso software
    generico di riconoscimento facciale.
  • 2:54 - 2:56
    Dall'altra parte del mondo,
  • 2:56 - 3:00
    ho imparato che la parzialità algoritmica
    può viaggiare velocemente
  • 3:00 - 3:03
    visto che basta scaricare qualche file
    da internet.
  • 3:04 - 3:07
    Cosa stava succedendo?
    Perchè la mia faccia non era riconosciuta?
  • 3:07 - 3:10
    Dobbiamo vedere come
    diamo la vista alle macchine.
  • 3:10 - 3:14
    La visione tramite computer usa
    tecniche di auto-apprendimento
  • 3:14 - 3:16
    per il riconoscimento facciale.
  • 3:16 - 3:19
    Come funziona: si creano esempi di facce
    per l'apprendimento.
  • 3:19 - 3:22
    Questa è una faccia. Anche questa.
    Questa non è una faccia.
  • 3:22 - 3:27
    Con il tempo, si può insegnare al computer
    come riconoscere altre facce.
  • 3:27 - 3:31
    Ma se gli esempi per l'addestramento
    non sono veramente diversi,
  • 3:31 - 3:34
    qualsiasi faccia che devia troppo
    dalla norma stabilita
  • 3:34 - 3:36
    sarà difficile da riconoscere,
  • 3:36 - 3:38
    che era quanto mi stava capitando.
  • 3:38 - 3:40
    Ma non vi preoccupate,
    ci sono buone notizie.
  • 3:40 - 3:43
    Gli esempi per l'addestramento
    non nascono dal nulla.
  • 3:43 - 3:45
    Siamo noi a crearli.
  • 3:45 - 3:49
    C'è quindi la possibilità di creare gruppi
    di esempi ad ampio spettro
  • 3:49 - 3:53
    che riflettono un più ricco
    ritratto dell'umanità.
  • 3:53 - 3:55
    Avete ora visto nei miei esempi
  • 3:55 - 3:57
    come tramite i robot sociali
  • 3:57 - 4:02
    ho scopertoa l'esclusione
    dovuta alla parzialità algoritmica.
  • 4:02 - 4:06
    Ma la parzialità algoritmica può condurre
    anche a pratiche discriminatorie.
  • 4:07 - 4:09
    Negli USA,
  • 4:09 - 4:13
    i dipartimenti di polizia iniziano a usare
    software di riconoscimento facciale
  • 4:13 - 4:16
    nel loro arsenale di battaglia al crimine.
  • 4:16 - 4:18
    Georgetown Law ha pubblicato un rapporto
  • 4:18 - 4:24
    che mostra come uno su due adulti in USA,
    cioè 117 milioni di persone,
  • 4:24 - 4:28
    ha la sua faccia nelle reti
    per il riconoscimento facciale.
  • 4:28 - 4:33
    I dipartimenti di polizia possono ora
    utilizzare queste reti non regolamentate,
  • 4:33 - 4:37
    che usano algoritmi non verificati
    sulla loro accuratezza.
  • 4:37 - 4:41
    Certo si sa che il riconoscimento
    facciale non è a prova di errore,
  • 4:41 - 4:45
    ed etichettare le facce coerentemente
    rimane una sfida.
  • 4:45 - 4:47
    Si può vedere ciò anche su Facebook.
  • 4:47 - 4:50
    I miei amici ed io ridiamo quando
    vediamo altre persone
  • 4:50 - 4:52
    etichettate male nelle nostre foto.
  • 4:52 - 4:58
    Ma identificare male un sospetto criminale
    non è una cosa da riderci su,
  • 4:58 - 5:01
    neppure violare le nostre libertà civili.
  • 5:01 - 5:04
    Si usa l'apprendimento automatico
    per il riconoscimento facciale,
  • 5:04 - 5:08
    ma si sta estendendo oltre il campo
    della visione via computer.
  • 5:09 - 5:13
    Nel suo libro,
    "Armi per la Distruzione Matematica",
  • 5:13 - 5:20
    la scienzata sui dati Cathy O'Neil
    ci parla dei crescenti nuovi WMD,
  • 5:20 - 5:24
    algoritmi diffusi,
    misteriosi e distruttivi
  • 5:24 - 5:27
    che sono sempre più usati
    per prendere decisioni
  • 5:27 - 5:31
    che influiscono su molti aspetti
    delle nostre vite.
  • 5:31 - 5:32
    Così, chi viene assunto o licenziato?
  • 5:32 - 5:35
    Ottenete quel mutuo?
    E la assicurazione?
  • 5:35 - 5:38
    Siete ammessi al college
    al quale volete andare?
  • 5:38 - 5:42
    Voi ed io paghiamo lo stesso prezzo
    per lo stesso prodotto
  • 5:42 - 5:44
    comprato sulla stessa piattaforma?
    [e-commerce]
  • 5:44 - 5:48
    Le forze dell'ordine stanno iniziando
    a usare l'apprendimento automatico
  • 5:48 - 5:50
    per compiti di "polizia predittiva".
  • 5:50 - 5:54
    Alcuni giudici usano valutazioni
    di rischio automatiche per determinare
  • 5:54 - 5:58
    quanto tempo una persona
    deve passare in prigione.
  • 5:58 - 6:01
    Veramente dobbiamo riflettere
    su queste decisioni.
  • 6:01 - 6:02
    Sono giuste?
  • 6:02 - 6:05
    Abbiamo visto che
    la parzialità algoritmica
  • 6:05 - 6:08
    non necessariamente porta
    a esiti giusti.
  • 6:08 - 6:10
    Cosa possiamo fare per questo?
  • 6:10 - 6:14
    Possiamo iniziare a riflettere su come
    possiamo creare codice più inclusivo
  • 6:14 - 6:17
    e impiegare criteri di codifica inclusivi.
  • 6:17 - 6:19
    In effetti si parte dalle persone.
  • 6:20 - 6:22
    Con chi è interessato al codice.
  • 6:22 - 6:26
    Stiamo veramente creando squadre
    ad ampio spettro, con diversi individui
  • 6:26 - 6:28
    che possano verificare
    i punti oscuri dell'altro?
  • 6:28 - 6:32
    Da un punto di vista tecnico,
    il modo in cui codifichiamo è importante.
  • 6:32 - 6:35
    Stiamo puntando sulla imparzialità
    quando sviluppiamo i sistemi?
  • 6:36 - 6:38
    E alla fine, perché
    ci interessa la codifica.
  • 6:39 - 6:44
    Usiamo strumenti di sviluppo elaborativo
    per liberare immense ricchezze.
  • 6:44 - 6:48
    Ora abbiamo l'opportunità di dar vita
    a una uguaglianza più vasta
  • 6:48 - 6:51
    se diamo priorità al cambiamento sociale
  • 6:51 - 6:53
    e non lo consideriamo
    un pensiero aggiuntivo.
  • 6:54 - 6:59
    Vi sono quindi tre principi che sorreggono
    il movimento di "codifica inclusiva".
  • 6:59 - 7:00
    A chi interessa il codice,
  • 7:00 - 7:02
    come ci interessa il codice
  • 7:02 - 7:04
    e perché ci interessa il codice.
  • 7:04 - 7:07
    Per puntare alla "codifica inclusiva",
    possiamo partire pensando
  • 7:07 - 7:10
    di costruire piattaforme che possano
    identificare le parzialità
  • 7:10 - 7:13
    raccogliendo le esperienze delle persone
    come quelle condivise,
  • 7:13 - 7:16
    ma anche verificando
    il software esistente.
  • 7:16 - 7:20
    Possiamo anche iniziare a creare
    un modello formativo più inclusivo.
  • 7:20 - 7:23
    Pensate a una campagna mediatica
    "Selfie per l'inclusione"
  • 7:23 - 7:27
    dove voi ed io possiamo aiutare
    gli sviluppatori a provare e creare
  • 7:27 - 7:29
    modelli formativi più inclusivi.
  • 7:29 - 7:32
    Possiamo anche iniziare a riflettere
    più consciamente
  • 7:32 - 7:38
    sull'impatto sociale della tecnologia
    che stiamo sviluppando.
  • 7:38 - 7:40
    Per avviare il movimento
    di "codifica inclusiva",
  • 7:40 - 7:43
    ho lanciato la Lega per
    la Giustizia Algoritmica,
  • 7:43 - 7:49
    dove ognuno che ha a cuore la giustizia
    può combattere "lo sguardo programmato".
  • 7:49 - 7:52
    Su codedgaze.com si possono
    segnalare parzialità,
  • 7:52 - 7:55
    richiedere verifiche,
    diventare un collaudatore
  • 7:55 - 7:57
    e unirsi alla conversazione corrente,
  • 7:57 - 8:00
    #codedgaze.
  • 8:01 - 8:03
    Vi invito quidi ad unirvi a me
  • 8:03 - 8:07
    nel creare un mondo dove la tecnologia
    lavori per tutti noi,
  • 8:07 - 8:09
    non solo per qualcuno di noi,
  • 8:09 - 8:14
    un mondo dove diamo valore alla inclusione
    e ci concentriamo sul cambiamento sociale.
  • 8:14 - 8:15
    Grazie.
  • 8:15 - 8:19
    (Applausi)
  • 8:21 - 8:24
    Ma ho una domanda:
  • 8:24 - 8:26
    Vi unirete a me nella battaglia?
  • 8:26 - 8:27
    (Risate)
  • 8:27 - 8:31
    (Applausi)
Title:
Come sto combattendo la parzialità algoritmica
Speaker:
Joy Buolamwini
Description:

Joy Buolamwini, studentessa magistrale al MIT, stava lavorando sul software di riconoscimento facciale quando si è accorta di un problema: il software non riconosceva la sua faccia, poiché chi aveva programmato l'algoritmo non aveva pensato a come identificare un'ampia gamma di colori di pelle e di strutture facciali. Ora lei si è impegnata nella missione di combattere la parzialità nell'apprendimento automatico, un fenomeno che lei chiama "lo sguardo programmato". Questa è una conferenza che ci apre gli occhi sulla necessità di responsabilizzare il modo di codificare i programmi... visto che gli algoritmi coinvolgono sempre più aspetti della nostra vita.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
08:46

Italian subtitles

Revisions