Return to Video

The Social Dilemma – Bonus Clip: The Discrimination Dilemma

  • 0:01 - 0:03
    Gli algoritmi non sono obiettivi.
  • 0:03 - 0:07
    L'IA e molte delle nuove tecnologie
    stanno perpetuando i pregiudizi.
  • 0:07 - 0:10
    Loro non predicono il futuro,
    loro causano il futuro.
  • 0:12 - 0:15
    CONTINUANDO LA CONVERSAZIONE
  • 0:15 - 0:18
    IL DILEMMA SOCIALE
  • 0:20 - 0:23
    Passo molto del mio tempo
    pensando ai pregiudizi,
  • 0:23 - 0:26
    perché sono fatta così.
  • 0:26 - 0:29
    E inoltre, l'incapacità del governo
  • 0:29 - 0:31
    di comprendere queste questioni
  • 0:31 - 0:34
    porta alla mancanza di normative
    e leggi che aiutino
  • 0:34 - 0:38
    ad attenuare alcuni dei problemi
    che abbiamo già visto con l'IA.
  • 0:38 - 0:40
    Gli algoritmi non sono obbiettivi.
  • 0:41 - 0:45
    Gli algoritmi sono ottimizzati
    per una strana definizione di successo.
  • 0:45 - 0:49
    Utilizzano dati storici
    per predire i successi futuri.
  • 0:49 - 0:51
    La gente crede ciecamente
  • 0:51 - 0:54
    che gli algoritmi siano
    giusti e obbiettivi per natura
  • 0:54 - 0:57
    e forse perché
    credono in questa lealtà
  • 0:57 - 0:59
    non mettono in dubbio l'algoritmo.
  • 0:59 - 1:02
    Quindi, quando l'algoritmo
    si mostra razzista come i dati
  • 1:02 - 1:04
    che vi inseriamo,
  • 1:04 - 1:09
    riproduce esattamente i modelli
    che vorremmo evitasse.
  • 1:09 - 1:13
    I sistemi stanno introducendo
    tonnellate di informazioni senza contesto,
  • 1:13 - 1:16
    senza storia e persino
    senza questioni politiche,
  • 1:17 - 1:18
    economiche e sociali.
  • 1:18 - 1:22
    Quindi ci sono maggiori probabilità
    che un sistema di IA
  • 1:22 - 1:26
    incarni questi pregiudizi
    o che addirittura li peggiori.
  • 1:27 - 1:29
    Esistono quattro tipi di algoritmo
  • 1:29 - 1:31
    che credo vengano utilizzati indebitamente
  • 1:31 - 1:35
    e questo potrebbe causare
    gravi danni alla società.
  • 1:36 - 1:37
    Le quattro categorie sono:
  • 1:37 - 1:39
    Finanziario.
  • 1:39 - 1:40
    Sono algoritmi che decidono
  • 1:40 - 1:42
    se la gente comprerà
    un'assicurazione e a quanto,
  • 1:42 - 1:44
    se avrà delle buone carte di credito,
  • 1:44 - 1:45
    se otterrà l'ipoteca,
  • 1:45 - 1:46
    se troverà una casa.
  • 1:46 - 1:48
    Se apri il sito web
    di una carta di credito,
  • 1:48 - 1:51
    non avrai informazioni
    sulle carte di credito.
  • 1:51 - 1:54
    Ti studiano e ti analizzano
  • 1:54 - 1:57
    e sono loro a mostrarti
    che carta di credito fa per te.
  • 1:58 - 2:00
    La seconda categoria
    ha a che vedere con la libertà.
  • 2:01 - 2:02
    Come sei sorvegliato?
  • 2:02 - 2:03
    Per quanto tempo vai in carcere?
  • 2:03 - 2:05
    Sei stato in carcere
    in attesa di processo?
  • 2:06 - 2:08
    La terza categoria riguarda
    i mezzi di sostentamento:
  • 2:08 - 2:09
    il tuo lavoro.
  • 2:10 - 2:12
    Ottieni un colloquio
    per il lavoro richiesto?
  • 2:12 - 2:13
    Hai trovato lavoro?
  • 2:13 - 2:15
    Hai ricevuto un aumento di stipendio?
  • 2:15 - 2:16
    Qual è il tuo orario di lavoro?
  • 2:17 - 2:20
    Un esempio che attirò
    l'attenzione dei mezzi di comunicazione
  • 2:20 - 2:21
    era un algoritmo di contrattazione
  • 2:21 - 2:25
    che favorì in modo spropositato
    le persone che si chiamavano "Jared"
  • 2:25 - 2:27
    e che giocavano a lacrosse, perché
  • 2:27 - 2:31
    la maggior parte delle persone
    con un buon rendimento in quell'azienda
  • 2:31 - 2:33
    avevano queste due cose in comune.
  • 2:33 - 2:36
    E la quarta categoria
    è l'informazione stessa.
  • 2:36 - 2:38
    Come si ottiene l'informazione?
  • 2:38 - 2:39
    In cosa crediamo?
  • 2:39 - 2:40
    Informazione politica, principalemente.
  • 2:41 - 2:42
    Queste cose sono algoritmi adesso.
  • 2:43 - 2:44
    A volte sono ingiuste.
  • 2:44 - 2:45
    Altre volte illegali.
  • 2:46 - 2:50
    Però non abbiamo scoperto come applicare
    le nostre leggi contro la discriminazione.
  • 2:50 - 2:54
    La distopia che mi preoccupa è che...
  • 2:54 - 2:59
    non noi freniamo
    gli oscuri e pericolosi algoritmi.
  • 2:59 - 3:01
    "Ehi, ti stiamo seguendo
    dalla tua nascita.
  • 3:01 - 3:02
    Sappiamo che
  • 3:02 - 3:04
    hai avuto un'infanzia infelice,
  • 3:04 - 3:07
    in un quartiere dove molta gente
    non ha avuto successo e...
  • 3:08 - 3:10
    Prevediamo che non avrai successo.
  • 3:10 - 3:12
    Non solo questo,
  • 3:12 - 3:14
    ma faremo il possibile affinché accada".
  • 3:14 - 3:15
    Non andrai in una buona università.
  • 3:15 - 3:17
    Né otterrai un buon lavoro
  • 3:17 - 3:18
    e nemmeno un prestito.
  • 3:18 - 3:20
    Perché questo fanno
    realmente gli algoritmi.
  • 3:20 - 3:23
    Non predicono il futuro,
    loro causano il futuro.
  • 3:25 - 3:27
    IL DILEMMA SOCIALE
  • 3:27 - 3:32
    IL NOSTRO DILEMMA SOCIALE
Title:
The Social Dilemma – Bonus Clip: The Discrimination Dilemma
Description:

more » « less
Video Language:
English
Team:
Mozilla
Project:
Non-Mozilla videos
Duration:
03:37

Italian subtitles

Revisions Compare revisions