Gli algoritmi non sono obiettivi.
L'IA e molte delle nuove tecnologie
stanno perpetuando i pregiudizi.
Loro non predicono il futuro,
loro causano il futuro.
CONTINUANDO LA CONVERSAZIONE
IL DILEMMA SOCIALE
Passo molto del mio tempo
pensando ai pregiudizi,
perché sono fatta così.
E inoltre, l'incapacità del governo
di comprendere queste questioni
porta alla mancanza di normative
e leggi che aiutino
ad attenuare alcuni dei problemi
che abbiamo già visto con l'IA.
Gli algoritmi non sono obbiettivi.
Gli algoritmi sono ottimizzati
per una strana definizione di successo.
Utilizzano dati storici
per predire i successi futuri.
La gente crede ciecamente
che gli algoritmi siano
giusti e obbiettivi per natura
e forse perché
credono in questa lealtà
non mettono in dubbio l'algoritmo.
Quindi, quando l'algoritmo
si mostra razzista come i dati
che vi inseriamo,
riproduce esattamente i modelli
che vorremmo evitasse.
I sistemi stanno introducendo
tonnellate di informazioni senza contesto,
senza storia e persino
senza questioni politiche,
economiche e sociali.
Quindi ci sono maggiori probabilità
che un sistema di IA
incarni questi pregiudizi
o che addirittura li peggiori.
Esistono quattro tipi di algoritmo
che credo vengano utilizzati indebitamente
e questo potrebbe causare
gravi danni alla società.
Le quattro categorie sono:
Finanziario.
Sono algoritmi che decidono
se la gente comprerà
un'assicurazione e a quanto,
se avrà delle buone carte di credito,
se otterrà l'ipoteca,
se troverà una casa.
Se apri il sito web
di una carta di credito,
non avrai informazioni
sulle carte di credito.
Ti studiano e ti analizzano
e sono loro a mostrarti
che carta di credito fa per te.
La seconda categoria
ha a che vedere con la libertà.
Come sei sorvegliato?
Per quanto tempo vai in carcere?
Sei stato in carcere
in attesa di processo?
La terza categoria riguarda
i mezzi di sostentamento:
il tuo lavoro.
Ottieni un colloquio
per il lavoro richiesto?
Hai trovato lavoro?
Hai ricevuto un aumento di stipendio?
Qual è il tuo orario di lavoro?
Un esempio che attirò
l'attenzione dei mezzi di comunicazione
era un algoritmo di contrattazione
che favorì in modo spropositato
le persone che si chiamavano "Jared"
e che giocavano a lacrosse, perché
la maggior parte delle persone
con un buon rendimento in quell'azienda
avevano queste due cose in comune.
E la quarta categoria
è l'informazione stessa.
Come si ottiene l'informazione?
In cosa crediamo?
Informazione politica, principalemente.
Queste cose sono algoritmi adesso.
A volte sono ingiuste.
Altre volte illegali.
Però non abbiamo scoperto come applicare
le nostre leggi contro la discriminazione.
La distopia che mi preoccupa è che...
non noi freniamo
gli oscuri e pericolosi algoritmi.
"Ehi, ti stiamo seguendo
dalla tua nascita.
Sappiamo che
hai avuto un'infanzia infelice,
in un quartiere dove molta gente
non ha avuto successo e...
Prevediamo che non avrai successo.
Non solo questo,
ma faremo il possibile affinché accada".
Non andrai in una buona università.
Né otterrai un buon lavoro
e nemmeno un prestito.
Perché questo fanno
realmente gli algoritmi.
Non predicono il futuro,
loro causano il futuro.
IL DILEMMA SOCIALE
IL NOSTRO DILEMMA SOCIALE