I pregiudizi morali dietro i risultati di ricerca
-
0:00 - 0:03Quando visito una scuola
e parlo agli studenti, -
0:03 - 0:06chiedo sempre la stessa cosa:
-
0:07 - 0:08Perché Google?
-
0:09 - 0:13Perché Google è il tuo
motore di ricerca preferito? -
0:13 - 0:15Stranamente, ricevo sempre
le stesse tre risposte. -
0:15 - 0:17Uno, "Perché funziona",
-
0:17 - 0:20che è una gran risposta;
anch'io uso Google per questo. -
0:20 - 0:22Due, qualcuno dice,
-
0:22 - 0:26"In realtà non conosco
nessuna alternativa." -
0:26 - 0:29Non è una grande risposta
e la mia replica è, generalmente, -
0:29 - 0:31"Scrivi su Google
"motore di ricerca", -
0:31 - 0:33puoi trovare un paio
di alternative interessanti." -
0:33 - 0:35Ultimo, non per importanza,
terzo, -
0:35 - 0:39inevitabilmente, uno studente
o una studentessa alza la mano e dice: -
0:39 - 0:45"Con Google, è sicuro avere sempre
il meglio, un risultato imparziale. -
0:45 - 0:52È sicuro di avere sempre il migliore
risultato imparziale. -
0:53 - 0:55In quanto filosofo,
-
0:56 - 0:58benché filosofo nell'era digitale,
-
0:58 - 0:59questo mi fa venire la pelle d'oca
-
0:59 - 1:04anche se capisco che questa fiducia,
quell'idea del risultato imparziale -
1:04 - 1:08è il fondamento della nostra adorazione
e del nostro apprezzamento per Google. -
1:09 - 1:13Vi mostrerò come, filosoficamente,
è quasi impossibile. -
1:13 - 1:16Ma prima, permettetemi di ragionare,
un po', sul principio di base -
1:16 - 1:19dietro ogni quesito di ricerca,
che talvolta sembriamo dimenticare. -
1:20 - 1:22Ogni volta che digitate
qualcosa su Google, -
1:22 - 1:26cominciate a chiedervi:
"Sto cercando una singola informazione?" -
1:26 - 1:29Qual è la capitale della Francia?
-
1:30 - 1:32Quali i legami costitutivi
di una molecola d'acqua? -
1:32 - 1:34Eccellente -- vai con Google.
-
1:34 - 1:37Non ci sono gruppi di scienziati
così vicini a dimostrare -
1:37 - 1:39che in realtà è Londra e H3O.
-
1:39 - 1:42Non vedete una grande complotto
in queste cose. -
1:42 - 1:43Siamo d'accordo,
globalmente, -
1:43 - 1:46su quali siano le risposte
a queste informazioni. -
1:46 - 1:52Ma se complicate la domanda,
e chiedete qualcosa come, -
1:52 - 1:54"Perché c'è
il conflitto Israelo-Palestinese?" -
1:55 - 1:58Non state più cercando
una singola informazione, -
1:58 - 1:59state cercando conoscenza,
-
1:59 - 2:02che è qualcosa
di più complicato e delicato. -
2:03 - 2:04Per arrivare alla conoscenza,
-
2:04 - 2:07dovete mettere sul tavolo
10 o 20 o 100 fatti -
2:07 - 2:10dimostrarli e dire,
"Sì, questi sono tutti veri." -
2:10 - 2:12Ma, in relazione a ciò che io sono,
-
2:12 - 2:14giovane o vecchio, bianco o nero,
gay o etero, -
2:14 - 2:16li valuterò diversamente.
-
2:16 - 2:18E dirò, "Sì, questo è vero,
-
2:18 - 2:20ma per me questo è più rilevante,
di quello." -
2:20 - 2:22Ed è qui che diventa interessante,
-
2:22 - 2:24perché qui diventiamo umani.
-
2:24 - 2:27Qui cominciamo a discutere,
a formare la società. -
2:27 - 2:30Per arrivare realmente da qualche parte,
dobbiamo filtrare i fatti -
2:30 - 2:33attraverso amici, vicini,
genitori, bambini, -
2:33 - 2:35colleghi, quotidiani e riviste,
-
2:35 - 2:38per poterci basare
sulla conoscenza reale -
2:38 - 2:42una cosa a cui il motore di ricerca
può contribuire poco. -
2:43 - 2:50Vi ho promesso un esempio
solo per mostrarvi perché è così difficile -
2:50 - 2:53raggiungere il punto della vera, pulita,
oggettiva conoscenza -- -
2:53 - 2:55come cibo per la mente.
-
2:55 - 2:58Vi porterò un paio di semplici quesiti,
interrogazioni di ricerca. -
2:58 - 3:03Cominceremo con "Michelle Obama",
-
3:03 - 3:04First Lady degli Stati Uniti.
-
3:04 - 3:06E selezioneremo immagini.
-
3:07 - 3:09Funziona molto bene, come potete vedere.
-
3:09 - 3:12È un risultato di ricerca
perfetto, più o meno. -
3:12 - 3:15C'è solo lei nelle immagini,
non c'è neanche il Presidente. -
3:16 - 3:17Come funziona?
-
3:18 - 3:19Molto semplice.
-
3:19 - 3:22Google utilizza molte abilità
per fare questo, ma soprattutto -
3:22 - 3:25cerca due cose
più di ogni altra. -
3:25 - 3:30Primo, cosa dice la didascalia
sotto l'immagine in ciascun sito web? -
3:30 - 3:32Dice "Michelle Obama"
sotto l'immagine? -
3:32 - 3:34Indicazione abbastanza buona,
c'è lei nella foto. -
3:34 - 3:37Secondo, Google cerca il file immagine
-
3:37 - 3:40il nome del file così come è stato
caricato sul sito web. -
3:40 - 3:42Di nuovo, si chiama "MichelleObama.jpg"?
-
3:43 - 3:46Indicazione abbastanza buona,
non c'è Clint Eastwood. -
3:46 - 3:50Con queste due,
ottenete questo risultato, o quasi. -
3:50 - 3:57Nel 2009, Michelle Obama
è stata vittima di una campagna razzista, -
3:57 - 4:01da persone con l'intento di insultarla
attraverso i risultati di ricerca. -
4:01 - 4:04C'era un'immagine
largamente distribuita su Internet -
4:04 - 4:07dove il viso era distorto
per somigliare a una scimmia. -
4:07 - 4:10E quell'immagine
è stata pubblicata ovunque. -
4:10 - 4:14La gente l'ha pubblicata
proprio con l'intenzione -
4:14 - 4:16di arrivare nei risultati di ricerca.
-
4:16 - 4:19Si è assicurata di scrivere
"Michelle Obama" nel titolo -
4:19 - 4:23e di caricare l'immagine
come "MichelleObama.jpg", o simili. -
4:23 - 4:25Capite perché -- per manipolare
i risultati di ricerca. -
4:25 - 4:27E ha anche funzionato.
-
4:27 - 4:29Se cercavate su Google
foto di "Michelle Obama" nel 2009, -
4:29 - 4:33quell'immagine distorta di scimmia
compariva tra i primi risultati. -
4:33 - 4:36I risultati si auto-ripuliscono
-
4:36 - 4:38e questa è la bellezza,
-
4:38 - 4:42perché Google misura la rilevanza
ogni ora, ogni giorno. -
4:42 - 4:44Tuttavia, Google non l'ha sistemato
questa volta, -
4:44 - 4:47hanno pensato, "È razzista
ed è un pessimo risultato di ricerca; -
4:48 - 4:51torneremo indietro
e lo puliremo manualmente. -
4:51 - 4:54Riscriveremo il codice
e lo sistemeremo," -
4:54 - 4:55e così hanno fatto.
-
4:55 - 4:59E penso che nessuno in questa sala
pensi sia stata una pessima idea. -
5:00 - 5:01Neanch'io.
-
5:03 - 5:06Ma quando, circa due anni fa,
-
5:06 - 5:09il più ricercato su Google, Anders
-
5:09 - 5:11Anders Behring Breivik,
-
5:11 - 5:13fece quello che ha fatto.
-
5:13 - 5:15È il 22 luglio del 2011,
-
5:15 - 5:18e un giorno terribile in Norvegia.
-
5:18 - 5:21Quest'uomo, un terrorista, fece esplodere
un paio di palazzi del Governo -
5:21 - 5:24poco distanti da dove ci troviamo
adesso a Oslo, in Norvegia -
5:24 - 5:26e poi viaggiò
verso l'isola di Utøya -
5:26 - 5:29e sparò e uccise un gruppo di bambini.
-
5:29 - 5:31Morirono circa 80 persone.
-
5:32 - 5:37E molte persone descriverebbero
questo atto di terrorismo in due fasi, -
5:37 - 5:40fece due cose: far esplodere
i palazzi e uccidere quei bambini. -
5:40 - 5:42Non è così.
-
5:42 - 5:44Erano tre fasi.
-
5:44 - 5:47Fece esplodere i palazzi,
uccise i bambini, -
5:47 - 5:50si sedette e aspettò che il mondo
lo cercasse su Google. -
5:51 - 5:54E preparò
le tre fasi ugualmente bene. -
5:55 - 5:57E se qualcuno
lo ha immediatamente capito -
5:57 - 5:59è stato uno sviluppatore svedese
-
5:59 - 6:03esperto in motori di ricerca
a Stoccolma, Nikke Lindqvist. -
6:03 - 6:04Politicamente impegnato.
-
6:04 - 6:07Aveva ragione
nei social, nel suo blog e su Facebook. -
6:07 - 6:09Lo ha detto a tutti,
-
6:09 - 6:11"Se c'è qualcosa
che quest'uomo vuole adesso, -
6:11 - 6:14è controllare la sua immagine.
-
6:15 - 6:17Vediamo se possiamo distorcerla.
-
6:17 - 6:21Vediamo se, nel mondo civile,
possiamo protestare contro quello che ha fatto -
6:21 - 6:25insultandolo
nei suoi risultati di ricerca." -
6:25 - 6:26Come?
-
6:27 - 6:29Disse ai suoi lettori quanto segue,
-
6:29 - 6:31"Andate su Internet,
-
6:31 - 6:34trovate immagini di cacche di cane --
-
6:35 - 6:37trovate immagini di cacche di cane --
-
6:37 - 6:40pubblicatele nei vostri feed,
nei vostri siti web, nei vostri blog. -
6:40 - 6:43Sinceratevi di scrivere il nome
del terrorista nel titolo, -
6:43 - 6:48assicuratevi di nominare
il file immagine "Breivik.jpeg". -
6:48 - 6:52Insegniamo a Google che quella
è la faccia del terrorista." -
6:54 - 6:55E funzionò.
-
6:56 - 6:59Due anni dopo quella campagna
contro Michelle Obama, -
6:59 - 7:02l'iniziativa di manipolazione
contro Anders Behring Breivik funzionò. -
7:02 - 7:07Se cercavate sue immagini su Google
dopo i fatti del 22 luglio in Svezia, -
7:07 - 7:11vedevate l'immagine della cacca di cane
in cima ai risultati di ricerca, -
7:11 - 7:12come una piccola protesta.
-
7:13 - 7:18Stranamente, Google
non è intervenuto questa volta. -
7:18 - 7:24Non sono intervenuti e non hanno
ripulito manualmente quei risultati. -
7:24 - 7:26La domanda da un milione di dollari,
-
7:26 - 7:29c'è qualche differenza
tra queste due vicende? -
7:29 - 7:32C'è qualche differenza tra
quello che è successo a Michelle Obama -
7:32 - 7:34e quello che è successo
a Anders Behring Breivik? -
7:34 - 7:37Certo che no.
-
7:37 - 7:38È esattamente la stessa cosa,
-
7:38 - 7:41eppure, Google è intervenuto in un caso
e non nell'altro. -
7:41 - 7:42Perché?
-
7:43 - 7:47Perché Michelle Obama
è una persona stimata, ecco perché, -
7:47 - 7:50e Anders Behring Breivik
è una persona orribile. -
7:50 - 7:52Visto cos'è successo?
-
7:52 - 7:55Si giudica una persona
-
7:55 - 7:59e c'è soltanto una figura
-
7:59 - 8:02che ha l'autorità di dire chi è chi.
-
8:02 - 8:04"Tu ci piaci, tu non ci piaci.
-
8:04 - 8:05A te crediamo,
a te non ti crediamo. -
8:05 - 8:07Tu hai ragione, tu hai torto.
Sei vero, sei falso. -
8:07 - 8:10Tu sei Obama, e tu sei Breivik."
-
8:11 - 8:15Questo è potere, se ho visto bene.
-
8:15 - 8:19Vi chiedo di ricordare
che dietro ogni algoritmo -
8:19 - 8:21c'è sempre una persona,
-
8:21 - 8:23una persona
con un insieme di convinzioni personali -
8:23 - 8:26che nessun codice potrà mai
completamente sradicare. -
8:26 - 8:28Il mio messaggio va
non soltanto a Google, -
8:28 - 8:31ma a tutti coloro al mondo
che credono nel codice. -
8:31 - 8:34Si devono identificare
i propri pregiudizi personali. -
8:34 - 8:36Bisogna capire di essere umani
-
8:36 - 8:40e assumersi responsabilità di conseguenza.
-
8:40 - 8:43Dico questo perché credo
che sia giunto il momento -
8:43 - 8:44in cui è fondamentale
-
8:44 - 8:48ricreare questi legami, più stretti:
-
8:48 - 8:50le umanità e la tecnologia.
-
8:50 - 8:52Più stretti che mai.
-
8:52 - 8:56Se non altro, ci ricorda
che quella meravigliosa idea seducente -
8:56 - 8:58di risultati di ricerca imparziali, puliti
-
8:58 - 9:02è, ed è probabile che rimanga, un mito.
-
9:02 - 9:03Grazie del vostro tempo.
-
9:06 - 9:06(Applausi)
- Title:
- I pregiudizi morali dietro i risultati di ricerca
- Speaker:
- Andreas Ekström
- Description:
-
I motori di ricerca sono diventati la nostra risorsa di informazioni più affidabile e arbitri della verità. Ma si possono ottenere risultati di ricerca imparziali? L'autore e giornalista svedese Andreas Ekström sostiente che sia filosoficamente impossibile. In questo ponderato intervento, ci spinge a rafforzare i legami tra tecnologia e umanità, e ci ricorda che dietro ogni algoritmo c'è una serie di convinzioni che nessun codice potrà mai sradicare.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 09:18
Anna Cristiana Minoli approved Italian subtitles for The moral bias behind your search results | ||
Anna Cristiana Minoli edited Italian subtitles for The moral bias behind your search results | ||
Anna Cristiana Minoli accepted Italian subtitles for The moral bias behind your search results | ||
Anna Cristiana Minoli edited Italian subtitles for The moral bias behind your search results | ||
Anna Cristiana Minoli edited Italian subtitles for The moral bias behind your search results | ||
Gabriella Patricola edited Italian subtitles for The moral bias behind your search results | ||
Gabriella Patricola edited Italian subtitles for The moral bias behind your search results | ||
Gabriella Patricola edited Italian subtitles for The moral bias behind your search results |