Return to Video

I pregiudizi morali dietro i risultati di ricerca

  • 0:00 - 0:03
    Quando visito una scuola
    e parlo agli studenti,
  • 0:03 - 0:06
    chiedo sempre la stessa cosa:
  • 0:07 - 0:08
    Perché Google?
  • 0:09 - 0:13
    Perché Google è il tuo
    motore di ricerca preferito?
  • 0:13 - 0:15
    Stranamente, ricevo sempre
    le stesse tre risposte.
  • 0:15 - 0:17
    Uno, "Perché funziona",
  • 0:17 - 0:20
    che è una gran risposta;
    anch'io uso Google per questo.
  • 0:20 - 0:22
    Due, qualcuno dice,
  • 0:22 - 0:26
    "In realtà non conosco
    nessuna alternativa."
  • 0:26 - 0:29
    Non è una grande risposta
    e la mia replica è, generalmente,
  • 0:29 - 0:31
    "Scrivi su Google
    "motore di ricerca",
  • 0:31 - 0:33
    puoi trovare un paio
    di alternative interessanti."
  • 0:33 - 0:35
    Ultimo, non per importanza,
    terzo,
  • 0:35 - 0:39
    inevitabilmente, uno studente
    o una studentessa alza la mano e dice:
  • 0:39 - 0:45
    "Con Google, è sicuro avere sempre
    il meglio, un risultato imparziale.
  • 0:45 - 0:52
    È sicuro di avere sempre il migliore
    risultato imparziale.
  • 0:53 - 0:55
    In quanto filosofo,
  • 0:56 - 0:58
    benché filosofo nell'era digitale,
  • 0:58 - 0:59
    questo mi fa venire la pelle d'oca
  • 0:59 - 1:04
    anche se capisco che questa fiducia,
    quell'idea del risultato imparziale
  • 1:04 - 1:08
    è il fondamento della nostra adorazione
    e del nostro apprezzamento per Google.
  • 1:09 - 1:13
    Vi mostrerò come, filosoficamente,
    è quasi impossibile.
  • 1:13 - 1:16
    Ma prima, permettetemi di ragionare,
    un po', sul principio di base
  • 1:16 - 1:19
    dietro ogni quesito di ricerca,
    che talvolta sembriamo dimenticare.
  • 1:20 - 1:22
    Ogni volta che digitate
    qualcosa su Google,
  • 1:22 - 1:26
    cominciate a chiedervi:
    "Sto cercando una singola informazione?"
  • 1:26 - 1:29
    Qual è la capitale della Francia?
  • 1:30 - 1:32
    Quali i legami costitutivi
    di una molecola d'acqua?
  • 1:32 - 1:34
    Eccellente -- vai con Google.
  • 1:34 - 1:37
    Non ci sono gruppi di scienziati
    così vicini a dimostrare
  • 1:37 - 1:39
    che in realtà è Londra e H3O.
  • 1:39 - 1:42
    Non vedete una grande complotto
    in queste cose.
  • 1:42 - 1:43
    Siamo d'accordo,
    globalmente,
  • 1:43 - 1:46
    su quali siano le risposte
    a queste informazioni.
  • 1:46 - 1:52
    Ma se complicate la domanda,
    e chiedete qualcosa come,
  • 1:52 - 1:54
    "Perché c'è
    il conflitto Israelo-Palestinese?"
  • 1:55 - 1:58
    Non state più cercando
    una singola informazione,
  • 1:58 - 1:59
    state cercando conoscenza,
  • 1:59 - 2:02
    che è qualcosa
    di più complicato e delicato.
  • 2:03 - 2:04
    Per arrivare alla conoscenza,
  • 2:04 - 2:07
    dovete mettere sul tavolo
    10 o 20 o 100 fatti
  • 2:07 - 2:10
    dimostrarli e dire,
    "Sì, questi sono tutti veri."
  • 2:10 - 2:12
    Ma, in relazione a ciò che io sono,
  • 2:12 - 2:14
    giovane o vecchio, bianco o nero,
    gay o etero,
  • 2:14 - 2:16
    li valuterò diversamente.
  • 2:16 - 2:18
    E dirò, "Sì, questo è vero,
  • 2:18 - 2:20
    ma per me questo è più rilevante,
    di quello."
  • 2:20 - 2:22
    Ed è qui che diventa interessante,
  • 2:22 - 2:24
    perché qui diventiamo umani.
  • 2:24 - 2:27
    Qui cominciamo a discutere,
    a formare la società.
  • 2:27 - 2:30
    Per arrivare realmente da qualche parte,
    dobbiamo filtrare i fatti
  • 2:30 - 2:33
    attraverso amici, vicini,
    genitori, bambini,
  • 2:33 - 2:35
    colleghi, quotidiani e riviste,
  • 2:35 - 2:38
    per poterci basare
    sulla conoscenza reale
  • 2:38 - 2:42
    una cosa a cui il motore di ricerca
    può contribuire poco.
  • 2:43 - 2:50
    Vi ho promesso un esempio
    solo per mostrarvi perché è così difficile
  • 2:50 - 2:53
    raggiungere il punto della vera, pulita,
    oggettiva conoscenza --
  • 2:53 - 2:55
    come cibo per la mente.
  • 2:55 - 2:58
    Vi porterò un paio di semplici quesiti,
    interrogazioni di ricerca.
  • 2:58 - 3:03
    Cominceremo con "Michelle Obama",
  • 3:03 - 3:04
    First Lady degli Stati Uniti.
  • 3:04 - 3:06
    E selezioneremo immagini.
  • 3:07 - 3:09
    Funziona molto bene, come potete vedere.
  • 3:09 - 3:12
    È un risultato di ricerca
    perfetto, più o meno.
  • 3:12 - 3:15
    C'è solo lei nelle immagini,
    non c'è neanche il Presidente.
  • 3:16 - 3:17
    Come funziona?
  • 3:18 - 3:19
    Molto semplice.
  • 3:19 - 3:22
    Google utilizza molte abilità
    per fare questo, ma soprattutto
  • 3:22 - 3:25
    cerca due cose
    più di ogni altra.
  • 3:25 - 3:30
    Primo, cosa dice la didascalia
    sotto l'immagine in ciascun sito web?
  • 3:30 - 3:32
    Dice "Michelle Obama"
    sotto l'immagine?
  • 3:32 - 3:34
    Indicazione abbastanza buona,
    c'è lei nella foto.
  • 3:34 - 3:37
    Secondo, Google cerca il file immagine
  • 3:37 - 3:40
    il nome del file così come è stato
    caricato sul sito web.
  • 3:40 - 3:42
    Di nuovo, si chiama "MichelleObama.jpg"?
  • 3:43 - 3:46
    Indicazione abbastanza buona,
    non c'è Clint Eastwood.
  • 3:46 - 3:50
    Con queste due,
    ottenete questo risultato, o quasi.
  • 3:50 - 3:57
    Nel 2009, Michelle Obama
    è stata vittima di una campagna razzista,
  • 3:57 - 4:01
    da persone con l'intento di insultarla
    attraverso i risultati di ricerca.
  • 4:01 - 4:04
    C'era un'immagine
    largamente distribuita su Internet
  • 4:04 - 4:07
    dove il viso era distorto
    per somigliare a una scimmia.
  • 4:07 - 4:10
    E quell'immagine
    è stata pubblicata ovunque.
  • 4:10 - 4:14
    La gente l'ha pubblicata
    proprio con l'intenzione
  • 4:14 - 4:16
    di arrivare nei risultati di ricerca.
  • 4:16 - 4:19
    Si è assicurata di scrivere
    "Michelle Obama" nel titolo
  • 4:19 - 4:23
    e di caricare l'immagine
    come "MichelleObama.jpg", o simili.
  • 4:23 - 4:25
    Capite perché -- per manipolare
    i risultati di ricerca.
  • 4:25 - 4:27
    E ha anche funzionato.
  • 4:27 - 4:29
    Se cercavate su Google
    foto di "Michelle Obama" nel 2009,
  • 4:29 - 4:33
    quell'immagine distorta di scimmia
    compariva tra i primi risultati.
  • 4:33 - 4:36
    I risultati si auto-ripuliscono
  • 4:36 - 4:38
    e questa è la bellezza,
  • 4:38 - 4:42
    perché Google misura la rilevanza
    ogni ora, ogni giorno.
  • 4:42 - 4:44
    Tuttavia, Google non l'ha sistemato
    questa volta,
  • 4:44 - 4:47
    hanno pensato, "È razzista
    ed è un pessimo risultato di ricerca;
  • 4:48 - 4:51
    torneremo indietro
    e lo puliremo manualmente.
  • 4:51 - 4:54
    Riscriveremo il codice
    e lo sistemeremo,"
  • 4:54 - 4:55
    e così hanno fatto.
  • 4:55 - 4:59
    E penso che nessuno in questa sala
    pensi sia stata una pessima idea.
  • 5:00 - 5:01
    Neanch'io.
  • 5:03 - 5:06
    Ma quando, circa due anni fa,
  • 5:06 - 5:09
    il più ricercato su Google, Anders
  • 5:09 - 5:11
    Anders Behring Breivik,
  • 5:11 - 5:13
    fece quello che ha fatto.
  • 5:13 - 5:15
    È il 22 luglio del 2011,
  • 5:15 - 5:18
    e un giorno terribile in Norvegia.
  • 5:18 - 5:21
    Quest'uomo, un terrorista, fece esplodere
    un paio di palazzi del Governo
  • 5:21 - 5:24
    poco distanti da dove ci troviamo
    adesso a Oslo, in Norvegia
  • 5:24 - 5:26
    e poi viaggiò
    verso l'isola di Utøya
  • 5:26 - 5:29
    e sparò e uccise un gruppo di bambini.
  • 5:29 - 5:31
    Morirono circa 80 persone.
  • 5:32 - 5:37
    E molte persone descriverebbero
    questo atto di terrorismo in due fasi,
  • 5:37 - 5:40
    fece due cose: far esplodere
    i palazzi e uccidere quei bambini.
  • 5:40 - 5:42
    Non è così.
  • 5:42 - 5:44
    Erano tre fasi.
  • 5:44 - 5:47
    Fece esplodere i palazzi,
    uccise i bambini,
  • 5:47 - 5:50
    si sedette e aspettò che il mondo
    lo cercasse su Google.
  • 5:51 - 5:54
    E preparò
    le tre fasi ugualmente bene.
  • 5:55 - 5:57
    E se qualcuno
    lo ha immediatamente capito
  • 5:57 - 5:59
    è stato uno sviluppatore svedese
  • 5:59 - 6:03
    esperto in motori di ricerca
    a Stoccolma, Nikke Lindqvist.
  • 6:03 - 6:04
    Politicamente impegnato.
  • 6:04 - 6:07
    Aveva ragione
    nei social, nel suo blog e su Facebook.
  • 6:07 - 6:09
    Lo ha detto a tutti,
  • 6:09 - 6:11
    "Se c'è qualcosa
    che quest'uomo vuole adesso,
  • 6:11 - 6:14
    è controllare la sua immagine.
  • 6:15 - 6:17
    Vediamo se possiamo distorcerla.
  • 6:17 - 6:21
    Vediamo se, nel mondo civile,
    possiamo protestare contro quello che ha fatto
  • 6:21 - 6:25
    insultandolo
    nei suoi risultati di ricerca."
  • 6:25 - 6:26
    Come?
  • 6:27 - 6:29
    Disse ai suoi lettori quanto segue,
  • 6:29 - 6:31
    "Andate su Internet,
  • 6:31 - 6:34
    trovate immagini di cacche di cane --
  • 6:35 - 6:37
    trovate immagini di cacche di cane --
  • 6:37 - 6:40
    pubblicatele nei vostri feed,
    nei vostri siti web, nei vostri blog.
  • 6:40 - 6:43
    Sinceratevi di scrivere il nome
    del terrorista nel titolo,
  • 6:43 - 6:48
    assicuratevi di nominare
    il file immagine "Breivik.jpeg".
  • 6:48 - 6:52
    Insegniamo a Google che quella
    è la faccia del terrorista."
  • 6:54 - 6:55
    E funzionò.
  • 6:56 - 6:59
    Due anni dopo quella campagna
    contro Michelle Obama,
  • 6:59 - 7:02
    l'iniziativa di manipolazione
    contro Anders Behring Breivik funzionò.
  • 7:02 - 7:07
    Se cercavate sue immagini su Google
    dopo i fatti del 22 luglio in Svezia,
  • 7:07 - 7:11
    vedevate l'immagine della cacca di cane
    in cima ai risultati di ricerca,
  • 7:11 - 7:12
    come una piccola protesta.
  • 7:13 - 7:18
    Stranamente, Google
    non è intervenuto questa volta.
  • 7:18 - 7:24
    Non sono intervenuti e non hanno
    ripulito manualmente quei risultati.
  • 7:24 - 7:26
    La domanda da un milione di dollari,
  • 7:26 - 7:29
    c'è qualche differenza
    tra queste due vicende?
  • 7:29 - 7:32
    C'è qualche differenza tra
    quello che è successo a Michelle Obama
  • 7:32 - 7:34
    e quello che è successo
    a Anders Behring Breivik?
  • 7:34 - 7:37
    Certo che no.
  • 7:37 - 7:38
    È esattamente la stessa cosa,
  • 7:38 - 7:41
    eppure, Google è intervenuto in un caso
    e non nell'altro.
  • 7:41 - 7:42
    Perché?
  • 7:43 - 7:47
    Perché Michelle Obama
    è una persona stimata, ecco perché,
  • 7:47 - 7:50
    e Anders Behring Breivik
    è una persona orribile.
  • 7:50 - 7:52
    Visto cos'è successo?
  • 7:52 - 7:55
    Si giudica una persona
  • 7:55 - 7:59
    e c'è soltanto una figura
  • 7:59 - 8:02
    che ha l'autorità di dire chi è chi.
  • 8:02 - 8:04
    "Tu ci piaci, tu non ci piaci.
  • 8:04 - 8:05
    A te crediamo,
    a te non ti crediamo.
  • 8:05 - 8:07
    Tu hai ragione, tu hai torto.
    Sei vero, sei falso.
  • 8:07 - 8:10
    Tu sei Obama, e tu sei Breivik."
  • 8:11 - 8:15
    Questo è potere, se ho visto bene.
  • 8:15 - 8:19
    Vi chiedo di ricordare
    che dietro ogni algoritmo
  • 8:19 - 8:21
    c'è sempre una persona,
  • 8:21 - 8:23
    una persona
    con un insieme di convinzioni personali
  • 8:23 - 8:26
    che nessun codice potrà mai
    completamente sradicare.
  • 8:26 - 8:28
    Il mio messaggio va
    non soltanto a Google,
  • 8:28 - 8:31
    ma a tutti coloro al mondo
    che credono nel codice.
  • 8:31 - 8:34
    Si devono identificare
    i propri pregiudizi personali.
  • 8:34 - 8:36
    Bisogna capire di essere umani
  • 8:36 - 8:40
    e assumersi responsabilità di conseguenza.
  • 8:40 - 8:43
    Dico questo perché credo
    che sia giunto il momento
  • 8:43 - 8:44
    in cui è fondamentale
  • 8:44 - 8:48
    ricreare questi legami, più stretti:
  • 8:48 - 8:50
    le umanità e la tecnologia.
  • 8:50 - 8:52
    Più stretti che mai.
  • 8:52 - 8:56
    Se non altro, ci ricorda
    che quella meravigliosa idea seducente
  • 8:56 - 8:58
    di risultati di ricerca imparziali, puliti
  • 8:58 - 9:02
    è, ed è probabile che rimanga, un mito.
  • 9:02 - 9:03
    Grazie del vostro tempo.
  • 9:06 - 9:06
    (Applausi)
Title:
I pregiudizi morali dietro i risultati di ricerca
Speaker:
Andreas Ekström
Description:

I motori di ricerca sono diventati la nostra risorsa di informazioni più affidabile e arbitri della verità. Ma si possono ottenere risultati di ricerca imparziali? L'autore e giornalista svedese Andreas Ekström sostiente che sia filosoficamente impossibile. In questo ponderato intervento, ci spinge a rafforzare i legami tra tecnologia e umanità, e ci ricorda che dietro ogni algoritmo c'è una serie di convinzioni che nessun codice potrà mai sradicare.

more » « less
Video Language:
English
Team:
TED
Project:
TEDTalks
Duration:
09:18

Italian subtitles

Revisions