Return to Video

El biaix moral dels resultats de cerca

  • 0:01 - 0:03
    Quan vaig a una escola
    i parlo amb estudiants
  • 0:03 - 0:06
    i sempre els
    pregunto el mateix:
  • 0:06 - 0:08
    "Per què cerqueu a Google?"
  • 0:08 - 0:12
    "Per què el trieu?"
  • 0:12 - 0:15
    Sempre em donen aquestes raons:
  • 0:15 - 0:17
    Primera, "perquè funciona":
  • 0:17 - 0:20
    molt bé, jo també
    l'utilitzo per això.
  • 0:20 - 0:22
    Segona, alguns diuen:
  • 0:22 - 0:25
    "No conec cap altra alternativa."
  • 0:25 - 0:28
    Aquesta no és tan bona, i
    normalment els hi dic:
  • 0:28 - 0:30
    "Posa 'motor de cerca' a Google,
  • 0:30 - 0:32
    i veuràs algunes
    bones alternatives."
  • 0:33 - 0:35
    L'última, però no menys important,
  • 0:35 - 0:39
    és la d'un estudiant,
    que aixeca la mà i diu:
  • 0:39 - 0:45
    "Amb Google m'asseguro sempre
    els millors resultats; els més objectius."
  • 0:45 - 0:52
    Segur d'obtenir sempre els millors
    resultats; els més objectius.
  • 0:53 - 0:55
    Com que sóc d'Humanitats,
  • 0:55 - 0:57
    encara que d'Humanitats digitals,
  • 0:57 - 0:59
    se'm posa la pell de gallina,
  • 0:59 - 1:02
    tot i que sé que aquesta confiança
    en la objectivitat
  • 1:02 - 1:08
    és un dels pilars
    de l'apreci col·lectiu pel Google.
  • 1:08 - 1:12
    Us explicaré per què això és,
    filosòficament, impossible.
  • 1:12 - 1:15
    Però primer, parlaré una mica
    del principi bàsic
  • 1:15 - 1:19
    darrere de qualsevol cerca,
    i que a vegades oblidem.
  • 1:19 - 1:21
    Quan cerqueu a Google
  • 1:21 - 1:25
    pregunteu-vos primer:
    "Busco un fet aïllat?"
  • 1:26 - 1:29
    Quina és la capital de França?
  • 1:29 - 1:32
    Quins són els components
    de la molècula de l'aigua?
  • 1:32 - 1:34
    Perfecte. Feu servir el Google.
  • 1:34 - 1:37
    No hi ha cap grup de científics
    a punt de demostrar
  • 1:37 - 1:39
    que les respostes són Londres i H3O.
  • 1:39 - 1:42
    No hi ha cap conspiració al darrere.
  • 1:42 - 1:44
    Estem d'acord, a escala global,
  • 1:44 - 1:46
    de les respostes
    a aquests fets aïllats.
  • 1:46 - 1:51
    Però si compliquem la cerca
    i busquem, per exemple,
  • 1:51 - 1:55
    "Per què existeix el
    conflicte Israel-Palestina?"
  • 1:55 - 1:57
    Ara ja no cerquem
    un fet específic,
  • 1:57 - 1:59
    ara cerquem coneixement:
  • 1:59 - 2:02
    molt més complicat i delicat.
  • 2:03 - 2:04
    Per arribar al coneixement,
  • 2:04 - 2:07
    agafaríeu 10,
    20 ó 100 fets
  • 2:07 - 2:10
    i diríeu, "són certs".
  • 2:10 - 2:11
    Però segons qui sóc,
  • 2:11 - 2:14
    jove o vell, blanc o negre,
    gay o no,
  • 2:14 - 2:16
    els valoraré de manera diferent.
  • 2:16 - 2:18
    I jo diría: "Sí, això és cert,
  • 2:18 - 2:20
    però per a mi
    és més important que allò."
  • 2:20 - 2:21
    És aquí on comença
    a ser interessant,
  • 2:21 - 2:23
    perquè aquí esdevenim humans.
  • 2:23 - 2:27
    Perquè comencem a
    debatre, a crear la societat.
  • 2:27 - 2:30
    I per a arribar a algun lloc
    hem de filtrar els fets aquí,
  • 2:30 - 2:32
    entre amics,
    veïns, pares i fills
  • 2:32 - 2:35
    i col·legues,
    i diaris i revistes
  • 2:35 - 2:39
    fins a arribar
    al coneixement real,
  • 2:39 - 2:42
    que un motor de cerca
    no ens pot ajudar a trobar.
  • 2:43 - 2:48
    Us he promès
    un exemple que demostri
  • 2:48 - 2:53
    com n'és de difícil arribar
    al coneixement real i objectiu...
  • 2:53 - 2:55
    perquè ens faci pensar.
  • 2:55 - 2:58
    Realitzaré dues cerques senzilles.
  • 2:58 - 3:02
    Començarem per "Michelle Obama",
  • 3:02 - 3:04
    la Primera Dama dels Estats Units.
  • 3:04 - 3:06
    Cliquem per a veure imatges.
  • 3:06 - 3:09
    Funciona força bé, com veieu.
  • 3:09 - 3:12
    És una cerca perfecta,
    més o menys.
  • 3:12 - 3:16
    Només surt ella a les fotos,
    ni tan sols apareix el President.
  • 3:16 - 3:17
    Com funciona això?
  • 3:17 - 3:19
    Molt senzill.
  • 3:19 - 3:22
    Google empra l'intel·ligència
    però simplement
  • 3:22 - 3:25
    cerca dues coses principals.
  • 3:25 - 3:30
    Primer, què surt
    a cada peu de foto?
  • 3:30 - 3:32
    Diu "Michelle Obama"
    a sota de la foto?
  • 3:32 - 3:35
    Un bon indicador perquè
    només hi aparegui ella.
  • 3:35 - 3:37
    Segon, Google cerca,
    l'arxiu de la imatge,
  • 3:37 - 3:40
    el nom de l'arxiu
    que han pujat a la web.
  • 3:40 - 3:43
    L'arxiu es diu
    "MichelleObama.jpeg"?
  • 3:43 - 3:46
    Bon indicador que en
    Clint Eastwood no hi surt a la foto.
  • 3:46 - 3:51
    Si teniu això, obtindreu
    un resultat com aquest - gairebé.
  • 3:51 - 3:57
    L'any 2009 la Michelle Obama
    va ser víctima d'una campanya racista,
  • 3:57 - 4:02
    on la gent l'insultava
    mitjançant els resultats de cerca.
  • 4:02 - 4:04
    Havia una foto d'ella,
    estesa per tota la xarxa,
  • 4:04 - 4:07
    amb la cara distorsionada
    per fer-la semblar un mico.
  • 4:07 - 4:10
    Aquella foto es va publicar
    a tot arreu.
  • 4:10 - 4:14
    I la gent la publicava amb
    la intenció clara
  • 4:14 - 4:16
    de que anés pujant
    en els resultats de cerca.
  • 4:16 - 4:20
    S'asseguraven de posar
    "Michelle Obama" a la descripció
  • 4:20 - 4:22
    i, de pujar la foto amb
    el nom "MichelleObama.jpeg".
  • 4:22 - 4:25
    Ja sabeu per què:
    per manipular els resultats de cerca.
  • 4:25 - 4:27
    I va funcionar.
  • 4:27 - 4:29
    Si cercaves "Michelle Obama"
    per Google el 2009
  • 4:29 - 4:33
    la foto del mico deformat surtia
    als primers resultats.
  • 4:33 - 4:36
    Els resultats s'autonetejen
  • 4:36 - 4:39
    cosa que forma part
    de la bellesa de tot això:
  • 4:39 - 4:41
    La rellevància es calcula
    cada hora, cada dia.
  • 4:41 - 4:45
    Però en aquest cas, Google
    no es va conformar amb això,
  • 4:45 - 4:48
    van pensar: "això és
    un resultat negatiu i racista,
  • 4:48 - 4:50
    i l'el·liminarem manualment.
  • 4:50 - 4:53
    Escriurem un codi
    i ho arreglarem."
  • 4:53 - 4:55
    I ho van fer.
  • 4:55 - 4:59
    No crec que ningú en aquesta sala
    ho trobi malament.
  • 4:59 - 5:02
    Jo tampoc.
  • 5:02 - 5:06
    Però, al cap de dos anys
  • 5:06 - 5:08
    "l'Anders" més cercat a Google,
  • 5:08 - 5:11
    Anders Behring Breivik,
  • 5:11 - 5:13
    va fer el que tots sabem.
  • 5:13 - 5:15
    El 22 de juliol del 2011,
  • 5:15 - 5:17
    va ser un dia horrible
    per a Noruega.
  • 5:17 - 5:22
    Aquest terrorista va
    fer volar dos edificis del govern
  • 5:22 - 5:24
    a unes passes
    d'aquí, a Oslo, a Noruega,
  • 5:24 - 5:27
    i va anar fins a l'illa d'Utøya,
  • 5:27 - 5:29
    on va disparar i assassinar
    un grup de nanos.
  • 5:29 - 5:32
    Quasi 80 persones
    van morir aquell dia.
  • 5:32 - 5:36
    Molts descriurien
    aquest acte terrorista
  • 5:36 - 5:40
    en dues parts: fer volar
    els edificis i assassinar els nanos.
  • 5:40 - 5:42
    No és veritat.
  • 5:42 - 5:44
    Van ser tres parts.
  • 5:44 - 5:47
    Va fer explotar els edificis,
    va disparar als nanos,
  • 5:47 - 5:51
    i va esperar
    que el món el googlegés.
  • 5:51 - 5:54
    I va planejar les tres parts
    igual de bé.
  • 5:54 - 5:57
    I si va haver-hi algú
    que ho va entendre,
  • 5:57 - 5:59
    va ser un desenvolupador web suec,
  • 5:59 - 6:03
    un expert en optimització de cerques
    d'Estocolm, Nikke Lindqvist.
  • 6:03 - 6:05
    També està ficat en política,
  • 6:05 - 6:07
    i en els mitjans socials,
    té un blog i Facebook.
  • 6:07 - 6:09
    Va dir a tothom,
  • 6:09 - 6:10
    "El que aquest vol ara,
  • 6:10 - 6:13
    és controlar la seva imatge.
  • 6:15 - 6:18
    A veure si la podem distorsionar.
  • 6:18 - 6:20
    A veure si el món civilitzat protesta
  • 6:20 - 6:25
    pel que ha fet i l'insulta
    amb els resultats de cerca."
  • 6:25 - 6:26
    Però com?
  • 6:26 - 6:29
    Va dir als seus lectors:
  • 6:29 - 6:31
    "Aneu a Internet,
  • 6:31 - 6:34
    trobeu imatges de caques de gos...
  • 6:34 - 6:36
    trobeu imatges de caques al carrer...
  • 6:36 - 6:40
    i publiqueu-les al mur,
    a les webs, als blogs.
  • 6:40 - 6:43
    Assegureu-vos d'escriure
    el seu nom a la descripció,
  • 6:43 - 6:48
    anomeneu l'arxiu de foto
    'Breivik.jpeg.'.
  • 6:48 - 6:52
    Ensenyem-li a Google
    com és la cara d'un terrorista."
  • 6:52 - 6:55
    I va funcionar.
  • 6:55 - 6:57
    Després de la campanya
  • 6:57 - 7:02
    contra Michelle Obama, la de
    Anders Behring Breivik va funcionar.
  • 7:02 - 7:07
    Si cercaves la seva imatge a Google
    després del 22 de juliol a Suècia
  • 7:07 - 7:10
    trobaves la imatge d'una caca de gos
    ben amunt als resultats de cerca,
  • 7:10 - 7:13
    com a forma de protesta.
  • 7:13 - 7:18
    Curiosament,
    Google no va intervenir.
  • 7:18 - 7:23
    No van entrar per el·liminar
    manualment aquells resultats.
  • 7:24 - 7:26
    La pregunta
    del milió de dòlars és:
  • 7:26 - 7:29
    en què es diferencien
    aquests dos casos?
  • 7:29 - 7:32
    En què es diferencia el cas
    de la Michelle Obama,
  • 7:32 - 7:34
    del cas de l'Anders Behring Breivik?
  • 7:34 - 7:36
    En res.
  • 7:37 - 7:39
    Són exactament el mateix,
  • 7:39 - 7:41
    però Google només
    va intervenir en un cas
  • 7:41 - 7:42
    Per què?
  • 7:43 - 7:45
    Perquè Michelle Obama
  • 7:45 - 7:50
    és honorable, i Anders
    Behring Breivik és menyspreable.
  • 7:50 - 7:52
    Veieu què passa?
  • 7:52 - 7:55
    Es jutja una persona
  • 7:55 - 7:59
    i només hi ha un poderòs
  • 7:59 - 8:01
    amb autoritat per dir qui és qui.
  • 8:01 - 8:03
    "Ens agrades o no ens agrades."
  • 8:03 - 8:05
    "Creiem en tu, o no hi creiem."
  • 8:05 - 8:07
    "Ets bo, ets dolent.
    Vertader, o fals."
  • 8:07 - 8:09
    "Ets Obama, ets Breivik."
  • 8:10 - 8:13
    Això és poder,
    sense cap dubte.
  • 8:15 - 8:19
    Recordeu que
    darrere d'un algoritme
  • 8:19 - 8:21
    sempre hi ha una persona,
  • 8:21 - 8:23
    amb una sèrie de creences personals
  • 8:23 - 8:26
    que no es poden
    erradicar amb cap codi.
  • 8:26 - 8:28
    I el meu missatge va
    no només a Google,
  • 8:28 - 8:31
    sinó a tots els que creieu en els codis.
  • 8:31 - 8:34
    Heu d'identificar
    els vostres prejudicis.
  • 8:34 - 8:36
    Heu d'entendre que sou humans
  • 8:36 - 8:39
    i actuar en conseqüència.
  • 8:40 - 8:42
    I us ho dic perquè
    hem arribat a un punt
  • 8:42 - 8:44
    on és absolutament imperatiu
  • 8:44 - 8:47
    que enfortim aquest vincle:
  • 8:47 - 8:50
    entre humanitats i tecnologia.
  • 8:50 - 8:52
    Més fort que mai.
  • 8:52 - 8:55
    I també per recordar-vos que la idea
  • 8:55 - 8:59
    meravellosa d'un resultat imparcial i net
  • 8:59 - 9:01
    és, i seguirà sent, un mite.
  • 9:01 - 9:03
    Gràcies pel vostre temps.
  • 9:03 - 9:05
    (Aplaudiments)
Title:
El biaix moral dels resultats de cerca
Speaker:
Andreas Ekström
Description:

Els motors de cerca s'han convertit en les fonts d'informació més fiables, i àrbitres de la veritat. Però es pot obtenir un resultat de cerca sense biaix? L'autor i periodista suec Andreas Ekström defensa que és filosòficament impossible. En aquesta xerrada ens demana que enfortim els lligams entre la tecnologia i les humanitats, i ens recorda que darrera de cada algoritme hi ha una sèrie de creences personals que mai cap codi podrà eliminar.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
09:18
Dimitra Papageorgiou edited Catalan subtitles for The moral bias behind your search results
Dimitra Papageorgiou approved Catalan subtitles for The moral bias behind your search results
Dimitra Papageorgiou approved Catalan subtitles for The moral bias behind your search results
Dimitra Papageorgiou approved Catalan subtitles for The moral bias behind your search results
Dimitra Papageorgiou approved Catalan subtitles for The moral bias behind your search results
Anna Comas-Quinn accepted Catalan subtitles for The moral bias behind your search results
Anna Comas-Quinn edited Catalan subtitles for The moral bias behind your search results
Anna Comas-Quinn edited Catalan subtitles for The moral bias behind your search results
Show all

Catalan subtitles

Revisions Compare revisions