Return to Video

El sesgo moral detrás de los resultados de búsqueda

  • 0:00 - 0:04
    Cuando voy a una escuela
    y hablo con los estudiantes,
  • 0:04 - 0:06
    siempre les pregunto lo mismo:
  • 0:07 - 0:08
    ¿Por qué googlean?
  • 0:09 - 0:12
    ¿Por qué escogen Google
    como su motor de búsqueda?
  • 0:13 - 0:15
    Extraño y todo, siempre dan
    las mismas 3 respuestas.
  • 0:15 - 0:17
    Uno: "Porque funciona",
  • 0:17 - 0:20
    que es una gran respuesta;
    por eso yo también googleo.
  • 0:20 - 0:22
    Dos: --alguno dirá--
  • 0:22 - 0:25
    "No conozco ninguna otra alternativa".
  • 0:26 - 0:29
    No es una respuesta igual de buena
    y siempre respondo diciendo:
  • 0:29 - 0:30
    "Intenten googlear 'motor de búsqueda',
  • 0:30 - 0:33
    puede que encuentren
    un par de alternativas interesantes".
  • 0:33 - 0:36
    Y por último, pero
    no menos importante:
  • 0:36 - 0:39
    inevitablemente, un estudiante
    levantará la mano y dirá:
  • 0:39 - 0:44
    "Con Google, estoy seguro de que siempre
    obtendré el resultado más imparcial".
  • 0:45 - 0:52
    Seguro de que siempre obtendré
    el resultado más imparcial.
  • 0:53 - 0:55
    Como hombre de humanidades,
  • 0:56 - 0:58
    aunque hombre de humanidades digitales,
  • 0:58 - 0:59
    esto me eriza la piel,
  • 0:59 - 1:04
    aunque también veo que esa confianza,
    la creencia en el resultado imparcial,
  • 1:04 - 1:08
    es una piedra angular de nuestro amor
    colectivo y del valor que damos a Google.
  • 1:09 - 1:13
    Les mostraré por qué, filosóficamente,
    eso es casi un imposible.
  • 1:13 - 1:16
    Pero déjenme primero profundizar,
    solo un poco, en un principio básico
  • 1:16 - 1:20
    que hay detrás de toda consulta
    y que algunas veces parece que olvidamos.
  • 1:20 - 1:22
    Cuando vayan a googlear,
  • 1:22 - 1:26
    empiece preguntándose lo siguiente:
    "¿Busco un hecho aislado?".
  • 1:26 - 1:29
    ¿Cuál es la capital de Francia?
  • 1:29 - 1:32
    ¿Cuáles son los componentes básicos
    de una molécula de agua?
  • 1:32 - 1:34
    Listo, googleelo.
  • 1:34 - 1:37
    No hay un grupo de científicos
    que estén a punto de probar
  • 1:37 - 1:39
    que en realidad es Londres y H30.
  • 1:39 - 1:42
    Uno no ve una gran conspiración
    en esas cosas.
  • 1:42 - 1:44
    Estamos de acuerdo,
    a escala global,
  • 1:44 - 1:46
    sobre cuáles son las respuestas
    a estos hechos aislados.
  • 1:46 - 1:52
    Pero si uno complica la consulta
    un poco y pregunta, por ejemplo:
  • 1:52 - 1:54
    "¿Por qué hay un conflicto
    entre Israel y Palestina?".
  • 1:55 - 1:58
    Entonces, ya no busca
    un hecho particular,
  • 1:58 - 1:59
    uno busca conocimiento,
  • 1:59 - 2:02
    que es algo mucho
    más complicado y delicado.
  • 2:02 - 2:04
    Y para llegar al conocimiento,
  • 2:04 - 2:07
    hay que poner 10, 20
    o 100 hechos sobre la mesa
  • 2:07 - 2:10
    y reconocerlos y decir:
    "Sí, son todos ciertos."
  • 2:10 - 2:14
    Pero al ser lo que soy, joven o viejo,
    negro o blanco, gay o heterosexual,
  • 2:14 - 2:16
    los valoraré de manera diferente.
  • 2:16 - 2:17
    Y diré: "Sí, esto es cierto,
  • 2:17 - 2:20
    pero esto es más importante
    para mí que aquello".
  • 2:20 - 2:22
    Y en este punto es
    que se vuelve interesante,
  • 2:22 - 2:24
    porque es ahí
    donde nos volvemos humanos.
  • 2:24 - 2:27
    Ahí es cuando empezamos
    a discutir, a ser sociedad.
  • 2:27 - 2:30
    Para llegar realmente a alguna parte,
    necesitamos filtrar todos los hechos,
  • 2:30 - 2:33
    a través de amigos, vecinos,
    padres, niños,
  • 2:33 - 2:35
    compañeros de trabajo
    y periódicos y revistas,
  • 2:35 - 2:38
    y así finalmente estar basados
    en un conocimiento real,
  • 2:38 - 2:42
    algo en lo que poco puede ayudar
    un motor de búsqueda.
  • 2:43 - 2:50
    Les prometí un ejemplo
    solo para mostrar por qué es tan difícil
  • 2:50 - 2:53
    llegar al punto de verdadero
    conocimiento limpio, objetivo,
  • 2:53 - 2:55
    como alimento del pensamiento.
  • 2:55 - 2:58
    Llevaré a cabo un par de consultas
    simples, consultas de búsqueda.
  • 2:58 - 3:03
    Vamos a empezar con "Michelle Obama"
  • 3:03 - 3:04
    la Primera Dama de EE. UU.
  • 3:04 - 3:06
    Y vamos a buscar por imágenes.
  • 3:07 - 3:09
    Funciona muy bien, como se puede ver.
  • 3:09 - 3:12
    Es un resultado de búsqueda
    perfecto, más o menos.
  • 3:12 - 3:15
    Solo está ella en la foto,
    ni siquiera el Presidente.
  • 3:16 - 3:17
    ¿Cómo funciona esto?
  • 3:18 - 3:19
    Bastante sencillo.
  • 3:19 - 3:23
    Google lo hace con mucha inteligencia,
    pero es algo bastante sencillo,
  • 3:23 - 3:25
    reparan en dos cosas
    antes que nada.
  • 3:25 - 3:30
    Primero, ¿cuál es la leyenda
    a pie de foto en cada sitio web?
  • 3:30 - 3:32
    ¿Dice "Michelle Obama" a pie de foto?
  • 3:32 - 3:35
    Bastante buena indicación
    de que en realidad ella está allí.
  • 3:35 - 3:37
    Segundo, Google explora
    en el archivo de imagen,
  • 3:37 - 3:40
    el nombre del archivo
    subido a la página web.
  • 3:40 - 3:42
    ¿Se llama "MichelleObama.jpeg"?
  • 3:43 - 3:46
    Buena señal de que
    Clint Eastwood no está en la foto.
  • 3:46 - 3:50
    Uno tiene esos criterios y se obtiene
    un resultado de búsqueda como este. Casi.
  • 3:50 - 3:57
    En 2009, Michelle Obama fue víctima
    de una campaña racista,
  • 3:57 - 4:01
    donde la gente empezó a insultarla
    a través de resultados de búsqueda.
  • 4:01 - 4:04
    Había una imagen distribuida
    ampliamente a través de Internet
  • 4:04 - 4:07
    con su cara distorsionada
    para que pareciera un mono.
  • 4:07 - 4:10
    Y esa foto fue publicada
    por todas partes.
  • 4:10 - 4:13
    Y la gente la publicó muy a propósito,
  • 4:13 - 4:16
    para llegar hasta allí
    en los resultados de búsqueda.
  • 4:16 - 4:19
    Se aseguraron de escribir
    "Michelle Obama" en la foto
  • 4:19 - 4:22
    y se aseguraron de cargar la imagen
    como 'MichelleObama.jpeg' o similares.
  • 4:22 - 4:25
    Uds. entienden por qué,
    para manipular el resultado de búsqueda.
  • 4:25 - 4:27
    Y funcionó, también.
  • 4:27 - 4:30
    Así que cuando se googleaba
    'Michelle Obama' por imágenes en 2009,
  • 4:30 - 4:33
    esa imagen distorsionada como mono
    aparecía entre los primeros resultados.
  • 4:33 - 4:36
    Los resultados son de autolimpieza,
  • 4:36 - 4:38
    y eso es parte de belleza de esto,
  • 4:38 - 4:42
    porque Google mide la relevancia
    cada hora, cada día.
  • 4:42 - 4:44
    Sin embargo, Google
    no se conformó esta vez,
  • 4:44 - 4:47
    pensaron: "Eso es racista
    y un mal resultado de búsqueda
  • 4:48 - 4:51
    y vamos a limpiar esto manualmente.
  • 4:51 - 4:54
    Escribiremos algo
    de código para arreglarlo".
  • 4:54 - 4:55
    Lo hicieron.
  • 4:55 - 4:59
    Y no creo que nadie aquí crea
    que haya sido una mala idea.
  • 5:00 - 5:01
    Yo tampoco.
  • 5:03 - 5:06
    Pero un par de años más tarde,
  • 5:06 - 5:09
    lo más googleado del mundo fue Anders,
  • 5:09 - 5:11
    Anders Behring Breivik,
  • 5:11 - 5:13
    quien hizo lo que hizo.
  • 5:13 - 5:15
    El 22 de julio en 2011,
  • 5:15 - 5:18
    un terrible día en la historia de Noruega.
  • 5:18 - 5:21
    Este hombre, un terrorista,
    voló un par de edificios del gobierno
  • 5:21 - 5:24
    a poca distancia de donde
    estamos ahora en Oslo, Noruega,
  • 5:24 - 5:26
    y luego viajó a la isla de Utoya
  • 5:26 - 5:29
    y disparó y mató a un grupo de niños.
  • 5:29 - 5:31
    Casi 80 personas murieron ese día.
  • 5:32 - 5:37
    Y un montón de gente describiría
    este acto de terror como dos pasos,
  • 5:37 - 5:40
    que hizo dos cosas: hizo explotar
    los edificios y disparó a esos niños.
  • 5:40 - 5:42
    No es verdad.
  • 5:42 - 5:44
    Fueron tres pasos.
  • 5:44 - 5:47
    Hizo explotar esos edificios,
    disparó a esos niños,
  • 5:47 - 5:50
    y se sentó y esperó
    a que el mundo lo googleara.
  • 5:51 - 5:54
    Y preparó los tres pasos igualmente bien.
  • 5:54 - 5:57
    Y si hubo alguien que
    inmediatamente entendió esto,
  • 5:57 - 5:59
    fue un desarrollador sueco de webs,
  • 5:59 - 6:03
    un experto en motores de búsqueda
    de Estocolmo, llamado Nikke Lindqvist.
  • 6:03 - 6:04
    También es un hombre muy político
  • 6:04 - 6:07
    y estaba bien en las redes sociales,
    en su blog y en Facebook.
  • 6:07 - 6:09
    Y dijo a todo el mundo,
  • 6:09 - 6:11
    "Si hay algo que este tipo
    quiere en este momento,
  • 6:11 - 6:14
    es controlar su propia imagen.
  • 6:15 - 6:17
    Veamos si podemos distorsionar eso.
  • 6:17 - 6:21
    Veamos si nosotros, el mundo civilizado,
    podemos protestar contra lo que hizo
  • 6:21 - 6:25
    insultándolo
    en sus resultados de búsqueda".
  • 6:25 - 6:26
    ¿Y cómo?
  • 6:27 - 6:29
    Dijo a todos sus lectores lo siguiente:
  • 6:29 - 6:31
    "Busquen en Internet,
  • 6:31 - 6:34
    encuentren fotos
    de caca de perro en las aceras
  • 6:34 - 6:37
    encuentren fotos de
    caca de perro en las aceras,
  • 6:37 - 6:40
    publíquenlas en sus feeds,
    en sus sitios web, en sus blogs.
  • 6:40 - 6:43
    Asegúrense de escribir
    el nombre del terrorista en la imagen,
  • 6:43 - 6:48
    asegúrese de nombrar el archivo
    de imagen así 'Breivik.jpeg'.
  • 6:48 - 6:52
    Enseñemos a Google que
    ese es el rostro del terrorista".
  • 6:53 - 6:55
    Y funcionó.
  • 6:56 - 6:59
    Dos años después de la campaña
    contra Michelle Obama,
  • 6:59 - 7:02
    funcionó esta campaña de manipulación
    contra Anders Behring Breivik.
  • 7:02 - 7:07
    Al googlear por imágenes de él semanas
    tras lo acaecido el 22 de julio en Suecia,
  • 7:07 - 7:11
    se verían imágenes de la caca de perro
    arriba de los resultados de búsqueda,
  • 7:11 - 7:12
    como una pequeña protesta.
  • 7:13 - 7:18
    Por extraño que parezca,
    Google no intervino en esta ocasión.
  • 7:18 - 7:23
    No intervino y no limpió manualmente
    los resultados de búsqueda.
  • 7:24 - 7:26
    Así la pregunta del millón es
  • 7:26 - 7:29
    ¿hay algo diferente entre
    estos dos acontecimientos?
  • 7:29 - 7:32
    ¿Hay algo diferente entre
    lo que pasó con Michelle Obama
  • 7:32 - 7:34
    y lo que le pasó
    con Anders Behring Breivik?
  • 7:34 - 7:36
    Por supuesto que no.
  • 7:37 - 7:38
    Es exactamente lo mismo,
  • 7:38 - 7:41
    sin embargo, Google intervino
    en un caso y no en el otro.
  • 7:41 - 7:43
    ¿Por qué?
  • 7:43 - 7:47
    Debido a que Michelle Obama es
    una persona honorable, por eso,
  • 7:47 - 7:50
    y Anders Behring Breivik es
    una persona despreciable.
  • 7:50 - 7:52
    ¿Ven lo que pasa?
  • 7:52 - 7:55
    Se evalúa a una persona
  • 7:55 - 7:59
    y solo hay un poder en el mundo
  • 7:59 - 8:01
    con autoridad para decidir
    quién es quién.
  • 8:02 - 8:04
    "Le gusta, le disgusta.
  • 8:04 - 8:06
    Creemos en ti, no creemos en ti.
  • 8:06 - 8:08
    Tienes razón, te equivocas.
    Eres verdad, eres falso.
  • 8:08 - 8:10
    Tú eres Obama y tú Breivik".
  • 8:11 - 8:13
    Ese es poder sin igual.
  • 8:15 - 8:19
    Por eso les recuerdo
    que detrás de cada algoritmo
  • 8:19 - 8:21
    hay siempre una persona,
  • 8:21 - 8:23
    una persona con un conjunto
    de creencias personales
  • 8:23 - 8:26
    que ningún código puede
    erradicar completamente.
  • 8:26 - 8:28
    Y mi mensaje va no solo a Google,
  • 8:28 - 8:31
    sino a todos los creyentes
    en la fe de código del mundo.
  • 8:31 - 8:34
    Es necesario identificar
    su propio sesgo personal.
  • 8:34 - 8:36
    Es necesario comprender
    que uno es humano
  • 8:36 - 8:39
    y, en consecuencia,
    asumir la responsabilidad
  • 8:40 - 8:43
    Y digo esto porque creo que
    hemos llegado a un punto
  • 8:43 - 8:44
    en que es absolutamente imperativo
  • 8:44 - 8:48
    atar esos lazos de nuevo,
    de forma más ajustada:
  • 8:48 - 8:50
    las humanidades y la tecnología.
  • 8:50 - 8:52
    Más apretados que nunca.
  • 8:52 - 8:56
    Y para recordarnos que esa idea
    maravillosamente seductora
  • 8:56 - 8:58
    del resultado de búsqueda
    limpio imparcial
  • 8:58 - 9:01
    es, y probable siga siendo, un mito.
  • 9:02 - 9:03
    Gracias por tu tiempo.
  • 9:03 - 9:06
    (Aplausos)
Title:
El sesgo moral detrás de los resultados de búsqueda
Speaker:
Andreas Ekström
Description:

Los motores de búsqueda se han convertido en nuestras fuentes más confiables de información y en árbitros de la verdad. Pero ¿se puede obtener un resultado de búsqueda imparcial? El autor y periodista sueco Andreas Ekström sostiene que eso es una imposibilidad filosófica. En esta charla reflexiva, que nos invita a fortalecer los vínculos entre la tecnología y las humanidades, nos recuerda que detrás de cada algoritmo hay un conjunto de creencias personales que ningún código puede jamás erradicar por completo.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
09:18

Spanish subtitles

Revisions