El sesgo moral detrás de los resultados de búsqueda
-
0:00 - 0:04Cuando voy a una escuela
y hablo con los estudiantes, -
0:04 - 0:06siempre les pregunto lo mismo:
-
0:07 - 0:08¿Por qué googlean?
-
0:09 - 0:12¿Por qué escogen Google
como su motor de búsqueda? -
0:13 - 0:15Extraño y todo, siempre dan
las mismas 3 respuestas. -
0:15 - 0:17Uno: "Porque funciona",
-
0:17 - 0:20que es una gran respuesta;
por eso yo también googleo. -
0:20 - 0:22Dos: --alguno dirá--
-
0:22 - 0:25"No conozco ninguna otra alternativa".
-
0:26 - 0:29No es una respuesta igual de buena
y siempre respondo diciendo: -
0:29 - 0:30"Intenten googlear 'motor de búsqueda',
-
0:30 - 0:33puede que encuentren
un par de alternativas interesantes". -
0:33 - 0:36Y por último, pero
no menos importante: -
0:36 - 0:39inevitablemente, un estudiante
levantará la mano y dirá: -
0:39 - 0:44"Con Google, estoy seguro de que siempre
obtendré el resultado más imparcial". -
0:45 - 0:52Seguro de que siempre obtendré
el resultado más imparcial. -
0:53 - 0:55Como hombre de humanidades,
-
0:56 - 0:58aunque hombre de humanidades digitales,
-
0:58 - 0:59esto me eriza la piel,
-
0:59 - 1:04aunque también veo que esa confianza,
la creencia en el resultado imparcial, -
1:04 - 1:08es una piedra angular de nuestro amor
colectivo y del valor que damos a Google. -
1:09 - 1:13Les mostraré por qué, filosóficamente,
eso es casi un imposible. -
1:13 - 1:16Pero déjenme primero profundizar,
solo un poco, en un principio básico -
1:16 - 1:20que hay detrás de toda consulta
y que algunas veces parece que olvidamos. -
1:20 - 1:22Cuando vayan a googlear,
-
1:22 - 1:26empiece preguntándose lo siguiente:
"¿Busco un hecho aislado?". -
1:26 - 1:29¿Cuál es la capital de Francia?
-
1:29 - 1:32¿Cuáles son los componentes básicos
de una molécula de agua? -
1:32 - 1:34Listo, googleelo.
-
1:34 - 1:37No hay un grupo de científicos
que estén a punto de probar -
1:37 - 1:39que en realidad es Londres y H30.
-
1:39 - 1:42Uno no ve una gran conspiración
en esas cosas. -
1:42 - 1:44Estamos de acuerdo,
a escala global, -
1:44 - 1:46sobre cuáles son las respuestas
a estos hechos aislados. -
1:46 - 1:52Pero si uno complica la consulta
un poco y pregunta, por ejemplo: -
1:52 - 1:54"¿Por qué hay un conflicto
entre Israel y Palestina?". -
1:55 - 1:58Entonces, ya no busca
un hecho particular, -
1:58 - 1:59uno busca conocimiento,
-
1:59 - 2:02que es algo mucho
más complicado y delicado. -
2:02 - 2:04Y para llegar al conocimiento,
-
2:04 - 2:07hay que poner 10, 20
o 100 hechos sobre la mesa -
2:07 - 2:10y reconocerlos y decir:
"Sí, son todos ciertos." -
2:10 - 2:14Pero al ser lo que soy, joven o viejo,
negro o blanco, gay o heterosexual, -
2:14 - 2:16los valoraré de manera diferente.
-
2:16 - 2:17Y diré: "Sí, esto es cierto,
-
2:17 - 2:20pero esto es más importante
para mí que aquello". -
2:20 - 2:22Y en este punto es
que se vuelve interesante, -
2:22 - 2:24porque es ahí
donde nos volvemos humanos. -
2:24 - 2:27Ahí es cuando empezamos
a discutir, a ser sociedad. -
2:27 - 2:30Para llegar realmente a alguna parte,
necesitamos filtrar todos los hechos, -
2:30 - 2:33a través de amigos, vecinos,
padres, niños, -
2:33 - 2:35compañeros de trabajo
y periódicos y revistas, -
2:35 - 2:38y así finalmente estar basados
en un conocimiento real, -
2:38 - 2:42algo en lo que poco puede ayudar
un motor de búsqueda. -
2:43 - 2:50Les prometí un ejemplo
solo para mostrar por qué es tan difícil -
2:50 - 2:53llegar al punto de verdadero
conocimiento limpio, objetivo, -
2:53 - 2:55como alimento del pensamiento.
-
2:55 - 2:58Llevaré a cabo un par de consultas
simples, consultas de búsqueda. -
2:58 - 3:03Vamos a empezar con "Michelle Obama"
-
3:03 - 3:04la Primera Dama de EE. UU.
-
3:04 - 3:06Y vamos a buscar por imágenes.
-
3:07 - 3:09Funciona muy bien, como se puede ver.
-
3:09 - 3:12Es un resultado de búsqueda
perfecto, más o menos. -
3:12 - 3:15Solo está ella en la foto,
ni siquiera el Presidente. -
3:16 - 3:17¿Cómo funciona esto?
-
3:18 - 3:19Bastante sencillo.
-
3:19 - 3:23Google lo hace con mucha inteligencia,
pero es algo bastante sencillo, -
3:23 - 3:25reparan en dos cosas
antes que nada. -
3:25 - 3:30Primero, ¿cuál es la leyenda
a pie de foto en cada sitio web? -
3:30 - 3:32¿Dice "Michelle Obama" a pie de foto?
-
3:32 - 3:35Bastante buena indicación
de que en realidad ella está allí. -
3:35 - 3:37Segundo, Google explora
en el archivo de imagen, -
3:37 - 3:40el nombre del archivo
subido a la página web. -
3:40 - 3:42¿Se llama "MichelleObama.jpeg"?
-
3:43 - 3:46Buena señal de que
Clint Eastwood no está en la foto. -
3:46 - 3:50Uno tiene esos criterios y se obtiene
un resultado de búsqueda como este. Casi. -
3:50 - 3:57En 2009, Michelle Obama fue víctima
de una campaña racista, -
3:57 - 4:01donde la gente empezó a insultarla
a través de resultados de búsqueda. -
4:01 - 4:04Había una imagen distribuida
ampliamente a través de Internet -
4:04 - 4:07con su cara distorsionada
para que pareciera un mono. -
4:07 - 4:10Y esa foto fue publicada
por todas partes. -
4:10 - 4:13Y la gente la publicó muy a propósito,
-
4:13 - 4:16para llegar hasta allí
en los resultados de búsqueda. -
4:16 - 4:19Se aseguraron de escribir
"Michelle Obama" en la foto -
4:19 - 4:22y se aseguraron de cargar la imagen
como 'MichelleObama.jpeg' o similares. -
4:22 - 4:25Uds. entienden por qué,
para manipular el resultado de búsqueda. -
4:25 - 4:27Y funcionó, también.
-
4:27 - 4:30Así que cuando se googleaba
'Michelle Obama' por imágenes en 2009, -
4:30 - 4:33esa imagen distorsionada como mono
aparecía entre los primeros resultados. -
4:33 - 4:36Los resultados son de autolimpieza,
-
4:36 - 4:38y eso es parte de belleza de esto,
-
4:38 - 4:42porque Google mide la relevancia
cada hora, cada día. -
4:42 - 4:44Sin embargo, Google
no se conformó esta vez, -
4:44 - 4:47pensaron: "Eso es racista
y un mal resultado de búsqueda -
4:48 - 4:51y vamos a limpiar esto manualmente.
-
4:51 - 4:54Escribiremos algo
de código para arreglarlo". -
4:54 - 4:55Lo hicieron.
-
4:55 - 4:59Y no creo que nadie aquí crea
que haya sido una mala idea. -
5:00 - 5:01Yo tampoco.
-
5:03 - 5:06Pero un par de años más tarde,
-
5:06 - 5:09lo más googleado del mundo fue Anders,
-
5:09 - 5:11Anders Behring Breivik,
-
5:11 - 5:13quien hizo lo que hizo.
-
5:13 - 5:15El 22 de julio en 2011,
-
5:15 - 5:18un terrible día en la historia de Noruega.
-
5:18 - 5:21Este hombre, un terrorista,
voló un par de edificios del gobierno -
5:21 - 5:24a poca distancia de donde
estamos ahora en Oslo, Noruega, -
5:24 - 5:26y luego viajó a la isla de Utoya
-
5:26 - 5:29y disparó y mató a un grupo de niños.
-
5:29 - 5:31Casi 80 personas murieron ese día.
-
5:32 - 5:37Y un montón de gente describiría
este acto de terror como dos pasos, -
5:37 - 5:40que hizo dos cosas: hizo explotar
los edificios y disparó a esos niños. -
5:40 - 5:42No es verdad.
-
5:42 - 5:44Fueron tres pasos.
-
5:44 - 5:47Hizo explotar esos edificios,
disparó a esos niños, -
5:47 - 5:50y se sentó y esperó
a que el mundo lo googleara. -
5:51 - 5:54Y preparó los tres pasos igualmente bien.
-
5:54 - 5:57Y si hubo alguien que
inmediatamente entendió esto, -
5:57 - 5:59fue un desarrollador sueco de webs,
-
5:59 - 6:03un experto en motores de búsqueda
de Estocolmo, llamado Nikke Lindqvist. -
6:03 - 6:04También es un hombre muy político
-
6:04 - 6:07y estaba bien en las redes sociales,
en su blog y en Facebook. -
6:07 - 6:09Y dijo a todo el mundo,
-
6:09 - 6:11"Si hay algo que este tipo
quiere en este momento, -
6:11 - 6:14es controlar su propia imagen.
-
6:15 - 6:17Veamos si podemos distorsionar eso.
-
6:17 - 6:21Veamos si nosotros, el mundo civilizado,
podemos protestar contra lo que hizo -
6:21 - 6:25insultándolo
en sus resultados de búsqueda". -
6:25 - 6:26¿Y cómo?
-
6:27 - 6:29Dijo a todos sus lectores lo siguiente:
-
6:29 - 6:31"Busquen en Internet,
-
6:31 - 6:34encuentren fotos
de caca de perro en las aceras -
6:34 - 6:37encuentren fotos de
caca de perro en las aceras, -
6:37 - 6:40publíquenlas en sus feeds,
en sus sitios web, en sus blogs. -
6:40 - 6:43Asegúrense de escribir
el nombre del terrorista en la imagen, -
6:43 - 6:48asegúrese de nombrar el archivo
de imagen así 'Breivik.jpeg'. -
6:48 - 6:52Enseñemos a Google que
ese es el rostro del terrorista". -
6:53 - 6:55Y funcionó.
-
6:56 - 6:59Dos años después de la campaña
contra Michelle Obama, -
6:59 - 7:02funcionó esta campaña de manipulación
contra Anders Behring Breivik. -
7:02 - 7:07Al googlear por imágenes de él semanas
tras lo acaecido el 22 de julio en Suecia, -
7:07 - 7:11se verían imágenes de la caca de perro
arriba de los resultados de búsqueda, -
7:11 - 7:12como una pequeña protesta.
-
7:13 - 7:18Por extraño que parezca,
Google no intervino en esta ocasión. -
7:18 - 7:23No intervino y no limpió manualmente
los resultados de búsqueda. -
7:24 - 7:26Así la pregunta del millón es
-
7:26 - 7:29¿hay algo diferente entre
estos dos acontecimientos? -
7:29 - 7:32¿Hay algo diferente entre
lo que pasó con Michelle Obama -
7:32 - 7:34y lo que le pasó
con Anders Behring Breivik? -
7:34 - 7:36Por supuesto que no.
-
7:37 - 7:38Es exactamente lo mismo,
-
7:38 - 7:41sin embargo, Google intervino
en un caso y no en el otro. -
7:41 - 7:43¿Por qué?
-
7:43 - 7:47Debido a que Michelle Obama es
una persona honorable, por eso, -
7:47 - 7:50y Anders Behring Breivik es
una persona despreciable. -
7:50 - 7:52¿Ven lo que pasa?
-
7:52 - 7:55Se evalúa a una persona
-
7:55 - 7:59y solo hay un poder en el mundo
-
7:59 - 8:01con autoridad para decidir
quién es quién. -
8:02 - 8:04"Le gusta, le disgusta.
-
8:04 - 8:06Creemos en ti, no creemos en ti.
-
8:06 - 8:08Tienes razón, te equivocas.
Eres verdad, eres falso. -
8:08 - 8:10Tú eres Obama y tú Breivik".
-
8:11 - 8:13Ese es poder sin igual.
-
8:15 - 8:19Por eso les recuerdo
que detrás de cada algoritmo -
8:19 - 8:21hay siempre una persona,
-
8:21 - 8:23una persona con un conjunto
de creencias personales -
8:23 - 8:26que ningún código puede
erradicar completamente. -
8:26 - 8:28Y mi mensaje va no solo a Google,
-
8:28 - 8:31sino a todos los creyentes
en la fe de código del mundo. -
8:31 - 8:34Es necesario identificar
su propio sesgo personal. -
8:34 - 8:36Es necesario comprender
que uno es humano -
8:36 - 8:39y, en consecuencia,
asumir la responsabilidad -
8:40 - 8:43Y digo esto porque creo que
hemos llegado a un punto -
8:43 - 8:44en que es absolutamente imperativo
-
8:44 - 8:48atar esos lazos de nuevo,
de forma más ajustada: -
8:48 - 8:50las humanidades y la tecnología.
-
8:50 - 8:52Más apretados que nunca.
-
8:52 - 8:56Y para recordarnos que esa idea
maravillosamente seductora -
8:56 - 8:58del resultado de búsqueda
limpio imparcial -
8:58 - 9:01es, y probable siga siendo, un mito.
-
9:02 - 9:03Gracias por tu tiempo.
-
9:03 - 9:06(Aplausos)
- Title:
- El sesgo moral detrás de los resultados de búsqueda
- Speaker:
- Andreas Ekström
- Description:
-
Los motores de búsqueda se han convertido en nuestras fuentes más confiables de información y en árbitros de la verdad. Pero ¿se puede obtener un resultado de búsqueda imparcial? El autor y periodista sueco Andreas Ekström sostiene que eso es una imposibilidad filosófica. En esta charla reflexiva, que nos invita a fortalecer los vínculos entre la tecnología y las humanidades, nos recuerda que detrás de cada algoritmo hay un conjunto de creencias personales que ningún código puede jamás erradicar por completo.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 09:18
Lidia Cámara de la Fuente approved Spanish subtitles for The moral bias behind your search results | ||
Ciro Gomez accepted Spanish subtitles for The moral bias behind your search results | ||
Ciro Gomez edited Spanish subtitles for The moral bias behind your search results | ||
Ciro Gomez edited Spanish subtitles for The moral bias behind your search results | ||
Ciro Gomez edited Spanish subtitles for The moral bias behind your search results | ||
Ciro Gomez edited Spanish subtitles for The moral bias behind your search results | ||
Ciro Gomez edited Spanish subtitles for The moral bias behind your search results | ||
Ciro Gomez edited Spanish subtitles for The moral bias behind your search results |