El sesgo moral detrás de los resultados de búsqueda | Andreas Ekstrøm | TEDxOslo
-
0:04 - 0:07Cada vez que visito una escuela
y hablo con los estudiantes, -
0:07 - 0:09siempre les pregunto lo mismo:
-
0:10 - 0:12¿Por qué Google?
-
0:12 - 0:15¿Por qué tienen a Google como
el buscador de su preferencia? -
0:16 - 0:19Por extraño que parezca, siempre
obtengo las mismas 3 respuestas. -
0:19 - 0:21Uno, "porque funciona",
-
0:21 - 0:23que es una gran respuesta;
por eso uso Google también. -
0:23 - 0:26Dos, alguien dirá:
-
0:26 - 0:29"Realmente no sé de ninguna alternativa".
-
0:29 - 0:32No es tan buena respuesta
y por lo general les digo, -
0:32 - 0:34"Busca en Google 'buscador'
-
0:34 - 0:37puedes encontrar un par
de alternativas interesantes". -
0:37 - 0:39Y por último, pero no menos
importante, en tercer lugar, -
0:39 - 0:43inevitablemente, un estudiante
levantará su mano y dirá: -
0:43 - 0:48"Porque estoy seguro de obtener
siempre el mejor resultado imparcial". -
0:49 - 0:55Seguro de obtener siempre
el mejor resultado imparcial. -
0:57 - 0:59Ahora, como una persona de humanidades,
-
0:59 - 1:01aunque una persona de
humanidades digitales, -
1:01 - 1:03eso hace que se me enchine la piel,
-
1:03 - 1:08aun cuando sepa que esa confianza,
esa idea del resultado imparcial -
1:08 - 1:12es una piedra angular en nuestra
valoración y amor colectivo por Google. -
1:12 - 1:16Les mostraré por qué,
filosóficamente, es casi imposible. -
1:16 - 1:19Pero primero elaboraré, solo
un poco, un principio básico -
1:19 - 1:23detrás de cada consulta de la que
a veces parece que nos olvidamos. -
1:23 - 1:25Cada vez que vayan a googlear algo,
-
1:25 - 1:29empiecen por preguntarse:
"¿Estoy en busca de un hecho aislado?". -
1:30 - 1:32¿Cuál es la capital de Francia?
-
1:32 - 1:35¿Cuáles son los componentes
básicos de una molécula de agua? -
1:35 - 1:38Bien, googleénlo.
-
1:38 - 1:41No hay ningún grupo de científicos
que estén cerca de probar -
1:41 - 1:43que en realidad sea Londres y H30.
-
1:43 - 1:45No se ve una gran conspiración
detrás de esas cosas. -
1:45 - 1:47Estamos de acuerdo,
en una escala global, -
1:47 - 1:50cuáles son las respuestas
a estos hechos aislados. -
1:50 - 1:55Pero si complican la pregunta
un poco y preguntan algo así como: -
1:55 - 1:58"¿Por qué hay un conflicto
entre Israel y Palestina?". -
1:58 - 2:01No están exactamente en busca
de un hecho singular más, -
2:01 - 2:03están buscando conocimiento,
-
2:03 - 2:06que es algo mucho más
complicado y delicado. -
2:06 - 2:08Y para llegar al conocimiento,
-
2:08 - 2:11se tienen que tener 10 o 20
o 100 hechos a la mesa -
2:11 - 2:13y reconocerlos y decir:
"Sí, estos son ciertos". -
2:13 - 2:15Pero debido a quién soy,
-
2:15 - 2:17joven o viejo, negro o blanco,
gay o heterosexual, -
2:17 - 2:19los voy a valorar de manera diferente.
-
2:19 - 2:21Y diré: "Sí, esto es cierto,
-
2:21 - 2:23pero esto es más
importante para mí que eso". -
2:23 - 2:25Y aquí es donde se pone interesante,
-
2:25 - 2:27porque aquí es donde
nos hacemos humanos. -
2:27 - 2:30Aquí es cuando empezamos
a discutir, a formar la sociedad. -
2:30 - 2:33Y para llegar a algún lugar,
necesitamos filtrar todos nuestros hechos, -
2:33 - 2:36a través de amigos y vecinos
y padres de familia y los niños -
2:36 - 2:39y compañeros de trabajo
y los periódicos y revistas, -
2:39 - 2:41para finalmente basarnos
en un conocimiento real, -
2:41 - 2:46que es algo que un motor
de búsqueda difícilmente logra. -
2:48 - 2:52Prometí un ejemplo solo para
mostrar por qué es tan difícil -
2:53 - 2:56llegar al verdadero
conocimiento, limpio, objetivo -
2:56 - 2:58como alimento para el pensamiento.
-
2:58 - 3:02Voy a llevar a cabo un
par de consultas simples. -
3:02 - 3:05Vamos a empezar con "Michelle Obama"
-
3:06 - 3:08la primera dama de los EE. UU.
-
3:08 - 3:10Y vamos a buscar fotografías.
-
3:11 - 3:13Funciona muy bien, como se puede ver.
-
3:13 - 3:16Es un resultado de búsqueda
perfecto, más o menos. -
3:16 - 3:19Es solo ella en la foto,
ni siquiera el presidente. -
3:19 - 3:21¿Cómo funciona esto?
-
3:21 - 3:23Bastante sencillo.
-
3:23 - 3:26Google utiliza mucha astucia
para lograr esto, pero simplemente, -
3:26 - 3:29ve dos cosas más que cualquiera otras.
-
3:29 - 3:33Primero, ¿qué dice la leyenda
debajo de la foto en cada sitio web? -
3:33 - 3:35¿Dice "Michelle Obama"
debajo de la foto? -
3:35 - 3:38Bastante buena indicación de
que en realidad sea ella allí. -
3:38 - 3:41En segundo lugar, Google ve
en el archivo de imagen, -
3:41 - 3:43el nombre del archivo
como tal subido a la página web. -
3:43 - 3:46Una vez más, ¿se llama
"MichelleObama.jpeg"? -
3:46 - 3:49Bastante buena indicación de que
no es Clint Eastwood en la imagen. -
3:49 - 3:53Por lo tanto, con estos dos se
obtiene un resultado como este, casi. -
3:53 - 3:59Ahora, en 2009, Michelle Obama
fue víctima de una campaña racista, -
4:00 - 4:04la gente se puso a insultarla a
través de sus resultados de búsqueda. -
4:05 - 4:08Había una imagen distribuida
ampliamente a través de Internet -
4:08 - 4:10donde su cara fue distorsionada
para que pareciera un mono. -
4:10 - 4:13Y la foto se publicó por todas partes.
-
4:14 - 4:17Y la gente la publicó
muy, muy a propósito, -
4:17 - 4:19para que apareciera en
los resultados de búsqueda. -
4:19 - 4:22Se aseguraron de escribir
"Michelle Obama" en el pie -
4:22 - 4:26y se aseguraron de cargar la imagen
como "MichelleObama.jpeg" o similares. -
4:26 - 4:29¿Saben para qué?, para
manipular el resultado de búsqueda. -
4:29 - 4:30Y funcionó.
-
4:30 - 4:33Así que cuando buscaban imágenes en
Google de "Michelle Obama" en 2009, -
4:33 - 4:37la imagen distorsionada del mono
aparecía entre los primeros resultados. -
4:37 - 4:40Ahora, los resultados se auto-limpian,
-
4:40 - 4:42y hay algo de belleza en eso,
-
4:42 - 4:45porque Google mide
la relevancia cada hora, cada día. -
4:45 - 4:48Sin embargo, Google no se
conformó con eso esta vez, -
4:48 - 4:51pensaron: "Eso es racista y
es un mal resultado de la búsqueda, -
4:51 - 4:54vamos a restaurar y limpiar
eso manualmente. -
4:54 - 4:57Vamos a escribir algo de
código y lo arreglamos", -
4:57 - 4:58que es lo que hicieron.
-
4:59 - 5:03Y yo no creo que nadie en esta
sala crea que era una mala idea. -
5:03 - 5:05Yo tampoco.
-
5:06 - 5:09Pero entonces, un par de años pasaron,
-
5:09 - 5:12y el Anders más
googleado del mundo, -
5:12 - 5:15Anders Behring Breivik,
-
5:15 - 5:16hizo lo que hizo.
-
5:16 - 5:1922 de julio del 2011,
-
5:19 - 5:21un terrible día en
la historia de Noruega. -
5:21 - 5:25Este hombre, un terrorista,
voló un par de edificios del gobierno -
5:25 - 5:28a poca distancia de donde estamos
en este momento en Oslo, Noruega, -
5:28 - 5:30y luego viajó a la isla de Utoya
-
5:30 - 5:32y disparó y mató a un grupo de niños.
-
5:32 - 5:34Casi 80 personas murieron ese día.
-
5:36 - 5:41Y mucha gente describiría
este acto de terror como dos pasos, -
5:41 - 5:44que hizo dos cosas: que explotó
los edificios y les disparó a esos niños. -
5:44 - 5:46No es verdad.
-
5:46 - 5:48Fueron tres pasos.
-
5:48 - 5:50Explotó esos edificios,
les disparó a esos niños, -
5:50 - 5:54y se sentó y esperó a
que el mundo lo googleara. -
5:55 - 5:57Y preparó los tres pasos igual de bien.
-
5:58 - 6:01Y si había alguien que
inmediatamente entendió esto, -
6:01 - 6:02fue un desarrollador web sueco,
-
6:02 - 6:06un experto en optimización de motores
de búsqueda en Estocolmo, Nikke Lindqvist. -
6:06 - 6:08También es un hombre muy político
-
6:08 - 6:11y estaba ahí en las redes sociales,
en su blog y en facebook. -
6:11 - 6:13Y le dijo a todo el mundo,
-
6:13 - 6:15"Si hay algo que este tipo
quiere en este momento, -
6:15 - 6:18es controlar la imagen de sí mismo.
-
6:18 - 6:21Vamos a ver si somos
capaces de distorsionar eso. -
6:21 - 6:25Vamos a ver si en el mundo civilizado
podemos protestar contra lo que hizo -
6:25 - 6:28a través de insultarlo en
sus resultados de búsqueda". -
6:28 - 6:29¿Y cómo?
-
6:30 - 6:33Le dijo a todos sus
lectores lo siguiente, -
6:33 - 6:34"Vayan al internet,
-
6:34 - 6:37busquen fotos de perros
cagando en las aceras, -
6:38 - 6:41busquen fotos de caca
de perro en las aceras, -
6:41 - 6:44publíquenlas en sus feeds,
en sus sitios web, en sus blogs. -
6:44 - 6:47Asegúrese de escribir
el nombre del terrorista en el rubro, -
6:47 - 6:51asegúrese de nombrar el
archivo de imagen "Breivik.jpg". -
6:51 - 6:55Enseñemos a Google que
ese es el rostro del terrorista". -
6:57 - 6:59Y funcionó.
-
7:00 - 7:02Dos años después de
la campaña contra Michelle Obama, -
7:02 - 7:06esta campaña de manipulación
contra Anders Behring Breivik funcionó. -
7:06 - 7:10Si lo buscaban en Google las semanas
después del 22 de julio de Suecia, -
7:10 - 7:14verían la imagen de la caca de perro
en lo alto de los resultados de búsqueda, -
7:14 - 7:16como una pequeña protesta.
-
7:17 - 7:21Por extraño que parezca,
Google no intervino en esta ocasión. -
7:22 - 7:26No intervinieron ni limpiaron manualmente
los resultados de búsqueda. -
7:27 - 7:29Así que la pregunta del millón,
-
7:29 - 7:33¿hay algo diferente entre estos
dos acontecimientos aquí? -
7:33 - 7:35¿Hay algo diferente entre
lo que pasó con Michelle Obama -
7:35 - 7:37y lo que le pasó con
Anders Behring Breivik? -
7:38 - 7:39Por supuesto que no.
-
7:40 - 7:42Es exactamente lo mismo,
-
7:42 - 7:45sin embargo, Google intervino
en un caso y no en el otro. -
7:45 - 7:46¿Por qué?
-
7:47 - 7:50Porque Michelle Obama podría
ser una persona honorable, por eso, -
7:50 - 7:53y Anders Behring Breivik
es una persona despreciable. -
7:54 - 7:55¿Ven lo que sucede allí?
-
7:55 - 7:58Tiene lugar una evaluación de una persona
-
7:58 - 8:02y solo hay un jugador
de poder en el mundo -
8:02 - 8:05con la autoridad para
decir quién es quién. -
8:06 - 8:07"Tú nos gustas, tú nos disgustas.
-
8:07 - 8:09Creemos en ti, no creemos en ti.
-
8:09 - 8:12Tienes razón, te equivocas.
Tú mientes, tú dices la verdad. -
8:12 - 8:13tú eres es Obama y tú eres Breivik".
-
8:14 - 8:17Eso es poder, si me preguntan.
-
8:19 - 8:23Así que les pido que recuerden
que detrás de cada algoritmo -
8:23 - 8:24siempre hay una persona,
-
8:24 - 8:27una persona con un conjunto
de creencias personales -
8:27 - 8:29que ningún código puede
erradicar completamente. -
8:29 - 8:32Y mi mensaje no es solo para Google,
-
8:32 - 8:35sino a todos los creyentes en
la fe de código de todo el mundo. -
8:35 - 8:38Es necesario identificar
su propio sesgo personal. -
8:38 - 8:40Es necesario comprender
que son humanos -
8:40 - 8:43y asumir la responsabilidad
en consecuencia. -
8:43 - 8:46Y digo esto porque creo que
hemos llegado a un punto en el tiempo -
8:46 - 8:48en que es absolutamente imperativo
-
8:48 - 8:51que atemos estos lazos de nuevo,
más ajustados: -
8:51 - 8:54las humanidades y la tecnología.
-
8:54 - 8:56Más apretados que nunca.
-
8:56 - 8:59Y, si no pasa otra cosa, recordemos
que esa idea maravillosamente seductora -
8:59 - 9:02del resultado de búsqueda
limpio e imparcial -
9:02 - 9:05es, y es probable que
siga siendo, un mito. -
9:05 - 9:07Gracias por su tiempo.
-
9:07 - 9:08(Aplausos)
- Title:
- El sesgo moral detrás de los resultados de búsqueda | Andreas Ekstrøm | TEDxOslo
- Description:
-
Esta charla es de un evento TEDx, organizado de manera independiente a las conferencias TED.
Los motores de búsqueda se han convertido en nuestras fuentes más confiables de información y árbitros de la verdad. Pero ¿se puede obtener un resultado de búsqueda imparcial? El autor y periodista sueco Andreas Ekström sostiene que tal cosa es una imposibilidad filosófica. En esta reflexiva charla, nos llama a fortalecer los vínculos entre la tecnología y las humanidades y nos recuerda que detrás de cada algoritmo hay un conjunto de creencias personales que ningún código puede jamás erradicar por completo.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDxTalks
- Duration:
- 09:16
Emma Gon approved Spanish subtitles for The myth of the unbiased search result | Andreas Ekstrøm | TEDxOslo | ||
Emma Gon edited Spanish subtitles for The myth of the unbiased search result | Andreas Ekstrøm | TEDxOslo | ||
Emma Gon edited Spanish subtitles for The myth of the unbiased search result | Andreas Ekstrøm | TEDxOslo | ||
Emma Gon edited Spanish subtitles for The myth of the unbiased search result | Andreas Ekstrøm | TEDxOslo | ||
Emma Gon edited Spanish subtitles for The myth of the unbiased search result | Andreas Ekstrøm | TEDxOslo | ||
Emma Gon edited Spanish subtitles for The myth of the unbiased search result | Andreas Ekstrøm | TEDxOslo | ||
Emma Gon edited Spanish subtitles for The myth of the unbiased search result | Andreas Ekstrøm | TEDxOslo | ||
Emma Gon edited Spanish subtitles for The myth of the unbiased search result | Andreas Ekstrøm | TEDxOslo |