Cómo puedes ayudar a transformar internet en un lugar confiable
-
0:02 - 0:04No importa quiénes son o dónde viven,
-
0:04 - 0:06supongo que tienen al menos un pariente
-
0:06 - 0:09al que le gusta reenviar
esos correos electrónicos. -
0:09 - 0:11Ya saben de los que estoy hablando...
-
0:11 - 0:14los que tienen reclamos dudosos
o videos de conspiración. -
0:14 - 0:17Y probablemente
ya los han silenciado en Facebook -
0:17 - 0:19por compartir publicaciones sociales
como esta. -
0:19 - 0:21Es una imagen de un plátano
-
0:21 - 0:23con una extraña cruz roja
corriendo por el centro. -
0:23 - 0:26Y el texto a su alrededor
advierte a las personas -
0:26 - 0:28de no comer frutas que se vean así,
-
0:28 - 0:30sugiriendo que han sido
inyectadas con sangre -
0:30 - 0:32contaminada con el virus del VIH.
-
0:32 - 0:35Y el mensaje social compartido arriba
simplemente dice: -
0:35 - 0:37"Por favor, reenvíe para salvar vidas".
-
0:38 - 0:41Los verificadores de hechos
han desacreditado esto durante años, -
0:41 - 0:44pero es uno de esos rumores
que simplemente no morirán. -
0:44 - 0:45Un rumor zombie.
-
0:46 - 0:48Y, por supuesto, es completamente falso.
-
0:48 - 0:51Puede ser tentador reírse
de un ejemplo como este, decir: -
0:51 - 0:53"Bueno, ¿quién creería esto,
de todos modos?". -
0:53 - 0:55Pero es un rumor zombie
-
0:55 - 0:59porque aprovecha los temores más profundos
de las personas sobre su propia seguridad -
0:59 - 1:01y la de las personas que aman.
-
1:02 - 1:05Y si pasan tanto tiempo como yo
mirando información engañosa, -
1:05 - 1:08saben que este es solo
un ejemplo de muchos que se aprovechan -
1:08 - 1:11de los temores y vulnerabilidades
más profundos de las personas. -
1:11 - 1:16Todos los días, en todo el mundo,
vemos decenas de nuevos memes en Instagram -
1:16 - 1:19alentando a los padres
a no vacunar a sus hijos. -
1:19 - 1:23Vemos nuevos videos en YouTube que dicen
que el cambio climático es un engaño. -
1:23 - 1:25Y en todas las plataformas,
-
1:25 - 1:28vemos un sinfín de publicaciones diseñadas
para demonizar a los demás. -
1:28 - 1:31sobre la base de su raza,
religión o sexualidad. -
1:32 - 1:35Bienvenidos a uno de los desafíos
centrales de nuestro tiempo. -
1:36 - 1:40¿Cómo mantener un Internet
con libertad de expresión en el núcleo, -
1:40 - 1:43a la vez de asegurar
de que el contenido que se difunde -
1:43 - 1:47no causa daños irreparables a
nuestras democracias, nuestras comunidades -
1:47 - 1:49y a nuestro bienestar físico y mental?
-
1:50 - 1:52Porque vivimos
en la era de la información, -
1:52 - 1:56todavía la moneda central
de la que todos dependemos, información, -
1:56 - 1:58ya no se considera totalmente confiable
-
1:58 - 2:00y, a veces, puede parecer
francamente peligrosa. -
2:01 - 2:02Esto se debe en parte
-
2:02 - 2:05al crecimiento desbocado de
las plataformas de intercambio social. -
2:05 - 2:06que nos permiten ir allá
-
2:06 - 2:09donde mentiras y hechos se sientan juntos,
-
2:09 - 2:12pero sin ninguna de las señales
tradicionales de confiabilidad. -
2:12 - 2:16Y Dios, nuestro lenguaje en torno a esto
está terriblemente confuso. -
2:16 - 2:19La gente todavía está obsesionada
con la frase "noticias falsas" -
2:19 - 2:22a pesar del hecho de que
es extraordinariamente inútil -
2:22 - 2:25y solía describir una serie de cosas
que en realidad son muy diferentes: -
2:25 - 2:28mentiras, rumores, engaños,
conspiraciones, propaganda. -
2:29 - 2:32Realmente quiero que
podamos dejar de usar una frase -
2:32 - 2:35que ha sido cooptada
por políticos de todo el mundo, -
2:35 - 2:36de izquierda a derecha
-
2:36 - 2:39utilizada como arma para atacar
a una prensa libre e independiente. -
2:40 - 2:45(Aplausos)
-
2:45 - 2:48Porque necesitamos nuestros medios
profesionales ahora más que nunca. -
2:49 - 2:52Además, la mayor parte de este contenido
ni siquiera se disfraza de noticia. -
2:52 - 2:55Son memes, videos, publicaciones sociales.
-
2:55 - 2:58Y la mayor parte no es falsa; es engañosa.
-
2:58 - 3:01Tendemos a fijarnos
en lo que es verdadero o falso. -
3:01 - 3:05Pero la mayor preocupación es en realidad
la armamentización del contexto. -
3:07 - 3:09Porque la desinformación más efectiva
-
3:09 - 3:12siempre ha sido la que tiene
un núcleo de verdad. -
3:12 - 3:15Tomemos este ejemplo de Londres,
de marzo de 2017, -
3:15 - 3:17un tuit que circuló ampliamente
-
3:17 - 3:21tras un incidente terrorista
en el puente de Westminster. -
3:21 - 3:23Esta es una imagen genuina, no falsa.
-
3:23 - 3:26La mujer que aparece en la fotografía
fue entrevistada después, -
3:26 - 3:29y explicó que estaba
completamente traumatizada. -
3:29 - 3:31Hablaba por teléfono con un ser querido,
-
3:31 - 3:33y no miraba a la víctima por respeto.
-
3:33 - 3:37Pero aún circulaba ampliamente
con este marco islamofóbico, -
3:37 - 3:40con múltiples etiquetas,
que incluyen: #BanIslam -
3:40 - 3:43Ahora, si trabajaran en Twitter,
¿qué harían? -
3:43 - 3:45¿Lo quitarían o lo dejarían?
-
3:47 - 3:50Mi reacción intestinal,
mi reacción emocional, es bajar esto. -
3:50 - 3:52Odio el encuadre de esta imagen.
-
3:53 - 3:55Pero la libertad de expresión
es un derecho humano, -
3:55 - 3:58y si comenzamos a hablar mal
de lo que nos hace sentir incómodos, -
3:58 - 3:59tenemos un problema.
-
4:00 - 4:02Y esto podría parecer un caso claro,
-
4:02 - 4:03pero, en realidad, la mayoría no lo son.
-
4:04 - 4:06Estas líneas son
increíblemente difíciles de trazar. -
4:06 - 4:08Lo qué es una decisión
bien intencionada para uno -
4:08 - 4:10es una censura absoluta para la siguiente.
-
4:11 - 4:14Lo que ahora sabemos es que
esta cuenta, Texas Lone Star, -
4:14 - 4:17fue parte de una campaña de
desinformación rusa más amplia, -
4:17 - 4:19una que desde entonces ha sido eliminada.
-
4:19 - 4:21¿Eso cambiaría su punto de vista?
-
4:21 - 4:22Cambiaría el mío,
-
4:23 - 4:25porque ahora se trata
de una campaña coordinada -
4:25 - 4:26para sembrar discordia.
-
4:26 - 4:28Y para quienes les gustaría pensar
-
4:28 - 4:31que la IA resolverá
todos nuestros problemas, -
4:31 - 4:33creo que estaremos de acuerdo
que estamos muy lejos -
4:33 - 4:36de que la IA pueda dar sentido
a publicaciones como esta. -
4:36 - 4:39Así que me gustaría explicar
tres problemas entrelazados -
4:39 - 4:42que hacen que esto sea tan complejo
-
4:42 - 4:45y que luego piensen en formas
para abordar estos desafíos. -
4:45 - 4:49Primero, simplemente no tenemos
una relación racional con la información, -
4:49 - 4:51Tenemos una emocional.
-
4:51 - 4:55Simplemente, no es cierto que
más hechos harán que todo esté bien, -
4:55 - 4:58porque los algoritmos
que determinan qué contenido vemos -
4:58 - 5:01están diseñados para recompensar
nuestras respuestas emocionales. -
5:01 - 5:02Y cuando tenemos miedo,
-
5:02 - 5:05narraciones demasiado simplificadas,
explicaciones conspirativas -
5:05 - 5:09y el lenguaje que demoniza a los demás
es mucho más efectivo. -
5:10 - 5:11Y además, muchas de estas empresas,
-
5:11 - 5:14su modelo de negocio
está unido a la atención, -
5:14 - 5:18lo que significa que estos algoritmos
estarán sesgados hacia la emoción. -
5:18 - 5:23Segundo, la mayor parte del discurso
del que estoy hablando aquí es legal. -
5:23 - 5:25Seria un asunto diferente
-
5:25 - 5:27si hablara de imágenes
de abuso sexual infantil -
5:27 - 5:29o contenido que incita a la violencia.
-
5:29 - 5:32Puede ser perfectamente legal
publicar una mentira absoluta. -
5:33 - 5:37Pero la gente sigue hablando de eliminar
contenido "problemático" o "dañino", -
5:37 - 5:40pero sin una definición clara
de lo que quieren decir, -
5:40 - 5:41incluyendo a Mark Zuckerberg,
-
5:41 - 5:45quien recientemente pidió una
regulación global para moderar el habla. -
5:45 - 5:47Y mi preocupación es que vemos gobiernos
-
5:47 - 5:48en todo el mundo
-
5:48 - 5:51implementar decisiones
políticas apresuradas -
5:51 - 5:54que podrían desencadenar
consecuencias mucho más graves -
5:54 - 5:56cuando se trata de nuestra charla.
-
5:56 - 6:00E incluso si pudiéramos decidir
qué charla dejar o eliminar. -
6:00 - 6:02Nunca hemos tenido tantas charlas.
-
6:02 - 6:05Cada segundo, se suben
millones de piezas de contenido -
6:05 - 6:06de personas de todo el mundo
-
6:06 - 6:07en diferentes idiomas
-
6:07 - 6:10aprovechando miles
de diferentes contextos culturales. -
6:10 - 6:13Simplemente nunca hemos tenido
mecanismos efectivos -
6:13 - 6:15para moderar la libre expresión
a esta escala, -
6:15 - 6:17ya sea impulsada por humanos
o por tecnología. -
6:18 - 6:22Y en tercer lugar, estas empresas
(Google, Twitter, Facebook, WhatsApp) -
6:22 - 6:25son parte de un ecosistema
de información más amplio. -
6:25 - 6:29Nos gusta echarles toda la culpa a ellos,
pero la verdad es que los medios -
6:29 - 6:32y los funcionarios electos también
pueden desempeñar un papel igual -
6:32 - 6:35en amplificar rumores
y conspiraciones cuando quieren. -
6:36 - 6:41Como podemos nosotros, al reenviar sin
pensar contenido divisivorio o engañoso -
6:41 - 6:42sin estar seguros.
-
6:42 - 6:45Estamos agregando más a esa contaminación.
-
6:45 - 6:48Sé que todos estamos buscando
una solución fácil. -
6:48 - 6:50Pero simplemente no la hay.
-
6:50 - 6:52Cualquier solución
tendrá que implementarse -
6:52 - 6:54a gran escala, escala de Internet,
-
6:54 - 6:58y sí, las plataformas, están acostumbradas
a operar a ese nivel. -
6:58 - 7:01pero ¿podemos y debemos permitirles
que solucionen estos problemas? -
7:01 - 7:03Ciertamente lo están intentando.
-
7:03 - 7:06Estamos de acuerdo en que
no queremos que sean -
7:06 - 7:09las corporaciones globales las guardianas
de la verdad y equidad en línea. -
7:09 - 7:12Y también creo que las plataformas
estarían de acuerdo con eso. -
7:12 - 7:15Y en este momento,
están marcando su propia tarea. -
7:15 - 7:16Les gusta decirnos
-
7:16 - 7:19que las intervenciones que están
implementando funcionan, -
7:19 - 7:22pero como hacen sus propios informes
de transparencia, -
7:22 - 7:25no se puede verificar independientemente
lo que realmente está sucediendo. -
7:26 - 7:30(Aplausos)
-
7:30 - 7:32Y seamos claros que la mayoría
de los cambios que vemos -
7:32 - 7:36solo suceden después de que
los periodistas inicien una investigación -
7:36 - 7:37y encuentren evidencia de sesgo
-
7:37 - 7:40o contenido que rompe
las pautas de su comunidad. -
7:41 - 7:45Sí, estas compañías tienen que jugar de
verdad un papel importante en el proceso, -
7:45 - 7:47pero no pueden controlarlo.
-
7:48 - 7:49¿Y qué hay de los gobiernos?
-
7:50 - 7:53Muchos creen que la regulación global
es nuestra última esperanza. -
7:53 - 7:56en términos de limpieza de
nuestro ecosistema de información. -
7:56 - 7:59Pero lo que veo son legisladores
que luchan por mantenerse al día -
7:59 - 8:01con los rápidos cambios en la tecnología.
-
8:01 - 8:03Y peor, trabajan en la oscuridad,
-
8:03 - 8:05porque no tienen acceso a los datos
-
8:05 - 8:08para entender lo que está
sucediendo en estas plataformas. -
8:08 - 8:11Y de todos modos, ¿en qué gobiernos
confiaríamos para hacer esto? -
8:11 - 8:14Necesitamos una respuesta global,
no nacional. -
8:15 - 8:18Entonces el eslabón perdido
somos nosotros. -
8:18 - 8:21Son esas personas que usan
estas tecnologías todos los días. -
8:21 - 8:26¿Podemos diseñar una nueva infraestructura
para soportar información de calidad? -
8:26 - 8:28Bueno, creo que podemos
-
8:28 - 8:31y tengo algunas ideas sobre lo que
realmente podríamos hacer. -
8:31 - 8:34En primer lugar, si nos tomamos
en serio atraer al público a esto, -
8:34 - 8:37¿podemos inspirarnos en Wikipedia?
-
8:37 - 8:38Nos han mostrado lo que es posible.
-
8:38 - 8:40Si, no es perfecto
-
8:40 - 8:42pero han demostrado que
con las estructuras correctas, -
8:42 - 8:45con una perspectiva global
y mucha, mucha transparencia, -
8:45 - 8:48puedes construir algo que se ganará
la confianza de las personas. -
8:48 - 8:51Tenemos que encontrar una manera
de aprovechar la sabiduría colectiva -
8:51 - 8:53y la experiencia de todos los usuarios.
-
8:54 - 8:56En particular las mujeres,
las personas de color -
8:56 - 8:58y los grupos subrepresentados.
-
8:58 - 8:59¿Porque adivinen qué?
-
8:59 - 9:01Son expertos en odio y desinformación,
-
9:02 - 9:05porque han sido los objetivos de estas
campañas durante mucho tiempo. -
9:05 - 9:07Y a lo largo de los años,
han levantando banderas, -
9:07 - 9:09y no han sido escuchados
-
9:09 - 9:10Esto tiene que cambiar.
-
9:11 - 9:15¿Podríamos construir
una Wikipedia para la confianza? -
9:15 - 9:19¿Podríamos encontrar una forma en que
los usuarios realmente proporcionen ideas? -
9:19 - 9:23Podrían ofrecer ideas sobre decisiones
difíciles de moderación de contenido. -
9:23 - 9:25Podrían comentar
-
9:25 - 9:28cuando las plataformas decidan
implementar nuevos cambios. -
9:28 - 9:32Segundo, las experiencias de las personas
con la información son personalizadas. -
9:32 - 9:35Mi fuente de noticias de Facebook
es diferente de la de Uds. -
9:35 - 9:38Igual sus recomendaciones de YouTube.
-
9:38 - 9:40Eso hace que sea imposible
para nosotros examinar -
9:40 - 9:42qué información está viendo la gente.
-
9:43 - 9:45Entonces ¿podríamos imaginar desarrollar
-
9:45 - 9:49algún tipo de repositorio abierto
centralizado para datos anonimos, -
9:49 - 9:52con privacidad y
preocupaciones éticas incorporadas? -
9:52 - 9:54Porque imaginen lo que aprenderíamos
-
9:54 - 9:57si construyeramos una red global
de ciudadanos preocupados -
9:57 - 10:01que quisieran donar
sus datos sociales a la ciencia. -
10:01 - 10:02Porque sabemos muy poco
-
10:02 - 10:06sobre las consecuencias a largo plazo
del odio y la desinformación -
10:06 - 10:08sobre las actitudes
y comportamientos de las personas. -
10:08 - 10:09Y lo que sabemos,
-
10:09 - 10:12la mayoría se ha llevado a cabo en EE. UU.
-
10:12 - 10:14a pesar del hecho de que
es un problema global. -
10:14 - 10:16Necesitamos trabajar en eso también.
-
10:16 - 10:17Y tercero,
-
10:17 - 10:20¿podemos encontrar una manera
de conectar los puntos? -
10:20 - 10:23Ningún sector, y mucho menos
sin fines de lucro, start-up o gobierno, -
10:23 - 10:25va a resolver esto
-
10:25 - 10:27Pero hay personas
muy inteligentes en todo el mundo. -
10:27 - 10:29trabajando en estos desafíos,
-
10:29 - 10:32de redacciones, sociedad civil,
academia, grupos activistas. -
10:32 - 10:34Pueden ver algunos aquí.
-
10:34 - 10:37Unos construyen
indicadores de credibilidad de contenido. -
10:37 - 10:39Otros verifican hechos,
para que las plataformas -
10:39 - 10:42puedan clasificar noticias falsas,
videos e imágenes -
10:42 - 10:44Una organización
sin fines de lucro, First Draft, -
10:44 - 10:47trabaja con redacciones normalmente
competitivas del mundo -
10:47 - 10:51para ayudarlos a desarrollar programas
de investigación y colaboración. -
10:51 - 10:53Danny Hillis, un arquitecto de software,
-
10:53 - 10:56está diseñando un nuevo sistema
llamado The Underlay, -
10:56 - 10:59un registro de todas
las declaraciones públicas de hechos -
10:59 - 11:00conectado a sus fuentes,
-
11:00 - 11:04para que las personas y los algoritmos
puedan juzgar mejor lo que es creíble. -
11:05 - 11:08Y los educadores de todo el mundo
están probando diferentes técnicas. -
11:08 - 11:12para encontrar formas de hacer que la
gente critique el contenido que consume. -
11:13 - 11:16Todos estos esfuerzos son maravillosos,
pero están trabajando en silos, -
11:16 - 11:18y muchos de ellos
no tienen fondos suficientes. -
11:19 - 11:21También hay cientos
de personas muy inteligentes. -
11:21 - 11:22trabajando en esas empresas,
-
11:22 - 11:25pero de nuevo, esos esfuerzos
pueden sentirse desarticulados, -
11:25 - 11:29porque están desarrollando diferentes
soluciones a los mismos problemas. -
11:29 - 11:32¿Cómo encontrar
una manera de unir a las personas -
11:32 - 11:35en una ubicación física
por días o semanas, -
11:35 - 11:37para que puedan abordar
estos problemas juntos, -
11:37 - 11:39pero desde sus diferentes perspectivas?
-
11:39 - 11:40¿Podemos hacer eso?
-
11:40 - 11:44¿Podemos construir
una respuesta coordinada y ambiciosa, -
11:44 - 11:47una que coincida con la escala
y la complejidad del problema? -
11:48 - 11:49Realmente creo que podemos.
-
11:49 - 11:52Juntos, reconstruyamos nuestros
bienes comunes de información. -
11:53 - 11:54Gracias.
-
11:54 - 11:58(Aplausos)
- Title:
- Cómo puedes ayudar a transformar internet en un lugar confiable
- Speaker:
- Claire Wardle
- Description:
-
¿Cómo podemos detener la propagación de contenido engañoso, a veces peligroso, mientras mantenemos un internet con libertad de expresión en su núcleo? La experta en información engañosa Claire Wardle explora los nuevos desafíos de nuestro entorno en línea contaminado, y traza un plan para transformar internet en un lugar confiable, con la ayuda de los usuarios cotidianos. "Juntos, reconstruyamos nuestros recursos comunes de información", dice ella.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 12:33
Lidia Cámara de la Fuente approved Spanish subtitles for How you can help transform the internet into a place of trust | ||
Lidia Cámara de la Fuente accepted Spanish subtitles for How you can help transform the internet into a place of trust | ||
Lidia Cámara de la Fuente edited Spanish subtitles for How you can help transform the internet into a place of trust | ||
Lidia Cámara de la Fuente edited Spanish subtitles for How you can help transform the internet into a place of trust | ||
Ciro Gomez edited Spanish subtitles for How you can help transform the internet into a place of trust | ||
Ciro Gomez edited Spanish subtitles for How you can help transform the internet into a place of trust | ||
Ciro Gomez edited Spanish subtitles for How you can help transform the internet into a place of trust | ||
Ciro Gomez edited Spanish subtitles for How you can help transform the internet into a place of trust |