Cómo Twitter necesita cambiar
-
0:01 - 0:04Chris Anderson:
¿Qué les preocupa ahora? -
0:04 - 0:06Han sido muy abiertos sobre
muchos problemas en Twitter. -
0:06 - 0:09¿Cuál es su principal preocupación
-
0:09 - 0:11sobre el estado actual de la situación?
-
0:11 - 0:14Jack Dorsey: En este momento,
es la salud de la conversación. -
0:14 - 0:18Nuestro propósito es servir
la conversación pública, -
0:18 - 0:23y hemos visto varios ataques contra ella.
-
0:23 - 0:27Hemos visto abuso, acoso, manipulación,
-
0:29 - 0:33automatización, coordinación humana
y desinformación. -
0:34 - 0:38Son dinámicas que no esperábamos
-
0:38 - 0:42cuando iniciamos la compañía hace 13 años.
-
0:42 - 0:45Pero ahora vemos su magnitud,
-
0:45 - 0:50y lo que más me preocupa es
nuestra habilidad para abordarlos -
0:50 - 0:53de una forma sistemática ampliable
-
0:53 - 1:00que comprenda rigurosamente
la forma en la que actuamos, -
1:00 - 1:03una comprensión clara de
la forma en la que actuamos, -
1:03 - 1:06y un proceso riguroso de apelaciones
para cuando nos equivoquemos, -
1:06 - 1:08porque nos equivocaremos.
-
1:09 - 1:11Whitney Pennington Rodgers:
Me alegra mucho saber -
1:11 - 1:13que es algo que les preocupa,
-
1:13 - 1:16porque se ha escrito mucho sobre personas
-
1:16 - 1:18que sufrieron abuso y acoso en Twitter,
-
1:18 - 1:22y creo que ningunas más que las mujeres,
las mujeres de color -
1:22 - 1:23y las mujeres afroamericanas.
-
1:23 - 1:25Y ha surgido información como
-
1:25 - 1:28el reporte que publicó Amnistía
Internacional hace unos meses -
1:28 - 1:33que muestra que un subconjunto de
usuarias activas afroamericanas en Twitter -
1:33 - 1:36recibían, en promedio,
en uno de cada 10 tuits, -
1:36 - 1:38algún tipo de acoso.
-
1:38 - 1:42Cuando piensan en salud
para la comunidad en Twitter, -
1:42 - 1:46me interesa escuchar
que habrá salud para todos -
1:46 - 1:49pero ¿cómo harán que Twitter
sea un lugar seguro -
1:49 - 1:54para las mujeres, las mujeres de color
y las mujeres afroamericanas? -
1:54 - 1:55JD: Sí.
-
1:55 - 1:57Es una situación terrible
-
1:57 - 1:59cuando ingresan a un servicio
-
1:59 - 2:03en el que, idealmente,
quieren aprender algo del mundo, -
2:03 - 2:09pero la mayor parte del tiempo
reportan abuso, reciben abuso -
2:09 - 2:11y reciben acoso.
-
2:11 - 2:18Estamos investigando a fondo
los incentivos -
2:18 - 2:22que la plataforma ofrece naturalmente
y el servicio que ofrece. -
2:22 - 2:27Por ahora, la dinámica del sistema
hace que sea muy fácil acosar -
2:27 - 2:31y abusar a otros por medio del servicio
-
2:31 - 2:34y, por desgracia,
la mayor parte de nuestro sistema -
2:34 - 2:39se basaba completamente en que
las personas reportaran el acoso y abuso. -
2:39 - 2:45A mediados del año pasado
decidimos aplicarle -
2:45 - 2:49más aprendizaje automático,
más aprendizaje profundo al problema, -
2:49 - 2:53y tratar de ser más proactivos
en donde sucede el abuso -
2:53 - 2:57para quitarle ese peso de encima
a la víctima. -
2:57 - 3:00Y hemos progresado recientemente.
-
3:00 - 3:06Alrededor del 38 % de los tuits
abusivos se identifican proactivamente -
3:06 - 3:08por medio del aprendizaje automático
-
3:08 - 3:10para que las personas
no tengan que reportarlos. -
3:10 - 3:14Pero tenemos personas
revisando los tuits identificados, -
3:14 - 3:19así que no borramos contenido
o cuentas sin que alguien las revise. -
3:19 - 3:22Y hace un año eso estaba en 0 %.
-
3:22 - 3:24Eso significa que, en el 0 %
-
3:24 - 3:28cada persona que recibía abuso
tenía que reportarlo, -
3:28 - 3:31lo cual era mucho trabajo para ellos,
mucho trabajo para nosotros -
3:31 - 3:33y a final de cuentas era muy injusto.
-
3:35 - 3:38También nos estamos asegurando
que nosotros, como compañía, -
3:38 - 3:42contemos con representación
de las comunidades a las que servimos. -
3:42 - 3:44No podemos construir un negocio exitoso
-
3:44 - 3:47a menos que tengamos
una perspectiva interna diversa -
3:47 - 3:51que viva estos problemas día a día.
-
3:51 - 3:55Eso no solo aplica para el equipo
que realiza ese trabajo, -
3:55 - 3:57sino también para nuestros directivos.
-
3:57 - 4:03Necesitamos continuar desarrollando
empatía por lo que viven las personas -
4:03 - 4:06y darles mejores herramientas
para defenderse, -
4:06 - 4:10y también darles a nuestros clientes
un acercamiento mejor y más sencillo -
4:10 - 4:13para lidiar con algunas
de las cosas que ven. -
4:13 - 4:16Mucho de lo que estamos haciendo
se centra en la tecnología, -
4:16 - 4:20pero también estamos enfocándonos
en los incentivos del servicio: -
4:20 - 4:25¿Qué es lo que Twitter los incentiva
a hacer cuando lo abren por primera vez? -
4:25 - 4:27En el pasado,
-
4:29 - 4:34incentivó mucha indignación,
comportamiento gregario, -
4:34 - 4:37y acoso grupal.
-
4:37 - 4:40Tenemos que investigar a fondo
algunos de los fundamentos -
4:40 - 4:43de lo que está haciendo el servicio
para hacer cambios grandes. -
4:43 - 4:47Podemos hacer muchos cambios pequeños
con tecnología, como describí, -
4:47 - 4:52pero a final de cuentas tenemos que
observar a fondo las dinámicas en la red, -
4:52 - 4:53y eso estamos haciendo.
-
4:53 - 5:02CA: Pero ¿qué podrían cambiar
para modificar ese comportamiento? -
5:03 - 5:10JD: Bueno, comenzamos el servicio
con el concepto de seguir una cuenta, -
5:10 - 5:12como ejemplo,
-
5:12 - 5:16y no creo que sea la razón
por la cual las personas entran a Twitter. -
5:16 - 5:21Considero que Twitter es mejor conocida
como una red basada en intereses. -
5:21 - 5:25Las personas ingresan
con un interés particular. -
5:25 - 5:28Deben esforzarse mucho para encontrar
y seguir cuentas relacionadas -
5:28 - 5:30a esos intereses.
-
5:30 - 5:34Lo que podemos hacer es permitir
que sigan un interés, -
5:34 - 5:36sigan un hashtag, sigan una tendencia,
-
5:36 - 5:38sigan una comunidad,
-
5:38 - 5:42lo cual nos brinda la oportunidad
de mostrar todas las cuentas, -
5:42 - 5:46todos los temas, todos los momentos,
todos los hashtags -
5:46 - 5:50asociados con ese tema
e interés en particular, -
5:50 - 5:54lo cual amplía la perspectiva
de lo que pueden ver. -
5:54 - 5:56Pero es un cambio fundamental
muy grande -
5:56 - 6:00hacer que la red deje de tener
una inclinación hacia las cuentas -
6:00 - 6:03y que tenga una inclinación
hacia temas e intereses. -
6:03 - 6:06CA: Pero ¿no es cierto que
-
6:07 - 6:11una de las razones por las cuales
tienen tanto contenido -
6:11 - 6:15se debe a que tienen a millones
de personas de todo el mundo -
6:15 - 6:18en una especie
de contienda entre gladiadores -
6:18 - 6:20para conseguir seguidores y atención?
-
6:20 - 6:24Desde el punto de vista de las
personas que solo leen Twitter, -
6:24 - 6:25eso no es un problema,
-
6:25 - 6:29pero todos los creadores
-
6:29 - 6:32desean tener más "me gusta",
más seguidores y más retuits. -
6:32 - 6:34Así que constantemente
están experimentando -
6:34 - 6:36para encontrar la manera de logarlo.
-
6:36 - 6:40Y todos hemos descubierto
que la principal forma para lograrlo -
6:40 - 6:44es ser provocativo,
-
6:44 - 6:47detestable, elocuentemente detestable,
-
6:47 - 6:50en Twitter aman a los insultos elocuentes
-
6:50 - 6:53y rápidamente acumulan...
-
6:53 - 6:57y se convierte en este proceso
que fomenta indignación. -
6:57 - 7:00¿Cómo disipan eso?
-
7:01 - 7:04JD: Creo que diste en el blanco,
-
7:04 - 7:05pero eso vuelve a los incentivos.
-
7:06 - 7:08Una de las decisiones que tomamos
al principio fue -
7:08 - 7:13tener un número que mostrara
cuántas personas te seguían. -
7:13 - 7:16Decidimos que ese número sería
grande y estaría en negritas, -
7:16 - 7:20y todo lo que es grande
y está en negritas es importante, -
7:20 - 7:22y es algo que se quiere incrementar.
-
7:22 - 7:24¿Fue la decisión correcta en el momento?
-
7:24 - 7:25Probablemente no.
-
7:25 - 7:27Si tuviera que volver a empezar
-
7:27 - 7:29no resaltaría tanto
el número de seguidores. -
7:29 - 7:32No resaltaría tanto
el número de "me gusta". -
7:32 - 7:35Creo que no hubiera creado
los "me gusta" en primer lugar, -
7:35 - 7:38porque no representan realmente
-
7:38 - 7:41lo que ahora creemos
que es lo más importante, -
7:41 - 7:44lo cual es una contribución sana
hacia la red -
7:44 - 7:47y las conversaciones en la red,
-
7:47 - 7:49la participación en las conversaciones,
-
7:49 - 7:52y aprender algo de las conversaciones.
-
7:52 - 7:54No pensamos en eso hace 13 años,
-
7:54 - 7:57pero ahora creemos que
son aspectos muy importantes. -
7:57 - 8:00Tenemos que observar
cómo mostramos el contador de seguidores, -
8:00 - 8:02cómo mostramos el contador de retuits,
-
8:02 - 8:04cómo mostramos los "me gusta"
-
8:04 - 8:06y preguntarnos:
-
8:06 - 8:09¿En verdad queremos que las personas
incrementen este número? -
8:09 - 8:12¿Esto es lo que,
cuando abran Twitter, -
8:12 - 8:14observen y quieran incrementar?
-
8:14 - 8:16Y no creo que sea el caso
en estos momentos. -
8:16 - 8:19(Aplausos)
-
8:19 - 8:21WPR: Creo que deberíamos
ver algunos de los tuits -
8:21 - 8:23que vienen de la audiencia.
-
8:24 - 8:26CA: Veamos lo que están preguntando.
-
8:26 - 8:29Una de las maravillas de Twitter
-
8:29 - 8:32es cómo puede usarse
para la sabiduría de las masas, -
8:32 - 8:37hay más conocimiento, más preguntas,
y más puntos de vista -
8:37 - 8:38de los que podamos imaginar
-
8:38 - 8:42y, algunas veces, son muy sanos.
-
8:42 - 8:45WPR: Creo que vi un tuit que decía:
-
8:45 - 8:48"¿Cómo prevendrán la injerencia
extranjera en las elecciones del 2020?". -
8:48 - 8:51Considero que es un problema que vemos
-
8:51 - 8:53en el internet en general,
-
8:53 - 8:56tenemos mucha actividad
automática maliciosa. -
8:56 - 9:02Y en Twitter, por ejemplo,
tenemos algunos reportes -
9:02 - 9:05de nuestros amigos de Zignal Labs,
-
9:05 - 9:07y tal vez podamos verlos
para darnos una idea -
9:07 - 9:09de lo que estoy hablando,
-
9:09 - 9:12en los que se usan bots
-
9:13 - 9:17o actividades coordinadas
de cuentas maliciosas automatizadas -
9:17 - 9:20para influenciar situaciones
tales como las elecciones. -
9:20 - 9:24En este ejemplo que Zignal
compartió con nosotros -
9:24 - 9:26usando información de Twitter,
-
9:26 - 9:28muestra que, en este caso,
-
9:28 - 9:33lo blanco representa las cuentas humanas,
cada punto es una cuenta. -
9:33 - 9:34Entre más rosa esté
-
9:34 - 9:36más automatizada es la actividad.
-
9:36 - 9:42Y pueden ver cómo hay pocos
humanos interactuando con bots. -
9:42 - 9:46Este caso está relacionado
con la elección en Israel -
9:46 - 9:49y la divulgación de desinformación
sobre Benny Gantz, -
9:49 - 9:52y, como sabemos, al final fue una elección
-
9:52 - 9:56que Netanyahu ganó por un pequeño margen,
-
9:56 - 9:59y eso pudo haber
sido influenciado por esto. -
9:59 - 10:01Cuando piensan que esto
está sucediendo en Twitter, -
10:01 - 10:04¿qué están haciendo
-
10:04 - 10:07para asegurarse que no haya desinformación
divulgándose de esta forma, -
10:07 - 10:12influenciando a las personas en maneras
que puedan afectar la democracia? -
10:12 - 10:13JD: Para recapitular un poco,
-
10:13 - 10:16nos hicimos una pregunta:
-
10:16 - 10:20¿En verdad podemos medir
la salud de la conversación -
10:20 - 10:22y qué significa eso?
-
10:22 - 10:25Y de la misma forma que Uds.
tienen indicadores -
10:25 - 10:28y como humanos tenemos indicadores
que nos dicen si estamos sanos, -
10:28 - 10:33tales como la temperatura,
el rubor en nuestro rostro, -
10:33 - 10:38creemos que podemos encontrar
indicadores de la salud conversacional. -
10:38 - 10:42Trabajamos con un laboratorio
llamado Cortico en el MIT -
10:42 - 10:49para proponer cuatro
indicadores de entrada -
10:49 - 10:52que consideramos
que podemos medir en el sistema. -
10:53 - 10:59El primero es la atención compartida.
-
10:59 - 11:02Mide qué porcentaje
de la conversación es atenta -
11:02 - 11:05en un mismo tema en vez de dispersa.
-
11:06 - 11:09El segundo se llama realidad compartida,
-
11:09 - 11:11y es el porcentaje de la conversación
-
11:12 - 11:14que comparte los mismos hechos
-
11:14 - 11:17y no si esos hechos son verdaderos o no,
-
11:17 - 11:20pero ¿compartimos
los mismos hechos al conversar? -
11:20 - 11:23El tercero es la receptividad,
-
11:23 - 11:27es el porcentaje de la conversación
que es receptiva o civil, -
11:27 - 11:30o, al contrario, tóxica.
-
11:30 - 11:33Y el cuarto es la variedad
de perspectivas. -
11:33 - 11:37¿Estamos viendo filtros burbuja o
cámaras de eco, -
11:37 - 11:40o en realidad estamos teniendo
una variedad de opiniones -
11:40 - 11:41dentro de la conversación?
-
11:41 - 11:45Está implícito dentro de
los cuatro indicadores que, -
11:45 - 11:49al incrementar, la conversación
se hace cada vez más sana. -
11:49 - 11:54Nuestro primer paso es ver
si podemos medirlos en línea, -
11:54 - 11:55y creemos que sí.
-
11:55 - 11:58Tenemos mayor impulso en la receptividad.
-
11:58 - 12:03Tenemos un marcador de toxicidad,
un modelo de toxicidad, en el sistema -
12:03 - 12:07que en realidad puede medir
la probabilidad de que abandonen -
12:07 - 12:09una conversación en Twitter
-
12:09 - 12:11porque sienten que es tóxica
-
12:11 - 12:13con un nivel bastante alto.
-
12:14 - 12:17Estamos trabajando para medir el resto
-
12:17 - 12:19y el siguiente paso es,
-
12:19 - 12:22mientras desarrollamos soluciones,
-
12:22 - 12:25observar la tendencia
de estos indicadores con el tiempo -
12:25 - 12:27y continuar experimentando.
-
12:27 - 12:31Nuestro objetivo es asegurarnos
de que estén balanceados, -
12:31 - 12:35porque si uno incrementa,
otro puede disminuir. -
12:35 - 12:37Si la variedad de perspectiva incrementa
-
12:37 - 12:40podría disminuir la realidad compartida.
-
12:40 - 12:45CA: Solo para retomar
el torrente de preguntas aquí. -
12:45 - 12:46JD: Preguntas constantes.
-
12:47 - 12:51CA: Muchos preguntan
-
12:51 - 12:55¿qué tan difícil es deshacerse
de los nazis en Twitter? -
12:56 - 12:58JD: (Risas)
-
12:58 - 13:05Tenemos políticas sobre
los grupos extremistas violentos, -
13:05 - 13:09y la mayor parte de nuestro trabajo
y términos del servicio -
13:09 - 13:13se basan en la conducta y no el contenido.
-
13:13 - 13:15Así que estamos observando la conducta.
-
13:15 - 13:18La conducta usada en el servicio
-
13:18 - 13:22para acosar a alguien
de forma repetida o episódica -
13:22 - 13:25usando imágenes de odio
-
13:25 - 13:27que podrían asociarse con el KKK
-
13:27 - 13:30o el Partido Nazi Americano.
-
13:30 - 13:34Son situaciones en las que actuamos
inmediatamente. -
13:35 - 13:40Estamos en una situación en la que
ese término se usa a la ligera -
13:40 - 13:46y no podemos tomar
cualquier mención de esa palabra -
13:46 - 13:48al acusar a alguien más
-
13:48 - 13:52como un hecho de que deberían
eliminarlos de la plataforma. -
13:52 - 13:54Muchos de nuestros modelos
se basan en, número uno: -
13:54 - 13:58¿Esta cuenta está asociada
con un grupo violento extremista? -
13:58 - 14:00Y si lo está, podemos actuar.
-
14:00 - 14:03Y lo hemos hecho con el KKK,
el Partido Nazi Americano y otros. -
14:03 - 14:08Y número dos: ¿Están usando
imágenes o conductas -
14:08 - 14:10que los asociarían como tal?
-
14:10 - 14:13CA: ¿Cuántas personas
están moderando el contenido -
14:13 - 14:15para evaluar esto?
-
14:15 - 14:16JD: Varía.
-
14:16 - 14:18Queremos ser flexibles con esto
-
14:18 - 14:20porque queremos asegurarnos
de que estamos, número uno, -
14:20 - 14:25creando algoritmos en vez de contratar
cantidades masivas de personas -
14:25 - 14:28porque necesitamos asegurarnos
de que esto pueda escalarse -
14:28 - 14:31y las personas no pueden escalarlo.
-
14:31 - 14:37Por eso hemos trabajado mucho
en la detección proactiva del abuso -
14:37 - 14:39que después pueda revisar
una persona. -
14:39 - 14:42Queremos llegar a un punto
-
14:42 - 14:46en el que los algoritmos
analicen constantemente cada tuit -
14:46 - 14:48y destaquen los más interesantes
-
14:48 - 14:52para que nuestro equipo pueda juzgar
si debemos intervenir o no -
14:52 - 14:54basándose en los términos del servicio.
-
14:54 - 14:57WPR: No existe una cantidad
de personas escalable, -
14:57 - 15:00pero ¿cuántas personas
tienen monitorizando estas cuentas -
15:00 - 15:03y cómo saben cuándo es suficiente?
-
15:03 - 15:05JD: Son completamente flexibles.
-
15:05 - 15:08Algunas veces asociamos
a las personas con spam. -
15:08 - 15:12Algunas veces los asociamos
con abuso y acoso. -
15:12 - 15:14Nos aseguraremos
de que nuestras personas sean flexibles -
15:14 - 15:16para dirigirlas a donde
sean más necesarias. -
15:16 - 15:18A veces, a las elecciones.
-
15:18 - 15:23Hemos tenido una serie de elecciones
en México, habrá una en la India, -
15:23 - 15:28obviamente, la elección del año pasado,
la de mitad del periodo, -
15:28 - 15:30así que queremos ser flexibles
con nuestros recursos. -
15:30 - 15:33Cuando las personas...
-
15:33 - 15:39por ejemplo, si entran a
nuestros términos del servicio actuales, -
15:39 - 15:41abren la página,
-
15:41 - 15:44piensan en el abuso y acoso
que acaban de recibir -
15:44 - 15:48y se preguntan si va en contra de
los términos del servicio para reportarlo, -
15:48 - 15:51lo primero que ven al abrir esa página
-
15:51 - 15:54es la protección de propiedad intelectual.
-
15:55 - 16:00Si se desplazan hacia abajo
llegarán al abuso, acoso -
16:00 - 16:02y todo lo demás
que tal vez estén experimentando. -
16:02 - 16:05No sé cómo sucedió eso
en la historia de la compañía, -
16:05 - 16:10pero lo priorizamos sobre
aquello que las personas -
16:12 - 16:15buscan obtener más información
y formas de actuar. -
16:15 - 16:21Ese orden le muestra al mundo
lo que creíamos que era importante. -
16:21 - 16:23Estamos cambiando todo eso.
-
16:23 - 16:25Lo estamos ordenando
de forma correcta, -
16:25 - 16:29y también estamos simplificando las reglas
para que puedan ser legibles -
16:29 - 16:33y que las personas
puedan entender por sí mismas -
16:33 - 16:36cuando algo va en contra
de nuestros términos y cuando no. -
16:36 - 16:38Y estamos haciendo...
-
16:38 - 16:44de nuevo, buscamos quitarle
ese trabajo de encima a las víctimas. -
16:44 - 16:47Eso significa invertir
más en la tecnología -
16:47 - 16:49y no en las personas que hacen el trabajo,
-
16:49 - 16:52incluyendo las que reciben abuso
-
16:52 - 16:55y las que revisan ese contenido.
-
16:55 - 16:56Queremos asegurarnos
-
16:56 - 16:59de que no fomentamos más trabajo
-
16:59 - 17:02alrededor de algo tan negativo,
-
17:02 - 17:05y queremos tener
un buen balance entre la tecnología -
17:05 - 17:08y el lugar donde las personas
puedan ser creativas, -
17:08 - 17:11lo cual juzga las reglas,
-
17:11 - 17:14y no solo encontrar y reportar
cosas mecánicamente. -
17:14 - 17:15Así es como pensamos en eso.
-
17:15 - 17:18CA: Me da curiosidad abordar lo que dices.
-
17:18 - 17:21Me encanta que digas que buscan maneras
-
17:21 - 17:24de modificar el diseño fundamental
del sistema -
17:24 - 17:29para disuadir parte
del comportamiento reactivo, y tal vez -
17:29 - 17:32usar el tipo de lenguaje
de Tristan Harris, -
17:32 - 17:36y captar el pensamiento
reflexivo de las personas. -
17:36 - 17:38¿Qué tan avanzado está eso?
-
17:38 - 17:42¿Cuáles serían las alternativas
a ese botón de "me gusta"? -
17:44 - 17:47JD: Primero que nada,
-
17:47 - 17:53mi meta personal con el servicio
es que realmente considero -
17:53 - 17:56que la conversación pública es crucial.
-
17:56 - 17:58Hay crisis existenciales en el mundo,
-
17:58 - 18:02en todo el mundo
y no solo en una nación en particular, -
18:02 - 18:05que se benefician con esa
conversación pública global. -
18:05 - 18:08Esa es una de las dinámicas
únicas de Twitter, -
18:08 - 18:12es completamente abierto,
público y fluido -
18:12 - 18:16y cualquiera puede ver las conversaciones
y participar en ellas. -
18:16 - 18:19Hay conversaciones
sobre el cambio climático, -
18:19 - 18:23sobre el desplazamiento laboral
debido a la inteligencia artificial, -
18:23 - 18:26y sobre la desigualdad económica.
-
18:26 - 18:32Una nación no podrá resolver el problema
por su cuenta sin importar lo que haga. -
18:32 - 18:34Se necesita una coordinación global,
-
18:34 - 18:37y creo que ahí es donde
Twitter puede actuar. -
18:37 - 18:43Lo segundo es que, actualmente,
cuando entran a Twitter, -
18:43 - 18:47no sienten que aprendieron algo.
-
18:47 - 18:48Algunos sí lo hacen.
-
18:48 - 18:51Algunos tienen una red muy, muy, valiosa,
-
18:51 - 18:54una comunidad muy valiosa
de la que aprenden a diario. -
18:54 - 18:58Pero toma mucho trabajo
y mucho tiempo construir algo así. -
18:58 - 19:02Queremos que las personas
lleguen a esos temas e intereses -
19:02 - 19:03de forma más rápida
-
19:03 - 19:06y asegurarnos de que encuentren algo,
-
19:07 - 19:09sin importar cuánto tiempo
estén en Twitter... -
19:09 - 19:11y no quiero incrementar
el tiempo en Twitter, -
19:11 - 19:14quiero incrementar
lo que se llevan de ahí, -
19:14 - 19:16lo que aprenden, y...
-
19:18 - 19:19CA: ¿Seguro?
-
19:19 - 19:22Porque eso es realmente
lo que la gente quiere saber. -
19:22 - 19:26Claro, Jack, están atados en gran medida
-
19:26 - 19:28por el hecho de que son
una compañía pública, -
19:28 - 19:30tienen inversionistas presionándolos,
-
19:30 - 19:33y su principal forma de ganar dinero
es por medio de publicidad -
19:33 - 19:36que depende de la participación
de los usuarios. -
19:36 - 19:41¿Están dispuestos a sacrificar el tiempo
de usuario, si fuera necesario, -
19:41 - 19:45para tener conversaciones más reflexivas?
-
19:45 - 19:48JD: Sí, más relevancia significa
menos tiempo en el servicio, -
19:48 - 19:50eso me parece bien
-
19:50 - 19:53porque queremos asegurarnos
de que entren a Twitter, -
19:53 - 19:57e inmediatamente vean algo
de lo que aprendan y que lo promuevan. -
19:57 - 20:01Y eso puede tener publicidad.
-
20:01 - 20:04No significa que deben
pasar más tiempo ahí para ver más. -
20:04 - 20:05Lo segundo que estamos observando...
-
20:05 - 20:08CA: Pero con esa meta
de uso diario activo, -
20:08 - 20:11si lo están midiendo
no significa necesariamente algo -
20:11 - 20:13que las personas valoren cada día.
-
20:13 - 20:14Podría significar
-
20:14 - 20:18cosas que atraen a las personas,
como polilla a las llamas. -
20:18 - 20:21Somos adictos porque vemos
algo que nos molesta, -
20:21 - 20:24así que vamos a añadirle leña al fuego,
-
20:24 - 20:26y el uso diario activo incrementa,
-
20:26 - 20:28genera más ingresos de publicidad,
-
20:28 - 20:30pero nos molestamos más con los demás.
-
20:30 - 20:33¿Cómo definen...?
-
20:33 - 20:37El "uso diario activo" suena como algo
peligroso para optimizar. -
20:37 - 20:42(Aplausos)
-
20:42 - 20:43JD: Lo es, por su cuenta,
-
20:44 - 20:46pero no me dejaste
terminar la otra métrica, -
20:46 - 20:50y es que buscamos conversaciones
-
20:50 - 20:52y cadenas de conversaciones.
-
20:52 - 20:57Queremos incentivar
las contribuciones sanas hacia la red -
20:57 - 21:01y creemos que eso es, en realidad,
participar en una conversación -
21:01 - 21:02que sea sana,
-
21:02 - 21:07como se define por los cuatro indicadores
que formulé anteriormente. -
21:07 - 21:10Así que no solo
se puede optimizar una métrica. -
21:10 - 21:13Se tienen que balancear
y tenemos que buscar constantemente -
21:13 - 21:17lo que en realidad va a crear
una contribución sana en la red -
21:17 - 21:19y una experiencia sana para las personas.
-
21:19 - 21:21Queremos llegar a una métrica
-
21:21 - 21:25en la cual las personas puedan decirnos
que aprendieron algo de Twitter -
21:25 - 21:27y se llevan algo valioso.
-
21:27 - 21:29Esa es nuestra finalidad con el tiempo,
-
21:29 - 21:31pero nos tomará algo de tiempo.
-
21:31 - 21:36CA: Eres un enigma para muchos
y para mí también. -
21:36 - 21:41Esto tal vez sea injusto,
pero la otra noche desperté -
21:41 - 21:45con una imagen de cómo
pensaba en ti y en esta situación, -
21:45 - 21:52estamos contigo en esta travesía
en un barco llamado "El Twittanic" -- -
21:52 - 21:53(Risas)
-
21:53 - 21:57y hay personas a bordo en el entrepuente
-
21:57 - 22:00expresando incomodidad,
-
22:00 - 22:02y tú, a diferencia de otros capitanes,
-
22:02 - 22:06dices, "Bueno, dime, háblame,
escúchame, quiero escuchar". -
22:06 - 22:09Y te hablan y dicen, "Nos preocupa
el iceberg que está adelante". -
22:09 - 22:11Y dices, "Ese un muy buen punto,
-
22:11 - 22:14y nuestro barco no
se construyó correctamente -
22:14 - 22:16para maniobrar como debería".
-
22:16 - 22:17Y decimos, "Por favor, haz algo".
-
22:17 - 22:19Y vas al puente de mando,
-
22:19 - 22:21te esperamos,
-
22:21 - 22:26te miramos, y te ves
extremadamente calmado, -
22:26 - 22:30pero todos estamos afuera gritando:
"¡Jack, mueve el maldito timón!". -
22:30 - 22:31¿Sabes?
-
22:31 - 22:32(Risas)
-
22:32 - 22:34(Aplausos)
-
22:34 - 22:36Digo...
-
22:36 - 22:37(Aplausos)
-
22:37 - 22:42La democracia está en juego.
-
22:42 - 22:45Nuestra cultura está en juego.
Nuestro mundo está en juego. -
22:45 - 22:50Twitter es genial y moldea muchas cosas.
-
22:50 - 22:52No es tan grande como otras plataformas,
-
22:52 - 22:55pero los influyentes lo usan
para impulsar sus agendas, -
22:55 - 23:01y es difícil imaginar un papel
más importante en el mundo que... -
23:02 - 23:05Estás haciendo un excelente trabajo
escuchando, Jack, escuchando a la gente, -
23:05 - 23:10pero en verdad incrementar la urgencia
y abordar estas cosas... -
23:10 - 23:12¿lo harás?
-
23:13 - 23:17JD: Sí, y lo hemos abordado
considerablemente. -
23:17 - 23:20Hemos tenido varias dinámicas
en la historia de Twitter. -
23:20 - 23:22Cuando regresé a la compañía,
-
23:23 - 23:30estábamos en un estado terrible
en cuanto a nuestro futuro, -
23:30 - 23:34no solo en la forma en la que
las personas usaban la plataforma, -
23:34 - 23:36sino también desde
una narrativa corporativa. -
23:36 - 23:40Tuvimos que arreglar
muchos de los fundamentos, -
23:40 - 23:42transformar la compañía,
-
23:42 - 23:45pasar por dos grandes despidos,
-
23:45 - 23:49porque crecimos demasiado
para lo que estábamos haciendo, -
23:49 - 23:51y enfocamos toda nuestra energía
-
23:51 - 23:54en el concepto de servir
la conversación pública. -
23:54 - 23:56Eso tomó algo de trabajo.
-
23:56 - 23:58Mientras nos adentramos en eso,
-
23:58 - 24:02nos dimos cuenta de algunos de los
problemas con nuestros fundamentos. -
24:02 - 24:07Podíamos hacer muchas cosas superficiales
para resolver lo que mencionas, -
24:07 - 24:09pero necesitamos
que los cambios duren -
24:09 - 24:11y eso implica profundizar muchísimo
-
24:11 - 24:15y prestarle atención a lo que
iniciamos hace 13 años -
24:15 - 24:18y preguntarnos
-
24:18 - 24:20cómo funciona el sistema
y cómo funciona la estructura -
24:20 - 24:24y qué necesita el mundo actualmente,
-
24:24 - 24:28basándose en lo rápido en lo que todo
se mueve y cómo lo usa la gente. -
24:28 - 24:35Trabajamos lo más rápido posible,
pero ser rápidos no es suficiente. -
24:35 - 24:37Debemos enfocarnos, priorizar,
-
24:37 - 24:40entender los fundamentos de la red,
-
24:40 - 24:43construir un marco escalable
-
24:43 - 24:46y resistente a los cambios,
-
24:46 - 24:51y ser abiertos y claros
sobre dónde nos encontramos -
24:51 - 24:53para seguir inspirando confianza.
-
24:54 - 24:57Estoy orgulloso de los marcos
que hemos implementado. -
24:57 - 25:00Estoy orgulloso de nuestra dirección.
-
25:01 - 25:04Pudimos abordarlo más rápido,
-
25:04 - 25:08pero requería detener un montón
de cosas estúpidas que estábamos haciendo. -
25:09 - 25:10CA: Está bien.
-
25:10 - 25:14Sospecho que muchos aquí,
si tuvieran la oportunidad, -
25:14 - 25:18estarían encantados de ayudarte
con esta agenda de cambios, -
25:18 - 25:20y no sé si Whitney...
-
25:20 - 25:23Gracias por venir y por hablar
de forma tan abierta, Jack. -
25:23 - 25:24Tomó mucho valor hacerlo.
-
25:24 - 25:28En verdad aprecio lo que dijiste
y buena suerte con tu misión. -
25:28 - 25:30JD: Muchas gracias.
Gracias por invitarme. -
25:30 - 25:33(Aplausos)
-
25:33 - 25:34Gracias.
- Title:
- Cómo Twitter necesita cambiar
- Speaker:
- Jack Dorsey
- Description:
-
¿A caso Twitter puede salvarse? En esta extensiva conversación con Chris Anderson y Whitney Pennington Rodgers de TED, Jack Dorsey, el CEO de Twitter, habla sobre el futuro de la plataforma, reconociendo los problemas de acoso y moderación y proponiendo algunos cambios fundamentales que espera que promuevan conversaciones sanas y respetuosas. "¿En realidad estamos ofreciendo algo que las personas valoran cada día?" Pregunta Dorsey.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 25:47
Ciro Gomez approved Spanish subtitles for How Twitter needs to change | ||
Ciro Gomez edited Spanish subtitles for How Twitter needs to change | ||
Ciro Gomez edited Spanish subtitles for How Twitter needs to change | ||
Lidia Cámara de la Fuente accepted Spanish subtitles for How Twitter needs to change | ||
Lidia Cámara de la Fuente edited Spanish subtitles for How Twitter needs to change | ||
Karin Valles edited Spanish subtitles for How Twitter needs to change | ||
Karin Valles edited Spanish subtitles for How Twitter needs to change | ||
Karin Valles edited Spanish subtitles for How Twitter needs to change |