Return to Video

Cómo Twitter necesita cambiar

  • 0:01 - 0:04
    Chris Anderson:
    ¿Qué les preocupa ahora?
  • 0:04 - 0:06
    Han sido muy abiertos sobre
    muchos problemas en Twitter.
  • 0:06 - 0:09
    ¿Cuál es su principal preocupación
  • 0:09 - 0:11
    sobre el estado actual de la situación?
  • 0:11 - 0:14
    Jack Dorsey: En este momento,
    es la salud de la conversación.
  • 0:14 - 0:18
    Nuestro propósito es servir
    la conversación pública,
  • 0:18 - 0:23
    y hemos visto varios ataques contra ella.
  • 0:23 - 0:27
    Hemos visto abuso, acoso, manipulación,
  • 0:29 - 0:33
    automatización, coordinación humana
    y desinformación.
  • 0:34 - 0:38
    Son dinámicas que no esperábamos
  • 0:38 - 0:42
    cuando iniciamos la compañía hace 13 años.
  • 0:42 - 0:45
    Pero ahora vemos su magnitud,
  • 0:45 - 0:50
    y lo que más me preocupa es
    nuestra habilidad para abordarlos
  • 0:50 - 0:53
    de una forma sistemática ampliable
  • 0:53 - 1:00
    que comprenda rigurosamente
    la forma en la que actuamos,
  • 1:00 - 1:03
    una comprensión clara de
    la forma en la que actuamos,
  • 1:03 - 1:06
    y un proceso riguroso de apelaciones
    para cuando nos equivoquemos,
  • 1:06 - 1:08
    porque nos equivocaremos.
  • 1:09 - 1:11
    Whitney Pennington Rodgers:
    Me alegra mucho saber
  • 1:11 - 1:13
    que es algo que les preocupa,
  • 1:13 - 1:16
    porque se ha escrito mucho sobre personas
  • 1:16 - 1:18
    que sufrieron abuso y acoso en Twitter,
  • 1:18 - 1:22
    y creo que ningunas más que las mujeres,
    las mujeres de color
  • 1:22 - 1:23
    y las mujeres afroamericanas.
  • 1:23 - 1:25
    Y ha surgido información como
  • 1:25 - 1:28
    el reporte que publicó Amnistía
    Internacional hace unos meses
  • 1:28 - 1:33
    que muestra que un subconjunto de
    usuarias activas afroamericanas en Twitter
  • 1:33 - 1:36
    recibían, en promedio,
    en uno de cada 10 tuits,
  • 1:36 - 1:38
    algún tipo de acoso.
  • 1:38 - 1:42
    Cuando piensan en salud
    para la comunidad en Twitter,
  • 1:42 - 1:46
    me interesa escuchar
    que habrá salud para todos
  • 1:46 - 1:49
    pero ¿cómo harán que Twitter
    sea un lugar seguro
  • 1:49 - 1:54
    para las mujeres, las mujeres de color
    y las mujeres afroamericanas?
  • 1:54 - 1:55
    JD: Sí.
  • 1:55 - 1:57
    Es una situación terrible
  • 1:57 - 1:59
    cuando ingresan a un servicio
  • 1:59 - 2:03
    en el que, idealmente,
    quieren aprender algo del mundo,
  • 2:03 - 2:09
    pero la mayor parte del tiempo
    reportan abuso, reciben abuso
  • 2:09 - 2:11
    y reciben acoso.
  • 2:11 - 2:18
    Estamos investigando a fondo
    los incentivos
  • 2:18 - 2:22
    que la plataforma ofrece naturalmente
    y el servicio que ofrece.
  • 2:22 - 2:27
    Por ahora, la dinámica del sistema
    hace que sea muy fácil acosar
  • 2:27 - 2:31
    y abusar a otros por medio del servicio
  • 2:31 - 2:34
    y, por desgracia,
    la mayor parte de nuestro sistema
  • 2:34 - 2:39
    se basaba completamente en que
    las personas reportaran el acoso y abuso.
  • 2:39 - 2:45
    A mediados del año pasado
    decidimos aplicarle
  • 2:45 - 2:49
    más aprendizaje automático,
    más aprendizaje profundo al problema,
  • 2:49 - 2:53
    y tratar de ser más proactivos
    en donde sucede el abuso
  • 2:53 - 2:57
    para quitarle ese peso de encima
    a la víctima.
  • 2:57 - 3:00
    Y hemos progresado recientemente.
  • 3:00 - 3:06
    Alrededor del 38 % de los tuits
    abusivos se identifican proactivamente
  • 3:06 - 3:08
    por medio del aprendizaje automático
  • 3:08 - 3:10
    para que las personas
    no tengan que reportarlos.
  • 3:10 - 3:14
    Pero tenemos personas
    revisando los tuits identificados,
  • 3:14 - 3:19
    así que no borramos contenido
    o cuentas sin que alguien las revise.
  • 3:19 - 3:22
    Y hace un año eso estaba en 0 %.
  • 3:22 - 3:24
    Eso significa que, en el 0 %
  • 3:24 - 3:28
    cada persona que recibía abuso
    tenía que reportarlo,
  • 3:28 - 3:31
    lo cual era mucho trabajo para ellos,
    mucho trabajo para nosotros
  • 3:31 - 3:33
    y a final de cuentas era muy injusto.
  • 3:35 - 3:38
    También nos estamos asegurando
    que nosotros, como compañía,
  • 3:38 - 3:42
    contemos con representación
    de las comunidades a las que servimos.
  • 3:42 - 3:44
    No podemos construir un negocio exitoso
  • 3:44 - 3:47
    a menos que tengamos
    una perspectiva interna diversa
  • 3:47 - 3:51
    que viva estos problemas día a día.
  • 3:51 - 3:55
    Eso no solo aplica para el equipo
    que realiza ese trabajo,
  • 3:55 - 3:57
    sino también para nuestros directivos.
  • 3:57 - 4:03
    Necesitamos continuar desarrollando
    empatía por lo que viven las personas
  • 4:03 - 4:06
    y darles mejores herramientas
    para defenderse,
  • 4:06 - 4:10
    y también darles a nuestros clientes
    un acercamiento mejor y más sencillo
  • 4:10 - 4:13
    para lidiar con algunas
    de las cosas que ven.
  • 4:13 - 4:16
    Mucho de lo que estamos haciendo
    se centra en la tecnología,
  • 4:16 - 4:20
    pero también estamos enfocándonos
    en los incentivos del servicio:
  • 4:20 - 4:25
    ¿Qué es lo que Twitter los incentiva
    a hacer cuando lo abren por primera vez?
  • 4:25 - 4:27
    En el pasado,
  • 4:29 - 4:34
    incentivó mucha indignación,
    comportamiento gregario,
  • 4:34 - 4:37
    y acoso grupal.
  • 4:37 - 4:40
    Tenemos que investigar a fondo
    algunos de los fundamentos
  • 4:40 - 4:43
    de lo que está haciendo el servicio
    para hacer cambios grandes.
  • 4:43 - 4:47
    Podemos hacer muchos cambios pequeños
    con tecnología, como describí,
  • 4:47 - 4:52
    pero a final de cuentas tenemos que
    observar a fondo las dinámicas en la red,
  • 4:52 - 4:53
    y eso estamos haciendo.
  • 4:53 - 5:02
    CA: Pero ¿qué podrían cambiar
    para modificar ese comportamiento?
  • 5:03 - 5:10
    JD: Bueno, comenzamos el servicio
    con el concepto de seguir una cuenta,
  • 5:10 - 5:12
    como ejemplo,
  • 5:12 - 5:16
    y no creo que sea la razón
    por la cual las personas entran a Twitter.
  • 5:16 - 5:21
    Considero que Twitter es mejor conocida
    como una red basada en intereses.
  • 5:21 - 5:25
    Las personas ingresan
    con un interés particular.
  • 5:25 - 5:28
    Deben esforzarse mucho para encontrar
    y seguir cuentas relacionadas
  • 5:28 - 5:30
    a esos intereses.
  • 5:30 - 5:34
    Lo que podemos hacer es permitir
    que sigan un interés,
  • 5:34 - 5:36
    sigan un hashtag, sigan una tendencia,
  • 5:36 - 5:38
    sigan una comunidad,
  • 5:38 - 5:42
    lo cual nos brinda la oportunidad
    de mostrar todas las cuentas,
  • 5:42 - 5:46
    todos los temas, todos los momentos,
    todos los hashtags
  • 5:46 - 5:50
    asociados con ese tema
    e interés en particular,
  • 5:50 - 5:54
    lo cual amplía la perspectiva
    de lo que pueden ver.
  • 5:54 - 5:56
    Pero es un cambio fundamental
    muy grande
  • 5:56 - 6:00
    hacer que la red deje de tener
    una inclinación hacia las cuentas
  • 6:00 - 6:03
    y que tenga una inclinación
    hacia temas e intereses.
  • 6:03 - 6:06
    CA: Pero ¿no es cierto que
  • 6:07 - 6:11
    una de las razones por las cuales
    tienen tanto contenido
  • 6:11 - 6:15
    se debe a que tienen a millones
    de personas de todo el mundo
  • 6:15 - 6:18
    en una especie
    de contienda entre gladiadores
  • 6:18 - 6:20
    para conseguir seguidores y atención?
  • 6:20 - 6:24
    Desde el punto de vista de las
    personas que solo leen Twitter,
  • 6:24 - 6:25
    eso no es un problema,
  • 6:25 - 6:29
    pero todos los creadores
  • 6:29 - 6:32
    desean tener más "me gusta",
    más seguidores y más retuits.
  • 6:32 - 6:34
    Así que constantemente
    están experimentando
  • 6:34 - 6:36
    para encontrar la manera de logarlo.
  • 6:36 - 6:40
    Y todos hemos descubierto
    que la principal forma para lograrlo
  • 6:40 - 6:44
    es ser provocativo,
  • 6:44 - 6:47
    detestable, elocuentemente detestable,
  • 6:47 - 6:50
    en Twitter aman a los insultos elocuentes
  • 6:50 - 6:53
    y rápidamente acumulan...
  • 6:53 - 6:57
    y se convierte en este proceso
    que fomenta indignación.
  • 6:57 - 7:00
    ¿Cómo disipan eso?
  • 7:01 - 7:04
    JD: Creo que diste en el blanco,
  • 7:04 - 7:05
    pero eso vuelve a los incentivos.
  • 7:06 - 7:08
    Una de las decisiones que tomamos
    al principio fue
  • 7:08 - 7:13
    tener un número que mostrara
    cuántas personas te seguían.
  • 7:13 - 7:16
    Decidimos que ese número sería
    grande y estaría en negritas,
  • 7:16 - 7:20
    y todo lo que es grande
    y está en negritas es importante,
  • 7:20 - 7:22
    y es algo que se quiere incrementar.
  • 7:22 - 7:24
    ¿Fue la decisión correcta en el momento?
  • 7:24 - 7:25
    Probablemente no.
  • 7:25 - 7:27
    Si tuviera que volver a empezar
  • 7:27 - 7:29
    no resaltaría tanto
    el número de seguidores.
  • 7:29 - 7:32
    No resaltaría tanto
    el número de "me gusta".
  • 7:32 - 7:35
    Creo que no hubiera creado
    los "me gusta" en primer lugar,
  • 7:35 - 7:38
    porque no representan realmente
  • 7:38 - 7:41
    lo que ahora creemos
    que es lo más importante,
  • 7:41 - 7:44
    lo cual es una contribución sana
    hacia la red
  • 7:44 - 7:47
    y las conversaciones en la red,
  • 7:47 - 7:49
    la participación en las conversaciones,
  • 7:49 - 7:52
    y aprender algo de las conversaciones.
  • 7:52 - 7:54
    No pensamos en eso hace 13 años,
  • 7:54 - 7:57
    pero ahora creemos que
    son aspectos muy importantes.
  • 7:57 - 8:00
    Tenemos que observar
    cómo mostramos el contador de seguidores,
  • 8:00 - 8:02
    cómo mostramos el contador de retuits,
  • 8:02 - 8:04
    cómo mostramos los "me gusta"
  • 8:04 - 8:06
    y preguntarnos:
  • 8:06 - 8:09
    ¿En verdad queremos que las personas
    incrementen este número?
  • 8:09 - 8:12
    ¿Esto es lo que,
    cuando abran Twitter,
  • 8:12 - 8:14
    observen y quieran incrementar?
  • 8:14 - 8:16
    Y no creo que sea el caso
    en estos momentos.
  • 8:16 - 8:19
    (Aplausos)
  • 8:19 - 8:21
    WPR: Creo que deberíamos
    ver algunos de los tuits
  • 8:21 - 8:23
    que vienen de la audiencia.
  • 8:24 - 8:26
    CA: Veamos lo que están preguntando.
  • 8:26 - 8:29
    Una de las maravillas de Twitter
  • 8:29 - 8:32
    es cómo puede usarse
    para la sabiduría de las masas,
  • 8:32 - 8:37
    hay más conocimiento, más preguntas,
    y más puntos de vista
  • 8:37 - 8:38
    de los que podamos imaginar
  • 8:38 - 8:42
    y, algunas veces, son muy sanos.
  • 8:42 - 8:45
    WPR: Creo que vi un tuit que decía:
  • 8:45 - 8:48
    "¿Cómo prevendrán la injerencia
    extranjera en las elecciones del 2020?".
  • 8:48 - 8:51
    Considero que es un problema que vemos
  • 8:51 - 8:53
    en el internet en general,
  • 8:53 - 8:56
    tenemos mucha actividad
    automática maliciosa.
  • 8:56 - 9:02
    Y en Twitter, por ejemplo,
    tenemos algunos reportes
  • 9:02 - 9:05
    de nuestros amigos de Zignal Labs,
  • 9:05 - 9:07
    y tal vez podamos verlos
    para darnos una idea
  • 9:07 - 9:09
    de lo que estoy hablando,
  • 9:09 - 9:12
    en los que se usan bots
  • 9:13 - 9:17
    o actividades coordinadas
    de cuentas maliciosas automatizadas
  • 9:17 - 9:20
    para influenciar situaciones
    tales como las elecciones.
  • 9:20 - 9:24
    En este ejemplo que Zignal
    compartió con nosotros
  • 9:24 - 9:26
    usando información de Twitter,
  • 9:26 - 9:28
    muestra que, en este caso,
  • 9:28 - 9:33
    lo blanco representa las cuentas humanas,
    cada punto es una cuenta.
  • 9:33 - 9:34
    Entre más rosa esté
  • 9:34 - 9:36
    más automatizada es la actividad.
  • 9:36 - 9:42
    Y pueden ver cómo hay pocos
    humanos interactuando con bots.
  • 9:42 - 9:46
    Este caso está relacionado
    con la elección en Israel
  • 9:46 - 9:49
    y la divulgación de desinformación
    sobre Benny Gantz,
  • 9:49 - 9:52
    y, como sabemos, al final fue una elección
  • 9:52 - 9:56
    que Netanyahu ganó por un pequeño margen,
  • 9:56 - 9:59
    y eso pudo haber
    sido influenciado por esto.
  • 9:59 - 10:01
    Cuando piensan que esto
    está sucediendo en Twitter,
  • 10:01 - 10:04
    ¿qué están haciendo
  • 10:04 - 10:07
    para asegurarse que no haya desinformación
    divulgándose de esta forma,
  • 10:07 - 10:12
    influenciando a las personas en maneras
    que puedan afectar la democracia?
  • 10:12 - 10:13
    JD: Para recapitular un poco,
  • 10:13 - 10:16
    nos hicimos una pregunta:
  • 10:16 - 10:20
    ¿En verdad podemos medir
    la salud de la conversación
  • 10:20 - 10:22
    y qué significa eso?
  • 10:22 - 10:25
    Y de la misma forma que Uds.
    tienen indicadores
  • 10:25 - 10:28
    y como humanos tenemos indicadores
    que nos dicen si estamos sanos,
  • 10:28 - 10:33
    tales como la temperatura,
    el rubor en nuestro rostro,
  • 10:33 - 10:38
    creemos que podemos encontrar
    indicadores de la salud conversacional.
  • 10:38 - 10:42
    Trabajamos con un laboratorio
    llamado Cortico en el MIT
  • 10:42 - 10:49
    para proponer cuatro
    indicadores de entrada
  • 10:49 - 10:52
    que consideramos
    que podemos medir en el sistema.
  • 10:53 - 10:59
    El primero es la atención compartida.
  • 10:59 - 11:02
    Mide qué porcentaje
    de la conversación es atenta
  • 11:02 - 11:05
    en un mismo tema en vez de dispersa.
  • 11:06 - 11:09
    El segundo se llama realidad compartida,
  • 11:09 - 11:11
    y es el porcentaje de la conversación
  • 11:12 - 11:14
    que comparte los mismos hechos
  • 11:14 - 11:17
    y no si esos hechos son verdaderos o no,
  • 11:17 - 11:20
    pero ¿compartimos
    los mismos hechos al conversar?
  • 11:20 - 11:23
    El tercero es la receptividad,
  • 11:23 - 11:27
    es el porcentaje de la conversación
    que es receptiva o civil,
  • 11:27 - 11:30
    o, al contrario, tóxica.
  • 11:30 - 11:33
    Y el cuarto es la variedad
    de perspectivas.
  • 11:33 - 11:37
    ¿Estamos viendo filtros burbuja o
    cámaras de eco,
  • 11:37 - 11:40
    o en realidad estamos teniendo
    una variedad de opiniones
  • 11:40 - 11:41
    dentro de la conversación?
  • 11:41 - 11:45
    Está implícito dentro de
    los cuatro indicadores que,
  • 11:45 - 11:49
    al incrementar, la conversación
    se hace cada vez más sana.
  • 11:49 - 11:54
    Nuestro primer paso es ver
    si podemos medirlos en línea,
  • 11:54 - 11:55
    y creemos que sí.
  • 11:55 - 11:58
    Tenemos mayor impulso en la receptividad.
  • 11:58 - 12:03
    Tenemos un marcador de toxicidad,
    un modelo de toxicidad, en el sistema
  • 12:03 - 12:07
    que en realidad puede medir
    la probabilidad de que abandonen
  • 12:07 - 12:09
    una conversación en Twitter
  • 12:09 - 12:11
    porque sienten que es tóxica
  • 12:11 - 12:13
    con un nivel bastante alto.
  • 12:14 - 12:17
    Estamos trabajando para medir el resto
  • 12:17 - 12:19
    y el siguiente paso es,
  • 12:19 - 12:22
    mientras desarrollamos soluciones,
  • 12:22 - 12:25
    observar la tendencia
    de estos indicadores con el tiempo
  • 12:25 - 12:27
    y continuar experimentando.
  • 12:27 - 12:31
    Nuestro objetivo es asegurarnos
    de que estén balanceados,
  • 12:31 - 12:35
    porque si uno incrementa,
    otro puede disminuir.
  • 12:35 - 12:37
    Si la variedad de perspectiva incrementa
  • 12:37 - 12:40
    podría disminuir la realidad compartida.
  • 12:40 - 12:45
    CA: Solo para retomar
    el torrente de preguntas aquí.
  • 12:45 - 12:46
    JD: Preguntas constantes.
  • 12:47 - 12:51
    CA: Muchos preguntan
  • 12:51 - 12:55
    ¿qué tan difícil es deshacerse
    de los nazis en Twitter?
  • 12:56 - 12:58
    JD: (Risas)
  • 12:58 - 13:05
    Tenemos políticas sobre
    los grupos extremistas violentos,
  • 13:05 - 13:09
    y la mayor parte de nuestro trabajo
    y términos del servicio
  • 13:09 - 13:13
    se basan en la conducta y no el contenido.
  • 13:13 - 13:15
    Así que estamos observando la conducta.
  • 13:15 - 13:18
    La conducta usada en el servicio
  • 13:18 - 13:22
    para acosar a alguien
    de forma repetida o episódica
  • 13:22 - 13:25
    usando imágenes de odio
  • 13:25 - 13:27
    que podrían asociarse con el KKK
  • 13:27 - 13:30
    o el Partido Nazi Americano.
  • 13:30 - 13:34
    Son situaciones en las que actuamos
    inmediatamente.
  • 13:35 - 13:40
    Estamos en una situación en la que
    ese término se usa a la ligera
  • 13:40 - 13:46
    y no podemos tomar
    cualquier mención de esa palabra
  • 13:46 - 13:48
    al acusar a alguien más
  • 13:48 - 13:52
    como un hecho de que deberían
    eliminarlos de la plataforma.
  • 13:52 - 13:54
    Muchos de nuestros modelos
    se basan en, número uno:
  • 13:54 - 13:58
    ¿Esta cuenta está asociada
    con un grupo violento extremista?
  • 13:58 - 14:00
    Y si lo está, podemos actuar.
  • 14:00 - 14:03
    Y lo hemos hecho con el KKK,
    el Partido Nazi Americano y otros.
  • 14:03 - 14:08
    Y número dos: ¿Están usando
    imágenes o conductas
  • 14:08 - 14:10
    que los asociarían como tal?
  • 14:10 - 14:13
    CA: ¿Cuántas personas
    están moderando el contenido
  • 14:13 - 14:15
    para evaluar esto?
  • 14:15 - 14:16
    JD: Varía.
  • 14:16 - 14:18
    Queremos ser flexibles con esto
  • 14:18 - 14:20
    porque queremos asegurarnos
    de que estamos, número uno,
  • 14:20 - 14:25
    creando algoritmos en vez de contratar
    cantidades masivas de personas
  • 14:25 - 14:28
    porque necesitamos asegurarnos
    de que esto pueda escalarse
  • 14:28 - 14:31
    y las personas no pueden escalarlo.
  • 14:31 - 14:37
    Por eso hemos trabajado mucho
    en la detección proactiva del abuso
  • 14:37 - 14:39
    que después pueda revisar
    una persona.
  • 14:39 - 14:42
    Queremos llegar a un punto
  • 14:42 - 14:46
    en el que los algoritmos
    analicen constantemente cada tuit
  • 14:46 - 14:48
    y destaquen los más interesantes
  • 14:48 - 14:52
    para que nuestro equipo pueda juzgar
    si debemos intervenir o no
  • 14:52 - 14:54
    basándose en los términos del servicio.
  • 14:54 - 14:57
    WPR: No existe una cantidad
    de personas escalable,
  • 14:57 - 15:00
    pero ¿cuántas personas
    tienen monitorizando estas cuentas
  • 15:00 - 15:03
    y cómo saben cuándo es suficiente?
  • 15:03 - 15:05
    JD: Son completamente flexibles.
  • 15:05 - 15:08
    Algunas veces asociamos
    a las personas con spam.
  • 15:08 - 15:12
    Algunas veces los asociamos
    con abuso y acoso.
  • 15:12 - 15:14
    Nos aseguraremos
    de que nuestras personas sean flexibles
  • 15:14 - 15:16
    para dirigirlas a donde
    sean más necesarias.
  • 15:16 - 15:18
    A veces, a las elecciones.
  • 15:18 - 15:23
    Hemos tenido una serie de elecciones
    en México, habrá una en la India,
  • 15:23 - 15:28
    obviamente, la elección del año pasado,
    la de mitad del periodo,
  • 15:28 - 15:30
    así que queremos ser flexibles
    con nuestros recursos.
  • 15:30 - 15:33
    Cuando las personas...
  • 15:33 - 15:39
    por ejemplo, si entran a
    nuestros términos del servicio actuales,
  • 15:39 - 15:41
    abren la página,
  • 15:41 - 15:44
    piensan en el abuso y acoso
    que acaban de recibir
  • 15:44 - 15:48
    y se preguntan si va en contra de
    los términos del servicio para reportarlo,
  • 15:48 - 15:51
    lo primero que ven al abrir esa página
  • 15:51 - 15:54
    es la protección de propiedad intelectual.
  • 15:55 - 16:00
    Si se desplazan hacia abajo
    llegarán al abuso, acoso
  • 16:00 - 16:02
    y todo lo demás
    que tal vez estén experimentando.
  • 16:02 - 16:05
    No sé cómo sucedió eso
    en la historia de la compañía,
  • 16:05 - 16:10
    pero lo priorizamos sobre
    aquello que las personas
  • 16:12 - 16:15
    buscan obtener más información
    y formas de actuar.
  • 16:15 - 16:21
    Ese orden le muestra al mundo
    lo que creíamos que era importante.
  • 16:21 - 16:23
    Estamos cambiando todo eso.
  • 16:23 - 16:25
    Lo estamos ordenando
    de forma correcta,
  • 16:25 - 16:29
    y también estamos simplificando las reglas
    para que puedan ser legibles
  • 16:29 - 16:33
    y que las personas
    puedan entender por sí mismas
  • 16:33 - 16:36
    cuando algo va en contra
    de nuestros términos y cuando no.
  • 16:36 - 16:38
    Y estamos haciendo...
  • 16:38 - 16:44
    de nuevo, buscamos quitarle
    ese trabajo de encima a las víctimas.
  • 16:44 - 16:47
    Eso significa invertir
    más en la tecnología
  • 16:47 - 16:49
    y no en las personas que hacen el trabajo,
  • 16:49 - 16:52
    incluyendo las que reciben abuso
  • 16:52 - 16:55
    y las que revisan ese contenido.
  • 16:55 - 16:56
    Queremos asegurarnos
  • 16:56 - 16:59
    de que no fomentamos más trabajo
  • 16:59 - 17:02
    alrededor de algo tan negativo,
  • 17:02 - 17:05
    y queremos tener
    un buen balance entre la tecnología
  • 17:05 - 17:08
    y el lugar donde las personas
    puedan ser creativas,
  • 17:08 - 17:11
    lo cual juzga las reglas,
  • 17:11 - 17:14
    y no solo encontrar y reportar
    cosas mecánicamente.
  • 17:14 - 17:15
    Así es como pensamos en eso.
  • 17:15 - 17:18
    CA: Me da curiosidad abordar lo que dices.
  • 17:18 - 17:21
    Me encanta que digas que buscan maneras
  • 17:21 - 17:24
    de modificar el diseño fundamental
    del sistema
  • 17:24 - 17:29
    para disuadir parte
    del comportamiento reactivo, y tal vez
  • 17:29 - 17:32
    usar el tipo de lenguaje
    de Tristan Harris,
  • 17:32 - 17:36
    y captar el pensamiento
    reflexivo de las personas.
  • 17:36 - 17:38
    ¿Qué tan avanzado está eso?
  • 17:38 - 17:42
    ¿Cuáles serían las alternativas
    a ese botón de "me gusta"?
  • 17:44 - 17:47
    JD: Primero que nada,
  • 17:47 - 17:53
    mi meta personal con el servicio
    es que realmente considero
  • 17:53 - 17:56
    que la conversación pública es crucial.
  • 17:56 - 17:58
    Hay crisis existenciales en el mundo,
  • 17:58 - 18:02
    en todo el mundo
    y no solo en una nación en particular,
  • 18:02 - 18:05
    que se benefician con esa
    conversación pública global.
  • 18:05 - 18:08
    Esa es una de las dinámicas
    únicas de Twitter,
  • 18:08 - 18:12
    es completamente abierto,
    público y fluido
  • 18:12 - 18:16
    y cualquiera puede ver las conversaciones
    y participar en ellas.
  • 18:16 - 18:19
    Hay conversaciones
    sobre el cambio climático,
  • 18:19 - 18:23
    sobre el desplazamiento laboral
    debido a la inteligencia artificial,
  • 18:23 - 18:26
    y sobre la desigualdad económica.
  • 18:26 - 18:32
    Una nación no podrá resolver el problema
    por su cuenta sin importar lo que haga.
  • 18:32 - 18:34
    Se necesita una coordinación global,
  • 18:34 - 18:37
    y creo que ahí es donde
    Twitter puede actuar.
  • 18:37 - 18:43
    Lo segundo es que, actualmente,
    cuando entran a Twitter,
  • 18:43 - 18:47
    no sienten que aprendieron algo.
  • 18:47 - 18:48
    Algunos sí lo hacen.
  • 18:48 - 18:51
    Algunos tienen una red muy, muy, valiosa,
  • 18:51 - 18:54
    una comunidad muy valiosa
    de la que aprenden a diario.
  • 18:54 - 18:58
    Pero toma mucho trabajo
    y mucho tiempo construir algo así.
  • 18:58 - 19:02
    Queremos que las personas
    lleguen a esos temas e intereses
  • 19:02 - 19:03
    de forma más rápida
  • 19:03 - 19:06
    y asegurarnos de que encuentren algo,
  • 19:07 - 19:09
    sin importar cuánto tiempo
    estén en Twitter...
  • 19:09 - 19:11
    y no quiero incrementar
    el tiempo en Twitter,
  • 19:11 - 19:14
    quiero incrementar
    lo que se llevan de ahí,
  • 19:14 - 19:16
    lo que aprenden, y...
  • 19:18 - 19:19
    CA: ¿Seguro?
  • 19:19 - 19:22
    Porque eso es realmente
    lo que la gente quiere saber.
  • 19:22 - 19:26
    Claro, Jack, están atados en gran medida
  • 19:26 - 19:28
    por el hecho de que son
    una compañía pública,
  • 19:28 - 19:30
    tienen inversionistas presionándolos,
  • 19:30 - 19:33
    y su principal forma de ganar dinero
    es por medio de publicidad
  • 19:33 - 19:36
    que depende de la participación
    de los usuarios.
  • 19:36 - 19:41
    ¿Están dispuestos a sacrificar el tiempo
    de usuario, si fuera necesario,
  • 19:41 - 19:45
    para tener conversaciones más reflexivas?
  • 19:45 - 19:48
    JD: Sí, más relevancia significa
    menos tiempo en el servicio,
  • 19:48 - 19:50
    eso me parece bien
  • 19:50 - 19:53
    porque queremos asegurarnos
    de que entren a Twitter,
  • 19:53 - 19:57
    e inmediatamente vean algo
    de lo que aprendan y que lo promuevan.
  • 19:57 - 20:01
    Y eso puede tener publicidad.
  • 20:01 - 20:04
    No significa que deben
    pasar más tiempo ahí para ver más.
  • 20:04 - 20:05
    Lo segundo que estamos observando...
  • 20:05 - 20:08
    CA: Pero con esa meta
    de uso diario activo,
  • 20:08 - 20:11
    si lo están midiendo
    no significa necesariamente algo
  • 20:11 - 20:13
    que las personas valoren cada día.
  • 20:13 - 20:14
    Podría significar
  • 20:14 - 20:18
    cosas que atraen a las personas,
    como polilla a las llamas.
  • 20:18 - 20:21
    Somos adictos porque vemos
    algo que nos molesta,
  • 20:21 - 20:24
    así que vamos a añadirle leña al fuego,
  • 20:24 - 20:26
    y el uso diario activo incrementa,
  • 20:26 - 20:28
    genera más ingresos de publicidad,
  • 20:28 - 20:30
    pero nos molestamos más con los demás.
  • 20:30 - 20:33
    ¿Cómo definen...?
  • 20:33 - 20:37
    El "uso diario activo" suena como algo
    peligroso para optimizar.
  • 20:37 - 20:42
    (Aplausos)
  • 20:42 - 20:43
    JD: Lo es, por su cuenta,
  • 20:44 - 20:46
    pero no me dejaste
    terminar la otra métrica,
  • 20:46 - 20:50
    y es que buscamos conversaciones
  • 20:50 - 20:52
    y cadenas de conversaciones.
  • 20:52 - 20:57
    Queremos incentivar
    las contribuciones sanas hacia la red
  • 20:57 - 21:01
    y creemos que eso es, en realidad,
    participar en una conversación
  • 21:01 - 21:02
    que sea sana,
  • 21:02 - 21:07
    como se define por los cuatro indicadores
    que formulé anteriormente.
  • 21:07 - 21:10
    Así que no solo
    se puede optimizar una métrica.
  • 21:10 - 21:13
    Se tienen que balancear
    y tenemos que buscar constantemente
  • 21:13 - 21:17
    lo que en realidad va a crear
    una contribución sana en la red
  • 21:17 - 21:19
    y una experiencia sana para las personas.
  • 21:19 - 21:21
    Queremos llegar a una métrica
  • 21:21 - 21:25
    en la cual las personas puedan decirnos
    que aprendieron algo de Twitter
  • 21:25 - 21:27
    y se llevan algo valioso.
  • 21:27 - 21:29
    Esa es nuestra finalidad con el tiempo,
  • 21:29 - 21:31
    pero nos tomará algo de tiempo.
  • 21:31 - 21:36
    CA: Eres un enigma para muchos
    y para mí también.
  • 21:36 - 21:41
    Esto tal vez sea injusto,
    pero la otra noche desperté
  • 21:41 - 21:45
    con una imagen de cómo
    pensaba en ti y en esta situación,
  • 21:45 - 21:52
    estamos contigo en esta travesía
    en un barco llamado "El Twittanic" --
  • 21:52 - 21:53
    (Risas)
  • 21:53 - 21:57
    y hay personas a bordo en el entrepuente
  • 21:57 - 22:00
    expresando incomodidad,
  • 22:00 - 22:02
    y tú, a diferencia de otros capitanes,
  • 22:02 - 22:06
    dices, "Bueno, dime, háblame,
    escúchame, quiero escuchar".
  • 22:06 - 22:09
    Y te hablan y dicen, "Nos preocupa
    el iceberg que está adelante".
  • 22:09 - 22:11
    Y dices, "Ese un muy buen punto,
  • 22:11 - 22:14
    y nuestro barco no
    se construyó correctamente
  • 22:14 - 22:16
    para maniobrar como debería".
  • 22:16 - 22:17
    Y decimos, "Por favor, haz algo".
  • 22:17 - 22:19
    Y vas al puente de mando,
  • 22:19 - 22:21
    te esperamos,
  • 22:21 - 22:26
    te miramos, y te ves
    extremadamente calmado,
  • 22:26 - 22:30
    pero todos estamos afuera gritando:
    "¡Jack, mueve el maldito timón!".
  • 22:30 - 22:31
    ¿Sabes?
  • 22:31 - 22:32
    (Risas)
  • 22:32 - 22:34
    (Aplausos)
  • 22:34 - 22:36
    Digo...
  • 22:36 - 22:37
    (Aplausos)
  • 22:37 - 22:42
    La democracia está en juego.
  • 22:42 - 22:45
    Nuestra cultura está en juego.
    Nuestro mundo está en juego.
  • 22:45 - 22:50
    Twitter es genial y moldea muchas cosas.
  • 22:50 - 22:52
    No es tan grande como otras plataformas,
  • 22:52 - 22:55
    pero los influyentes lo usan
    para impulsar sus agendas,
  • 22:55 - 23:01
    y es difícil imaginar un papel
    más importante en el mundo que...
  • 23:02 - 23:05
    Estás haciendo un excelente trabajo
    escuchando, Jack, escuchando a la gente,
  • 23:05 - 23:10
    pero en verdad incrementar la urgencia
    y abordar estas cosas...
  • 23:10 - 23:12
    ¿lo harás?
  • 23:13 - 23:17
    JD: Sí, y lo hemos abordado
    considerablemente.
  • 23:17 - 23:20
    Hemos tenido varias dinámicas
    en la historia de Twitter.
  • 23:20 - 23:22
    Cuando regresé a la compañía,
  • 23:23 - 23:30
    estábamos en un estado terrible
    en cuanto a nuestro futuro,
  • 23:30 - 23:34
    no solo en la forma en la que
    las personas usaban la plataforma,
  • 23:34 - 23:36
    sino también desde
    una narrativa corporativa.
  • 23:36 - 23:40
    Tuvimos que arreglar
    muchos de los fundamentos,
  • 23:40 - 23:42
    transformar la compañía,
  • 23:42 - 23:45
    pasar por dos grandes despidos,
  • 23:45 - 23:49
    porque crecimos demasiado
    para lo que estábamos haciendo,
  • 23:49 - 23:51
    y enfocamos toda nuestra energía
  • 23:51 - 23:54
    en el concepto de servir
    la conversación pública.
  • 23:54 - 23:56
    Eso tomó algo de trabajo.
  • 23:56 - 23:58
    Mientras nos adentramos en eso,
  • 23:58 - 24:02
    nos dimos cuenta de algunos de los
    problemas con nuestros fundamentos.
  • 24:02 - 24:07
    Podíamos hacer muchas cosas superficiales
    para resolver lo que mencionas,
  • 24:07 - 24:09
    pero necesitamos
    que los cambios duren
  • 24:09 - 24:11
    y eso implica profundizar muchísimo
  • 24:11 - 24:15
    y prestarle atención a lo que
    iniciamos hace 13 años
  • 24:15 - 24:18
    y preguntarnos
  • 24:18 - 24:20
    cómo funciona el sistema
    y cómo funciona la estructura
  • 24:20 - 24:24
    y qué necesita el mundo actualmente,
  • 24:24 - 24:28
    basándose en lo rápido en lo que todo
    se mueve y cómo lo usa la gente.
  • 24:28 - 24:35
    Trabajamos lo más rápido posible,
    pero ser rápidos no es suficiente.
  • 24:35 - 24:37
    Debemos enfocarnos, priorizar,
  • 24:37 - 24:40
    entender los fundamentos de la red,
  • 24:40 - 24:43
    construir un marco escalable
  • 24:43 - 24:46
    y resistente a los cambios,
  • 24:46 - 24:51
    y ser abiertos y claros
    sobre dónde nos encontramos
  • 24:51 - 24:53
    para seguir inspirando confianza.
  • 24:54 - 24:57
    Estoy orgulloso de los marcos
    que hemos implementado.
  • 24:57 - 25:00
    Estoy orgulloso de nuestra dirección.
  • 25:01 - 25:04
    Pudimos abordarlo más rápido,
  • 25:04 - 25:08
    pero requería detener un montón
    de cosas estúpidas que estábamos haciendo.
  • 25:09 - 25:10
    CA: Está bien.
  • 25:10 - 25:14
    Sospecho que muchos aquí,
    si tuvieran la oportunidad,
  • 25:14 - 25:18
    estarían encantados de ayudarte
    con esta agenda de cambios,
  • 25:18 - 25:20
    y no sé si Whitney...
  • 25:20 - 25:23
    Gracias por venir y por hablar
    de forma tan abierta, Jack.
  • 25:23 - 25:24
    Tomó mucho valor hacerlo.
  • 25:24 - 25:28
    En verdad aprecio lo que dijiste
    y buena suerte con tu misión.
  • 25:28 - 25:30
    JD: Muchas gracias.
    Gracias por invitarme.
  • 25:30 - 25:33
    (Aplausos)
  • 25:33 - 25:34
    Gracias.
Title:
Cómo Twitter necesita cambiar
Speaker:
Jack Dorsey
Description:

¿A caso Twitter puede salvarse? En esta extensiva conversación con Chris Anderson y Whitney Pennington Rodgers de TED, Jack Dorsey, el CEO de Twitter, habla sobre el futuro de la plataforma, reconociendo los problemas de acoso y moderación y proponiendo algunos cambios fundamentales que espera que promuevan conversaciones sanas y respetuosas. "¿En realidad estamos ofreciendo algo que las personas valoran cada día?" Pregunta Dorsey.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
25:47
Ciro Gomez approved Spanish subtitles for How Twitter needs to change
Ciro Gomez edited Spanish subtitles for How Twitter needs to change
Ciro Gomez edited Spanish subtitles for How Twitter needs to change
Lidia Cámara de la Fuente accepted Spanish subtitles for How Twitter needs to change
Lidia Cámara de la Fuente edited Spanish subtitles for How Twitter needs to change
Karin Valles edited Spanish subtitles for How Twitter needs to change
Karin Valles edited Spanish subtitles for How Twitter needs to change
Karin Valles edited Spanish subtitles for How Twitter needs to change
Show all

Spanish subtitles

Revisions