Return to Video

Como o Twitter precisa de mudar

  • 0:01 - 0:04
    Chris Anderson:
    O que te preocupa agora?
  • 0:04 - 0:06
    Foste muito franco acerca
    de muitos dos problemas do Twitter.
  • 0:06 - 0:09
    Qual é a tua maior preocupação
  • 0:09 - 0:11
    acerca do estado das coisas neste momento?
  • 0:12 - 0:15
    Jack Dorsey: Neste momento
    é a saúde das conversas.
  • 0:15 - 0:18
    O nosso propósito é estar ao serviço
    das conversas públicas
  • 0:18 - 0:23
    e temos visto muitos ataques a isso.
  • 0:23 - 0:26
    Temos visto insultos, intimidação,
  • 0:26 - 0:28
    temos visto manipulação,
  • 0:29 - 0:33
    automatização, coordenação humana,
    desinformação.
  • 0:34 - 0:38
    Isto são dinâmicas que não esperávamos
  • 0:38 - 0:42
    há 13 anos, quando começámos a empresa.
  • 0:42 - 0:45
    Vemo-las agora em grande escala.
  • 0:46 - 0:50
    O que mais me preocupa é a nossa
    capacidade de as abordar
  • 0:50 - 0:53
    de uma forma sistemática
    que seja expansível,
  • 0:54 - 1:00
    que tenha uma compreensão rigorosa
    de como estamos a agir,
  • 1:00 - 1:03
    uma compreensão transparente
    de como estamos a agir
  • 1:03 - 1:06
    e um rigoroso processo de recurso
    para quando errarmos
  • 1:06 - 1:08
    porque nós vamos errar.
  • 1:09 - 1:11
    Whitney Pennington Rodgers:
    Fico feliz por ouvir
  • 1:11 - 1:13
    que isso é uma coisa que te preocupa
  • 1:13 - 1:15
    porque escreveu-se tanto sobre pessoas
  • 1:15 - 1:18
    que se sentiram agredidas
    e intimidadas no Twitter
  • 1:18 - 1:22
    em especial, mulheres e mulheres de cor,
  • 1:22 - 1:23
    mulheres negras.
  • 1:23 - 1:25
    Houve dados apresentados.
  • 1:25 - 1:28
    A Amnistia Internacional divulgou
    um relatório há uns meses
  • 1:28 - 1:33
    em que mostraram que um subgrupo
    de utilizadoras negras ativas do Twitter
  • 1:33 - 1:35
    em cada 10 "tweets" que recebiam
  • 1:35 - 1:38
    em média, um deles continha
    qualquer tipo de intimidação.
  • 1:38 - 1:42
    Por isso, quando pensas na saúde
    da comunidade no Twitter,
  • 1:42 - 1:46
    eu gostava de ouvir "saúde para todos".
  • 1:46 - 1:49
    Especificamente, como estás a tentar
    tornar o Twitter um espaço seguro
  • 1:49 - 1:53
    para esse subgrupo, para as mulheres,
    e para as mulheres de cor?
  • 1:54 - 1:57
    JD: Sim, é uma situação terrível
  • 1:57 - 1:59
    quando nos juntamos a um serviço
  • 1:59 - 2:04
    em que, idealmente, queremos
    aprender algo sobre o mundo
  • 2:04 - 2:09
    e passamos a maior parte do tempo
    a denunciar insultos, a receber insultos,
  • 2:09 - 2:11
    a receber intimidações.
  • 2:14 - 2:18
    O que nós estamos a analisar
    com mais atenção são os incentivos
  • 2:18 - 2:22
    que a plataforma providencia naturalmente
    e os serviços que providencia.
  • 2:22 - 2:27
    Agora a dinâmica do sistema faz
    com que seja muito fácil intimidar
  • 2:27 - 2:31
    e insultar os outros através do serviço.
  • 2:31 - 2:34
    Infelizmente, a maior parte
    do nosso sistema no passado
  • 2:34 - 2:39
    baseava-se em que as pessoas reportavam
    as intimidações e insultos.
  • 2:41 - 2:45
    Em meados do ano passado,
    decidimos que íamos utilizar
  • 2:45 - 2:47
    muito mais soluções
    de aprendizagem de máquinas
  • 2:47 - 2:49
    e de aprendizagem profunda
  • 2:49 - 2:53
    e tentar ser mais proativos
    quando os insultos acontecem,
  • 2:53 - 2:57
    para tirarmos completamente
    o peso de cima da vítima.
  • 2:57 - 3:00
    Fizemos alguns progressos recentemente.
  • 3:00 - 3:06
    Cerca de 38% dos "tweets" insultuosos
    são agora identificados proativamente
  • 3:06 - 3:08
    por algoritmos automáticos
  • 3:08 - 3:10
    e as pessoas já não têm de os reportar.
  • 3:10 - 3:14
    Mas os que são identificados
    ainda são revistos por pessoas,
  • 3:14 - 3:19
    por isso não tiramos conteúdo ou contas
    sem a revisão de um ser humano.
  • 3:19 - 3:22
    Mas isto era 0% há um ano.
  • 3:22 - 3:24
    Ou seja, com 0%,
  • 3:24 - 3:28
    cada pessoa que fosse insultada
    tinha de os reportar,
  • 3:28 - 3:31
    o que lhes dava muito trabalho,
    e nos dava muito trabalho
  • 3:31 - 3:34
    e, afinal de contas, era injusto.
  • 3:35 - 3:38
    O outro aspeto é que estamos a assegurar
    que nós, como empresa,
  • 3:38 - 3:42
    temos representadas todas as comunidades
    que estamos a tentar servir.
  • 3:42 - 3:44
    Não podemos construir
    um negócio de sucesso
  • 3:44 - 3:47
    se não tivermos diversidade
    de perspetivas dentro da nossa casa
  • 3:47 - 3:51
    onde se sentem esses problemas
    todos os dias.
  • 3:51 - 3:55
    E isso não envolve só a equipa
    que está a fazer o trabalho
  • 3:55 - 3:57
    mas também toda a direção.
  • 3:57 - 4:02
    Temos de continuar a criar empatia
    com o que as pessoas estão a experimentar
  • 4:03 - 4:06
    e dar-lhes melhores ferramentas
    para agirem
  • 4:06 - 4:10
    e também dar aos nossos clientes
    uma abordagem melhor e mais fácil
  • 4:10 - 4:13
    para lidar com algumas coisas
    que estão a ver.
  • 4:13 - 4:16
    Muito do que fazemos
    está ligado à tecnologia
  • 4:16 - 4:20
    mas também estamos a olhar
    para os incentivos do serviço:
  • 4:21 - 4:25
    O que é que o Twitter vos incentiva
    a fazer quando o abrem?
  • 4:26 - 4:27
    No passado,
  • 4:29 - 4:34
    incentivou muita indignação,
    incentivou muita violência de grupo,
  • 4:34 - 4:37
    incentivou muita intimidação a grupos.
  • 4:37 - 4:41
    Temos de olhar mais profundamente
    para alguns dos princípios
  • 4:41 - 4:44
    do que o serviço está a fazer
    para conseguir mudanças maiores.
  • 4:44 - 4:48
    Podemos fazer pequenas mudanças
    a nível tecnológico, como já descrevi,
  • 4:48 - 4:52
    mas temos de olhar profundamente
    para a dinâmica da rede em si
  • 4:52 - 4:53
    e é o que estamos a fazer.
  • 4:53 - 4:55
    CA: Mas o que é que achas?
  • 4:55 - 4:59
    Que tipo de coisas achas
    que vão conseguir mudar
  • 4:59 - 5:03
    que sejam uma mudança
    de comportamento fundamental?
  • 5:03 - 5:05
    JD: Bem, uma das coisas, por exemplo.
  • 5:06 - 5:11
    Começámos o serviço com o conceito
    de seguir uma conta,
  • 5:13 - 5:17
    mas eu não acredito que seja para isso
    que as pessoas usam o Twitter.
  • 5:17 - 5:21
    Acho que o Twitter funciona melhor como
    uma rede social baseada em interesses.
  • 5:21 - 5:24
    As pessoas vêm
    com um determinado interesse.
  • 5:25 - 5:28
    É trabalhoso encontrar e seguir as contas
  • 5:28 - 5:30
    relacionadas com esses interesses.
  • 5:30 - 5:34
    O que nós podemos fazer
    é permitir seguir um interesse,
  • 5:34 - 5:36
    seguir uma "hashtag", uma tendência,
  • 5:36 - 5:38
    seguir uma comunidade,
  • 5:38 - 5:42
    o que nos dá a oportunidade
    de mostrar todas as contas,
  • 5:42 - 5:46
    todos os temas, todos os momentos,
    todas as "hashtags"
  • 5:46 - 5:50
    que estão associadas com esse tópico
    ou interesse em particular,
  • 5:50 - 5:54
    o que abre a perspetiva do que vemos.
  • 5:55 - 5:57
    Isto é uma enorme mudança
  • 5:57 - 6:00
    fazer com que toda a rede
    deixe de estar ligada às contas
  • 6:00 - 6:03
    e passe a estar ligada
    a tópicos e interesses.
  • 6:03 - 6:06
    CA: Mas não se dá o caso
  • 6:06 - 6:11
    de que uma das razões pela qual
    vocês têm tanto conteúdo
  • 6:11 - 6:15
    é o resultado de pôr milhões
    de pessoas do mundo inteiro
  • 6:15 - 6:18
    nesta competição de gladiadores
    uns contra os outros
  • 6:18 - 6:20
    para ganhar seguidores,
    para conquistar atenção?
  • 6:20 - 6:24
    Do ponto de vista das pessoas
    que só leem o Twitter,
  • 6:24 - 6:25
    isso não é um problema
  • 6:25 - 6:29
    mas para quem o criou, todos dizem:
  • 6:29 - 6:32
    "Gostava de ter mais 'likes',
    mais seguidores, mais 'retweets'."
  • 6:32 - 6:34
    Estão sempre a experimentar,
  • 6:34 - 6:36
    a tentar encontrar um caminho para isso.
  • 6:37 - 6:40
    Descobrimos que o caminho
    principal para isso
  • 6:40 - 6:46
    é algum tipo de provocação detestável,
    eloquentemente detestável.
  • 6:46 - 6:50
    Os insultos eloquentes
    são um sonho no Twitter,
  • 6:50 - 6:53
    onde rapidamente se acumulam
  • 6:53 - 6:57
    e se tornam neste processo
    de autoalimentação da indignação.
  • 6:58 - 7:00
    Como se pode acabar com isso?
  • 7:01 - 7:04
    JD: Acho que é exatamente isso
  • 7:04 - 7:06
    mas voltamos de novo aos incentivos.
  • 7:06 - 7:08
    Uma das nossas escolhas iniciais
  • 7:08 - 7:13
    foi mostrar o número de pessoas
    que nos seguiam.
  • 7:13 - 7:16
    Decidimos que esse número
    devia ser grande e destacado
  • 7:16 - 7:20
    e, como tudo o que é grande
    e destacado na página. é importante,
  • 7:20 - 7:22
    essas são as coisas que queremos atingir.
  • 7:22 - 7:24
    Foi a decisão certa na altura?
  • 7:24 - 7:25
    Provavelmente não.
  • 7:25 - 7:27
    Se eu criasse o serviço de novo,
  • 7:27 - 7:29
    não daria tanta ênfase
    ao número de seguidores.
  • 7:29 - 7:32
    Não daria tanta ênfase aos "likes".
  • 7:32 - 7:35
    Acho que nem criaria os "likes"
  • 7:35 - 7:39
    porque não leva ao que acreditamos
  • 7:39 - 7:41
    ser a coisa mais importante,
  • 7:41 - 7:44
    isto é, uma contribuição saudável na rede
  • 7:44 - 7:47
    e conversas na rede,
  • 7:47 - 7:49
    uma participação nas conversas,
  • 7:49 - 7:52
    aprender algo com as conversas.
  • 7:52 - 7:55
    Não pensámos nestas coisas há 13 anos
  • 7:55 - 7:57
    e agora acreditamos
    que são muito importantes.
  • 7:57 - 8:00
    Temos de ver como exibimos
    o número de seguidores,
  • 8:00 - 8:02
    como exibimos o número de "retweets",
  • 8:02 - 8:04
    como exibimos os "likes"
  • 8:04 - 8:06
    e perguntar verdadeiramente:
  • 8:06 - 8:09
    É este o número
    a que queremos dar ênfase?
  • 8:09 - 8:12
    É isto que vemos,
    quando abrimos o Twitter:
  • 8:12 - 8:14
    "É isto que eu tenho de reforçar?"
  • 8:14 - 8:17
    Eu não acredito que agora
    seja esse o caso.
  • 8:17 - 8:19
    (Aplausos)
  • 8:19 - 8:21
    WPR: Acho que devíamos ver alguns "tweets"
  • 8:21 - 8:23
    que também estão a vir da audiência.
  • 8:24 - 8:26
    CA: Vamos ver o que estão a perguntar.
  • 8:26 - 8:29
    Isto é uma das coisas fantásticas
    do Twitter
  • 8:29 - 8:32
    é poder usá-lo para saber
    a opinião de um grupo,
  • 8:33 - 8:37
    mais conhecimento, mais questões,
    mais pontos de vista
  • 8:37 - 8:39
    do que se pode imaginar
  • 8:39 - 8:41
    e às vezes, muito saudáveis.
  • 8:42 - 8:45
    WPR: Vi um que passou
    rapidamente por aqui:
  • 8:45 - 8:48
    "Como vão combater a interferência
    estrangeira nas eleições de 2020?"
  • 8:48 - 8:51
    Penso que é um assunto
  • 8:51 - 8:53
    que estamos a ver na Internet em geral.
  • 8:53 - 8:56
    Há muita atividade automatizada
    maliciosa.
  • 8:58 - 9:02
    No Twitter, de facto, temos trabalho
  • 9:02 - 9:05
    dos nossos amigos na Zignal Labs
  • 9:05 - 9:09
    e talvez possamos ver aí
    um exemplo do que estou a falar,
  • 9:09 - 9:12
    em que temos estes "bots"
  • 9:12 - 9:17
    ou contas com atividade
    automatizada maliciosa
  • 9:17 - 9:20
    que estão a ser usadas
    para influenciar coisas como eleições.
  • 9:20 - 9:24
    Neste exemplo da Zignal
    que eles partilharam connosco
  • 9:24 - 9:26
    usando os dados que têm do Twitter,
  • 9:26 - 9:28
    podem ver que, neste caso,
  • 9:28 - 9:33
    o branco representa seres humanos
    - contas humanas, cada ponto é uma conta.
  • 9:33 - 9:34
    Quanto mais cor-de-rosa,
  • 9:34 - 9:36
    tanto mais atividade automatizada.
  • 9:36 - 9:42
    Podemos ver alguns seres humanos
    a interagir com "bots".
  • 9:42 - 9:46
    Neste caso, está relacionado
    com as eleições em Israel
  • 9:46 - 9:49
    e está a espalhar desinformação
    acerca de Benny Gantz.
  • 9:49 - 9:54
    Como sabemos, no fim, as eleições
    foram ganhas por Netanyahu
  • 9:54 - 9:56
    por uma pequena margem
  • 9:56 - 9:59
    que pode ter sido influenciada,
    nalguns casos, por isso.
  • 9:59 - 10:01
    Quando pensamos no que está
    a acontecer no Twitter,
  • 10:01 - 10:04
    o que é que vocês estão a fazer,
    especificamente,
  • 10:04 - 10:07
    para assegurar que a desinformação
    não se espalhe assim,
  • 10:07 - 10:11
    influenciando pessoas de formas
    que afetam a democracia?
  • 10:12 - 10:14
    JD: Voltando um pouco atrás,
  • 10:14 - 10:16
    perguntámo-nos o seguinte:
  • 10:16 - 10:20
    Podemos medir a saúde de uma conversa
  • 10:20 - 10:22
    e o que é que isso significa?
  • 10:22 - 10:25
    Tal como temos indicadores
  • 10:25 - 10:29
    e temos indicadores humanos
    para ver se estamos saudáveis ou não
  • 10:29 - 10:32
    tais como a temperatura, a cor da cara,
  • 10:33 - 10:38
    acreditamos que podíamos encontrar
    indicadores da saúde das conversas.
  • 10:38 - 10:42
    Trabalhámos com um laboratório
    chamado Cortico no MIT
  • 10:43 - 10:49
    para propor quatro indicadores iniciais
  • 10:49 - 10:53
    que acreditamos que podem
    fazer medições no sistema.
  • 10:54 - 10:59
    O primeiro é o que chamamos
    "atenção partilhada".
  • 10:59 - 11:01
    É uma medida de quanto da conversa
  • 11:01 - 11:05
    está atenta ao mesmo assunto
    e não se dispersa.
  • 11:06 - 11:09
    O segundo chama-se "realidade partilhada"
  • 11:09 - 11:11
    e é a percentagem da conversa
  • 11:12 - 11:14
    que partilha os mesmo factos
  • 11:14 - 11:17
    - não se esses factos
    são verdadeiros ou não
  • 11:17 - 11:20
    mas se estamos a partilhar os mesmos
    factos nas conversas.
  • 11:20 - 11:23
    O terceiro é a "recetividade":
  • 11:23 - 11:27
    Quanto da conversa é recetivo ou cívico
  • 11:27 - 11:30
    ou, pelo contrário, é tóxico?
  • 11:30 - 11:34
    E o quarto é a "variedade de perspetiva".
  • 11:34 - 11:37
    Estaremos a ver bolhas de filtro
    ou câmaras de eco,
  • 11:37 - 11:40
    ou estaremos a ter
    uma variedade de opiniões
  • 11:40 - 11:41
    dentro da conversa?
  • 11:42 - 11:45
    Implícito nestes quatro é a compreensão
  • 11:45 - 11:49
    de que, à medida que aumentam,
    a conversa torna-se mais saudável.
  • 11:49 - 11:53
    Então, o primeiro passo
    é tentar medi-los "online",
  • 11:54 - 11:55
    o que achamos que conseguimos.
  • 11:55 - 11:58
    A maior dinâmica é em torno
    da recetividade.
  • 11:59 - 12:03
    Temos uma pontuação de toxicidade
    e um modelo de toxicidade, no sistema,
  • 12:03 - 12:06
    que consegue medir se é provável
    que alguém se afaste
  • 12:06 - 12:09
    de uma conversa que está a ter no Twitter
  • 12:09 - 12:11
    porque sente que é tóxica,
  • 12:11 - 12:13
    a um nível muito alto.
  • 12:14 - 12:17
    Estamos a tentar medir o resto.
  • 12:17 - 12:19
    O próximo passo é,
  • 12:19 - 12:22
    enquanto construímos soluções,
  • 12:22 - 12:25
    ver como estas medidas
    se comportam ao longo do tempo
  • 12:26 - 12:28
    e continuar a experimentar.
  • 12:28 - 12:32
    O nosso objetivo é assegurar
    que estão equilibradas
  • 12:32 - 12:35
    porque, se aumentamos uma,
    poderemos diminuir a outra.
  • 12:35 - 12:37
    Se aumentarmos a variedade
    de perspetiva,
  • 12:37 - 12:40
    poderemos diminuir
    a realidade partilhada.
  • 12:40 - 12:45
    CA: Agarrando numa das perguntas
    que estão a chegar em massa...
  • 12:45 - 12:47
    JD: Questionamento constante.
  • 12:48 - 12:51
    CA: Muitas pessoas estão perplexas
  • 12:51 - 12:55
    perguntando porque é que é difícil
    eliminar os nazis do Twitter?
  • 12:59 - 13:04
    JD: Temos diretrizes relativas
    a grupos extremistas violentos
  • 13:05 - 13:09
    e a maior parte do nosso trabalho
    e das nossas condições de funcionamento
  • 13:09 - 13:13
    estão ligados à conduta, não ao conteúdo.
  • 13:13 - 13:16
    Estamos a olhar para a conduta.
  • 13:16 - 13:19
    Conduta é usar o serviço
  • 13:19 - 13:23
    para intimidar alguém repetidamente
    ou de forma pontual,
  • 13:23 - 13:25
    usar imagens de ódio
  • 13:25 - 13:27
    que poderão estar associadas ao KKK
  • 13:27 - 13:30
    ou ao Partido Nazi Americano.
  • 13:30 - 13:34
    Nós agimos imediatamente
    contra estas coisas.
  • 13:35 - 13:40
    Estamos numa situação agora
    em que esse termo é usado de forma vaga
  • 13:40 - 13:45
    mas nós não podemos considerar
    qualquer pessoa
  • 13:45 - 13:48
    que use essa palavra
    para acusar outra pessoa
  • 13:48 - 13:52
    como uma indicação factual
    de que devem ser retirados da plataforma.
  • 13:52 - 13:54
    Muitos dos nossos modelos
    são baseados em, número um:
  • 13:55 - 13:58
    Esta conta está associada
    a um grupo extremista violento?
  • 13:58 - 14:00
    Se sim, podemos agir.
  • 14:00 - 14:03
    Fizemos isto com o KKK,
    o Partido Nazi Americano e outros.
  • 14:04 - 14:08
    Número dois: Estão a usar
    imagens ou conduta
  • 14:08 - 14:10
    que também os associaria a tal?
  • 14:10 - 14:14
    CA: Quantas pessoas têm a trabalhar
    na moderação de conteúdos, para ver isso?
  • 14:15 - 14:16
    JD: Depende.
  • 14:16 - 14:18
    Queremos ser flexíveis nisto,
  • 14:18 - 14:21
    porque queremos ter a certeza
    de que estamos, número um,
  • 14:21 - 14:25
    a construir algoritmos
    em vez de contratar imensas pessoas
  • 14:25 - 14:28
    porque temos de ter a certeza
    que podemos alargar isso
  • 14:28 - 14:31
    e não há nenhum número de pessoas
    que consiga alargar isso.
  • 14:32 - 14:38
    Foi por isso que fizemos tanto trabalho
    à volta da deteção proativa de insultos
  • 14:38 - 14:40
    que possam ser revistos por pessoass.
  • 14:40 - 14:42
    Queremos ter uma situação
  • 14:42 - 14:46
    em que haja algoritmos
    constantemente a filtrar cada "tweet"
  • 14:46 - 14:49
    e a destacar os mais interessantes
  • 14:49 - 14:52
    para que seres humanos possam julgar
    se devemos agir ou não,
  • 14:52 - 14:54
    com base nas nossas condições de serviço.
  • 14:54 - 14:57
    WPR: Não há um número de pessoas
    que possa aumentar
  • 14:57 - 15:00
    mas quantas pessoas têm vocês agora
    a monitorizar essas contas
  • 15:00 - 15:03
    e como conseguem perceber
    quando esse número é suficiente?
  • 15:03 - 15:05
    JD: É uma coisa completamente flexível.
  • 15:05 - 15:08
    Às vezes associamos pessoas a "spam".
  • 15:08 - 15:12
    Às vezes associamos pessoas
    a insultos e intimidação.
  • 15:12 - 15:15
    Vamos garantir que temos flexibilidade
    quanto às pessoas que temos
  • 15:15 - 15:17
    para as direcionarmos
    para onde são precisas.
  • 15:17 - 15:19
    Às vezes, para as eleições.
  • 15:19 - 15:21
    Tivemos uma série de eleições no México,
  • 15:22 - 15:24
    vai haver uma na Índia.
  • 15:24 - 15:28
    Obviamente, as eleições do ano passado,
    as eleições intercalares
  • 15:28 - 15:31
    por isso queremos ser flexíveis
    com os recursos.
  • 15:31 - 15:33
    Quando as pessoas,
  • 15:33 - 15:39
    por exemplo, forem
    aos nossos termos de serviço atuais
  • 15:39 - 15:41
    e abrirem a página
  • 15:41 - 15:44
    e estiverem a pensar nos insultos
    ou intimidações que receberem,
  • 15:44 - 15:48
    se isso vai contra os nossos termos
    de serviço, para o denunciarem,
  • 15:48 - 15:51
    a primeira coisa que veem
    ao abrir a página
  • 15:51 - 15:54
    é sobre a proteção
    da propriedade intelectual.
  • 15:55 - 16:00
    A seguir, veem a parte
    dos insultos, da intimidação
  • 16:00 - 16:02
    e de tudo a que podem estar sujeitos.
  • 16:02 - 16:05
    Não sei como isso aconteceu
    no decorrer da história da empresa
  • 16:06 - 16:10
    mas pusemos isso acima
    do que as pessoas querem
  • 16:12 - 16:15
    ou seja, mais informação
    e mais capacidade de ação.
  • 16:16 - 16:21
    A nossa ordem mostra ao mundo
    o que acreditamos ser mais importante.
  • 16:21 - 16:23
    Estamos a mudar tudo isso.
  • 16:24 - 16:25
    Estamos a ordenar da forma certa
  • 16:25 - 16:29
    mas também estamos a simplificar
    as regras para que sejam compreensíveis
  • 16:29 - 16:31
    para que as pessoas compreendam
  • 16:33 - 16:36
    quando algo é contrário
    aos nossos termos e quando não é.
  • 16:36 - 16:39
    Estamos a fazer isso.
  • 16:39 - 16:44
    De novo, o grande foco é tirar o peso
    do trabalho de cima das vítimas.
  • 16:44 - 16:47
    Isso significa mais foco na tecnologia
  • 16:47 - 16:49
    do que em pessoas a trabalharem,
  • 16:49 - 16:52
    ou seja, as pessoas que são insultadas
  • 16:52 - 16:55
    e as pessoas que reveem esse trabalho.
  • 16:55 - 16:57
    Queremos assegurar
  • 16:57 - 16:59
    que não estamos a incentivar mais trabalho
  • 16:59 - 17:02
    à volta de algo extremamente negativo
  • 17:02 - 17:05
    e queremos ter um bom equilíbrio
    entre a tecnologia
  • 17:05 - 17:08
    e aquilo em que os seres humanos
    podem ser criativos
  • 17:08 - 17:11
    que é a julgarem as regras
  • 17:11 - 17:14
    e não na parte mecânica
    de encontrar e denunciar.
  • 17:14 - 17:16
    É assim que nós vemos isto.
  • 17:16 - 17:18
    CA: Gostava de aprofundar
    o que acabaste de dizer.
  • 17:18 - 17:21
    Adoro teres dito
    que estão à procura de formas
  • 17:21 - 17:24
    de mudar o "design" fundamental do sistema
  • 17:24 - 17:28
    para desencoraja
    comportamento reativo
  • 17:28 - 17:32
    - e usando uma linguagem do tipo
    de Tristan Harris -
  • 17:32 - 17:36
    envolver talvez um pensamento
    mais reflexivo das pessoas.
  • 17:36 - 17:38
    Em que ponto é que isso está?
  • 17:38 - 17:42
    Quais seriam as alternativas
    ao botão do "like"?
  • 17:44 - 17:47
    JD: Bem, primeiro que tudo,
  • 17:47 - 17:53
    o meu objetivo pessoal com o serviço
    é que acredito fundamentalmente
  • 17:53 - 17:56
    que as conversas públicas são cruciais.
  • 17:56 - 17:58
    Há problemas existenciais no mundo
  • 17:58 - 18:02
    que são enfrentados pelo mundo todo,
    não só por um estado-nação,
  • 18:02 - 18:05
    que as conversas públicas globais beneficiam.
  • 18:05 - 18:08
    Isto é uma das dinâmicas únicas do Twitter
  • 18:08 - 18:09
    que é completamente aberto,
  • 18:09 - 18:12
    completamente público,
    completamente fluido
  • 18:12 - 18:16
    e todos podem ver as conversas
    e participar nelas.
  • 18:17 - 18:19
    Há conversas sobre a alteração climática.
  • 18:19 - 18:21
    Há conversas sobre
    a deslocalização do trabalho
  • 18:21 - 18:24
    devido à inteligência artificial.
  • 18:24 - 18:27
    Há conversas sobre
    a disparidade económica.
  • 18:27 - 18:29
    Independentemente
    do que um estado-nação faz,
  • 18:29 - 18:32
    não conseguirão resolver
    o problema sozinhos.
  • 18:32 - 18:34
    É necessário coordenação em todo o mundo
  • 18:35 - 18:37
    e é aí que o Twitter
    pode desempenhar um papel.
  • 18:38 - 18:43
    A segunda coisa é que,
    quando vamos ao Twitter
  • 18:43 - 18:47
    nem sempre saímos de lá a sentir
    que aprendemos alguma coisa.
  • 18:47 - 18:48
    Algumas pessoas sim.
  • 18:48 - 18:51
    Algumas pessoas têm
    uma rede muito rica,
  • 18:51 - 18:54
    uma comunidade muito rica
    na qual aprendem todos os dias.
  • 18:55 - 18:58
    Mas é preciso muito trabalho
    e muito tempo para construir isso.
  • 18:58 - 19:02
    Então queremos pôr as pessoas
    nesses tópicos e nesses interesses
  • 19:02 - 19:03
    muito mais rapidamente
  • 19:03 - 19:06
    e certificar que elas estão
    a encontrar qualquer coisa
  • 19:06 - 19:09
    que, independentemente do tempo
    que estão no Twitter
  • 19:09 - 19:11
    - e eu não quero maximizar
    o tempo no Twitter,
  • 19:11 - 19:14
    quero maximizar
    o que as pessoas tiram dele
  • 19:14 - 19:16
    e o que aprendem dele.
  • 19:18 - 19:19
    CA: Mas queres mesmo?
  • 19:19 - 19:22
    Porque essa é a questão central
    que muitas pessoas querem saber.
  • 19:22 - 19:26
    Jack, vocês estão certamente limitados
    em grande medida
  • 19:26 - 19:28
    pelo facto de serem uma empresa pública,
  • 19:28 - 19:30
    têm investidores a pressionarem-vos,
  • 19:30 - 19:33
    a maior forma de ganharem dinheiro
    é através de publicidade,
  • 19:33 - 19:37
    o que depende
    do envolvimento do utilizador.
  • 19:37 - 19:41
    Estão prontos a abdicar do tempo
    dos utilizadores, se necessário,
  • 19:41 - 19:44
    para conseguirem
    uma conversa mais reflexiva?
  • 19:45 - 19:48
    JD: Sim, mais relevância significa
    menos tempo no serviço
  • 19:48 - 19:50
    e não tem qualquer problema
  • 19:50 - 19:53
    porque queremos garantir
    que chegam ao Twitter,
  • 19:53 - 19:57
    e veem imediatamente algo
    que aprendem e que passam.
  • 19:57 - 20:01
    Podemos passar um anúncio na mesma.
  • 20:01 - 20:04
    Não significa que temos de gastar
    mais tempo para ver mais.
  • 20:04 - 20:05
    O segundo ponto que estamos a ver...
  • 20:05 - 20:08
    CA: Relativamente a esse objetivo,
    utilização ativa diária,
  • 20:08 - 20:11
    se estão a medir isso,
    não significa necessariamente
  • 20:11 - 20:13
    coisas que as pessoas
    valorizem todos os dias.
  • 20:13 - 20:15
    Pode significar coisas
  • 20:15 - 20:18
    que atraem pessoas
    como a luz atrai a traça, todos os dias.
  • 20:18 - 20:21
    Estamos viciados porque vemos
    algo que nos irrita,
  • 20:21 - 20:24
    entramos ali e deitamos lenha na fogueira,
  • 20:24 - 20:26
    e a utilização ativa diária cresce
  • 20:26 - 20:28
    e há mais receita de anúncios,
  • 20:28 - 20:31
    mas estamos todos zangados
    uns com os outros.
  • 20:31 - 20:33
    Como defines "utilização ativa diária"?
  • 20:33 - 20:37
    Parece ser um termo
    muito perigoso para otimizar.
  • 20:38 - 20:41
    (Aplausos)
  • 20:42 - 20:44
    JD: Visto isoladamente, é,
  • 20:44 - 20:46
    mas não me deixaram acabar
    a outra métrica
  • 20:46 - 20:50
    que é estarmos a ver as conversas
  • 20:50 - 20:52
    e as cadeias de conversas.
  • 20:52 - 20:57
    Queremos incentivar contribuições
    saudáveis de novo na rede
  • 20:57 - 21:01
    e o que nós acreditamos ser
    participar numa conversa
  • 21:01 - 21:03
    que é saudável,
  • 21:03 - 21:07
    como definida naqueles quatro indicadores
    que mencionei antes.
  • 21:07 - 21:10
    Não é possível otimizar
    à volta de uma só métrica.
  • 21:10 - 21:13
    É preciso equilibrar
    e olhar constantemente
  • 21:13 - 21:17
    para o que vai criar uma contribuição
    saudável para a rede
  • 21:17 - 21:19
    e uma experiência saudável
    para as pessoas.
  • 21:19 - 21:21
    No fundo, queremos uma métrica
  • 21:21 - 21:23
    em que as pessoas nos digam:
  • 21:23 - 21:27
    "Aprendi uma coisa no Twitter
    e levo comigo algo valioso."
  • 21:27 - 21:29
    Este é o nosso objetivo ao longo do tempo
  • 21:29 - 21:31
    mas isso vai demorar algum tempo.
  • 21:31 - 21:36
    CA: Penso que muitos
    veem isso como um enigma.
  • 21:37 - 21:41
    Talvez seja injusto
    mas acordei uma noite
  • 21:41 - 21:45
    com uma imagem de como pensava
    sobre ti e sobre esta situação.
  • 21:45 - 21:51
    Estávamos numa grande viagem
    num barco chamado "Twittanic"...
  • 21:52 - 21:53
    (Risos)
  • 21:53 - 21:57
    e havia pessoas a bordo na terceira classe
  • 21:57 - 22:00
    que se queixavam de desconforto.
  • 22:00 - 22:03
    Ao contrário dos outros capitães,
    tu dizias:
  • 22:03 - 22:06
    "Digam-me, falem comigo,
    ouçam-me, eu quero ouvir."
  • 22:06 - 22:09
    E eles falam e dizem: "Estamos preocupados
    com o icebergue ali à frente."
  • 22:09 - 22:11
    E tu dizes: "Sabem, é uma boa observação,
  • 22:12 - 22:14
    "o nosso navio não foi construído
    adequadamente
  • 22:14 - 22:16
    "para a terceira classe como devia."
  • 22:16 - 22:17
    Nós dizemos: "Faz algo."
  • 22:17 - 22:21
    Tu vais para a ponte
    e nós ficamos à espera,
  • 22:21 - 22:26
    olhamos e tu estás a mostrar
    esta calma extraordinária
  • 22:26 - 22:30
    mas nós estamos todos cá fora a dizer:
    "Jack, gira a porra do leme!"
  • 22:30 - 22:31
    Percebes?
  • 22:31 - 22:32
    (Risos)
  • 22:32 - 22:34
    (Aplausos)
  • 22:34 - 22:36
    Ou seja...
  • 22:36 - 22:37
    (Aplausos)
  • 22:38 - 22:42
    É a democracia que está em risco.
  • 22:42 - 22:45
    É a nossa cultura em risco.
    É o nosso mundo em risco.
  • 22:45 - 22:50
    O Twitter é fantástico e modela muito.
  • 22:50 - 22:52
    Não é tão grande como outras plataformas
  • 22:52 - 22:55
    mas as pessoas com influência
    usam-no para definir um programa,
  • 22:55 - 23:01
    e é difícil imaginar um papel
    mais importante no mundo.
  • 23:02 - 23:05
    Estás a fazer um trabalho brilhante
    a ouvir as pessoas, Jack,
  • 23:05 - 23:10
    mas vais marcar como urgente e fazer algo?
  • 23:10 - 23:12
    Vais fazer isso?
  • 23:13 - 23:17
    JD: Sim, nós temos mudado
    substancialmente.
  • 23:17 - 23:20
    Houve algumas dinâmicas
    na história do Twitter.
  • 23:20 - 23:22
    Uma, quando voltei para a empresa,
  • 23:23 - 23:29
    estávamos num momento difícil
    em termos do nosso futuro
  • 23:30 - 23:34
    e não só de como as pessoas
    estavam a usar a plataforma
  • 23:34 - 23:37
    mas também quanto
    à narrativa corporativa.
  • 23:37 - 23:40
    Tivemos de reparar grande parte da base,
  • 23:40 - 23:42
    dar a volta à empresa,
  • 23:42 - 23:45
    passar por duas loucas
    reduções de pessoal
  • 23:45 - 23:49
    porque éramos grandes demais
    para o que estávamos a fazer
  • 23:49 - 23:51
    e concentrámos toda a nossa energia
  • 23:51 - 23:54
    neste conceito de servir
    a conversa pública.
  • 23:54 - 23:56
    Foi preciso algum trabalho.
  • 23:56 - 23:59
    Quando mergulhámos nisso,
  • 23:59 - 24:02
    reparámos nalguns problemas
    com os princípios.
  • 24:02 - 24:07
    Podíamos fazer um monte de coisas
    superficiais para tratar do que falaste
  • 24:07 - 24:09
    mas precisamos que as mudanças durem
  • 24:09 - 24:11
    e isso significa ir mesmo ao fundo
  • 24:11 - 24:15
    e prestar atenção
    ao que iniciámos há 13 anos
  • 24:15 - 24:18
    e questionar a sério
  • 24:18 - 24:21
    como o sistema funciona
    e como o enquadramento funciona
  • 24:21 - 24:24
    e o que é preciso para o mundo de hoje,
  • 24:24 - 24:28
    dada a velocidade com que tudo se move
    e como as pessoas estão a usá-lo.
  • 24:28 - 24:32
    Trabalhamos tão depressa quanto possível
  • 24:32 - 24:35
    mas não é a rapidez
    que vai fazer o trabalho.
  • 24:35 - 24:38
    É a concentração,
    o estabelecimento de prioridades,
  • 24:38 - 24:40
    é compreender os princípios da rede
  • 24:41 - 24:43
    e construir um enquadramento
    que possa crescer
  • 24:43 - 24:46
    e que seja resistente à mudança
  • 24:46 - 24:51
    e aberto sobre onde estamos,
    transparente sobre onde estamos
  • 24:51 - 24:54
    para continuarmos a ganhar confiança.
  • 24:54 - 24:57
    Tenho orgulho em todos os enquadramentos
    que implementámos.
  • 24:58 - 25:01
    Tenho orgulho na nossa direção.
  • 25:01 - 25:04
    Claro que podemos andar mais depressa
  • 25:04 - 25:09
    mas isto exige abandonar uma série
    de coisas parvas que fizemos no passado.
  • 25:09 - 25:10
    CA: Ok.
  • 25:10 - 25:14
    Eu suspeito que há muitas pessoas aqui
    que, se pudessem,
  • 25:14 - 25:18
    adorariam ajudar-te neste plano
    de mudanças em que estás
  • 25:18 - 25:20
    e não sei se a Whitney...
  • 25:20 - 25:23
    Jack, obrigado por vires aqui
    e falares tão abertamente.
  • 25:23 - 25:24
    É preciso coragem.
  • 25:24 - 25:28
    Dou muito valor ao que disseste
    e boa sorte com a tua missão.
  • 25:28 - 25:30
    JD: Muito obrigado. Obrigado pelo convite.
  • 25:30 - 25:33
    (Aplausos)
  • 25:33 - 25:34
    Obrigado.
Title:
Como o Twitter precisa de mudar
Speaker:
Jack Dorsey
Description:

O Twitter pode ser salvo? Numa conversa abrangente com Chris Anderson e Whitney Pennington Rodgers do TED, o CEO do Twitter, Jack Dorsey, discute o futuro da plataforma, reconhecendo problemas de assédio e moderação e propondo algumas mudanças fundamentais que ele espera que incentivem conversas saudáveis e respeitosas. “Estamos realmente a dar algo que as pessoas valorizam todos os dias?” pergunta Dorsey.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
25:47
Margarida Ferreira approved Portuguese subtitles for How Twitter needs to change
Margarida Ferreira edited Portuguese subtitles for How Twitter needs to change
Margarida Ferreira accepted Portuguese subtitles for How Twitter needs to change
Margarida Ferreira edited Portuguese subtitles for How Twitter needs to change
Margarida Ferreira edited Portuguese subtitles for How Twitter needs to change
Margarida Ferreira edited Portuguese subtitles for How Twitter needs to change
Margarida Ferreira edited Portuguese subtitles for How Twitter needs to change
Margarida Ferreira edited Portuguese subtitles for How Twitter needs to change
Show all

Portuguese subtitles

Revisions