< Return to Video

Como o Twitter precisa mudar

  • 0:01 - 0:03
    Chris Anderson: Qual é
    a sua preocupação atual?
  • 0:03 - 0:06
    Você tem sido bastante aberto
    sobre muitos problemas do Twitter.
  • 0:06 - 0:11
    Qual seria a sua maior preocupação
    sobre como as coisas estão hoje?
  • 0:11 - 0:14
    Jack Dorsey: Neste momento,
    é a saúde da conversa.
  • 0:14 - 0:18
    Nosso propósito é servir
    à conversa pública,
  • 0:20 - 0:23
    e temos visto muitos ataques nela.
  • 0:23 - 0:28
    Temos visto insulto, assédio, manipulação,
  • 0:29 - 0:33
    automação, coordenação humana
    e desinformação.
  • 0:34 - 0:39
    Todas essas são dinâmicas
    que não esperávamos 13 anos atrás,
  • 0:39 - 0:41
    quando começamos a empresa.
  • 0:42 - 0:45
    Mas agora vemos isso em grande escala,
  • 0:45 - 0:50
    e o que mais me preocupa é
    a nossa capacidade de resolver isso
  • 0:50 - 0:53
    de forma sistêmica, em grande escala,
  • 0:54 - 0:58
    que tenha uma compreensão rigorosa
  • 0:58 - 1:00
    de como estamos agindo,
  • 1:00 - 1:03
    uma compreensão transparente
    de como estamos agindo
  • 1:03 - 1:06
    e um processo rigoroso de contestação
    para quando errarmos,
  • 1:06 - 1:08
    porque vamos errar.
  • 1:09 - 1:12
    Whitney Pennington Rodgers:
    Que bom ouvir que isso te preocupa,
  • 1:12 - 1:15
    pois muito tem sido escrito sobre pessoas
  • 1:15 - 1:18
    que sentem que tem sido insultadas
    e assediadas no Twitter,
  • 1:18 - 1:23
    sobretudo mulheres,
    mulheres de cor e negras.
  • 1:24 - 1:28
    A Anistia Internacional divulgou
    um relatório há alguns meses
  • 1:28 - 1:33
    apontando um subgrupo de mulheres
    negras usuárias ativas do Twitter,
  • 1:33 - 1:36
    que, de cada dez tuítes que recebiam,
  • 1:36 - 1:38
    um, em média, era uma forma de assédio.
  • 1:38 - 1:42
    E, quando pensamos em saúde
    para a comunidade do Twitter,
  • 1:42 - 1:46
    estou interessada em ouvir
    "saúde para todos",
  • 1:46 - 1:49
    mas especificamente como você
    tenta fazer do Twitter um espaço seguro
  • 1:49 - 1:54
    para esse subgrupo de mulheres,
    mulheres de cor e negras?
  • 1:54 - 1:55
    JD: Verdade.
  • 1:55 - 1:59
    É uma situação bem terrível
    quando se acessa um serviço
  • 1:59 - 2:03
    em que se busca, idealmente,
    aprender algo sobre o mundo,
  • 2:03 - 2:09
    e se passa a maior parte do tempo
    denunciando e recebendo insultos,
  • 2:09 - 2:11
    sofrendo assédio.
  • 2:11 - 2:13
    Então, nós...
  • 2:14 - 2:18
    estamos procurando
    mais profundamente os incentivos
  • 2:18 - 2:22
    que a plataforma e o serviço
    propiciam naturalmente.
  • 2:22 - 2:26
    Atualmente, a dinâmica
    do sistema torna superfácil
  • 2:26 - 2:31
    assediar e insultar os outros
    através do serviço,
  • 2:31 - 2:34
    e, infelizmente, boa parte
    do nosso sistema no passado
  • 2:34 - 2:39
    trabalhou inteiramente com base
    em pessoas denunciando assédio e insultos.
  • 2:40 - 2:45
    Por isso, em meados do ano passado,
    decidimos que íamos aplicar
  • 2:45 - 2:49
    muito mais aprendizado de máquina,
    e aprendizado profundo no problema,
  • 2:49 - 2:53
    e tentar ser muito mais proativos
    quando o insulto está acontecendo,
  • 2:53 - 2:57
    para que possamos tirar
    completamente o fardo da vítima.
  • 2:57 - 3:00
    E recentemente fizemos alguns progressos:
  • 3:00 - 3:06
    cerca de 38% dos tuítes insultantes
    agora são identificados proativamente
  • 3:06 - 3:08
    por algoritmos de aprendizado de máquina
  • 3:08 - 3:10
    para que as pessoas
    não precisem denunciá-los.
  • 3:10 - 3:14
    Mas aqueles que são identificados
    ainda são revisados por humanos,
  • 3:14 - 3:19
    por isso não removemos conteúdo
    ou contas sem a revisão humana.
  • 3:19 - 3:22
    Mas isso era 0% apenas um ano atrás.
  • 3:22 - 3:24
    Ou seja, esse 0% representa
  • 3:24 - 3:28
    que toda pessoa que era insultada
    tinha de reportá-lo,
  • 3:28 - 3:31
    o que significava muito trabalho
    para elas e para nós,
  • 3:31 - 3:34
    algo completamente injusto.
  • 3:35 - 3:38
    A outra coisa que estamos fazendo
    é assegurar que, como empresa,
  • 3:38 - 3:42
    tenhamos representação de todas
    as comunidades que tentamos atender.
  • 3:42 - 3:44
    Não podemos construir
    um negócio bem-sucedido
  • 3:44 - 3:47
    sem que tenhamos conosco
    uma diversidade de perspectivas
  • 3:47 - 3:51
    que sintam de fato
    esses problemas todos os dias.
  • 3:51 - 3:57
    E isso não é só com a equipe operacional,
    mas também na liderança da empresa.
  • 3:57 - 3:59
    Precisamos continuar a construir empatia
  • 3:59 - 4:06
    pelo que as pessoas estão experimentando
    e lhes dar melhores ferramentas para agir
  • 4:06 - 4:10
    e também dar aos nossos clientes
    uma abordagem melhor e mais fácil
  • 4:10 - 4:13
    para lidar com algumas
    das coisas que estão vendo.
  • 4:13 - 4:16
    Assim, muito do que estamos fazendo
    tem a ver com tecnologia,
  • 4:16 - 4:20
    mas também consideramos
    os incentivos no serviço:
  • 4:20 - 4:25
    o que o Twitter incentiva a pessoa a fazer
    quando ela o acessa pela primeira vez?
  • 4:25 - 4:27
    No passado,
  • 4:29 - 4:34
    ele incentivou muito disparate,
    muito comportamento de massa,
  • 4:34 - 4:37
    muito assédio em grupo.
  • 4:37 - 4:40
    Temos de olhar muito mais profundamente
    alguns dos fundamentos
  • 4:40 - 4:43
    do que o serviço está fazendo
    para criar as maiores mudanças.
  • 4:43 - 4:46
    Podemos fazer várias pequenas
    mudanças com a tecnologia,
  • 4:46 - 4:48
    como acabei de descrever,
  • 4:48 - 4:52
    mas, em última análise, temos de observar
    profundamente a dinâmica da própria rede,
  • 4:52 - 4:53
    e é o que estamos fazendo hoje.
  • 4:53 - 4:55
    CA: Mas o que na sua opinião
  • 4:55 - 4:59
    você teria condições de alterar
  • 4:59 - 5:02
    que fundamentalmente
    mudaria o comportamento?
  • 5:03 - 5:10
    JD: Bem, nós começamos o serviço
    com o conceito de seguir uma conta,
  • 5:10 - 5:12
    como um exemplo,
  • 5:12 - 5:16
    e não acredito que seja por isso
    que as pessoas acessem o Twitter.
  • 5:16 - 5:21
    Acredito que o Twitter seja melhor
    como uma rede baseada em interesses.
  • 5:21 - 5:25
    As pessoas o acessam
    devido a um determinado interesse.
  • 5:25 - 5:28
    Elas têm muito trabalho para encontrar
    e acompanhar as contas relacionadas
  • 5:28 - 5:30
    a esses interesses.
  • 5:30 - 5:34
    Poderíamos, em vez disso,
    permitir que seguissem um interesse,
  • 5:34 - 5:37
    seguissem uma hashtag,
    uma tendência, uma comunidade,
  • 5:39 - 5:42
    o que nos dá a oportunidade
    de mostrar todas as contas,
  • 5:42 - 5:46
    todos os tópicos, os momentos,
    todas as hashtags
  • 5:46 - 5:50
    que estão associados àquele
    determinado tópico e interesse,
  • 5:50 - 5:54
    o que realmente abre
    a perspectiva que a pessoa vê.
  • 5:54 - 5:56
    Mas essa é uma enorme mudança fundamental,
  • 5:56 - 6:00
    para desviar toda a rede
    do viés de apenas uma conta
  • 6:00 - 6:03
    para um viés de tópicos e interesses.
  • 6:03 - 6:06
    CA: Mas não é verdade
  • 6:07 - 6:11
    que o fato de haver tanto conteúdo lá
  • 6:11 - 6:15
    é o resultado de se colocar
    milhões de pessoas do mundo todo
  • 6:15 - 6:18
    num tipo de competição gladiatorial
    umas com as outras
  • 6:18 - 6:20
    por seguidores, por atenção?
  • 6:20 - 6:24
    Do ponto de vista daqueles
    que apenas leem o Twitter,
  • 6:24 - 6:25
    isso não é problema,
  • 6:25 - 6:28
    mas, para quem cria tuítes, eles dizem:
  • 6:28 - 6:32
    "Eu gostaria de ter mais curtidas,
    seguidores, retuítes".
  • 6:32 - 6:34
    Assim, elas constantemente experimentam,
  • 6:34 - 6:36
    tentando encontrar um jeito de fazer isso.
  • 6:36 - 6:40
    E parece que todos descobriram
    que o melhor jeito é sendo,
  • 6:40 - 6:44
    de alguma forma, provocativo
  • 6:44 - 6:47
    detestável, eloquentemente detestável...
  • 6:47 - 6:50
    insultos eloquentes
    são um sonho no Twitter
  • 6:50 - 6:53
    e a pessoa se avulta rapidamente,
  • 6:53 - 6:57
    retroalimentando esse processo
    de estimular ultrajes.
  • 6:57 - 7:00
    Como você neutraliza isso?
  • 7:01 - 7:04
    JD: Sim, acho que você foi ao ponto,
  • 7:04 - 7:05
    mas isso remonta aos incentivos.
  • 7:06 - 7:08
    Uma das escolhas que fizemos no início
  • 7:08 - 7:13
    foi mostrar o número de seguidores.
  • 7:13 - 7:16
    Decidimos que esse número
    deveria ser grande e ambicioso,
  • 7:16 - 7:20
    e qualquer coisa numa página
    grande e ambiciosa teria importância,
  • 7:20 - 7:22
    e a pessoa buscaria atrair essas coisas.
  • 7:22 - 7:25
    Foi uma decisão acertada na época?
    Provavelmente não.
  • 7:25 - 7:27
    Se tivesse de recomeçar o Twitter,
  • 7:27 - 7:29
    não enfatizaria tanto
    o número de seguidores,
  • 7:29 - 7:32
    nem o número de curtidas.
  • 7:32 - 7:35
    Pra começar, acho
    que nem criaria as curtidas,
  • 7:35 - 7:38
    porque elas não estimulam
  • 7:38 - 7:41
    aquilo que agora acreditamos
    ser o mais importante,
  • 7:41 - 7:44
    que é a contribuição saudável para a rede,
  • 7:44 - 7:47
    conversa dentro da rede,
  • 7:47 - 7:49
    participação dentro da conversa,
  • 7:49 - 7:52
    e aprender algo com essa conversa.
  • 7:52 - 7:54
    Não consideramos essas coisas há 13 anos,
  • 7:54 - 7:57
    mas hoje acreditamos que sejam
    extremamente importantes.
  • 7:57 - 8:00
    Então temos de ver como mostramos
    a conta do seguidor,
  • 8:00 - 8:04
    a contagem de retuítes,
    como mostramos as curtidas,
  • 8:04 - 8:06
    e nos perguntar seriamente:
  • 8:06 - 8:09
    esse é realmente o número que queremos
    que as pessoas alcancem?
  • 8:09 - 8:12
    É isso o que a pessoa,
    quando abre o Twitter,
  • 8:12 - 8:14
    pensa: "É isso o que eu preciso aumentar?"
  • 8:14 - 8:16
    E não acredito que seja o caso agora.
  • 8:16 - 8:19
    (Aplausos)
  • 8:19 - 8:24
    WPR: Vamos ver alguns dos tuítes chegando
    com perguntas da plateia também.
  • 8:24 - 8:26
    CA: Vejamos o que estão perguntando.
  • 8:26 - 8:29
    Umas das coisas incríveis sobre o Twitter
  • 8:29 - 8:32
    é como podemos usá-lo
    como inteligência coletiva,
  • 8:32 - 8:36
    sabe, mais conhecimento, mais perguntas,
  • 8:36 - 8:38
    mais opiniões do que se pode imaginar
  • 8:38 - 8:41
    e, às vezes, muitos deles
    são realmente saudáveis.
  • 8:42 - 8:46
    WPR: Uma das perguntas aqui é:
    "Qual o plano do Twitter para combater
  • 8:46 - 8:48
    a ingerência estrangeira
    nas eleições dos EUA em 2020?"
  • 8:48 - 8:53
    Acho que essa é uma questão
    que vemos na internet em geral,
  • 8:53 - 8:56
    pois há muita atividade maliciosa
    automatizada acontecendo.
  • 8:56 - 9:02
    E no Twitter, por exemplo,
    temos um trabalho
  • 9:02 - 9:05
    dos nossos amigos no Zignal Labs,
  • 9:05 - 9:09
    e talvez possamos pegar um exemplo
    para demonstrar o que estou falando,
  • 9:09 - 9:12
    no qual existem esses "bots",
  • 9:13 - 9:17
    ou atividade de conta automatizada
    coordenada maliciosa,
  • 9:17 - 9:20
    sendo usados para influenciar,
    por exemplo, as eleições.
  • 9:20 - 9:24
    E temos um exemplo do Zignal,
    que eles compartilharam conosco,
  • 9:24 - 9:26
    usando os dados que eles têm do Twitter,
  • 9:26 - 9:28
    e podemos ver que, nesse caso,
  • 9:28 - 9:33
    o branco representa cada ponto
    como uma conta de humano.
  • 9:33 - 9:36
    Quanto mais rosa,
    mais automatizada é a atividade
  • 9:36 - 9:42
    e dá pra ver como existem
    alguns humanos interagindo com bots.
  • 9:42 - 9:46
    Trata-se aqui da eleição em Israel,
  • 9:46 - 9:49
    em que se espalhou desinformação
    sobre Benny Gantz,
  • 9:49 - 9:53
    e, no final, essa foi uma eleição
  • 9:53 - 9:56
    na qual Netanyahu ganhou
    por uma pequena margem,
  • 9:56 - 9:59
    e pode ter sido influenciado por isso.
  • 9:59 - 10:01
    E quando pensamos
    nisso acontecendo no Twitter,
  • 10:01 - 10:03
    o que estão fazendo especificamente
  • 10:03 - 10:07
    para evitar que desinformação
    assim se espalhe dessa maneira,
  • 10:07 - 10:12
    influenciando as pessoas em maneiras
    que podem afetar a democracia?
  • 10:12 - 10:13
    JD: Só para voltar um pouco.
  • 10:13 - 10:16
    Nós nos perguntamos:
  • 10:16 - 10:20
    podemos realmente medir
    a saúde de uma conversa,
  • 10:20 - 10:22
    e o que isso significa?
  • 10:22 - 10:25
    E da mesma maneira
    que existem indicadores
  • 10:25 - 10:28
    para medir a saúde dos seres humanos,
  • 10:28 - 10:32
    como temperatura, as faces coradas,
  • 10:33 - 10:38
    acreditamos que poderíamos encontrar
    os indicadores da saúde conversacional.
  • 10:38 - 10:42
    E trabalhamos com um laboratório
    chamado Cortico, no MIT,
  • 10:42 - 10:49
    para propor quatro indicadores iniciais
  • 10:49 - 10:53
    que acreditamos que poderiam
    no final serem medidas no sistema.
  • 10:54 - 10:59
    O primeiro é o que chamamos
    de atenção compartilhada.
  • 10:59 - 11:02
    Ele mede quanto da conversa tem a ver
  • 11:02 - 11:06
    com o mesmo tópico ou é um disparate.
  • 11:06 - 11:09
    O segundo é chamado
    realidade compartilhada,
  • 11:09 - 11:13
    que mede qual porcentagem da conversa
    compartilha os mesmos fatos.
  • 11:14 - 11:17
    Não mede se os fatos
    são verdadeiros ou não,
  • 11:17 - 11:20
    mas se compartilhamos os mesmos fatos
    enquanto conversamos.
  • 11:20 - 11:23
    O terceiro é a receptividade:
  • 11:23 - 11:27
    quanto da conversa
    é receptiva ou civilizada,
  • 11:27 - 11:30
    ou o inverso, tóxica?
  • 11:30 - 11:33
    E o quarto é a variedade de perspectiva.
  • 11:33 - 11:37
    Assim, estamos vendo bolhas
    de filtro ou câmaras de eco,
  • 11:37 - 11:41
    ou recebendo uma variedade
    de opiniões dentro da conversa?
  • 11:41 - 11:45
    Está implícito em todos esses quatro
    o entendimento de que,
  • 11:45 - 11:49
    à medida que eles aumentam,
    a conversa fica cada vez mais saudável.
  • 11:49 - 11:54
    Então, nosso primeiro passo é ver
    se podemos medir isso on-line,
  • 11:54 - 11:55
    o que acreditamos poder.
  • 11:55 - 11:58
    Estamos num ótimo momento
    no que se refere à receptividade.
  • 11:58 - 12:03
    Temos uma pontuação de toxicidade,
    um modelo de toxicidade, em nosso sistema
  • 12:03 - 12:07
    que pode medir de fato
    a chance de a pessoa se afastar
  • 12:07 - 12:09
    de uma conversa que está tendo no Twitter,
  • 12:09 - 12:13
    por sentir que é tóxica,
    num grau bastante preciso.
  • 12:14 - 12:17
    Estamos trabalhando para medir o resto,
  • 12:17 - 12:19
    e o próximo passo é,
  • 12:19 - 12:22
    enquanto construímos soluções,
  • 12:22 - 12:25
    ver como essas medidas
    se comportam ao longo do tempo
  • 12:25 - 12:27
    e continuar a testar.
  • 12:27 - 12:31
    E nosso objetivo é garantir
    que os indicadores estejam equilibrados,
  • 12:31 - 12:35
    porque, se aumentarmos um,
    podemos diminuir outro.
  • 12:35 - 12:37
    Se aumentarmos a variedade de perspectiva,
  • 12:37 - 12:40
    podemos acabar diminuindo
    a realidade compartilhada.
  • 12:40 - 12:45
    CA: Só para pegar algumas
    das inúmeras perguntas aqui.
  • 12:45 - 12:47
    JD: Questionamento constante.
  • 12:48 - 12:51
    CA: Muitas pessoas estão intrigadas
  • 12:51 - 12:56
    em saber quão difícil é se livrar
    de nazistas no Twitter.
  • 12:56 - 12:58
    JD: (Risos)
  • 12:58 - 13:04
    Temos políticas para grupos
    extremistas violentos,
  • 13:05 - 13:09
    e a maior parte do nosso trabalho
    e dos nossos termos de serviço
  • 13:09 - 13:13
    trabalha na conduta, não no conteúdo.
  • 13:13 - 13:15
    Então, realmente focamos a conduta.
  • 13:15 - 13:18
    Conduta na utilização do serviço,
  • 13:18 - 13:22
    repetidamente ou ocasionalmente
    assediar alguém,
  • 13:22 - 13:25
    usar imagens cheias de ódio
  • 13:25 - 13:27
    que possam estar associadas ao KKK
  • 13:27 - 13:30
    ou ao Partido Nazista Americano.
  • 13:30 - 13:34
    Tudo isso são coisas
    nas quais agimos imediatamente.
  • 13:35 - 13:40
    Estamos numa situação em que esse termo
    é usado de forma bastante frouxa,
  • 13:40 - 13:46
    e não podemos aceitar simplesmente
    a palavra de uma pessoa
  • 13:46 - 13:48
    para acusar uma outra
  • 13:48 - 13:52
    como uma indicação fatual de que esta
    deva ser removida da plataforma.
  • 13:52 - 13:54
    Então muitos dos nossos modelos
    baseiam-se, primeiro:
  • 13:54 - 13:58
    essa conta está associada
    a um grupo extremista violento?
  • 13:58 - 14:00
    E, se for o caso, podemos agir.
  • 14:00 - 14:03
    E fizemos isso com o KKK
    e o Partido Nazista Americano e outros.
  • 14:03 - 14:08
    Segundo: eles estão usando
    imagens ou tendo condutas
  • 14:08 - 14:10
    que os associariam a isso também?
  • 14:10 - 14:15
    CA: Quantas pessoas trabalham
    na moderação de conteúdo, cuidando disso?
  • 14:15 - 14:16
    JD: Isso varia.
  • 14:16 - 14:18
    Queremos ser flexíveis nisso,
  • 14:18 - 14:20
    porque queremos ter certeza
    de estarmos, primeiramente,
  • 14:20 - 14:25
    construindo algoritmos em vez de apenas
    contratar um número enorme de pessoas,
  • 14:25 - 14:28
    porque precisamos ter certeza
    de que isso pode ser ajustado,
  • 14:28 - 14:32
    e não há um número de pessoas
    que se possa ajustar a isso.
  • 14:32 - 14:38
    Por isso trabalhamos muito
    na detecção proativa do insulto
  • 14:38 - 14:39
    que humanos possam rever.
  • 14:39 - 14:42
    Queremos ter uma situação
  • 14:42 - 14:46
    em que os algoritmos vasculhem
    constantemente cada tuíte,
  • 14:46 - 14:48
    trazendo os mais interessantes para o topo
  • 14:48 - 14:52
    para que humanos possam avaliar,
    para saber se devemos agir ou não,
  • 14:52 - 14:54
    com base em nossos termos de serviço.
  • 14:54 - 14:57
    WPR: Pode não haver uma quantidade
    ajustável de pessoas,
  • 14:57 - 15:00
    mas quantas vocês têm atualmente
    monitorando essas contas,
  • 15:00 - 15:03
    e como sabem que é suficiente?
  • 15:03 - 15:05
    JD: Elas são completamente flexíveis.
  • 15:05 - 15:08
    Às vezes as designamos para spam,
  • 15:08 - 15:12
    outras vezes para insulto e assédio.
  • 15:12 - 15:14
    Buscamos ser flexíveis com nosso pessoal
  • 15:14 - 15:16
    de modo a direcioná-lo
    para o que for mais necessário.
  • 15:16 - 15:18
    Às vezes, são as eleições.
  • 15:18 - 15:20
    Tivemos uma sequência
    de eleições no México,
  • 15:22 - 15:24
    uma em breve na Índia,
  • 15:24 - 15:28
    obviamente as eleições
    legislativas do ano passado,
  • 15:28 - 15:32
    então nós queremos ser flexíveis
    com nossos recursos.
  • 15:33 - 15:39
    Apenas como um exemplo, se você
    consultar nossos termos de serviço atuais
  • 15:39 - 15:41
    e rolar a página para cima,
  • 15:41 - 15:44
    e estiver se perguntando sobre o insulto
    ou assédio que acabou de sofrer
  • 15:44 - 15:48
    para saber se denunciá-lo
    é contra nossos termos de serviço,
  • 15:48 - 15:51
    a primeira coisa que vai ver
    ao abrir essa página
  • 15:51 - 15:54
    é sobre proteção
    da propriedade intelectual.
  • 15:55 - 16:00
    Ao rolar para baixo,
    vai ler sobre insulto, assédio
  • 16:00 - 16:02
    ou qualquer outra coisa
    que possa estar sofrendo.
  • 16:03 - 16:06
    Não sei bem como isso aconteceu
    ao longo da história da empresa,
  • 16:06 - 16:11
    mas colocamos isso acima
    da coisa que as pessoas querem,
  • 16:12 - 16:15
    mais informações sobre isso e como agir.
  • 16:15 - 16:21
    E a nossa forma de ordenar isso mostra
    o que acreditávamos ser importante.
  • 16:21 - 16:24
    Estamos mudando tudo isso.
  • 16:24 - 16:27
    Estamos ordenando do jeito certo,
    mas também simplificando as regras
  • 16:27 - 16:33
    para que sejam legíveis para as pessoas
    e que elas consigam de fato entender
  • 16:33 - 16:36
    quando algo é contra
    nossos termos e quando não é.
  • 16:36 - 16:38
    E estamos fazendo...
  • 16:38 - 16:44
    novamente, nosso grande foco
    é remover o peso do trabalho das vítimas.
  • 16:44 - 16:47
    E isso significa usar mais tecnologia,
  • 16:47 - 16:49
    em vez de seres humanos,
  • 16:49 - 16:52
    o que significa seres
    humanos sofrendo insulto
  • 16:52 - 16:55
    e tendo de rever esse trabalho.
  • 16:55 - 16:57
    Assim, queremos assegurar
  • 16:57 - 16:59
    que não estamos apenas
    incentivando mais trabalho
  • 16:59 - 17:02
    em torno de algo que é supernegativo
  • 17:02 - 17:05
    e queremos um bom equilíbrio
    entre a tecnologia
  • 17:05 - 17:08
    e onde os humanos podem ser criativos,
  • 17:08 - 17:11
    que é o julgamento das regras,
  • 17:11 - 17:14
    e não apenas toda a coisa mecânica
    de encontrá-los e reportá-los.
  • 17:14 - 17:15
    É isso que pensamos.
  • 17:15 - 17:18
    CA: Gostaria de explorar mais isso.
  • 17:18 - 17:21
    Adorei o que disse sobre procurar maneiras
  • 17:21 - 17:24
    para reajustar o design
    fundamental do sistema
  • 17:24 - 17:29
    para desencorajar alguns
    dos comportamento reativos e talvez,
  • 17:29 - 17:32
    para usar termos de Tristan Harris,
  • 17:32 - 17:36
    atrair o pensamento
    mais reflexivo das pessoas.
  • 17:36 - 17:38
    Como estão os avanços nisso?
  • 17:38 - 17:43
    Quais seriam as alternativas
    para aquele botão "curtir"?
  • 17:45 - 17:47
    JD: Bem, em primeiro lugar,
  • 17:47 - 17:53
    meu objetivo pessoal com o serviço
    é que acredito fundamentalmente
  • 17:53 - 17:56
    que a conversa pública é crucial.
  • 17:56 - 18:00
    O mundo inteiro está enfrentando
    problemas existenciais,
  • 18:00 - 18:02
    não apenas um estado-nação em particular,
  • 18:02 - 18:05
    de que o debate público
    global se beneficia.
  • 18:05 - 18:08
    E essa é uma das dinâmicas
    únicas do Twitter:
  • 18:08 - 18:09
    ser completamente aberto,
  • 18:09 - 18:12
    completamente público, fluído,
  • 18:12 - 18:16
    e qualquer um pode ver
    qualquer conversa e participar dela.
  • 18:16 - 18:19
    Há conversas como a mudança climática.
  • 18:19 - 18:21
    Há conversas como perda
    de vagas de emprego
  • 18:21 - 18:23
    por causa da inteligência artificial.
  • 18:23 - 18:26
    Há conversas como disparidade econômica.
  • 18:26 - 18:29
    Não importa o que qualquer
    estado-nação faça,
  • 18:29 - 18:32
    ele não será capaz de resolver
    o problema sozinho.
  • 18:32 - 18:34
    É preciso coordenação
    com o resto do mundo,
  • 18:34 - 18:37
    e é aí que acho que o Twitter
    pode desempenhar um papel.
  • 18:37 - 18:43
    A segunda coisa é que o Twitter,
    como é hoje, quando você acessa,
  • 18:43 - 18:47
    não sai sentindo necessariamente
    que aprendeu alguma coisa.
  • 18:47 - 18:49
    Algumas pessoas sentem
  • 18:49 - 18:51
    e possuem uma rede muito rica,
  • 18:51 - 18:54
    uma comunidade muito rica
    com a qual aprendem todos os dias.
  • 18:54 - 18:58
    Mas é preciso muito trabalho
    e muito tempo para construir isso.
  • 18:58 - 19:02
    Queremos levar as pessoas
    para esses tópicos e interesses
  • 19:02 - 19:03
    de forma muito mais rápida
  • 19:03 - 19:07
    e assegurar que elas encontrem algo que,
  • 19:07 - 19:09
    não importa quanto tempo
    elas passem no Twitter,
  • 19:09 - 19:11
    e não quero maximizar o tempo no Twitter,
  • 19:11 - 19:14
    quero maximizar
    o que elas realmente tiram de lá
  • 19:14 - 19:16
    e o que aprendem com isso, e...
  • 19:18 - 19:22
    CA: Bem, essa é a questão central
    que muita gente quer saber.
  • 19:22 - 19:26
    Certamente, Jack, você está
    limitado, em grande medida,
  • 19:26 - 19:30
    pelo fato de ser uma empresa pública,
    ter investidores te pressionando,
  • 19:30 - 19:33
    sua principal fonte
    de dinheiro ser a publicidade
  • 19:33 - 19:36
    e isso depende do envolvimento do usuário.
  • 19:36 - 19:41
    Você está disposto a sacrificar
    o tempo do usuário, se necessário,
  • 19:41 - 19:45
    para ir para uma conversa mais reflexiva?
  • 19:45 - 19:48
    JD: Sim, mais relevância significa
    menos tempo no serviço,
  • 19:48 - 19:50
    e isso está perfeitamente bem,
  • 19:50 - 19:53
    porque queremos ter certeza
    de que a pessoa acesse o Twitter
  • 19:53 - 19:57
    e veja algo imediatamente
    com que aprenda e divulgue.
  • 19:57 - 20:01
    Ainda podemos veicular um anúncio aí.
  • 20:01 - 20:03
    Não significa que precisa
    de mais tempo para ver mais.
  • 20:03 - 20:05
    A segunda coisa...
  • 20:05 - 20:10
    CA: Nesse objetivo, uso ativo diário,
    se você está medindo isso,
  • 20:10 - 20:13
    não significa necessariamente coisas
    que as pessoas valorizam todo dia.
  • 20:13 - 20:16
    Podem ser coisas para as quais
    as pessoas são atraídas,
  • 20:16 - 20:19
    como a mariposa para a luz,
    todo dia... somos viciados.
  • 20:19 - 20:21
    Vemos algo que nos irrita,
  • 20:21 - 20:24
    aí entramos e jogamos lenha na fogueira,
  • 20:24 - 20:28
    e o uso ativo diário aumenta,
    e há mais receita publicitária,
  • 20:28 - 20:30
    mas todos ficamos
    com mais raiva uns dos outros.
  • 20:30 - 20:32
    Como você define...
  • 20:33 - 20:37
    "uso ativo diário" parece ser realmente
    um termo perigoso para otimizar.
  • 20:37 - 20:40
    (Aplausos)
  • 20:42 - 20:43
    JD: Tomado sozinho, é,
  • 20:44 - 20:46
    mas você não me deixou
    terminar a outra métrica,
  • 20:46 - 20:50
    que é estarmos atentos a conversas
  • 20:50 - 20:52
    e cadeias de conversas.
  • 20:52 - 20:57
    Queremos incentivar
    contribuição saudável de volta à rede,
  • 20:57 - 21:02
    e acreditamos que isso possa ser feito
    participando de conversas saudáveis,
  • 21:02 - 21:07
    definidas por aqueles quatro indicadores
    que mencionei anteriormente.
  • 21:07 - 21:10
    Por isso não podemos otimizar
    apenas uma métrica.
  • 21:10 - 21:13
    Temos de equilibrar e olhar constantemente
  • 21:13 - 21:17
    o que realmente vai criar
    uma contribuição saudável para a rede
  • 21:17 - 21:19
    e uma experiência saudável
    para as pessoas.
  • 21:19 - 21:23
    No final, queremos chegar a uma métrica
    em que as pessoas nos digam:
  • 21:23 - 21:27
    "Ei, aprendi algo no Twitter,
    e estou saindo com algo de valor".
  • 21:27 - 21:31
    Esse é o nosso objetivo,
    mas vai levar algum tempo.
  • 21:31 - 21:35
    CA: Para muitos, e para mim,
    você é um enigma.
  • 21:36 - 21:41
    Isso é possivelmente injusto,
    mas acordei uma noite dessas
  • 21:41 - 21:45
    com uma imagem de como eu via
    você e a situação:
  • 21:45 - 21:51
    estamos numa viagem ótima com você
    num navio chamado "Twittanic"...
  • 21:51 - 21:53
    (Risos)
  • 21:53 - 21:57
    e há pessoas a bordo na terceira classe
  • 21:57 - 22:00
    que estão expressando desconforto,
  • 22:00 - 22:02
    e você, ao contrário
    de muitos outros comandantes,
  • 22:02 - 22:06
    está dizendo: "Bem, me contem,
    falem comigo, quero ouvir".
  • 22:06 - 22:09
    E elas dizem: "Estamos preocupados
    com o iceberg à frente".
  • 22:09 - 22:11
    Você diz: "Essa é uma questão importante,
  • 22:11 - 22:15
    e nosso navio, francamente, não foi feito
    para ser dirigido como deveria".
  • 22:15 - 22:17
    E lhe pedimos: "Por favor, faça algo".
  • 22:17 - 22:22
    Você vai à cabine de comando,
    e ficamos esperando, observando
  • 22:22 - 22:26
    e você demonstra uma calma extraordinária,
  • 22:26 - 22:30
    mas todos nós estamos do lado de fora,
    dizendo: "Jack, vire essa porra de leme!"
  • 22:30 - 22:31
    Sabe?
  • 22:31 - 22:32
    (Risos)
  • 22:32 - 22:34
    (Aplausos) (Vivas)
  • 22:40 - 22:42
    É a democracia em jogo,
  • 22:42 - 22:45
    é a nossa cultura e nosso mundo em jogo,
  • 22:45 - 22:49
    e o Twitter é incrível e molda muito.
  • 22:49 - 22:52
    Não é tão grande
    quanto outras plataformas,
  • 22:52 - 22:55
    mas as pessoas de influência
    usam-no para definir a agenda,
  • 22:55 - 23:01
    e é difícil imaginar um papel
    mais importante no mundo do que para...
  • 23:02 - 23:05
    quero dizer, você está fazendo um trabalho
    brilhante de ouvir as pessoas, Jack,
  • 23:05 - 23:10
    mas é preciso ressaltar a urgência
    e trabalhar nisso.
  • 23:10 - 23:12
    Você pretende fazer isso?
  • 23:13 - 23:17
    JD: Sim, e estamos
    nos movendo significativamente.
  • 23:17 - 23:20
    Tem havido algumas dinâmicas
    na história do Twitter.
  • 23:20 - 23:22
    Uma, quando voltei para a empresa,
  • 23:23 - 23:29
    estávamos num estado terrível
    em termos do nosso futuro,
  • 23:30 - 23:34
    não apenas como as pessoas
    estavam usando a plataforma,
  • 23:34 - 23:36
    mas nossa narrativa corporativa também.
  • 23:36 - 23:40
    Tivemos de consertar muito da fundação,
  • 23:40 - 23:42
    revirar a empresa,
  • 23:42 - 23:45
    passar por duas demissões
    em massa malucas,
  • 23:45 - 23:49
    porque ficamos grandes demais
    para o que estávamos fazendo,
  • 23:49 - 23:51
    e concentramos toda nossa energia
  • 23:51 - 23:54
    no conceito de servir à conversa pública.
  • 23:54 - 23:56
    E isso exigiu muito trabalho.
  • 23:56 - 23:58
    E, quando mergulhamos nisso,
  • 23:58 - 24:02
    percebemos alguns dos problemas
    com os fundamentos.
  • 24:02 - 24:05
    Poderíamos fazer um monte
    de coisas superficiais
  • 24:05 - 24:09
    para abordar o que você está falando,
    mas precisamos de mudanças duradouras,
  • 24:09 - 24:11
    e isso significa ir mais fundo
  • 24:11 - 24:15
    e prestar atenção
    ao que começamos há 13 anos,
  • 24:15 - 24:18
    questionando de fato
  • 24:18 - 24:20
    como o sistema e a estrutura funcionam
  • 24:20 - 24:24
    e o que é necessário para o mundo hoje,
  • 24:24 - 24:28
    dada a rapidez como tudo está se movendo
    e as pessoas o estão usando.
  • 24:28 - 24:35
    Trabalhamos o mais rápido possível,
    mas rapidez não vai resolver.
  • 24:35 - 24:37
    É o foco, é a priorização,
  • 24:37 - 24:40
    é entender os fundamentos da rede
  • 24:40 - 24:43
    e construir uma estrutura que se ajuste,
  • 24:43 - 24:46
    que seja resiliente à mudança,
  • 24:47 - 24:51
    e ser abertos e transparentes
    sobre onde estamos
  • 24:51 - 24:54
    para que possamos
    continuar a merecer confiança.
  • 24:54 - 24:57
    Por isso estou orgulhoso
    das estruturas que estabelecemos.
  • 24:57 - 25:00
    Estou orgulhoso da nossa direção.
  • 25:01 - 25:04
    Obviamente podemos nos mover mais rápido,
  • 25:04 - 25:05
    mas isso demandaria
  • 25:05 - 25:09
    simplesmente evitar um monte de coisas
    estúpidas que fazíamos no passado.
  • 25:09 - 25:14
    CA: Suspeito que há muitas pessoas aqui
    que, se tivessem a chance,
  • 25:14 - 25:18
    adorariam ajudá-lo
    nessa sua agenda de mudança
  • 25:18 - 25:20
    e, não sei a Whitney...
  • 25:20 - 25:23
    Jack, obrigado por vir aqui
    e falar tão abertamente.
  • 25:23 - 25:24
    Foi preciso coragem.
  • 25:24 - 25:28
    Muito obrigado pelo que você falou
    e boa sorte com sua missão.
  • 25:28 - 25:30
    JD: Muito obrigado.
    Obrigado por me receber.
  • 25:30 - 25:33
    (Aplausos)
  • 25:33 - 25:34
    Obrigado.
Title:
Como o Twitter precisa mudar
Speaker:
Jack Dorsey
Description:

O Twitter pode ser salvo? Em uma abrangente conversa com Chris Anderson e Whitney Pennington Rodgers, do TED, Jack Dorsey, CEO do Twitter, discute o futuro da plataforma, reconhecendo problemas com o assédio e a moderação e propondo algumas mudanças fundamentais que ele espera que encorajem conversas saudáveis ​​e respeitosas. "Estamos entregando de fato, todo dia, algo que as pessoas valorizam?", pergunta Dorsey.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
25:47

Portuguese, Brazilian subtitles

Revisions