Como o Twitter precisa mudar
-
0:01 - 0:03Chris Anderson: Qual é
a sua preocupação atual? -
0:03 - 0:06Você tem sido bastante aberto
sobre muitos problemas do Twitter. -
0:06 - 0:11Qual seria a sua maior preocupação
sobre como as coisas estão hoje? -
0:11 - 0:14Jack Dorsey: Neste momento,
é a saúde da conversa. -
0:14 - 0:18Nosso propósito é servir
à conversa pública, -
0:20 - 0:23e temos visto muitos ataques nela.
-
0:23 - 0:28Temos visto insulto, assédio, manipulação,
-
0:29 - 0:33automação, coordenação humana
e desinformação. -
0:34 - 0:39Todas essas são dinâmicas
que não esperávamos 13 anos atrás, -
0:39 - 0:41quando começamos a empresa.
-
0:42 - 0:45Mas agora vemos isso em grande escala,
-
0:45 - 0:50e o que mais me preocupa é
a nossa capacidade de resolver isso -
0:50 - 0:53de forma sistêmica, em grande escala,
-
0:54 - 0:58que tenha uma compreensão rigorosa
-
0:58 - 1:00de como estamos agindo,
-
1:00 - 1:03uma compreensão transparente
de como estamos agindo -
1:03 - 1:06e um processo rigoroso de contestação
para quando errarmos, -
1:06 - 1:08porque vamos errar.
-
1:09 - 1:12Whitney Pennington Rodgers:
Que bom ouvir que isso te preocupa, -
1:12 - 1:15pois muito tem sido escrito sobre pessoas
-
1:15 - 1:18que sentem que tem sido insultadas
e assediadas no Twitter, -
1:18 - 1:23sobretudo mulheres,
mulheres de cor e negras. -
1:24 - 1:28A Anistia Internacional divulgou
um relatório há alguns meses -
1:28 - 1:33apontando um subgrupo de mulheres
negras usuárias ativas do Twitter, -
1:33 - 1:36que, de cada dez tuítes que recebiam,
-
1:36 - 1:38um, em média, era uma forma de assédio.
-
1:38 - 1:42E, quando pensamos em saúde
para a comunidade do Twitter, -
1:42 - 1:46estou interessada em ouvir
"saúde para todos", -
1:46 - 1:49mas especificamente como você
tenta fazer do Twitter um espaço seguro -
1:49 - 1:54para esse subgrupo de mulheres,
mulheres de cor e negras? -
1:54 - 1:55JD: Verdade.
-
1:55 - 1:59É uma situação bem terrível
quando se acessa um serviço -
1:59 - 2:03em que se busca, idealmente,
aprender algo sobre o mundo, -
2:03 - 2:09e se passa a maior parte do tempo
denunciando e recebendo insultos, -
2:09 - 2:11sofrendo assédio.
-
2:11 - 2:13Então, nós...
-
2:14 - 2:18estamos procurando
mais profundamente os incentivos -
2:18 - 2:22que a plataforma e o serviço
propiciam naturalmente. -
2:22 - 2:26Atualmente, a dinâmica
do sistema torna superfácil -
2:26 - 2:31assediar e insultar os outros
através do serviço, -
2:31 - 2:34e, infelizmente, boa parte
do nosso sistema no passado -
2:34 - 2:39trabalhou inteiramente com base
em pessoas denunciando assédio e insultos. -
2:40 - 2:45Por isso, em meados do ano passado,
decidimos que íamos aplicar -
2:45 - 2:49muito mais aprendizado de máquina,
e aprendizado profundo no problema, -
2:49 - 2:53e tentar ser muito mais proativos
quando o insulto está acontecendo, -
2:53 - 2:57para que possamos tirar
completamente o fardo da vítima. -
2:57 - 3:00E recentemente fizemos alguns progressos:
-
3:00 - 3:06cerca de 38% dos tuítes insultantes
agora são identificados proativamente -
3:06 - 3:08por algoritmos de aprendizado de máquina
-
3:08 - 3:10para que as pessoas
não precisem denunciá-los. -
3:10 - 3:14Mas aqueles que são identificados
ainda são revisados por humanos, -
3:14 - 3:19por isso não removemos conteúdo
ou contas sem a revisão humana. -
3:19 - 3:22Mas isso era 0% apenas um ano atrás.
-
3:22 - 3:24Ou seja, esse 0% representa
-
3:24 - 3:28que toda pessoa que era insultada
tinha de reportá-lo, -
3:28 - 3:31o que significava muito trabalho
para elas e para nós, -
3:31 - 3:34algo completamente injusto.
-
3:35 - 3:38A outra coisa que estamos fazendo
é assegurar que, como empresa, -
3:38 - 3:42tenhamos representação de todas
as comunidades que tentamos atender. -
3:42 - 3:44Não podemos construir
um negócio bem-sucedido -
3:44 - 3:47sem que tenhamos conosco
uma diversidade de perspectivas -
3:47 - 3:51que sintam de fato
esses problemas todos os dias. -
3:51 - 3:57E isso não é só com a equipe operacional,
mas também na liderança da empresa. -
3:57 - 3:59Precisamos continuar a construir empatia
-
3:59 - 4:06pelo que as pessoas estão experimentando
e lhes dar melhores ferramentas para agir -
4:06 - 4:10e também dar aos nossos clientes
uma abordagem melhor e mais fácil -
4:10 - 4:13para lidar com algumas
das coisas que estão vendo. -
4:13 - 4:16Assim, muito do que estamos fazendo
tem a ver com tecnologia, -
4:16 - 4:20mas também consideramos
os incentivos no serviço: -
4:20 - 4:25o que o Twitter incentiva a pessoa a fazer
quando ela o acessa pela primeira vez? -
4:25 - 4:27No passado,
-
4:29 - 4:34ele incentivou muito disparate,
muito comportamento de massa, -
4:34 - 4:37muito assédio em grupo.
-
4:37 - 4:40Temos de olhar muito mais profundamente
alguns dos fundamentos -
4:40 - 4:43do que o serviço está fazendo
para criar as maiores mudanças. -
4:43 - 4:46Podemos fazer várias pequenas
mudanças com a tecnologia, -
4:46 - 4:48como acabei de descrever,
-
4:48 - 4:52mas, em última análise, temos de observar
profundamente a dinâmica da própria rede, -
4:52 - 4:53e é o que estamos fazendo hoje.
-
4:53 - 4:55CA: Mas o que na sua opinião
-
4:55 - 4:59você teria condições de alterar
-
4:59 - 5:02que fundamentalmente
mudaria o comportamento? -
5:03 - 5:10JD: Bem, nós começamos o serviço
com o conceito de seguir uma conta, -
5:10 - 5:12como um exemplo,
-
5:12 - 5:16e não acredito que seja por isso
que as pessoas acessem o Twitter. -
5:16 - 5:21Acredito que o Twitter seja melhor
como uma rede baseada em interesses. -
5:21 - 5:25As pessoas o acessam
devido a um determinado interesse. -
5:25 - 5:28Elas têm muito trabalho para encontrar
e acompanhar as contas relacionadas -
5:28 - 5:30a esses interesses.
-
5:30 - 5:34Poderíamos, em vez disso,
permitir que seguissem um interesse, -
5:34 - 5:37seguissem uma hashtag,
uma tendência, uma comunidade, -
5:39 - 5:42o que nos dá a oportunidade
de mostrar todas as contas, -
5:42 - 5:46todos os tópicos, os momentos,
todas as hashtags -
5:46 - 5:50que estão associados àquele
determinado tópico e interesse, -
5:50 - 5:54o que realmente abre
a perspectiva que a pessoa vê. -
5:54 - 5:56Mas essa é uma enorme mudança fundamental,
-
5:56 - 6:00para desviar toda a rede
do viés de apenas uma conta -
6:00 - 6:03para um viés de tópicos e interesses.
-
6:03 - 6:06CA: Mas não é verdade
-
6:07 - 6:11que o fato de haver tanto conteúdo lá
-
6:11 - 6:15é o resultado de se colocar
milhões de pessoas do mundo todo -
6:15 - 6:18num tipo de competição gladiatorial
umas com as outras -
6:18 - 6:20por seguidores, por atenção?
-
6:20 - 6:24Do ponto de vista daqueles
que apenas leem o Twitter, -
6:24 - 6:25isso não é problema,
-
6:25 - 6:28mas, para quem cria tuítes, eles dizem:
-
6:28 - 6:32"Eu gostaria de ter mais curtidas,
seguidores, retuítes". -
6:32 - 6:34Assim, elas constantemente experimentam,
-
6:34 - 6:36tentando encontrar um jeito de fazer isso.
-
6:36 - 6:40E parece que todos descobriram
que o melhor jeito é sendo, -
6:40 - 6:44de alguma forma, provocativo
-
6:44 - 6:47detestável, eloquentemente detestável...
-
6:47 - 6:50insultos eloquentes
são um sonho no Twitter -
6:50 - 6:53e a pessoa se avulta rapidamente,
-
6:53 - 6:57retroalimentando esse processo
de estimular ultrajes. -
6:57 - 7:00Como você neutraliza isso?
-
7:01 - 7:04JD: Sim, acho que você foi ao ponto,
-
7:04 - 7:05mas isso remonta aos incentivos.
-
7:06 - 7:08Uma das escolhas que fizemos no início
-
7:08 - 7:13foi mostrar o número de seguidores.
-
7:13 - 7:16Decidimos que esse número
deveria ser grande e ambicioso, -
7:16 - 7:20e qualquer coisa numa página
grande e ambiciosa teria importância, -
7:20 - 7:22e a pessoa buscaria atrair essas coisas.
-
7:22 - 7:25Foi uma decisão acertada na época?
Provavelmente não. -
7:25 - 7:27Se tivesse de recomeçar o Twitter,
-
7:27 - 7:29não enfatizaria tanto
o número de seguidores, -
7:29 - 7:32nem o número de curtidas.
-
7:32 - 7:35Pra começar, acho
que nem criaria as curtidas, -
7:35 - 7:38porque elas não estimulam
-
7:38 - 7:41aquilo que agora acreditamos
ser o mais importante, -
7:41 - 7:44que é a contribuição saudável para a rede,
-
7:44 - 7:47conversa dentro da rede,
-
7:47 - 7:49participação dentro da conversa,
-
7:49 - 7:52e aprender algo com essa conversa.
-
7:52 - 7:54Não consideramos essas coisas há 13 anos,
-
7:54 - 7:57mas hoje acreditamos que sejam
extremamente importantes. -
7:57 - 8:00Então temos de ver como mostramos
a conta do seguidor, -
8:00 - 8:04a contagem de retuítes,
como mostramos as curtidas, -
8:04 - 8:06e nos perguntar seriamente:
-
8:06 - 8:09esse é realmente o número que queremos
que as pessoas alcancem? -
8:09 - 8:12É isso o que a pessoa,
quando abre o Twitter, -
8:12 - 8:14pensa: "É isso o que eu preciso aumentar?"
-
8:14 - 8:16E não acredito que seja o caso agora.
-
8:16 - 8:19(Aplausos)
-
8:19 - 8:24WPR: Vamos ver alguns dos tuítes chegando
com perguntas da plateia também. -
8:24 - 8:26CA: Vejamos o que estão perguntando.
-
8:26 - 8:29Umas das coisas incríveis sobre o Twitter
-
8:29 - 8:32é como podemos usá-lo
como inteligência coletiva, -
8:32 - 8:36sabe, mais conhecimento, mais perguntas,
-
8:36 - 8:38mais opiniões do que se pode imaginar
-
8:38 - 8:41e, às vezes, muitos deles
são realmente saudáveis. -
8:42 - 8:46WPR: Uma das perguntas aqui é:
"Qual o plano do Twitter para combater -
8:46 - 8:48a ingerência estrangeira
nas eleições dos EUA em 2020?" -
8:48 - 8:53Acho que essa é uma questão
que vemos na internet em geral, -
8:53 - 8:56pois há muita atividade maliciosa
automatizada acontecendo. -
8:56 - 9:02E no Twitter, por exemplo,
temos um trabalho -
9:02 - 9:05dos nossos amigos no Zignal Labs,
-
9:05 - 9:09e talvez possamos pegar um exemplo
para demonstrar o que estou falando, -
9:09 - 9:12no qual existem esses "bots",
-
9:13 - 9:17ou atividade de conta automatizada
coordenada maliciosa, -
9:17 - 9:20sendo usados para influenciar,
por exemplo, as eleições. -
9:20 - 9:24E temos um exemplo do Zignal,
que eles compartilharam conosco, -
9:24 - 9:26usando os dados que eles têm do Twitter,
-
9:26 - 9:28e podemos ver que, nesse caso,
-
9:28 - 9:33o branco representa cada ponto
como uma conta de humano. -
9:33 - 9:36Quanto mais rosa,
mais automatizada é a atividade -
9:36 - 9:42e dá pra ver como existem
alguns humanos interagindo com bots. -
9:42 - 9:46Trata-se aqui da eleição em Israel,
-
9:46 - 9:49em que se espalhou desinformação
sobre Benny Gantz, -
9:49 - 9:53e, no final, essa foi uma eleição
-
9:53 - 9:56na qual Netanyahu ganhou
por uma pequena margem, -
9:56 - 9:59e pode ter sido influenciado por isso.
-
9:59 - 10:01E quando pensamos
nisso acontecendo no Twitter, -
10:01 - 10:03o que estão fazendo especificamente
-
10:03 - 10:07para evitar que desinformação
assim se espalhe dessa maneira, -
10:07 - 10:12influenciando as pessoas em maneiras
que podem afetar a democracia? -
10:12 - 10:13JD: Só para voltar um pouco.
-
10:13 - 10:16Nós nos perguntamos:
-
10:16 - 10:20podemos realmente medir
a saúde de uma conversa, -
10:20 - 10:22e o que isso significa?
-
10:22 - 10:25E da mesma maneira
que existem indicadores -
10:25 - 10:28para medir a saúde dos seres humanos,
-
10:28 - 10:32como temperatura, as faces coradas,
-
10:33 - 10:38acreditamos que poderíamos encontrar
os indicadores da saúde conversacional. -
10:38 - 10:42E trabalhamos com um laboratório
chamado Cortico, no MIT, -
10:42 - 10:49para propor quatro indicadores iniciais
-
10:49 - 10:53que acreditamos que poderiam
no final serem medidas no sistema. -
10:54 - 10:59O primeiro é o que chamamos
de atenção compartilhada. -
10:59 - 11:02Ele mede quanto da conversa tem a ver
-
11:02 - 11:06com o mesmo tópico ou é um disparate.
-
11:06 - 11:09O segundo é chamado
realidade compartilhada, -
11:09 - 11:13que mede qual porcentagem da conversa
compartilha os mesmos fatos. -
11:14 - 11:17Não mede se os fatos
são verdadeiros ou não, -
11:17 - 11:20mas se compartilhamos os mesmos fatos
enquanto conversamos. -
11:20 - 11:23O terceiro é a receptividade:
-
11:23 - 11:27quanto da conversa
é receptiva ou civilizada, -
11:27 - 11:30ou o inverso, tóxica?
-
11:30 - 11:33E o quarto é a variedade de perspectiva.
-
11:33 - 11:37Assim, estamos vendo bolhas
de filtro ou câmaras de eco, -
11:37 - 11:41ou recebendo uma variedade
de opiniões dentro da conversa? -
11:41 - 11:45Está implícito em todos esses quatro
o entendimento de que, -
11:45 - 11:49à medida que eles aumentam,
a conversa fica cada vez mais saudável. -
11:49 - 11:54Então, nosso primeiro passo é ver
se podemos medir isso on-line, -
11:54 - 11:55o que acreditamos poder.
-
11:55 - 11:58Estamos num ótimo momento
no que se refere à receptividade. -
11:58 - 12:03Temos uma pontuação de toxicidade,
um modelo de toxicidade, em nosso sistema -
12:03 - 12:07que pode medir de fato
a chance de a pessoa se afastar -
12:07 - 12:09de uma conversa que está tendo no Twitter,
-
12:09 - 12:13por sentir que é tóxica,
num grau bastante preciso. -
12:14 - 12:17Estamos trabalhando para medir o resto,
-
12:17 - 12:19e o próximo passo é,
-
12:19 - 12:22enquanto construímos soluções,
-
12:22 - 12:25ver como essas medidas
se comportam ao longo do tempo -
12:25 - 12:27e continuar a testar.
-
12:27 - 12:31E nosso objetivo é garantir
que os indicadores estejam equilibrados, -
12:31 - 12:35porque, se aumentarmos um,
podemos diminuir outro. -
12:35 - 12:37Se aumentarmos a variedade de perspectiva,
-
12:37 - 12:40podemos acabar diminuindo
a realidade compartilhada. -
12:40 - 12:45CA: Só para pegar algumas
das inúmeras perguntas aqui. -
12:45 - 12:47JD: Questionamento constante.
-
12:48 - 12:51CA: Muitas pessoas estão intrigadas
-
12:51 - 12:56em saber quão difícil é se livrar
de nazistas no Twitter. -
12:56 - 12:58JD: (Risos)
-
12:58 - 13:04Temos políticas para grupos
extremistas violentos, -
13:05 - 13:09e a maior parte do nosso trabalho
e dos nossos termos de serviço -
13:09 - 13:13trabalha na conduta, não no conteúdo.
-
13:13 - 13:15Então, realmente focamos a conduta.
-
13:15 - 13:18Conduta na utilização do serviço,
-
13:18 - 13:22repetidamente ou ocasionalmente
assediar alguém, -
13:22 - 13:25usar imagens cheias de ódio
-
13:25 - 13:27que possam estar associadas ao KKK
-
13:27 - 13:30ou ao Partido Nazista Americano.
-
13:30 - 13:34Tudo isso são coisas
nas quais agimos imediatamente. -
13:35 - 13:40Estamos numa situação em que esse termo
é usado de forma bastante frouxa, -
13:40 - 13:46e não podemos aceitar simplesmente
a palavra de uma pessoa -
13:46 - 13:48para acusar uma outra
-
13:48 - 13:52como uma indicação fatual de que esta
deva ser removida da plataforma. -
13:52 - 13:54Então muitos dos nossos modelos
baseiam-se, primeiro: -
13:54 - 13:58essa conta está associada
a um grupo extremista violento? -
13:58 - 14:00E, se for o caso, podemos agir.
-
14:00 - 14:03E fizemos isso com o KKK
e o Partido Nazista Americano e outros. -
14:03 - 14:08Segundo: eles estão usando
imagens ou tendo condutas -
14:08 - 14:10que os associariam a isso também?
-
14:10 - 14:15CA: Quantas pessoas trabalham
na moderação de conteúdo, cuidando disso? -
14:15 - 14:16JD: Isso varia.
-
14:16 - 14:18Queremos ser flexíveis nisso,
-
14:18 - 14:20porque queremos ter certeza
de estarmos, primeiramente, -
14:20 - 14:25construindo algoritmos em vez de apenas
contratar um número enorme de pessoas, -
14:25 - 14:28porque precisamos ter certeza
de que isso pode ser ajustado, -
14:28 - 14:32e não há um número de pessoas
que se possa ajustar a isso. -
14:32 - 14:38Por isso trabalhamos muito
na detecção proativa do insulto -
14:38 - 14:39que humanos possam rever.
-
14:39 - 14:42Queremos ter uma situação
-
14:42 - 14:46em que os algoritmos vasculhem
constantemente cada tuíte, -
14:46 - 14:48trazendo os mais interessantes para o topo
-
14:48 - 14:52para que humanos possam avaliar,
para saber se devemos agir ou não, -
14:52 - 14:54com base em nossos termos de serviço.
-
14:54 - 14:57WPR: Pode não haver uma quantidade
ajustável de pessoas, -
14:57 - 15:00mas quantas vocês têm atualmente
monitorando essas contas, -
15:00 - 15:03e como sabem que é suficiente?
-
15:03 - 15:05JD: Elas são completamente flexíveis.
-
15:05 - 15:08Às vezes as designamos para spam,
-
15:08 - 15:12outras vezes para insulto e assédio.
-
15:12 - 15:14Buscamos ser flexíveis com nosso pessoal
-
15:14 - 15:16de modo a direcioná-lo
para o que for mais necessário. -
15:16 - 15:18Às vezes, são as eleições.
-
15:18 - 15:20Tivemos uma sequência
de eleições no México, -
15:22 - 15:24uma em breve na Índia,
-
15:24 - 15:28obviamente as eleições
legislativas do ano passado, -
15:28 - 15:32então nós queremos ser flexíveis
com nossos recursos. -
15:33 - 15:39Apenas como um exemplo, se você
consultar nossos termos de serviço atuais -
15:39 - 15:41e rolar a página para cima,
-
15:41 - 15:44e estiver se perguntando sobre o insulto
ou assédio que acabou de sofrer -
15:44 - 15:48para saber se denunciá-lo
é contra nossos termos de serviço, -
15:48 - 15:51a primeira coisa que vai ver
ao abrir essa página -
15:51 - 15:54é sobre proteção
da propriedade intelectual. -
15:55 - 16:00Ao rolar para baixo,
vai ler sobre insulto, assédio -
16:00 - 16:02ou qualquer outra coisa
que possa estar sofrendo. -
16:03 - 16:06Não sei bem como isso aconteceu
ao longo da história da empresa, -
16:06 - 16:11mas colocamos isso acima
da coisa que as pessoas querem, -
16:12 - 16:15mais informações sobre isso e como agir.
-
16:15 - 16:21E a nossa forma de ordenar isso mostra
o que acreditávamos ser importante. -
16:21 - 16:24Estamos mudando tudo isso.
-
16:24 - 16:27Estamos ordenando do jeito certo,
mas também simplificando as regras -
16:27 - 16:33para que sejam legíveis para as pessoas
e que elas consigam de fato entender -
16:33 - 16:36quando algo é contra
nossos termos e quando não é. -
16:36 - 16:38E estamos fazendo...
-
16:38 - 16:44novamente, nosso grande foco
é remover o peso do trabalho das vítimas. -
16:44 - 16:47E isso significa usar mais tecnologia,
-
16:47 - 16:49em vez de seres humanos,
-
16:49 - 16:52o que significa seres
humanos sofrendo insulto -
16:52 - 16:55e tendo de rever esse trabalho.
-
16:55 - 16:57Assim, queremos assegurar
-
16:57 - 16:59que não estamos apenas
incentivando mais trabalho -
16:59 - 17:02em torno de algo que é supernegativo
-
17:02 - 17:05e queremos um bom equilíbrio
entre a tecnologia -
17:05 - 17:08e onde os humanos podem ser criativos,
-
17:08 - 17:11que é o julgamento das regras,
-
17:11 - 17:14e não apenas toda a coisa mecânica
de encontrá-los e reportá-los. -
17:14 - 17:15É isso que pensamos.
-
17:15 - 17:18CA: Gostaria de explorar mais isso.
-
17:18 - 17:21Adorei o que disse sobre procurar maneiras
-
17:21 - 17:24para reajustar o design
fundamental do sistema -
17:24 - 17:29para desencorajar alguns
dos comportamento reativos e talvez, -
17:29 - 17:32para usar termos de Tristan Harris,
-
17:32 - 17:36atrair o pensamento
mais reflexivo das pessoas. -
17:36 - 17:38Como estão os avanços nisso?
-
17:38 - 17:43Quais seriam as alternativas
para aquele botão "curtir"? -
17:45 - 17:47JD: Bem, em primeiro lugar,
-
17:47 - 17:53meu objetivo pessoal com o serviço
é que acredito fundamentalmente -
17:53 - 17:56que a conversa pública é crucial.
-
17:56 - 18:00O mundo inteiro está enfrentando
problemas existenciais, -
18:00 - 18:02não apenas um estado-nação em particular,
-
18:02 - 18:05de que o debate público
global se beneficia. -
18:05 - 18:08E essa é uma das dinâmicas
únicas do Twitter: -
18:08 - 18:09ser completamente aberto,
-
18:09 - 18:12completamente público, fluído,
-
18:12 - 18:16e qualquer um pode ver
qualquer conversa e participar dela. -
18:16 - 18:19Há conversas como a mudança climática.
-
18:19 - 18:21Há conversas como perda
de vagas de emprego -
18:21 - 18:23por causa da inteligência artificial.
-
18:23 - 18:26Há conversas como disparidade econômica.
-
18:26 - 18:29Não importa o que qualquer
estado-nação faça, -
18:29 - 18:32ele não será capaz de resolver
o problema sozinho. -
18:32 - 18:34É preciso coordenação
com o resto do mundo, -
18:34 - 18:37e é aí que acho que o Twitter
pode desempenhar um papel. -
18:37 - 18:43A segunda coisa é que o Twitter,
como é hoje, quando você acessa, -
18:43 - 18:47não sai sentindo necessariamente
que aprendeu alguma coisa. -
18:47 - 18:49Algumas pessoas sentem
-
18:49 - 18:51e possuem uma rede muito rica,
-
18:51 - 18:54uma comunidade muito rica
com a qual aprendem todos os dias. -
18:54 - 18:58Mas é preciso muito trabalho
e muito tempo para construir isso. -
18:58 - 19:02Queremos levar as pessoas
para esses tópicos e interesses -
19:02 - 19:03de forma muito mais rápida
-
19:03 - 19:07e assegurar que elas encontrem algo que,
-
19:07 - 19:09não importa quanto tempo
elas passem no Twitter, -
19:09 - 19:11e não quero maximizar o tempo no Twitter,
-
19:11 - 19:14quero maximizar
o que elas realmente tiram de lá -
19:14 - 19:16e o que aprendem com isso, e...
-
19:18 - 19:22CA: Bem, essa é a questão central
que muita gente quer saber. -
19:22 - 19:26Certamente, Jack, você está
limitado, em grande medida, -
19:26 - 19:30pelo fato de ser uma empresa pública,
ter investidores te pressionando, -
19:30 - 19:33sua principal fonte
de dinheiro ser a publicidade -
19:33 - 19:36e isso depende do envolvimento do usuário.
-
19:36 - 19:41Você está disposto a sacrificar
o tempo do usuário, se necessário, -
19:41 - 19:45para ir para uma conversa mais reflexiva?
-
19:45 - 19:48JD: Sim, mais relevância significa
menos tempo no serviço, -
19:48 - 19:50e isso está perfeitamente bem,
-
19:50 - 19:53porque queremos ter certeza
de que a pessoa acesse o Twitter -
19:53 - 19:57e veja algo imediatamente
com que aprenda e divulgue. -
19:57 - 20:01Ainda podemos veicular um anúncio aí.
-
20:01 - 20:03Não significa que precisa
de mais tempo para ver mais. -
20:03 - 20:05A segunda coisa...
-
20:05 - 20:10CA: Nesse objetivo, uso ativo diário,
se você está medindo isso, -
20:10 - 20:13não significa necessariamente coisas
que as pessoas valorizam todo dia. -
20:13 - 20:16Podem ser coisas para as quais
as pessoas são atraídas, -
20:16 - 20:19como a mariposa para a luz,
todo dia... somos viciados. -
20:19 - 20:21Vemos algo que nos irrita,
-
20:21 - 20:24aí entramos e jogamos lenha na fogueira,
-
20:24 - 20:28e o uso ativo diário aumenta,
e há mais receita publicitária, -
20:28 - 20:30mas todos ficamos
com mais raiva uns dos outros. -
20:30 - 20:32Como você define...
-
20:33 - 20:37"uso ativo diário" parece ser realmente
um termo perigoso para otimizar. -
20:37 - 20:40(Aplausos)
-
20:42 - 20:43JD: Tomado sozinho, é,
-
20:44 - 20:46mas você não me deixou
terminar a outra métrica, -
20:46 - 20:50que é estarmos atentos a conversas
-
20:50 - 20:52e cadeias de conversas.
-
20:52 - 20:57Queremos incentivar
contribuição saudável de volta à rede, -
20:57 - 21:02e acreditamos que isso possa ser feito
participando de conversas saudáveis, -
21:02 - 21:07definidas por aqueles quatro indicadores
que mencionei anteriormente. -
21:07 - 21:10Por isso não podemos otimizar
apenas uma métrica. -
21:10 - 21:13Temos de equilibrar e olhar constantemente
-
21:13 - 21:17o que realmente vai criar
uma contribuição saudável para a rede -
21:17 - 21:19e uma experiência saudável
para as pessoas. -
21:19 - 21:23No final, queremos chegar a uma métrica
em que as pessoas nos digam: -
21:23 - 21:27"Ei, aprendi algo no Twitter,
e estou saindo com algo de valor". -
21:27 - 21:31Esse é o nosso objetivo,
mas vai levar algum tempo. -
21:31 - 21:35CA: Para muitos, e para mim,
você é um enigma. -
21:36 - 21:41Isso é possivelmente injusto,
mas acordei uma noite dessas -
21:41 - 21:45com uma imagem de como eu via
você e a situação: -
21:45 - 21:51estamos numa viagem ótima com você
num navio chamado "Twittanic"... -
21:51 - 21:53(Risos)
-
21:53 - 21:57e há pessoas a bordo na terceira classe
-
21:57 - 22:00que estão expressando desconforto,
-
22:00 - 22:02e você, ao contrário
de muitos outros comandantes, -
22:02 - 22:06está dizendo: "Bem, me contem,
falem comigo, quero ouvir". -
22:06 - 22:09E elas dizem: "Estamos preocupados
com o iceberg à frente". -
22:09 - 22:11Você diz: "Essa é uma questão importante,
-
22:11 - 22:15e nosso navio, francamente, não foi feito
para ser dirigido como deveria". -
22:15 - 22:17E lhe pedimos: "Por favor, faça algo".
-
22:17 - 22:22Você vai à cabine de comando,
e ficamos esperando, observando -
22:22 - 22:26e você demonstra uma calma extraordinária,
-
22:26 - 22:30mas todos nós estamos do lado de fora,
dizendo: "Jack, vire essa porra de leme!" -
22:30 - 22:31Sabe?
-
22:31 - 22:32(Risos)
-
22:32 - 22:34(Aplausos) (Vivas)
-
22:40 - 22:42É a democracia em jogo,
-
22:42 - 22:45é a nossa cultura e nosso mundo em jogo,
-
22:45 - 22:49e o Twitter é incrível e molda muito.
-
22:49 - 22:52Não é tão grande
quanto outras plataformas, -
22:52 - 22:55mas as pessoas de influência
usam-no para definir a agenda, -
22:55 - 23:01e é difícil imaginar um papel
mais importante no mundo do que para... -
23:02 - 23:05quero dizer, você está fazendo um trabalho
brilhante de ouvir as pessoas, Jack, -
23:05 - 23:10mas é preciso ressaltar a urgência
e trabalhar nisso. -
23:10 - 23:12Você pretende fazer isso?
-
23:13 - 23:17JD: Sim, e estamos
nos movendo significativamente. -
23:17 - 23:20Tem havido algumas dinâmicas
na história do Twitter. -
23:20 - 23:22Uma, quando voltei para a empresa,
-
23:23 - 23:29estávamos num estado terrível
em termos do nosso futuro, -
23:30 - 23:34não apenas como as pessoas
estavam usando a plataforma, -
23:34 - 23:36mas nossa narrativa corporativa também.
-
23:36 - 23:40Tivemos de consertar muito da fundação,
-
23:40 - 23:42revirar a empresa,
-
23:42 - 23:45passar por duas demissões
em massa malucas, -
23:45 - 23:49porque ficamos grandes demais
para o que estávamos fazendo, -
23:49 - 23:51e concentramos toda nossa energia
-
23:51 - 23:54no conceito de servir à conversa pública.
-
23:54 - 23:56E isso exigiu muito trabalho.
-
23:56 - 23:58E, quando mergulhamos nisso,
-
23:58 - 24:02percebemos alguns dos problemas
com os fundamentos. -
24:02 - 24:05Poderíamos fazer um monte
de coisas superficiais -
24:05 - 24:09para abordar o que você está falando,
mas precisamos de mudanças duradouras, -
24:09 - 24:11e isso significa ir mais fundo
-
24:11 - 24:15e prestar atenção
ao que começamos há 13 anos, -
24:15 - 24:18questionando de fato
-
24:18 - 24:20como o sistema e a estrutura funcionam
-
24:20 - 24:24e o que é necessário para o mundo hoje,
-
24:24 - 24:28dada a rapidez como tudo está se movendo
e as pessoas o estão usando. -
24:28 - 24:35Trabalhamos o mais rápido possível,
mas rapidez não vai resolver. -
24:35 - 24:37É o foco, é a priorização,
-
24:37 - 24:40é entender os fundamentos da rede
-
24:40 - 24:43e construir uma estrutura que se ajuste,
-
24:43 - 24:46que seja resiliente à mudança,
-
24:47 - 24:51e ser abertos e transparentes
sobre onde estamos -
24:51 - 24:54para que possamos
continuar a merecer confiança. -
24:54 - 24:57Por isso estou orgulhoso
das estruturas que estabelecemos. -
24:57 - 25:00Estou orgulhoso da nossa direção.
-
25:01 - 25:04Obviamente podemos nos mover mais rápido,
-
25:04 - 25:05mas isso demandaria
-
25:05 - 25:09simplesmente evitar um monte de coisas
estúpidas que fazíamos no passado. -
25:09 - 25:14CA: Suspeito que há muitas pessoas aqui
que, se tivessem a chance, -
25:14 - 25:18adorariam ajudá-lo
nessa sua agenda de mudança -
25:18 - 25:20e, não sei a Whitney...
-
25:20 - 25:23Jack, obrigado por vir aqui
e falar tão abertamente. -
25:23 - 25:24Foi preciso coragem.
-
25:24 - 25:28Muito obrigado pelo que você falou
e boa sorte com sua missão. -
25:28 - 25:30JD: Muito obrigado.
Obrigado por me receber. -
25:30 - 25:33(Aplausos)
-
25:33 - 25:34Obrigado.
- Title:
- Como o Twitter precisa mudar
- Speaker:
- Jack Dorsey
- Description:
-
O Twitter pode ser salvo? Em uma abrangente conversa com Chris Anderson e Whitney Pennington Rodgers, do TED, Jack Dorsey, CEO do Twitter, discute o futuro da plataforma, reconhecendo problemas com o assédio e a moderação e propondo algumas mudanças fundamentais que ele espera que encorajem conversas saudáveis e respeitosas. "Estamos entregando de fato, todo dia, algo que as pessoas valorizam?", pergunta Dorsey.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 25:47
![]() |
Raissa Mendes approved Portuguese, Brazilian subtitles for How Twitter needs to change | |
![]() |
Raissa Mendes edited Portuguese, Brazilian subtitles for How Twitter needs to change | |
![]() |
Maricene Crus accepted Portuguese, Brazilian subtitles for How Twitter needs to change | |
![]() |
Maricene Crus edited Portuguese, Brazilian subtitles for How Twitter needs to change | |
![]() |
Maricene Crus edited Portuguese, Brazilian subtitles for How Twitter needs to change | |
![]() |
Maricene Crus edited Portuguese, Brazilian subtitles for How Twitter needs to change | |
![]() |
Maricene Crus edited Portuguese, Brazilian subtitles for How Twitter needs to change | |
![]() |
Maricene Crus edited Portuguese, Brazilian subtitles for How Twitter needs to change |