Como o Twitter precisa de mudar
-
0:01 - 0:04Chris Anderson:
O que te preocupa agora? -
0:04 - 0:06Foste muito franco acerca
de muitos dos problemas do Twitter. -
0:06 - 0:09Qual é a tua maior preocupação
-
0:09 - 0:11acerca do estado das coisas neste momento?
-
0:12 - 0:15Jack Dorsey: Neste momento
é a saúde das conversas. -
0:15 - 0:18O nosso propósito é estar ao serviço
das conversas públicas -
0:18 - 0:23e temos visto muitos ataques a isso.
-
0:23 - 0:26Temos visto insultos, intimidação,
-
0:26 - 0:28temos visto manipulação,
-
0:29 - 0:33automatização, coordenação humana,
desinformação. -
0:34 - 0:38Isto são dinâmicas que não esperávamos
-
0:38 - 0:42há 13 anos, quando começámos a empresa.
-
0:42 - 0:45Vemo-las agora em grande escala.
-
0:46 - 0:50O que mais me preocupa é a nossa
capacidade de as abordar -
0:50 - 0:53de uma forma sistemática
que seja expansível, -
0:54 - 1:00que tenha uma compreensão rigorosa
de como estamos a agir, -
1:00 - 1:03uma compreensão transparente
de como estamos a agir -
1:03 - 1:06e um rigoroso processo de recurso
para quando errarmos -
1:06 - 1:08porque nós vamos errar.
-
1:09 - 1:11Whitney Pennington Rodgers:
Fico feliz por ouvir -
1:11 - 1:13que isso é uma coisa que te preocupa
-
1:13 - 1:15porque escreveu-se tanto sobre pessoas
-
1:15 - 1:18que se sentiram agredidas
e intimidadas no Twitter -
1:18 - 1:22em especial, mulheres e mulheres de cor,
-
1:22 - 1:23mulheres negras.
-
1:23 - 1:25Houve dados apresentados.
-
1:25 - 1:28A Amnistia Internacional divulgou
um relatório há uns meses -
1:28 - 1:33em que mostraram que um subgrupo
de utilizadoras negras ativas do Twitter -
1:33 - 1:35em cada 10 "tweets" que recebiam
-
1:35 - 1:38em média, um deles continha
qualquer tipo de intimidação. -
1:38 - 1:42Por isso, quando pensas na saúde
da comunidade no Twitter, -
1:42 - 1:46eu gostava de ouvir "saúde para todos".
-
1:46 - 1:49Especificamente, como estás a tentar
tornar o Twitter um espaço seguro -
1:49 - 1:53para esse subgrupo, para as mulheres,
e para as mulheres de cor? -
1:54 - 1:57JD: Sim, é uma situação terrível
-
1:57 - 1:59quando nos juntamos a um serviço
-
1:59 - 2:04em que, idealmente, queremos
aprender algo sobre o mundo -
2:04 - 2:09e passamos a maior parte do tempo
a denunciar insultos, a receber insultos, -
2:09 - 2:11a receber intimidações.
-
2:14 - 2:18O que nós estamos a analisar
com mais atenção são os incentivos -
2:18 - 2:22que a plataforma providencia naturalmente
e os serviços que providencia. -
2:22 - 2:27Agora a dinâmica do sistema faz
com que seja muito fácil intimidar -
2:27 - 2:31e insultar os outros através do serviço.
-
2:31 - 2:34Infelizmente, a maior parte
do nosso sistema no passado -
2:34 - 2:39baseava-se em que as pessoas reportavam
as intimidações e insultos. -
2:41 - 2:45Em meados do ano passado,
decidimos que íamos utilizar -
2:45 - 2:47muito mais soluções
de aprendizagem de máquinas -
2:47 - 2:49e de aprendizagem profunda
-
2:49 - 2:53e tentar ser mais proativos
quando os insultos acontecem, -
2:53 - 2:57para tirarmos completamente
o peso de cima da vítima. -
2:57 - 3:00Fizemos alguns progressos recentemente.
-
3:00 - 3:06Cerca de 38% dos "tweets" insultuosos
são agora identificados proativamente -
3:06 - 3:08por algoritmos automáticos
-
3:08 - 3:10e as pessoas já não têm de os reportar.
-
3:10 - 3:14Mas os que são identificados
ainda são revistos por pessoas, -
3:14 - 3:19por isso não tiramos conteúdo ou contas
sem a revisão de um ser humano. -
3:19 - 3:22Mas isto era 0% há um ano.
-
3:22 - 3:24Ou seja, com 0%,
-
3:24 - 3:28cada pessoa que fosse insultada
tinha de os reportar, -
3:28 - 3:31o que lhes dava muito trabalho,
e nos dava muito trabalho -
3:31 - 3:34e, afinal de contas, era injusto.
-
3:35 - 3:38O outro aspeto é que estamos a assegurar
que nós, como empresa, -
3:38 - 3:42temos representadas todas as comunidades
que estamos a tentar servir. -
3:42 - 3:44Não podemos construir
um negócio de sucesso -
3:44 - 3:47se não tivermos diversidade
de perspetivas dentro da nossa casa -
3:47 - 3:51onde se sentem esses problemas
todos os dias. -
3:51 - 3:55E isso não envolve só a equipa
que está a fazer o trabalho -
3:55 - 3:57mas também toda a direção.
-
3:57 - 4:02Temos de continuar a criar empatia
com o que as pessoas estão a experimentar -
4:03 - 4:06e dar-lhes melhores ferramentas
para agirem -
4:06 - 4:10e também dar aos nossos clientes
uma abordagem melhor e mais fácil -
4:10 - 4:13para lidar com algumas coisas
que estão a ver. -
4:13 - 4:16Muito do que fazemos
está ligado à tecnologia -
4:16 - 4:20mas também estamos a olhar
para os incentivos do serviço: -
4:21 - 4:25O que é que o Twitter vos incentiva
a fazer quando o abrem? -
4:26 - 4:27No passado,
-
4:29 - 4:34incentivou muita indignação,
incentivou muita violência de grupo, -
4:34 - 4:37incentivou muita intimidação a grupos.
-
4:37 - 4:41Temos de olhar mais profundamente
para alguns dos princípios -
4:41 - 4:44do que o serviço está a fazer
para conseguir mudanças maiores. -
4:44 - 4:48Podemos fazer pequenas mudanças
a nível tecnológico, como já descrevi, -
4:48 - 4:52mas temos de olhar profundamente
para a dinâmica da rede em si -
4:52 - 4:53e é o que estamos a fazer.
-
4:53 - 4:55CA: Mas o que é que achas?
-
4:55 - 4:59Que tipo de coisas achas
que vão conseguir mudar -
4:59 - 5:03que sejam uma mudança
de comportamento fundamental? -
5:03 - 5:05JD: Bem, uma das coisas, por exemplo.
-
5:06 - 5:11Começámos o serviço com o conceito
de seguir uma conta, -
5:13 - 5:17mas eu não acredito que seja para isso
que as pessoas usam o Twitter. -
5:17 - 5:21Acho que o Twitter funciona melhor como
uma rede social baseada em interesses. -
5:21 - 5:24As pessoas vêm
com um determinado interesse. -
5:25 - 5:28É trabalhoso encontrar e seguir as contas
-
5:28 - 5:30relacionadas com esses interesses.
-
5:30 - 5:34O que nós podemos fazer
é permitir seguir um interesse, -
5:34 - 5:36seguir uma "hashtag", uma tendência,
-
5:36 - 5:38seguir uma comunidade,
-
5:38 - 5:42o que nos dá a oportunidade
de mostrar todas as contas, -
5:42 - 5:46todos os temas, todos os momentos,
todas as "hashtags" -
5:46 - 5:50que estão associadas com esse tópico
ou interesse em particular, -
5:50 - 5:54o que abre a perspetiva do que vemos.
-
5:55 - 5:57Isto é uma enorme mudança
-
5:57 - 6:00fazer com que toda a rede
deixe de estar ligada às contas -
6:00 - 6:03e passe a estar ligada
a tópicos e interesses. -
6:03 - 6:06CA: Mas não se dá o caso
-
6:06 - 6:11de que uma das razões pela qual
vocês têm tanto conteúdo -
6:11 - 6:15é o resultado de pôr milhões
de pessoas do mundo inteiro -
6:15 - 6:18nesta competição de gladiadores
uns contra os outros -
6:18 - 6:20para ganhar seguidores,
para conquistar atenção? -
6:20 - 6:24Do ponto de vista das pessoas
que só leem o Twitter, -
6:24 - 6:25isso não é um problema
-
6:25 - 6:29mas para quem o criou, todos dizem:
-
6:29 - 6:32"Gostava de ter mais 'likes',
mais seguidores, mais 'retweets'." -
6:32 - 6:34Estão sempre a experimentar,
-
6:34 - 6:36a tentar encontrar um caminho para isso.
-
6:37 - 6:40Descobrimos que o caminho
principal para isso -
6:40 - 6:46é algum tipo de provocação detestável,
eloquentemente detestável. -
6:46 - 6:50Os insultos eloquentes
são um sonho no Twitter, -
6:50 - 6:53onde rapidamente se acumulam
-
6:53 - 6:57e se tornam neste processo
de autoalimentação da indignação. -
6:58 - 7:00Como se pode acabar com isso?
-
7:01 - 7:04JD: Acho que é exatamente isso
-
7:04 - 7:06mas voltamos de novo aos incentivos.
-
7:06 - 7:08Uma das nossas escolhas iniciais
-
7:08 - 7:13foi mostrar o número de pessoas
que nos seguiam. -
7:13 - 7:16Decidimos que esse número
devia ser grande e destacado -
7:16 - 7:20e, como tudo o que é grande
e destacado na página. é importante, -
7:20 - 7:22essas são as coisas que queremos atingir.
-
7:22 - 7:24Foi a decisão certa na altura?
-
7:24 - 7:25Provavelmente não.
-
7:25 - 7:27Se eu criasse o serviço de novo,
-
7:27 - 7:29não daria tanta ênfase
ao número de seguidores. -
7:29 - 7:32Não daria tanta ênfase aos "likes".
-
7:32 - 7:35Acho que nem criaria os "likes"
-
7:35 - 7:39porque não leva ao que acreditamos
-
7:39 - 7:41ser a coisa mais importante,
-
7:41 - 7:44isto é, uma contribuição saudável na rede
-
7:44 - 7:47e conversas na rede,
-
7:47 - 7:49uma participação nas conversas,
-
7:49 - 7:52aprender algo com as conversas.
-
7:52 - 7:55Não pensámos nestas coisas há 13 anos
-
7:55 - 7:57e agora acreditamos
que são muito importantes. -
7:57 - 8:00Temos de ver como exibimos
o número de seguidores, -
8:00 - 8:02como exibimos o número de "retweets",
-
8:02 - 8:04como exibimos os "likes"
-
8:04 - 8:06e perguntar verdadeiramente:
-
8:06 - 8:09É este o número
a que queremos dar ênfase? -
8:09 - 8:12É isto que vemos,
quando abrimos o Twitter: -
8:12 - 8:14"É isto que eu tenho de reforçar?"
-
8:14 - 8:17Eu não acredito que agora
seja esse o caso. -
8:17 - 8:19(Aplausos)
-
8:19 - 8:21WPR: Acho que devíamos ver alguns "tweets"
-
8:21 - 8:23que também estão a vir da audiência.
-
8:24 - 8:26CA: Vamos ver o que estão a perguntar.
-
8:26 - 8:29Isto é uma das coisas fantásticas
do Twitter -
8:29 - 8:32é poder usá-lo para saber
a opinião de um grupo, -
8:33 - 8:37mais conhecimento, mais questões,
mais pontos de vista -
8:37 - 8:39do que se pode imaginar
-
8:39 - 8:41e às vezes, muito saudáveis.
-
8:42 - 8:45WPR: Vi um que passou
rapidamente por aqui: -
8:45 - 8:48"Como vão combater a interferência
estrangeira nas eleições de 2020?" -
8:48 - 8:51Penso que é um assunto
-
8:51 - 8:53que estamos a ver na Internet em geral.
-
8:53 - 8:56Há muita atividade automatizada
maliciosa. -
8:58 - 9:02No Twitter, de facto, temos trabalho
-
9:02 - 9:05dos nossos amigos na Zignal Labs
-
9:05 - 9:09e talvez possamos ver aí
um exemplo do que estou a falar, -
9:09 - 9:12em que temos estes "bots"
-
9:12 - 9:17ou contas com atividade
automatizada maliciosa -
9:17 - 9:20que estão a ser usadas
para influenciar coisas como eleições. -
9:20 - 9:24Neste exemplo da Zignal
que eles partilharam connosco -
9:24 - 9:26usando os dados que têm do Twitter,
-
9:26 - 9:28podem ver que, neste caso,
-
9:28 - 9:33o branco representa seres humanos
- contas humanas, cada ponto é uma conta. -
9:33 - 9:34Quanto mais cor-de-rosa,
-
9:34 - 9:36tanto mais atividade automatizada.
-
9:36 - 9:42Podemos ver alguns seres humanos
a interagir com "bots". -
9:42 - 9:46Neste caso, está relacionado
com as eleições em Israel -
9:46 - 9:49e está a espalhar desinformação
acerca de Benny Gantz. -
9:49 - 9:54Como sabemos, no fim, as eleições
foram ganhas por Netanyahu -
9:54 - 9:56por uma pequena margem
-
9:56 - 9:59que pode ter sido influenciada,
nalguns casos, por isso. -
9:59 - 10:01Quando pensamos no que está
a acontecer no Twitter, -
10:01 - 10:04o que é que vocês estão a fazer,
especificamente, -
10:04 - 10:07para assegurar que a desinformação
não se espalhe assim, -
10:07 - 10:11influenciando pessoas de formas
que afetam a democracia? -
10:12 - 10:14JD: Voltando um pouco atrás,
-
10:14 - 10:16perguntámo-nos o seguinte:
-
10:16 - 10:20Podemos medir a saúde de uma conversa
-
10:20 - 10:22e o que é que isso significa?
-
10:22 - 10:25Tal como temos indicadores
-
10:25 - 10:29e temos indicadores humanos
para ver se estamos saudáveis ou não -
10:29 - 10:32tais como a temperatura, a cor da cara,
-
10:33 - 10:38acreditamos que podíamos encontrar
indicadores da saúde das conversas. -
10:38 - 10:42Trabalhámos com um laboratório
chamado Cortico no MIT -
10:43 - 10:49para propor quatro indicadores iniciais
-
10:49 - 10:53que acreditamos que podem
fazer medições no sistema. -
10:54 - 10:59O primeiro é o que chamamos
"atenção partilhada". -
10:59 - 11:01É uma medida de quanto da conversa
-
11:01 - 11:05está atenta ao mesmo assunto
e não se dispersa. -
11:06 - 11:09O segundo chama-se "realidade partilhada"
-
11:09 - 11:11e é a percentagem da conversa
-
11:12 - 11:14que partilha os mesmo factos
-
11:14 - 11:17- não se esses factos
são verdadeiros ou não -
11:17 - 11:20mas se estamos a partilhar os mesmos
factos nas conversas. -
11:20 - 11:23O terceiro é a "recetividade":
-
11:23 - 11:27Quanto da conversa é recetivo ou cívico
-
11:27 - 11:30ou, pelo contrário, é tóxico?
-
11:30 - 11:34E o quarto é a "variedade de perspetiva".
-
11:34 - 11:37Estaremos a ver bolhas de filtro
ou câmaras de eco, -
11:37 - 11:40ou estaremos a ter
uma variedade de opiniões -
11:40 - 11:41dentro da conversa?
-
11:42 - 11:45Implícito nestes quatro é a compreensão
-
11:45 - 11:49de que, à medida que aumentam,
a conversa torna-se mais saudável. -
11:49 - 11:53Então, o primeiro passo
é tentar medi-los "online", -
11:54 - 11:55o que achamos que conseguimos.
-
11:55 - 11:58A maior dinâmica é em torno
da recetividade. -
11:59 - 12:03Temos uma pontuação de toxicidade
e um modelo de toxicidade, no sistema, -
12:03 - 12:06que consegue medir se é provável
que alguém se afaste -
12:06 - 12:09de uma conversa que está a ter no Twitter
-
12:09 - 12:11porque sente que é tóxica,
-
12:11 - 12:13a um nível muito alto.
-
12:14 - 12:17Estamos a tentar medir o resto.
-
12:17 - 12:19O próximo passo é,
-
12:19 - 12:22enquanto construímos soluções,
-
12:22 - 12:25ver como estas medidas
se comportam ao longo do tempo -
12:26 - 12:28e continuar a experimentar.
-
12:28 - 12:32O nosso objetivo é assegurar
que estão equilibradas -
12:32 - 12:35porque, se aumentamos uma,
poderemos diminuir a outra. -
12:35 - 12:37Se aumentarmos a variedade
de perspetiva, -
12:37 - 12:40poderemos diminuir
a realidade partilhada. -
12:40 - 12:45CA: Agarrando numa das perguntas
que estão a chegar em massa... -
12:45 - 12:47JD: Questionamento constante.
-
12:48 - 12:51CA: Muitas pessoas estão perplexas
-
12:51 - 12:55perguntando porque é que é difícil
eliminar os nazis do Twitter? -
12:59 - 13:04JD: Temos diretrizes relativas
a grupos extremistas violentos -
13:05 - 13:09e a maior parte do nosso trabalho
e das nossas condições de funcionamento -
13:09 - 13:13estão ligados à conduta, não ao conteúdo.
-
13:13 - 13:16Estamos a olhar para a conduta.
-
13:16 - 13:19Conduta é usar o serviço
-
13:19 - 13:23para intimidar alguém repetidamente
ou de forma pontual, -
13:23 - 13:25usar imagens de ódio
-
13:25 - 13:27que poderão estar associadas ao KKK
-
13:27 - 13:30ou ao Partido Nazi Americano.
-
13:30 - 13:34Nós agimos imediatamente
contra estas coisas. -
13:35 - 13:40Estamos numa situação agora
em que esse termo é usado de forma vaga -
13:40 - 13:45mas nós não podemos considerar
qualquer pessoa -
13:45 - 13:48que use essa palavra
para acusar outra pessoa -
13:48 - 13:52como uma indicação factual
de que devem ser retirados da plataforma. -
13:52 - 13:54Muitos dos nossos modelos
são baseados em, número um: -
13:55 - 13:58Esta conta está associada
a um grupo extremista violento? -
13:58 - 14:00Se sim, podemos agir.
-
14:00 - 14:03Fizemos isto com o KKK,
o Partido Nazi Americano e outros. -
14:04 - 14:08Número dois: Estão a usar
imagens ou conduta -
14:08 - 14:10que também os associaria a tal?
-
14:10 - 14:14CA: Quantas pessoas têm a trabalhar
na moderação de conteúdos, para ver isso? -
14:15 - 14:16JD: Depende.
-
14:16 - 14:18Queremos ser flexíveis nisto,
-
14:18 - 14:21porque queremos ter a certeza
de que estamos, número um, -
14:21 - 14:25a construir algoritmos
em vez de contratar imensas pessoas -
14:25 - 14:28porque temos de ter a certeza
que podemos alargar isso -
14:28 - 14:31e não há nenhum número de pessoas
que consiga alargar isso. -
14:32 - 14:38Foi por isso que fizemos tanto trabalho
à volta da deteção proativa de insultos -
14:38 - 14:40que possam ser revistos por pessoass.
-
14:40 - 14:42Queremos ter uma situação
-
14:42 - 14:46em que haja algoritmos
constantemente a filtrar cada "tweet" -
14:46 - 14:49e a destacar os mais interessantes
-
14:49 - 14:52para que seres humanos possam julgar
se devemos agir ou não, -
14:52 - 14:54com base nas nossas condições de serviço.
-
14:54 - 14:57WPR: Não há um número de pessoas
que possa aumentar -
14:57 - 15:00mas quantas pessoas têm vocês agora
a monitorizar essas contas -
15:00 - 15:03e como conseguem perceber
quando esse número é suficiente? -
15:03 - 15:05JD: É uma coisa completamente flexível.
-
15:05 - 15:08Às vezes associamos pessoas a "spam".
-
15:08 - 15:12Às vezes associamos pessoas
a insultos e intimidação. -
15:12 - 15:15Vamos garantir que temos flexibilidade
quanto às pessoas que temos -
15:15 - 15:17para as direcionarmos
para onde são precisas. -
15:17 - 15:19Às vezes, para as eleições.
-
15:19 - 15:21Tivemos uma série de eleições no México,
-
15:22 - 15:24vai haver uma na Índia.
-
15:24 - 15:28Obviamente, as eleições do ano passado,
as eleições intercalares -
15:28 - 15:31por isso queremos ser flexíveis
com os recursos. -
15:31 - 15:33Quando as pessoas,
-
15:33 - 15:39por exemplo, forem
aos nossos termos de serviço atuais -
15:39 - 15:41e abrirem a página
-
15:41 - 15:44e estiverem a pensar nos insultos
ou intimidações que receberem, -
15:44 - 15:48se isso vai contra os nossos termos
de serviço, para o denunciarem, -
15:48 - 15:51a primeira coisa que veem
ao abrir a página -
15:51 - 15:54é sobre a proteção
da propriedade intelectual. -
15:55 - 16:00A seguir, veem a parte
dos insultos, da intimidação -
16:00 - 16:02e de tudo a que podem estar sujeitos.
-
16:02 - 16:05Não sei como isso aconteceu
no decorrer da história da empresa -
16:06 - 16:10mas pusemos isso acima
do que as pessoas querem -
16:12 - 16:15ou seja, mais informação
e mais capacidade de ação. -
16:16 - 16:21A nossa ordem mostra ao mundo
o que acreditamos ser mais importante. -
16:21 - 16:23Estamos a mudar tudo isso.
-
16:24 - 16:25Estamos a ordenar da forma certa
-
16:25 - 16:29mas também estamos a simplificar
as regras para que sejam compreensíveis -
16:29 - 16:31para que as pessoas compreendam
-
16:33 - 16:36quando algo é contrário
aos nossos termos e quando não é. -
16:36 - 16:39Estamos a fazer isso.
-
16:39 - 16:44De novo, o grande foco é tirar o peso
do trabalho de cima das vítimas. -
16:44 - 16:47Isso significa mais foco na tecnologia
-
16:47 - 16:49do que em pessoas a trabalharem,
-
16:49 - 16:52ou seja, as pessoas que são insultadas
-
16:52 - 16:55e as pessoas que reveem esse trabalho.
-
16:55 - 16:57Queremos assegurar
-
16:57 - 16:59que não estamos a incentivar mais trabalho
-
16:59 - 17:02à volta de algo extremamente negativo
-
17:02 - 17:05e queremos ter um bom equilíbrio
entre a tecnologia -
17:05 - 17:08e aquilo em que os seres humanos
podem ser criativos -
17:08 - 17:11que é a julgarem as regras
-
17:11 - 17:14e não na parte mecânica
de encontrar e denunciar. -
17:14 - 17:16É assim que nós vemos isto.
-
17:16 - 17:18CA: Gostava de aprofundar
o que acabaste de dizer. -
17:18 - 17:21Adoro teres dito
que estão à procura de formas -
17:21 - 17:24de mudar o "design" fundamental do sistema
-
17:24 - 17:28para desencoraja
comportamento reativo -
17:28 - 17:32- e usando uma linguagem do tipo
de Tristan Harris - -
17:32 - 17:36envolver talvez um pensamento
mais reflexivo das pessoas. -
17:36 - 17:38Em que ponto é que isso está?
-
17:38 - 17:42Quais seriam as alternativas
ao botão do "like"? -
17:44 - 17:47JD: Bem, primeiro que tudo,
-
17:47 - 17:53o meu objetivo pessoal com o serviço
é que acredito fundamentalmente -
17:53 - 17:56que as conversas públicas são cruciais.
-
17:56 - 17:58Há problemas existenciais no mundo
-
17:58 - 18:02que são enfrentados pelo mundo todo,
não só por um estado-nação, -
18:02 - 18:05que as conversas públicas globais beneficiam.
-
18:05 - 18:08Isto é uma das dinâmicas únicas do Twitter
-
18:08 - 18:09que é completamente aberto,
-
18:09 - 18:12completamente público,
completamente fluido -
18:12 - 18:16e todos podem ver as conversas
e participar nelas. -
18:17 - 18:19Há conversas sobre a alteração climática.
-
18:19 - 18:21Há conversas sobre
a deslocalização do trabalho -
18:21 - 18:24devido à inteligência artificial.
-
18:24 - 18:27Há conversas sobre
a disparidade económica. -
18:27 - 18:29Independentemente
do que um estado-nação faz, -
18:29 - 18:32não conseguirão resolver
o problema sozinhos. -
18:32 - 18:34É necessário coordenação em todo o mundo
-
18:35 - 18:37e é aí que o Twitter
pode desempenhar um papel. -
18:38 - 18:43A segunda coisa é que,
quando vamos ao Twitter -
18:43 - 18:47nem sempre saímos de lá a sentir
que aprendemos alguma coisa. -
18:47 - 18:48Algumas pessoas sim.
-
18:48 - 18:51Algumas pessoas têm
uma rede muito rica, -
18:51 - 18:54uma comunidade muito rica
na qual aprendem todos os dias. -
18:55 - 18:58Mas é preciso muito trabalho
e muito tempo para construir isso. -
18:58 - 19:02Então queremos pôr as pessoas
nesses tópicos e nesses interesses -
19:02 - 19:03muito mais rapidamente
-
19:03 - 19:06e certificar que elas estão
a encontrar qualquer coisa -
19:06 - 19:09que, independentemente do tempo
que estão no Twitter -
19:09 - 19:11- e eu não quero maximizar
o tempo no Twitter, -
19:11 - 19:14quero maximizar
o que as pessoas tiram dele -
19:14 - 19:16e o que aprendem dele.
-
19:18 - 19:19CA: Mas queres mesmo?
-
19:19 - 19:22Porque essa é a questão central
que muitas pessoas querem saber. -
19:22 - 19:26Jack, vocês estão certamente limitados
em grande medida -
19:26 - 19:28pelo facto de serem uma empresa pública,
-
19:28 - 19:30têm investidores a pressionarem-vos,
-
19:30 - 19:33a maior forma de ganharem dinheiro
é através de publicidade, -
19:33 - 19:37o que depende
do envolvimento do utilizador. -
19:37 - 19:41Estão prontos a abdicar do tempo
dos utilizadores, se necessário, -
19:41 - 19:44para conseguirem
uma conversa mais reflexiva? -
19:45 - 19:48JD: Sim, mais relevância significa
menos tempo no serviço -
19:48 - 19:50e não tem qualquer problema
-
19:50 - 19:53porque queremos garantir
que chegam ao Twitter, -
19:53 - 19:57e veem imediatamente algo
que aprendem e que passam. -
19:57 - 20:01Podemos passar um anúncio na mesma.
-
20:01 - 20:04Não significa que temos de gastar
mais tempo para ver mais. -
20:04 - 20:05O segundo ponto que estamos a ver...
-
20:05 - 20:08CA: Relativamente a esse objetivo,
utilização ativa diária, -
20:08 - 20:11se estão a medir isso,
não significa necessariamente -
20:11 - 20:13coisas que as pessoas
valorizem todos os dias. -
20:13 - 20:15Pode significar coisas
-
20:15 - 20:18que atraem pessoas
como a luz atrai a traça, todos os dias. -
20:18 - 20:21Estamos viciados porque vemos
algo que nos irrita, -
20:21 - 20:24entramos ali e deitamos lenha na fogueira,
-
20:24 - 20:26e a utilização ativa diária cresce
-
20:26 - 20:28e há mais receita de anúncios,
-
20:28 - 20:31mas estamos todos zangados
uns com os outros. -
20:31 - 20:33Como defines "utilização ativa diária"?
-
20:33 - 20:37Parece ser um termo
muito perigoso para otimizar. -
20:38 - 20:41(Aplausos)
-
20:42 - 20:44JD: Visto isoladamente, é,
-
20:44 - 20:46mas não me deixaram acabar
a outra métrica -
20:46 - 20:50que é estarmos a ver as conversas
-
20:50 - 20:52e as cadeias de conversas.
-
20:52 - 20:57Queremos incentivar contribuições
saudáveis de novo na rede -
20:57 - 21:01e o que nós acreditamos ser
participar numa conversa -
21:01 - 21:03que é saudável,
-
21:03 - 21:07como definida naqueles quatro indicadores
que mencionei antes. -
21:07 - 21:10Não é possível otimizar
à volta de uma só métrica. -
21:10 - 21:13É preciso equilibrar
e olhar constantemente -
21:13 - 21:17para o que vai criar uma contribuição
saudável para a rede -
21:17 - 21:19e uma experiência saudável
para as pessoas. -
21:19 - 21:21No fundo, queremos uma métrica
-
21:21 - 21:23em que as pessoas nos digam:
-
21:23 - 21:27"Aprendi uma coisa no Twitter
e levo comigo algo valioso." -
21:27 - 21:29Este é o nosso objetivo ao longo do tempo
-
21:29 - 21:31mas isso vai demorar algum tempo.
-
21:31 - 21:36CA: Penso que muitos
veem isso como um enigma. -
21:37 - 21:41Talvez seja injusto
mas acordei uma noite -
21:41 - 21:45com uma imagem de como pensava
sobre ti e sobre esta situação. -
21:45 - 21:51Estávamos numa grande viagem
num barco chamado "Twittanic"... -
21:52 - 21:53(Risos)
-
21:53 - 21:57e havia pessoas a bordo na terceira classe
-
21:57 - 22:00que se queixavam de desconforto.
-
22:00 - 22:03Ao contrário dos outros capitães,
tu dizias: -
22:03 - 22:06"Digam-me, falem comigo,
ouçam-me, eu quero ouvir." -
22:06 - 22:09E eles falam e dizem: "Estamos preocupados
com o icebergue ali à frente." -
22:09 - 22:11E tu dizes: "Sabem, é uma boa observação,
-
22:12 - 22:14"o nosso navio não foi construído
adequadamente -
22:14 - 22:16"para a terceira classe como devia."
-
22:16 - 22:17Nós dizemos: "Faz algo."
-
22:17 - 22:21Tu vais para a ponte
e nós ficamos à espera, -
22:21 - 22:26olhamos e tu estás a mostrar
esta calma extraordinária -
22:26 - 22:30mas nós estamos todos cá fora a dizer:
"Jack, gira a porra do leme!" -
22:30 - 22:31Percebes?
-
22:31 - 22:32(Risos)
-
22:32 - 22:34(Aplausos)
-
22:34 - 22:36Ou seja...
-
22:36 - 22:37(Aplausos)
-
22:38 - 22:42É a democracia que está em risco.
-
22:42 - 22:45É a nossa cultura em risco.
É o nosso mundo em risco. -
22:45 - 22:50O Twitter é fantástico e modela muito.
-
22:50 - 22:52Não é tão grande como outras plataformas
-
22:52 - 22:55mas as pessoas com influência
usam-no para definir um programa, -
22:55 - 23:01e é difícil imaginar um papel
mais importante no mundo. -
23:02 - 23:05Estás a fazer um trabalho brilhante
a ouvir as pessoas, Jack, -
23:05 - 23:10mas vais marcar como urgente e fazer algo?
-
23:10 - 23:12Vais fazer isso?
-
23:13 - 23:17JD: Sim, nós temos mudado
substancialmente. -
23:17 - 23:20Houve algumas dinâmicas
na história do Twitter. -
23:20 - 23:22Uma, quando voltei para a empresa,
-
23:23 - 23:29estávamos num momento difícil
em termos do nosso futuro -
23:30 - 23:34e não só de como as pessoas
estavam a usar a plataforma -
23:34 - 23:37mas também quanto
à narrativa corporativa. -
23:37 - 23:40Tivemos de reparar grande parte da base,
-
23:40 - 23:42dar a volta à empresa,
-
23:42 - 23:45passar por duas loucas
reduções de pessoal -
23:45 - 23:49porque éramos grandes demais
para o que estávamos a fazer -
23:49 - 23:51e concentrámos toda a nossa energia
-
23:51 - 23:54neste conceito de servir
a conversa pública. -
23:54 - 23:56Foi preciso algum trabalho.
-
23:56 - 23:59Quando mergulhámos nisso,
-
23:59 - 24:02reparámos nalguns problemas
com os princípios. -
24:02 - 24:07Podíamos fazer um monte de coisas
superficiais para tratar do que falaste -
24:07 - 24:09mas precisamos que as mudanças durem
-
24:09 - 24:11e isso significa ir mesmo ao fundo
-
24:11 - 24:15e prestar atenção
ao que iniciámos há 13 anos -
24:15 - 24:18e questionar a sério
-
24:18 - 24:21como o sistema funciona
e como o enquadramento funciona -
24:21 - 24:24e o que é preciso para o mundo de hoje,
-
24:24 - 24:28dada a velocidade com que tudo se move
e como as pessoas estão a usá-lo. -
24:28 - 24:32Trabalhamos tão depressa quanto possível
-
24:32 - 24:35mas não é a rapidez
que vai fazer o trabalho. -
24:35 - 24:38É a concentração,
o estabelecimento de prioridades, -
24:38 - 24:40é compreender os princípios da rede
-
24:41 - 24:43e construir um enquadramento
que possa crescer -
24:43 - 24:46e que seja resistente à mudança
-
24:46 - 24:51e aberto sobre onde estamos,
transparente sobre onde estamos -
24:51 - 24:54para continuarmos a ganhar confiança.
-
24:54 - 24:57Tenho orgulho em todos os enquadramentos
que implementámos. -
24:58 - 25:01Tenho orgulho na nossa direção.
-
25:01 - 25:04Claro que podemos andar mais depressa
-
25:04 - 25:09mas isto exige abandonar uma série
de coisas parvas que fizemos no passado. -
25:09 - 25:10CA: Ok.
-
25:10 - 25:14Eu suspeito que há muitas pessoas aqui
que, se pudessem, -
25:14 - 25:18adorariam ajudar-te neste plano
de mudanças em que estás -
25:18 - 25:20e não sei se a Whitney...
-
25:20 - 25:23Jack, obrigado por vires aqui
e falares tão abertamente. -
25:23 - 25:24É preciso coragem.
-
25:24 - 25:28Dou muito valor ao que disseste
e boa sorte com a tua missão. -
25:28 - 25:30JD: Muito obrigado. Obrigado pelo convite.
-
25:30 - 25:33(Aplausos)
-
25:33 - 25:34Obrigado.
- Title:
- Como o Twitter precisa de mudar
- Speaker:
- Jack Dorsey
- Description:
-
O Twitter pode ser salvo? Numa conversa abrangente com Chris Anderson e Whitney Pennington Rodgers do TED, o CEO do Twitter, Jack Dorsey, discute o futuro da plataforma, reconhecendo problemas de assédio e moderação e propondo algumas mudanças fundamentais que ele espera que incentivem conversas saudáveis e respeitosas. “Estamos realmente a dar algo que as pessoas valorizam todos os dias?” pergunta Dorsey.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 25:47
Margarida Ferreira approved Portuguese subtitles for How Twitter needs to change | ||
Margarida Ferreira edited Portuguese subtitles for How Twitter needs to change | ||
Margarida Ferreira accepted Portuguese subtitles for How Twitter needs to change | ||
Margarida Ferreira edited Portuguese subtitles for How Twitter needs to change | ||
Margarida Ferreira edited Portuguese subtitles for How Twitter needs to change | ||
Margarida Ferreira edited Portuguese subtitles for How Twitter needs to change | ||
Margarida Ferreira edited Portuguese subtitles for How Twitter needs to change | ||
Margarida Ferreira edited Portuguese subtitles for How Twitter needs to change |