O pesadelo dos vídeos no YouTube para crianças e o que há de errado com a internet hoje
-
0:01 - 0:02Meu nome é James.
-
0:02 - 0:04Sou escritor e artista,
-
0:04 - 0:06e produzo trabalho
a respeito de tecnologia. -
0:06 - 0:10Faço coisas como desenhar esboços
em tamanho natural de "drones" militares -
0:10 - 0:12nas ruas ao redor do mundo,
-
0:12 - 0:15para que as pessoas possam
começar a pensar e a compreender -
0:15 - 0:19essas tecnologias muito difíceis
de se ver e imaginar. -
0:19 - 0:23Faço coisas como redes neurais
que preveem os resultados de eleições -
0:23 - 0:25com base em boletins meteorológicos,
-
0:25 - 0:28porque fico intrigado
com as reais possibilidades -
0:28 - 0:31dessas novas tecnologias estranhas.
-
0:31 - 0:34No ano passado, construí
meu próprio carro autônomo. -
0:34 - 0:38Mas, como não confio na tecnologia,
também projetei uma armadilha para ele. -
0:38 - 0:40(Risos)
-
0:40 - 0:44Faço essas coisas sobretudo porque
as considero totalmente fascinantes, -
0:44 - 0:47mas também porque penso
que, ao falar sobre tecnologia, -
0:47 - 0:49estamos falando, principalmente,
sobre nós mesmos -
0:49 - 0:52e a maneira pela qual entendemos o mundo.
-
0:52 - 0:54Eis uma história sobre tecnologia.
-
0:56 - 0:58Este é um vídeo do "ovo surpresa".
-
0:58 - 1:02É, basicamente, um vídeo de alguém
abrindo um monte de ovos de chocolate -
1:02 - 1:04e mostrando os brinquedos
que estão dentro deles. -
1:04 - 1:07Isso é tudo o que se passa
durante sete longos minutos. -
1:07 - 1:10Quero que reparem em duas coisas.
-
1:11 - 1:15Primeiro, esse vídeo
tem 30 milhões de visualizações. -
1:15 - 1:16(Risos)
-
1:16 - 1:21A outra coisa é que ele aparece
em um canal com 6,3 milhões de inscritos -
1:21 - 1:24e um total de 8 bilhões de visualizações,
-
1:24 - 1:27e há mais vídeos como esse.
-
1:28 - 1:32São 30 milhões de pessoas
assistindo a um cara abrindo esses ovos. -
1:32 - 1:37Parece muito estranho mas, se procurarem
por "ovos surpresa" no YouTube, -
1:37 - 1:40irão verificar que há
10 milhões desses vídeos, -
1:40 - 1:42e acho que isso é por baixo.
-
1:42 - 1:44Deve haver bem mais vídeos como esse.
-
1:44 - 1:46Se continuarem procurando, não acaba mais.
-
1:46 - 1:48Há milhões desses vídeos,
-
1:48 - 1:52em combinações cada vez mais
grotescas de marcas e materiais, -
1:52 - 1:56surgindo na internet todos os dias.
-
1:56 - 1:59É um mundo bizarro, não é mesmo?
-
1:59 - 2:03Mas acontece que não são os adultos
que assistem a esses vídeos. -
2:03 - 2:06São as crianças pequenas.
-
2:06 - 2:08Esses vídeos são como droga para elas.
-
2:08 - 2:10Há algo sobre a repetição,
-
2:10 - 2:14a dose constante de dopamina
da revelação, que as fisga totalmente. -
2:14 - 2:19As crianças pequenas assistem
a esses vídeos sem parar -
2:19 - 2:21durante horas a fio.
-
2:21 - 2:26Se tentarem afastá-las da tela,
elas irão gritar sem parar. -
2:26 - 2:28Já vi pessoas na plateia concordando.
-
2:28 - 2:31Se não acreditam, perguntem
a quem têm crianças pequenas. -
2:31 - 2:34Elas conhecem os vídeos dos ovos surpresa.
-
2:35 - 2:37É aí que começamos.
-
2:37 - 2:41Estamos em 2018, e alguém,
ou muitas pessoas, -
2:41 - 2:45usam o mesmo mecanismo
do Facebook e do Instagram -
2:45 - 2:47para nos manter verificando o aplicativo
-
2:47 - 2:51e para invadir o cérebro
das criancinhas no YouTube -
2:51 - 2:53em troca de receitas publicitárias.
-
2:54 - 2:58É o que, pelo menos,
espero que estejam fazendo, -
2:58 - 3:04porque há formas mais fáceis de gerar
receitas publicitárias no YouTube. -
3:04 - 3:06Podemos inventar ou roubar coisas.
-
3:06 - 3:09Se procurarem por desenhos infantis
realmente populares, -
3:09 - 3:10como "Peppa" ou "Patrulha Canina",
-
3:10 - 3:13descobrirão que há também
milhões deles na internet. -
3:13 - 3:17Claro que a maioria deles não é
publicada pelos criadores originais. -
3:17 - 3:20Eles vêm de um monte de contas
aleatórias diferentes, -
3:20 - 3:24e é impossível saber quem os publica
ou quais são os motivos para isso. -
3:24 - 3:26Isso lhes parece familiar?
-
3:26 - 3:28Porque é exatamente o mesmo mecanismo
-
3:28 - 3:31que ocorre na maior parte
de nossos serviços digitais -
3:31 - 3:34em que é impossível saber
a origem das informações. -
3:34 - 3:36São notícias falsas para crianças,
-
3:36 - 3:38e nós as estamos treinando,
desde que nascem, -
3:38 - 3:43a clicarem no primeiro link que aparece,
não importando a origem dele. -
3:43 - 3:45Não parece uma ideia muito boa.
-
3:46 - 3:49Outra coisa muito famosa
no YouTube para crianças -
3:49 - 3:51é a "Finger Family Song".
-
3:51 - 3:53Acabei de ouvi alguém
resmungando de novo na plateia. -
3:53 - 3:55Esta é a "Finger Family Song".
-
3:55 - 3:57Foi a primeira que consegui encontrar.
-
3:57 - 4:00É de 2007 e tem apenas
200 mil visualizações, -
4:00 - 4:02o que não é nada nesse jogo.
-
4:02 - 4:04Mas ela tem uma melodia irritante
-
4:04 - 4:08que não vou tocar para vocês
porque ela gruda no cérebro -
4:08 - 4:10como grudou no meu,
-
4:10 - 4:12e não vou fazer uma coisa dessas.
-
4:12 - 4:14Mas, como os ovos surpresa,
-
4:14 - 4:18ela entra na cabeça das crianças,
que ficam viciadas nela. -
4:18 - 4:21Dentro de alguns anos, esses vídeos
começam a surgir em toda parte, -
4:21 - 4:23e temos versões em vários idiomas
-
4:23 - 4:26com desenhos infantis usando a comida
-
4:26 - 4:30ou quaisquer tipos de elementos
de animação que existem por aí. -
4:31 - 4:36Mais uma vez, há milhões
desses vídeos na internet, -
4:36 - 4:40disponíveis em todos os tipos
de combinações bizarras. -
4:40 - 4:42Quanto mais tempo passamos com eles
-
4:42 - 4:46mais loucos começamos a ficar.
-
4:46 - 4:49Foi aí que comecei a ter
-
4:49 - 4:53uma sensação de profunda estranheza
e falta de compreensão -
4:53 - 4:57sobre como era construída essa coisa
que parece estar sempre ao meu redor. -
4:57 - 4:59Porque é impossível saber
de onde vêm esses vídeos. -
4:59 - 5:00Quem os produz?
-
5:00 - 5:04Alguns parecem ser feitos por equipes
de animadores profissionais. -
5:05 - 5:07Outros são apenas montados
aleatoriamente por software. -
5:07 - 5:12Alguns divertem as crianças
e têm um aspecto muito saudável. -
5:12 - 5:16E outros são de pessoas que, claramente,
não deveriam se aproximar de crianças. -
5:16 - 5:17(Risos)
-
5:20 - 5:24Mais uma vez, a impossibilidade
de saber quem faz essas coisas... -
5:24 - 5:25É um robô?
-
5:25 - 5:27Uma pessoa? Um "troll"?
-
5:28 - 5:32Isso significa que não conseguimos mais
notar a diferença entre essas coisas? -
5:32 - 5:36Essa incerteza não lhes parece familiar?
-
5:38 - 5:41O meio principal para obter
visualizações de vídeos, -
5:41 - 5:42e elas significam dinheiro,
-
5:42 - 5:47é enchendo os títulos desses vídeos
com esses termos populares. -
5:47 - 5:49Considerem os "ovos surpresa".
-
5:49 - 5:52Incluam "Patrulha Canina",
"ovo de Páscoa", seja o que for, -
5:52 - 5:55todas as palavras de outros
vídeos populares ao seu título -
5:55 - 5:58até acabarem com esse tipo
de linguagem misturada, -
5:58 - 6:01que não faz sentido algum às pessoas.
-
6:01 - 6:04Porque, é claro, são apenas
as criancinhas que veem esses vídeos, -
6:04 - 6:06e o que elas sabem?
-
6:06 - 6:09O verdadeiro público
para essas coisas é o software, -
6:09 - 6:11são os algoritmos.
-
6:11 - 6:12É o software que o YouTube usa
-
6:12 - 6:17para escolher quais vídeos são semelhantes
e torná-los populares e recomendados. -
6:17 - 6:20É assim que acabamos tendo
essa mistura totalmente sem sentido, -
6:20 - 6:23tanto a nível do título como do conteúdo.
-
6:24 - 6:25Mas temos que nos lembrar
-
6:25 - 6:30de que ainda há pessoas nesse sistema
otimizado por algoritmos, -
6:30 - 6:33que são forçadas a produzir
-
6:33 - 6:36essas combinações de palavras
cada vez mais bizarras, -
6:36 - 6:39em uma desesperada improvisação artística,
-
6:39 - 6:44reagindo aos gritos combinados
de um milhão de crianças de uma vez. -
6:45 - 6:47São pessoas reais, presas nesses sistemas,
-
6:47 - 6:52e essa é outra coisa muito estranha
dessa cultura comandada por algoritmos, -
6:52 - 6:53porque, mesmo sendo humano,
-
6:53 - 6:56você acaba se comportando como máquina
apenas para sobreviver. -
6:57 - 6:59E também, do outro lado da tela,
-
6:59 - 7:02ainda há criancinhas assistindo a isso,
-
7:02 - 7:06com a atenção total presa
por esses estranhos mecanismos. -
7:07 - 7:09A maioria delas é muito pequena
até para usar a internet. -
7:09 - 7:12Só batem na tela com suas mãozinhas.
-
7:12 - 7:15A reprodução automática
continua exibindo os vídeos -
7:15 - 7:20inúmeras vezes, em um ciclo,
infinitamente, durante horas seguidas. -
7:20 - 7:23Há tanta coisa estranha
no sistema hoje em dia -
7:23 - 7:26que a reprodução automática
nos leva a lugares muito estranhos. -
7:26 - 7:28É assim que, em doze passos,
-
7:28 - 7:31você pode passar de um vídeo bonitinho
de um trem contando números -
7:31 - 7:34a um Mickey Mouse se masturbando.
-
7:35 - 7:37Desculpem-me por isso.
-
7:37 - 7:39Mas as coisas pioram.
-
7:39 - 7:40Isso é o que acontece
-
7:40 - 7:43quando todas essas palavras-chave
-
7:43 - 7:45e peças de atenção diferentes,
-
7:45 - 7:48essa criação desesperada de conteúdo,
-
7:48 - 7:51juntam-se todas em um único lugar.
-
7:52 - 7:56É aqui que todas essas palavras-chave
muito estranhas entram em nossa casa. -
7:56 - 8:01Mistura-se o vídeo da família dos dedos
com alguma coisa de super-heróis, -
8:01 - 8:04incluem-se algumas piadas bizarras
ou qualquer coisa assim, -
8:04 - 8:07e, de repente, vamos parar
em um lugar muito estranho. -
8:08 - 8:10O que mais aflige os pais
-
8:10 - 8:13são as coisas com conteúdo
violento ou sexual, não é? -
8:13 - 8:16Os desenhos animados
em que as crianças são agredidas, -
8:16 - 8:17mortas,
-
8:18 - 8:21brincadeiras estranhas que realmente
aterrorizam as crianças. -
8:21 - 8:25Existe um software que obtém
todas essas influências diferentes -
8:25 - 8:28para gerar automaticamente
os piores pesadelos das crianças. -
8:28 - 8:31Esse material afeta realmente
as crianças menores. -
8:31 - 8:34Os pais contam que os filhos
ficam traumatizados, -
8:34 - 8:38com medo do escuro,
de seus desenhos animados preferidos. -
8:39 - 8:42Se há uma conclusão a tirar de tudo isso
é que, se tiverem filhos pequenos, -
8:42 - 8:44mantenham-os longe do YouTube.
-
8:45 - 8:47(Aplausos)
-
8:51 - 8:54Mas outra coisa que realmente me aborrece
-
8:54 - 8:58é que não tenho certeza se percebemos
como chegamos a esse ponto. -
8:59 - 9:01Aceitamos todas essas influências,
-
9:01 - 9:04todas essas coisas e as manipulamos
de uma forma que ninguém pretendia. -
9:04 - 9:07Mas é assim que também estamos
construindo o mundo inteiro. -
9:08 - 9:10Pegamos todos esses dados,
-
9:10 - 9:11muitos dados ruins,
-
9:11 - 9:14muitos dados históricos
cheios de preconceito, -
9:14 - 9:17cheios de todos os nossos
piores impulsos da história, -
9:17 - 9:21desenvolvemos enormes conjuntos
de dados e depois os automatizamos. -
9:21 - 9:24Desestruturamos os dados
em coisas como relatórios de crédito, -
9:24 - 9:26prêmios de seguros,
-
9:26 - 9:29sistemas de policiamento preditivo,
-
9:29 - 9:30diretrizes de condenações.
-
9:30 - 9:34Essa é a maneira pela qual construímos
o mundo de hoje a partir desses dados. -
9:34 - 9:36Não sei o que é pior:
-
9:36 - 9:39termos criado um sistema
que parece estar totalmente otimizado -
9:39 - 9:42para os piores aspectos absolutos
do comportamento humano -
9:42 - 9:45ou parecer que o fizemos por acaso,
-
9:45 - 9:47sem sequer perceber
o que estávamos fazendo, -
9:47 - 9:50porque não compreendíamos
os sistemas que estávamos criando, -
9:50 - 9:54nem sabíamos como fazer
de forma diferente. -
9:55 - 9:58Acredito que há algumas coisas
que parecem estar levando a isso -
9:58 - 9:59principalmente no YouTube.
-
9:59 - 10:01A primeira delas é a publicidade,
-
10:01 - 10:04que é a monetização da atenção
-
10:04 - 10:07sem quaisquer outras
variáveis reais em ação, -
10:07 - 10:11sem qualquer cuidado para as pessoas
que desenvolvem esse conteúdo, -
10:11 - 10:15a centralização do poder,
a separação dessas coisas. -
10:15 - 10:19Mas creio que, em relação ao uso
da publicidade para apoiar isso, -
10:19 - 10:22a visão de adultos de fraldas
rolando na areia -
10:22 - 10:25na esperança de que um algoritmo
que realmente não compreendem -
10:25 - 10:26lhes dará dinheiro,
-
10:26 - 10:28sugere que isso talvez
-
10:28 - 10:31não seja a coisa na qual devemos basear
nossa sociedade e nossa cultura, -
10:31 - 10:33nem a maneira pela qual
devemos financiá-la. -
10:33 - 10:37O maior controlador disso é a automação,
-
10:37 - 10:40que é a disponibilização de toda
essa tecnologia assim que ela chega, -
10:40 - 10:42sem qualquer tipo de supervisão,
-
10:42 - 10:45e, quando isso acontece,
lavamos as mãos e dizemos: -
10:45 - 10:49"Não somos nós, é a tecnologia.
Não estamos envolvidos". -
10:49 - 10:50Isso não basta,
-
10:51 - 10:53porque essa coisa não é apenas
determinada por algoritmos, -
10:53 - 10:56mas é também policiada por eles.
-
10:56 - 10:59Quando o YouTube começou
a prestar atenção nisso, -
10:59 - 11:01disseram que a primeira coisa que fariam
-
11:01 - 11:04seria criar algoritmos melhores
de aprendizagem de máquinas -
11:04 - 11:05para moderar o conteúdo.
-
11:05 - 11:09Bem, a aprendizagem de máquinas,
como dirá qualquer especialista, -
11:09 - 11:13é o que começamos a chamar de software
que não sabemos realmente como funciona. -
11:13 - 11:16Acho que já temos o bastante disso.
-
11:17 - 11:21Não deveríamos deixar a IA decidir
o que é apropriado ou não, -
11:21 - 11:23pois sabemos o que acontece.
-
11:23 - 11:26Ela começará censurando outras coisas,
como o conteúdo "queer", -
11:26 - 11:28ou os discursos públicos legítimos.
-
11:29 - 11:30O que é permitido nesses discursos
-
11:30 - 11:34não deveria depender
de sistemas irresponsáveis. -
11:34 - 11:37Faz parte de uma discussão
que todos nós deveríamos ter. -
11:37 - 11:38Mas quero lembrar
-
11:38 - 11:41que a alternativa também
não é muito agradável. -
11:41 - 11:42O YouTube anunciou recentemente
-
11:42 - 11:45que irá lançar uma versão
de seu aplicativo para crianças, -
11:45 - 11:47totalmente moderada por pessoas.
-
11:48 - 11:51Zuckerberg, do Facebook, disse
uma coisa parecida no Congresso, -
11:51 - 11:54quando lhe perguntaram
como moderariam seu conteúdo. -
11:54 - 11:56Disse que haveria pessoas para isso.
-
11:56 - 11:57Queriam dizer
-
11:57 - 12:01que, em vez de serem as crianças
as primeiras a verem aqueles conteúdos, -
12:01 - 12:02colocariam trabalhadores mal pagos,
-
12:02 - 12:05com contratos precários,
sem apoio adequado de saúde mental, -
12:05 - 12:07que também seriam prejudicados.
-
12:07 - 12:08(Risos)
-
12:08 - 12:10Acho que podemos fazer
muito melhor do que isso. -
12:10 - 12:12(Aplausos)
-
12:14 - 12:19Acho que a ideia que reúne
essas duas coisas -
12:19 - 12:20é o poder de ação.
-
12:20 - 12:23Quero dizer com isso:
-
12:23 - 12:28como sabemos de que forma agir
no que melhor nos interessa? -
12:28 - 12:29É quase impossível saber
-
12:29 - 12:33nesses sistemas dos quais
não temos a compreensão total. -
12:33 - 12:36A desigualdade no poder
sempre leva à violência. -
12:36 - 12:38Podemos ver, nesses sistemas,
-
12:38 - 12:40que a desigualdade
de compreensão faz o mesmo. -
12:41 - 12:44Se há alguma coisa que podemos fazer
para começar a melhorar esses sistemas, -
12:44 - 12:47é torná-los mais legíveis
para as pessoas que os utilizam, -
12:47 - 12:49para que todos tenhamos
um entendimento comum -
12:49 - 12:51do que está acontecendo aqui.
-
12:52 - 12:55Mas o que mais penso
quanto a esses sistemas -
12:55 - 12:59é que não se trata, como espero
ter deixado claro, do YouTube. -
12:59 - 13:00Trata-se de tudo.
-
13:00 - 13:03Essas questões de poder de ação
e responsabilidade, -
13:03 - 13:05de opacidade e complexidade,
-
13:05 - 13:08da violência e da exploração
que resulta inerentemente -
13:08 - 13:11da concentração do poder
nas mãos de poucos -
13:11 - 13:13são questões muito maiores.
-
13:14 - 13:18São questões não apenas do YouTube,
nem da tecnologia em geral, -
13:18 - 13:19e nem sequer são novas.
-
13:19 - 13:21Estão conosco há séculos.
-
13:21 - 13:25Mas, por fim, criamos
esse sistema global, a internet, -
13:25 - 13:28que está nos mostrando essas questões
de forma extraordinária, -
13:28 - 13:30tornando-as inegáveis.
-
13:30 - 13:33A tecnologia tem
a capacidade extraordinária -
13:33 - 13:37de exemplificar e continuar
-
13:37 - 13:41todos os nossos desejos e preconceitos
mais notáveis, muitas vezes ocultos, -
13:41 - 13:43e codificá-los no mundo,
-
13:43 - 13:46mas também de anotá-los
para que possamos percebê-los -
13:46 - 13:50e não possamos fingir
que não existem mais. -
13:50 - 13:54Precisamos parar de pensar na tecnologia
como uma solução para todos os problemas -
13:54 - 13:58e pensar nela como um guia
para o que são realmente esses problemas, -
13:58 - 14:00para que possamos
pensar neles adequadamente -
14:00 - 14:02e começar a resolvê-los.
-
14:02 - 14:03Muito obrigado.
-
14:03 - 14:05(Aplausos)
-
14:10 - 14:11Obrigado.
-
14:11 - 14:13(Aplausos)
-
14:17 - 14:20Helen Walters: James, obrigada
por ter vindo dar esta palestra. -
14:20 - 14:25É interessante, quando pensamos nos filmes
em que os robôs assumem o comando, -
14:25 - 14:28é um pouco mais glamoroso
do que você descreve. -
14:28 - 14:32Mas fico pensando: nesses filmes,
temos a escalada da resistência. -
14:32 - 14:35Há uma escalada da resistência
sobre esse assunto? -
14:35 - 14:39Você vê sinais positivos
de recuperação da resistência? -
14:41 - 14:43James Bridle: Não sei
sobre a resistência direta, -
14:43 - 14:45pois creio que isso seja
muito a longo prazo, -
14:45 - 14:47está arraigado na cultura
de maneira muito profunda. -
14:47 - 14:50Minha amiga Eleanor Saitta sempre diz
-
14:50 - 14:54que quaisquer problemas tecnológicos
de dimensão e alcance suficientes -
14:54 - 14:56são, antes de mais nada,
problemas políticos. -
14:56 - 14:58Portanto, todas essas coisas
que tentamos abordar -
14:58 - 15:01não serão resolvidas
apenas melhorando a tecnologia, -
15:01 - 15:05mas mudando a sociedade que a produz.
-
15:05 - 15:08Nesse momento, creio que temos
um longo caminho a percorrer. -
15:08 - 15:13Mas, como disse, acredito que, explicando,
falando sobre isso de forma honesta, -
15:13 - 15:15poderemos, pelo menos,
iniciar esse processo. -
15:15 - 15:19HW: Quando você fala sobre legibilidade
e alfabetização digital, -
15:19 - 15:21acho difícil imaginar
-
15:21 - 15:24que precisamos colocar o ônus
da alfabetização digital nos usuários. -
15:25 - 15:29De quem é a responsabilidade
do ensino neste novo mundo? -
15:29 - 15:33JB: Creio que a responsabilidade
seja de todos nós, -
15:33 - 15:35que tudo o que fazemos e criamos
-
15:35 - 15:40precisa ser feito
numa discussão consensual -
15:40 - 15:42com todos que a têm evitado;
-
15:42 - 15:46que não estamos construindo sistemas
para enganar e surpreender as pessoas -
15:46 - 15:48fazendo a coisa certa,
-
15:48 - 15:51mas que elas estejam envolvidas
em cada passo de sua educação, -
15:51 - 15:53pois cada um desses sistemas é educativo.
-
15:53 - 15:57É nisso que tenho esperança,
mesmo nessa coisa sombria, -
15:57 - 15:59que, se pudermos analisá-la devidamente,
-
15:59 - 16:01esteja nela mesma, na verdade,
parte da educação -
16:01 - 16:05que nos permita começar a ver como
sistemas complexos se juntam e funcionam -
16:05 - 16:09e, talvez, conseguir aplicar
esses conhecimentos pelo mundo. -
16:09 - 16:11HW: James, é uma discussão
muito importante, -
16:11 - 16:14e sei que muitas pessoas aqui
estão abertas e preparadas para ela. -
16:14 - 16:16Obrigada por ter iniciado nossa manhã.
-
16:16 - 16:17JB: Muito obrigado.
-
16:17 - 16:19(Aplausos)
- Title:
- O pesadelo dos vídeos no YouTube para crianças e o que há de errado com a internet hoje
- Speaker:
- James Bridle
- Description:
-
James Bridle, escritor e artista, revela um canto escuro e estranho da internet, em que pessoas ou grupos desconhecidos no YouTube invadem o cérebro de criancinhas em troca de receitas publicitárias. De "ovo surpresa" e "Finger Family Song" a misturas criadas por algoritmos de personagens de desenhos animados conhecidos em situações violentas, esses vídeos exploram e aterrorizam mentes jovens e nos dizem algo sobre o rumo de nosso mundo cada vez mais movido a dados. "Precisamos parar de pensar na tecnologia como uma solução para todos os nossos problemas e pensar nela como um guia para o que são esses problemas, para que possamos começar a pensar neles adequadamente e começar a resolvê-los", diz Bridle.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 16:32