< Return to Video

O pesadelo dos vídeos no YouTube para crianças e o que há de errado com a internet hoje

  • 0:01 - 0:02
    Meu nome é James.
  • 0:02 - 0:04
    Sou escritor e artista,
  • 0:04 - 0:06
    e produzo trabalho
    a respeito de tecnologia.
  • 0:06 - 0:10
    Faço coisas como desenhar esboços
    em tamanho natural de "drones" militares
  • 0:10 - 0:12
    nas ruas ao redor do mundo,
  • 0:12 - 0:15
    para que as pessoas possam
    começar a pensar e a compreender
  • 0:15 - 0:19
    essas tecnologias muito difíceis
    de se ver e imaginar.
  • 0:19 - 0:23
    Faço coisas como redes neurais
    que preveem os resultados de eleições
  • 0:23 - 0:25
    com base em boletins meteorológicos,
  • 0:25 - 0:28
    porque fico intrigado
    com as reais possibilidades
  • 0:28 - 0:31
    dessas novas tecnologias estranhas.
  • 0:31 - 0:34
    No ano passado, construí
    meu próprio carro autônomo.
  • 0:34 - 0:38
    Mas, como não confio na tecnologia,
    também projetei uma armadilha para ele.
  • 0:38 - 0:40
    (Risos)
  • 0:40 - 0:44
    Faço essas coisas sobretudo porque
    as considero totalmente fascinantes,
  • 0:44 - 0:47
    mas também porque penso
    que, ao falar sobre tecnologia,
  • 0:47 - 0:49
    estamos falando, principalmente,
    sobre nós mesmos
  • 0:49 - 0:52
    e a maneira pela qual entendemos o mundo.
  • 0:52 - 0:54
    Eis uma história sobre tecnologia.
  • 0:56 - 0:58
    Este é um vídeo do "ovo surpresa".
  • 0:58 - 1:02
    É, basicamente, um vídeo de alguém
    abrindo um monte de ovos de chocolate
  • 1:02 - 1:04
    e mostrando os brinquedos
    que estão dentro deles.
  • 1:04 - 1:07
    Isso é tudo o que se passa
    durante sete longos minutos.
  • 1:07 - 1:10
    Quero que reparem em duas coisas.
  • 1:11 - 1:15
    Primeiro, esse vídeo
    tem 30 milhões de visualizações.
  • 1:15 - 1:16
    (Risos)
  • 1:16 - 1:21
    A outra coisa é que ele aparece
    em um canal com 6,3 milhões de inscritos
  • 1:21 - 1:24
    e um total de 8 bilhões de visualizações,
  • 1:24 - 1:27
    e há mais vídeos como esse.
  • 1:28 - 1:32
    São 30 milhões de pessoas
    assistindo a um cara abrindo esses ovos.
  • 1:32 - 1:37
    Parece muito estranho mas, se procurarem
    por "ovos surpresa" no YouTube,
  • 1:37 - 1:40
    irão verificar que há
    10 milhões desses vídeos,
  • 1:40 - 1:42
    e acho que isso é por baixo.
  • 1:42 - 1:44
    Deve haver bem mais vídeos como esse.
  • 1:44 - 1:46
    Se continuarem procurando, não acaba mais.
  • 1:46 - 1:48
    Há milhões desses vídeos,
  • 1:48 - 1:52
    em combinações cada vez mais
    grotescas de marcas e materiais,
  • 1:52 - 1:56
    surgindo na internet todos os dias.
  • 1:56 - 1:59
    É um mundo bizarro, não é mesmo?
  • 1:59 - 2:03
    Mas acontece que não são os adultos
    que assistem a esses vídeos.
  • 2:03 - 2:06
    São as crianças pequenas.
  • 2:06 - 2:08
    Esses vídeos são como droga para elas.
  • 2:08 - 2:10
    Há algo sobre a repetição,
  • 2:10 - 2:14
    a dose constante de dopamina
    da revelação, que as fisga totalmente.
  • 2:14 - 2:19
    As crianças pequenas assistem
    a esses vídeos sem parar
  • 2:19 - 2:21
    durante horas a fio.
  • 2:21 - 2:26
    Se tentarem afastá-las da tela,
    elas irão gritar sem parar.
  • 2:26 - 2:28
    Já vi pessoas na plateia concordando.
  • 2:28 - 2:31
    Se não acreditam, perguntem
    a quem têm crianças pequenas.
  • 2:31 - 2:34
    Elas conhecem os vídeos dos ovos surpresa.
  • 2:35 - 2:37
    É aí que começamos.
  • 2:37 - 2:41
    Estamos em 2018, e alguém,
    ou muitas pessoas,
  • 2:41 - 2:45
    usam o mesmo mecanismo
    do Facebook e do Instagram
  • 2:45 - 2:47
    para nos manter verificando o aplicativo
  • 2:47 - 2:51
    e para invadir o cérebro
    das criancinhas no YouTube
  • 2:51 - 2:53
    em troca de receitas publicitárias.
  • 2:54 - 2:58
    É o que, pelo menos,
    espero que estejam fazendo,
  • 2:58 - 3:04
    porque há formas mais fáceis de gerar
    receitas publicitárias no YouTube.
  • 3:04 - 3:06
    Podemos inventar ou roubar coisas.
  • 3:06 - 3:09
    Se procurarem por desenhos infantis
    realmente populares,
  • 3:09 - 3:10
    como "Peppa" ou "Patrulha Canina",
  • 3:10 - 3:13
    descobrirão que há também
    milhões deles na internet.
  • 3:13 - 3:17
    Claro que a maioria deles não é
    publicada pelos criadores originais.
  • 3:17 - 3:20
    Eles vêm de um monte de contas
    aleatórias diferentes,
  • 3:20 - 3:24
    e é impossível saber quem os publica
    ou quais são os motivos para isso.
  • 3:24 - 3:26
    Isso lhes parece familiar?
  • 3:26 - 3:28
    Porque é exatamente o mesmo mecanismo
  • 3:28 - 3:31
    que ocorre na maior parte
    de nossos serviços digitais
  • 3:31 - 3:34
    em que é impossível saber
    a origem das informações.
  • 3:34 - 3:36
    São notícias falsas para crianças,
  • 3:36 - 3:38
    e nós as estamos treinando,
    desde que nascem,
  • 3:38 - 3:43
    a clicarem no primeiro link que aparece,
    não importando a origem dele.
  • 3:43 - 3:45
    Não parece uma ideia muito boa.
  • 3:46 - 3:49
    Outra coisa muito famosa
    no YouTube para crianças
  • 3:49 - 3:51
    é a "Finger Family Song".
  • 3:51 - 3:53
    Acabei de ouvi alguém
    resmungando de novo na plateia.
  • 3:53 - 3:55
    Esta é a "Finger Family Song".
  • 3:55 - 3:57
    Foi a primeira que consegui encontrar.
  • 3:57 - 4:00
    É de 2007 e tem apenas
    200 mil visualizações,
  • 4:00 - 4:02
    o que não é nada nesse jogo.
  • 4:02 - 4:04
    Mas ela tem uma melodia irritante
  • 4:04 - 4:08
    que não vou tocar para vocês
    porque ela gruda no cérebro
  • 4:08 - 4:10
    como grudou no meu,
  • 4:10 - 4:12
    e não vou fazer uma coisa dessas.
  • 4:12 - 4:14
    Mas, como os ovos surpresa,
  • 4:14 - 4:18
    ela entra na cabeça das crianças,
    que ficam viciadas nela.
  • 4:18 - 4:21
    Dentro de alguns anos, esses vídeos
    começam a surgir em toda parte,
  • 4:21 - 4:23
    e temos versões em vários idiomas
  • 4:23 - 4:26
    com desenhos infantis usando a comida
  • 4:26 - 4:30
    ou quaisquer tipos de elementos
    de animação que existem por aí.
  • 4:31 - 4:36
    Mais uma vez, há milhões
    desses vídeos na internet,
  • 4:36 - 4:40
    disponíveis em todos os tipos
    de combinações bizarras.
  • 4:40 - 4:42
    Quanto mais tempo passamos com eles
  • 4:42 - 4:46
    mais loucos começamos a ficar.
  • 4:46 - 4:49
    Foi aí que comecei a ter
  • 4:49 - 4:53
    uma sensação de profunda estranheza
    e falta de compreensão
  • 4:53 - 4:57
    sobre como era construída essa coisa
    que parece estar sempre ao meu redor.
  • 4:57 - 4:59
    Porque é impossível saber
    de onde vêm esses vídeos.
  • 4:59 - 5:00
    Quem os produz?
  • 5:00 - 5:04
    Alguns parecem ser feitos por equipes
    de animadores profissionais.
  • 5:05 - 5:07
    Outros são apenas montados
    aleatoriamente por software.
  • 5:07 - 5:12
    Alguns divertem as crianças
    e têm um aspecto muito saudável.
  • 5:12 - 5:16
    E outros são de pessoas que, claramente,
    não deveriam se aproximar de crianças.
  • 5:16 - 5:17
    (Risos)
  • 5:20 - 5:24
    Mais uma vez, a impossibilidade
    de saber quem faz essas coisas...
  • 5:24 - 5:25
    É um robô?
  • 5:25 - 5:27
    Uma pessoa? Um "troll"?
  • 5:28 - 5:32
    Isso significa que não conseguimos mais
    notar a diferença entre essas coisas?
  • 5:32 - 5:36
    Essa incerteza não lhes parece familiar?
  • 5:38 - 5:41
    O meio principal para obter
    visualizações de vídeos,
  • 5:41 - 5:42
    e elas significam dinheiro,
  • 5:42 - 5:47
    é enchendo os títulos desses vídeos
    com esses termos populares.
  • 5:47 - 5:49
    Considerem os "ovos surpresa".
  • 5:49 - 5:52
    Incluam "Patrulha Canina",
    "ovo de Páscoa", seja o que for,
  • 5:52 - 5:55
    todas as palavras de outros
    vídeos populares ao seu título
  • 5:55 - 5:58
    até acabarem com esse tipo
    de linguagem misturada,
  • 5:58 - 6:01
    que não faz sentido algum às pessoas.
  • 6:01 - 6:04
    Porque, é claro, são apenas
    as criancinhas que veem esses vídeos,
  • 6:04 - 6:06
    e o que elas sabem?
  • 6:06 - 6:09
    O verdadeiro público
    para essas coisas é o software,
  • 6:09 - 6:11
    são os algoritmos.
  • 6:11 - 6:12
    É o software que o YouTube usa
  • 6:12 - 6:17
    para escolher quais vídeos são semelhantes
    e torná-los populares e recomendados.
  • 6:17 - 6:20
    É assim que acabamos tendo
    essa mistura totalmente sem sentido,
  • 6:20 - 6:23
    tanto a nível do título como do conteúdo.
  • 6:24 - 6:25
    Mas temos que nos lembrar
  • 6:25 - 6:30
    de que ainda há pessoas nesse sistema
    otimizado por algoritmos,
  • 6:30 - 6:33
    que são forçadas a produzir
  • 6:33 - 6:36
    essas combinações de palavras
    cada vez mais bizarras,
  • 6:36 - 6:39
    em uma desesperada improvisação artística,
  • 6:39 - 6:44
    reagindo aos gritos combinados
    de um milhão de crianças de uma vez.
  • 6:45 - 6:47
    São pessoas reais, presas nesses sistemas,
  • 6:47 - 6:52
    e essa é outra coisa muito estranha
    dessa cultura comandada por algoritmos,
  • 6:52 - 6:53
    porque, mesmo sendo humano,
  • 6:53 - 6:56
    você acaba se comportando como máquina
    apenas para sobreviver.
  • 6:57 - 6:59
    E também, do outro lado da tela,
  • 6:59 - 7:02
    ainda há criancinhas assistindo a isso,
  • 7:02 - 7:06
    com a atenção total presa
    por esses estranhos mecanismos.
  • 7:07 - 7:09
    A maioria delas é muito pequena
    até para usar a internet.
  • 7:09 - 7:12
    Só batem na tela com suas mãozinhas.
  • 7:12 - 7:15
    A reprodução automática
    continua exibindo os vídeos
  • 7:15 - 7:20
    inúmeras vezes, em um ciclo,
    infinitamente, durante horas seguidas.
  • 7:20 - 7:23
    Há tanta coisa estranha
    no sistema hoje em dia
  • 7:23 - 7:26
    que a reprodução automática
    nos leva a lugares muito estranhos.
  • 7:26 - 7:28
    É assim que, em doze passos,
  • 7:28 - 7:31
    você pode passar de um vídeo bonitinho
    de um trem contando números
  • 7:31 - 7:34
    a um Mickey Mouse se masturbando.
  • 7:35 - 7:37
    Desculpem-me por isso.
  • 7:37 - 7:39
    Mas as coisas pioram.
  • 7:39 - 7:40
    Isso é o que acontece
  • 7:40 - 7:43
    quando todas essas palavras-chave
  • 7:43 - 7:45
    e peças de atenção diferentes,
  • 7:45 - 7:48
    essa criação desesperada de conteúdo,
  • 7:48 - 7:51
    juntam-se todas em um único lugar.
  • 7:52 - 7:56
    É aqui que todas essas palavras-chave
    muito estranhas entram em nossa casa.
  • 7:56 - 8:01
    Mistura-se o vídeo da família dos dedos
    com alguma coisa de super-heróis,
  • 8:01 - 8:04
    incluem-se algumas piadas bizarras
    ou qualquer coisa assim,
  • 8:04 - 8:07
    e, de repente, vamos parar
    em um lugar muito estranho.
  • 8:08 - 8:10
    O que mais aflige os pais
  • 8:10 - 8:13
    são as coisas com conteúdo
    violento ou sexual, não é?
  • 8:13 - 8:16
    Os desenhos animados
    em que as crianças são agredidas,
  • 8:16 - 8:17
    mortas,
  • 8:18 - 8:21
    brincadeiras estranhas que realmente
    aterrorizam as crianças.
  • 8:21 - 8:25
    Existe um software que obtém
    todas essas influências diferentes
  • 8:25 - 8:28
    para gerar automaticamente
    os piores pesadelos das crianças.
  • 8:28 - 8:31
    Esse material afeta realmente
    as crianças menores.
  • 8:31 - 8:34
    Os pais contam que os filhos
    ficam traumatizados,
  • 8:34 - 8:38
    com medo do escuro,
    de seus desenhos animados preferidos.
  • 8:39 - 8:42
    Se há uma conclusão a tirar de tudo isso
    é que, se tiverem filhos pequenos,
  • 8:42 - 8:44
    mantenham-os longe do YouTube.
  • 8:45 - 8:47
    (Aplausos)
  • 8:51 - 8:54
    Mas outra coisa que realmente me aborrece
  • 8:54 - 8:58
    é que não tenho certeza se percebemos
    como chegamos a esse ponto.
  • 8:59 - 9:01
    Aceitamos todas essas influências,
  • 9:01 - 9:04
    todas essas coisas e as manipulamos
    de uma forma que ninguém pretendia.
  • 9:04 - 9:07
    Mas é assim que também estamos
    construindo o mundo inteiro.
  • 9:08 - 9:10
    Pegamos todos esses dados,
  • 9:10 - 9:11
    muitos dados ruins,
  • 9:11 - 9:14
    muitos dados históricos
    cheios de preconceito,
  • 9:14 - 9:17
    cheios de todos os nossos
    piores impulsos da história,
  • 9:17 - 9:21
    desenvolvemos enormes conjuntos
    de dados e depois os automatizamos.
  • 9:21 - 9:24
    Desestruturamos os dados
    em coisas como relatórios de crédito,
  • 9:24 - 9:26
    prêmios de seguros,
  • 9:26 - 9:29
    sistemas de policiamento preditivo,
  • 9:29 - 9:30
    diretrizes de condenações.
  • 9:30 - 9:34
    Essa é a maneira pela qual construímos
    o mundo de hoje a partir desses dados.
  • 9:34 - 9:36
    Não sei o que é pior:
  • 9:36 - 9:39
    termos criado um sistema
    que parece estar totalmente otimizado
  • 9:39 - 9:42
    para os piores aspectos absolutos
    do comportamento humano
  • 9:42 - 9:45
    ou parecer que o fizemos por acaso,
  • 9:45 - 9:47
    sem sequer perceber
    o que estávamos fazendo,
  • 9:47 - 9:50
    porque não compreendíamos
    os sistemas que estávamos criando,
  • 9:50 - 9:54
    nem sabíamos como fazer
    de forma diferente.
  • 9:55 - 9:58
    Acredito que há algumas coisas
    que parecem estar levando a isso
  • 9:58 - 9:59
    principalmente no YouTube.
  • 9:59 - 10:01
    A primeira delas é a publicidade,
  • 10:01 - 10:04
    que é a monetização da atenção
  • 10:04 - 10:07
    sem quaisquer outras
    variáveis reais em ação,
  • 10:07 - 10:11
    sem qualquer cuidado para as pessoas
    que desenvolvem esse conteúdo,
  • 10:11 - 10:15
    a centralização do poder,
    a separação dessas coisas.
  • 10:15 - 10:19
    Mas creio que, em relação ao uso
    da publicidade para apoiar isso,
  • 10:19 - 10:22
    a visão de adultos de fraldas
    rolando na areia
  • 10:22 - 10:25
    na esperança de que um algoritmo
    que realmente não compreendem
  • 10:25 - 10:26
    lhes dará dinheiro,
  • 10:26 - 10:28
    sugere que isso talvez
  • 10:28 - 10:31
    não seja a coisa na qual devemos basear
    nossa sociedade e nossa cultura,
  • 10:31 - 10:33
    nem a maneira pela qual
    devemos financiá-la.
  • 10:33 - 10:37
    O maior controlador disso é a automação,
  • 10:37 - 10:40
    que é a disponibilização de toda
    essa tecnologia assim que ela chega,
  • 10:40 - 10:42
    sem qualquer tipo de supervisão,
  • 10:42 - 10:45
    e, quando isso acontece,
    lavamos as mãos e dizemos:
  • 10:45 - 10:49
    "Não somos nós, é a tecnologia.
    Não estamos envolvidos".
  • 10:49 - 10:50
    Isso não basta,
  • 10:51 - 10:53
    porque essa coisa não é apenas
    determinada por algoritmos,
  • 10:53 - 10:56
    mas é também policiada por eles.
  • 10:56 - 10:59
    Quando o YouTube começou
    a prestar atenção nisso,
  • 10:59 - 11:01
    disseram que a primeira coisa que fariam
  • 11:01 - 11:04
    seria criar algoritmos melhores
    de aprendizagem de máquinas
  • 11:04 - 11:05
    para moderar o conteúdo.
  • 11:05 - 11:09
    Bem, a aprendizagem de máquinas,
    como dirá qualquer especialista,
  • 11:09 - 11:13
    é o que começamos a chamar de software
    que não sabemos realmente como funciona.
  • 11:13 - 11:16
    Acho que já temos o bastante disso.
  • 11:17 - 11:21
    Não deveríamos deixar a IA decidir
    o que é apropriado ou não,
  • 11:21 - 11:23
    pois sabemos o que acontece.
  • 11:23 - 11:26
    Ela começará censurando outras coisas,
    como o conteúdo "queer",
  • 11:26 - 11:28
    ou os discursos públicos legítimos.
  • 11:29 - 11:30
    O que é permitido nesses discursos
  • 11:30 - 11:34
    não deveria depender
    de sistemas irresponsáveis.
  • 11:34 - 11:37
    Faz parte de uma discussão
    que todos nós deveríamos ter.
  • 11:37 - 11:38
    Mas quero lembrar
  • 11:38 - 11:41
    que a alternativa também
    não é muito agradável.
  • 11:41 - 11:42
    O YouTube anunciou recentemente
  • 11:42 - 11:45
    que irá lançar uma versão
    de seu aplicativo para crianças,
  • 11:45 - 11:47
    totalmente moderada por pessoas.
  • 11:48 - 11:51
    Zuckerberg, do Facebook, disse
    uma coisa parecida no Congresso,
  • 11:51 - 11:54
    quando lhe perguntaram
    como moderariam seu conteúdo.
  • 11:54 - 11:56
    Disse que haveria pessoas para isso.
  • 11:56 - 11:57
    Queriam dizer
  • 11:57 - 12:01
    que, em vez de serem as crianças
    as primeiras a verem aqueles conteúdos,
  • 12:01 - 12:02
    colocariam trabalhadores mal pagos,
  • 12:02 - 12:05
    com contratos precários,
    sem apoio adequado de saúde mental,
  • 12:05 - 12:07
    que também seriam prejudicados.
  • 12:07 - 12:08
    (Risos)
  • 12:08 - 12:10
    Acho que podemos fazer
    muito melhor do que isso.
  • 12:10 - 12:12
    (Aplausos)
  • 12:14 - 12:19
    Acho que a ideia que reúne
    essas duas coisas
  • 12:19 - 12:20
    é o poder de ação.
  • 12:20 - 12:23
    Quero dizer com isso:
  • 12:23 - 12:28
    como sabemos de que forma agir
    no que melhor nos interessa?
  • 12:28 - 12:29
    É quase impossível saber
  • 12:29 - 12:33
    nesses sistemas dos quais
    não temos a compreensão total.
  • 12:33 - 12:36
    A desigualdade no poder
    sempre leva à violência.
  • 12:36 - 12:38
    Podemos ver, nesses sistemas,
  • 12:38 - 12:40
    que a desigualdade
    de compreensão faz o mesmo.
  • 12:41 - 12:44
    Se há alguma coisa que podemos fazer
    para começar a melhorar esses sistemas,
  • 12:44 - 12:47
    é torná-los mais legíveis
    para as pessoas que os utilizam,
  • 12:47 - 12:49
    para que todos tenhamos
    um entendimento comum
  • 12:49 - 12:51
    do que está acontecendo aqui.
  • 12:52 - 12:55
    Mas o que mais penso
    quanto a esses sistemas
  • 12:55 - 12:59
    é que não se trata, como espero
    ter deixado claro, do YouTube.
  • 12:59 - 13:00
    Trata-se de tudo.
  • 13:00 - 13:03
    Essas questões de poder de ação
    e responsabilidade,
  • 13:03 - 13:05
    de opacidade e complexidade,
  • 13:05 - 13:08
    da violência e da exploração
    que resulta inerentemente
  • 13:08 - 13:11
    da concentração do poder
    nas mãos de poucos
  • 13:11 - 13:13
    são questões muito maiores.
  • 13:14 - 13:18
    São questões não apenas do YouTube,
    nem da tecnologia em geral,
  • 13:18 - 13:19
    e nem sequer são novas.
  • 13:19 - 13:21
    Estão conosco há séculos.
  • 13:21 - 13:25
    Mas, por fim, criamos
    esse sistema global, a internet,
  • 13:25 - 13:28
    que está nos mostrando essas questões
    de forma extraordinária,
  • 13:28 - 13:30
    tornando-as inegáveis.
  • 13:30 - 13:33
    A tecnologia tem
    a capacidade extraordinária
  • 13:33 - 13:37
    de exemplificar e continuar
  • 13:37 - 13:41
    todos os nossos desejos e preconceitos
    mais notáveis, muitas vezes ocultos,
  • 13:41 - 13:43
    e codificá-los no mundo,
  • 13:43 - 13:46
    mas também de anotá-los
    para que possamos percebê-los
  • 13:46 - 13:50
    e não possamos fingir
    que não existem mais.
  • 13:50 - 13:54
    Precisamos parar de pensar na tecnologia
    como uma solução para todos os problemas
  • 13:54 - 13:58
    e pensar nela como um guia
    para o que são realmente esses problemas,
  • 13:58 - 14:00
    para que possamos
    pensar neles adequadamente
  • 14:00 - 14:02
    e começar a resolvê-los.
  • 14:02 - 14:03
    Muito obrigado.
  • 14:03 - 14:05
    (Aplausos)
  • 14:10 - 14:11
    Obrigado.
  • 14:11 - 14:13
    (Aplausos)
  • 14:17 - 14:20
    Helen Walters: James, obrigada
    por ter vindo dar esta palestra.
  • 14:20 - 14:25
    É interessante, quando pensamos nos filmes
    em que os robôs assumem o comando,
  • 14:25 - 14:28
    é um pouco mais glamoroso
    do que você descreve.
  • 14:28 - 14:32
    Mas fico pensando: nesses filmes,
    temos a escalada da resistência.
  • 14:32 - 14:35
    Há uma escalada da resistência
    sobre esse assunto?
  • 14:35 - 14:39
    Você vê sinais positivos
    de recuperação da resistência?
  • 14:41 - 14:43
    James Bridle: Não sei
    sobre a resistência direta,
  • 14:43 - 14:45
    pois creio que isso seja
    muito a longo prazo,
  • 14:45 - 14:47
    está arraigado na cultura
    de maneira muito profunda.
  • 14:47 - 14:50
    Minha amiga Eleanor Saitta sempre diz
  • 14:50 - 14:54
    que quaisquer problemas tecnológicos
    de dimensão e alcance suficientes
  • 14:54 - 14:56
    são, antes de mais nada,
    problemas políticos.
  • 14:56 - 14:58
    Portanto, todas essas coisas
    que tentamos abordar
  • 14:58 - 15:01
    não serão resolvidas
    apenas melhorando a tecnologia,
  • 15:01 - 15:05
    mas mudando a sociedade que a produz.
  • 15:05 - 15:08
    Nesse momento, creio que temos
    um longo caminho a percorrer.
  • 15:08 - 15:13
    Mas, como disse, acredito que, explicando,
    falando sobre isso de forma honesta,
  • 15:13 - 15:15
    poderemos, pelo menos,
    iniciar esse processo.
  • 15:15 - 15:19
    HW: Quando você fala sobre legibilidade
    e alfabetização digital,
  • 15:19 - 15:21
    acho difícil imaginar
  • 15:21 - 15:24
    que precisamos colocar o ônus
    da alfabetização digital nos usuários.
  • 15:25 - 15:29
    De quem é a responsabilidade
    do ensino neste novo mundo?
  • 15:29 - 15:33
    JB: Creio que a responsabilidade
    seja de todos nós,
  • 15:33 - 15:35
    que tudo o que fazemos e criamos
  • 15:35 - 15:40
    precisa ser feito
    numa discussão consensual
  • 15:40 - 15:42
    com todos que a têm evitado;
  • 15:42 - 15:46
    que não estamos construindo sistemas
    para enganar e surpreender as pessoas
  • 15:46 - 15:48
    fazendo a coisa certa,
  • 15:48 - 15:51
    mas que elas estejam envolvidas
    em cada passo de sua educação,
  • 15:51 - 15:53
    pois cada um desses sistemas é educativo.
  • 15:53 - 15:57
    É nisso que tenho esperança,
    mesmo nessa coisa sombria,
  • 15:57 - 15:59
    que, se pudermos analisá-la devidamente,
  • 15:59 - 16:01
    esteja nela mesma, na verdade,
    parte da educação
  • 16:01 - 16:05
    que nos permita começar a ver como
    sistemas complexos se juntam e funcionam
  • 16:05 - 16:09
    e, talvez, conseguir aplicar
    esses conhecimentos pelo mundo.
  • 16:09 - 16:11
    HW: James, é uma discussão
    muito importante,
  • 16:11 - 16:14
    e sei que muitas pessoas aqui
    estão abertas e preparadas para ela.
  • 16:14 - 16:16
    Obrigada por ter iniciado nossa manhã.
  • 16:16 - 16:17
    JB: Muito obrigado.
  • 16:17 - 16:19
    (Aplausos)
Title:
O pesadelo dos vídeos no YouTube para crianças e o que há de errado com a internet hoje
Speaker:
James Bridle
Description:

James Bridle, escritor e artista, revela um canto escuro e estranho da internet, em que pessoas ou grupos desconhecidos no YouTube invadem o cérebro de criancinhas em troca de receitas publicitárias. De "ovo surpresa" e "Finger Family Song" a misturas criadas por algoritmos de personagens de desenhos animados conhecidos em situações violentas, esses vídeos exploram e aterrorizam mentes jovens e nos dizem algo sobre o rumo de nosso mundo cada vez mais movido a dados. "Precisamos parar de pensar na tecnologia como uma solução para todos os nossos problemas e pensar nela como um guia para o que são esses problemas, para que possamos começar a pensar neles adequadamente e começar a resolvê-los", diz Bridle.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:32

Portuguese, Brazilian subtitles

Revisions