Return to Video

As maravilhosas e aterradoras implicações de computadores que conseguem aprender

  • 0:01 - 0:05
    Era habitual, quando queríamos
    que um computador fizesse algo novo,
  • 0:05 - 0:06
    termos que o programar.
  • 0:06 - 0:10
    Para aqueles que nunca programaram,
  • 0:10 - 0:13
    a programação requer especificar
    com enorme detalhe,
  • 0:13 - 0:17
    todos os passos que queremos
    que o computador execute
  • 0:17 - 0:19
    para alcançarmos o nosso objetivo.
  • 0:19 - 0:23
    Se queremos fazer algo que não
    sabemos fazer nós próprios,
  • 0:23 - 0:25
    será um grande desafio.
  • 0:25 - 0:28
    Este foi o desafio enfrentado
    por este homem, Arthur Samuel.
  • 0:28 - 0:32
    Em 1965, ele queria que um computador
  • 0:32 - 0:35
    o vencesse nas damas.
  • 0:35 - 0:37
    Como podemos escrever um programa,
  • 0:37 - 0:40
    com grande detalhe, que seja melhor
    do que nós nas damas?
  • 0:40 - 0:42
    Ele teve uma ideia:
  • 0:42 - 0:46
    pôs o computador a jogar contra
    si próprio, milhares de vezes,
  • 0:46 - 0:48
    para aprender a jogar damas.
  • 0:48 - 0:52
    Funcionou e, em 1962,
  • 0:52 - 0:56
    o computador venceu o campeão
    do estado do Connecticut.
  • 0:56 - 0:58
    Arthur Samuel foi, assim, o pai
    da aprendizagem automática
  • 0:58 - 1:00
    e tenho uma grande dívida para com ele,
  • 1:00 - 1:03
    porque sou um profissional
    da aprendizagem automática.
  • 1:03 - 1:04
    Fui o presidente da Kaggle,
  • 1:04 - 1:08
    uma comunidade de cerca de 200 000
    profissionais da aprendizagem automática.
  • 1:08 - 1:10
    A Kaggle estabelece competições,
  • 1:10 - 1:14
    em que se tenta resolver problemas
    ainda não resolvidos,
  • 1:14 - 1:17
    e teve sucesso centenas de vezes.
  • 1:17 - 1:20
    Desta posição vantajosa
    pude descobrir muito
  • 1:20 - 1:24
    sobre o que a aprendizagem automática
    pode fazer no passado, no presente
  • 1:24 - 1:26
    e o que poderá fazer no futuro.
  • 1:26 - 1:31
    O primeiro grande sucesso comercial da
    aprendizagem automática foi a Google.
  • 1:31 - 1:34
    A Google mostrou que é possível
    encontrar informação
  • 1:34 - 1:36
    usando o algoritmo de um computador,
  • 1:36 - 1:38
    e este algoritmo é baseado
    em aprendizagem automática.
  • 1:38 - 1:42
    Desde então, houve muitos sucessos
    comerciais da aprendizagem automática.
  • 1:42 - 1:44
    Empresas como a Amazon e a Netflix
  • 1:44 - 1:48
    usam a aprendizagem automática para
    sugerir produtos que talvez compremos,
  • 1:48 - 1:50
    filmes que talvez gostemos de ver.
  • 1:50 - 1:52
    Por vezes, é quase assustador.
  • 1:52 - 1:54
    Empresas como o LinkedIn e o Facebook
  • 1:54 - 1:56
    por vezes dizem-nos quem poderão
    ser os nossos amigos
  • 1:56 - 1:59
    e não temos ideia de como
    elas fizeram isso,
  • 1:59 - 2:01
    porque estão a usar o poder
    da aprendizagem automática.
  • 2:01 - 2:04
    Estes algoritmos aprenderam a fazer
    isto a partir de dados
  • 2:04 - 2:07
    em vez de serem programados à mão.
  • 2:07 - 2:10
    Esta foi também a razão do sucesso da IBM
  • 2:10 - 2:14
    ao conseguir que o Watson ganhasse
    a dois campeões mundiais no "Jeopardy",
  • 2:14 - 2:18
    respondendo a questões incrivelmente
    subtis e complexas.
  • 2:20 - 2:23
    Esta é também a razão de podermos ver
    os primeiros carros autónomos.
  • 2:23 - 2:26
    É bastante importante podermos distinguir
  • 2:26 - 2:28
    uma árvore de um peão.
  • 2:28 - 2:31
    Não sabemos como escrever
    esses programas à mão,
  • 2:31 - 2:34
    mas isso é agora possível
    com a aprendizagem automática.
  • 2:34 - 2:37
    Este carro conduziu mais
    de um milhão de quilómetros
  • 2:37 - 2:40
    em estradas normais,
    sem qualquer acidente.
  • 2:40 - 2:44
    Sabemos agora que os computadores
    conseguem aprender.
  • 2:44 - 2:46
    Conseguem aprender a fazer coisas
  • 2:46 - 2:49
    que nós, por vezes, não sabemos
    fazer sozinhos,
  • 2:49 - 2:52
    ou fazem-no melhor do que nós.
  • 2:52 - 2:56
    Um dos exemplos mais fantásticos
    da aprendizagem automática que eu vi
  • 2:56 - 2:58
    surgiu num projeto
    que desenvolvi na Kaggle
  • 2:58 - 3:02
    em que uma equipa liderada
    por um tipo chamado Geoffrey Hinton
  • 3:02 - 3:05
    da Universidade de Toronto,
    venceu uma competição
  • 3:05 - 3:07
    sobre descoberta automática
    de medicamentos.
  • 3:07 - 3:10
    O mais extraordinário não foi terem
    vencido todos os algoritmos
  • 3:10 - 3:13
    desenvolvidos pela Merck ou pela
    comunidade académica internacional,
  • 3:13 - 3:18
    mas ninguém na equipa ter formação
    em química, biologia ou ciências naturais
  • 3:18 - 3:20
    e fizeram-no em duas semanas.
  • 3:20 - 3:22
    Como fizeram isto?
  • 3:22 - 3:26
    Usaram um algoritmo extraordinário
    chamado aprendizagem profunda.
  • 3:26 - 3:29
    Isso foi tão importante que saiu
    num artigo na primeira página
  • 3:29 - 3:31
    no New York Times, algumas semanas depois.
  • 3:31 - 3:34
    Este do lado esquerdo
    é o Geoffrey Hinton.
  • 3:34 - 3:38
    A aprendizagem profunda é um algoritmo
    inspirado no cérebro humano.
  • 3:38 - 3:40
    e, como resultado, é um algoritmo
  • 3:40 - 3:44
    que não tem limitações teóricas
    em relação ao que pode fazer.
  • 3:44 - 3:47
    Quanto mais dados e tempo
    de computação fornecermos
  • 3:47 - 3:48
    melhor ele fica.
  • 3:48 - 3:51
    O New York Times também
    mostrou, nesse artigo,
  • 3:51 - 3:53
    outro resultado extraordinário
    da aprendizagem profunda
  • 3:53 - 3:56
    que vou agora mostrar-vos.
  • 3:56 - 4:01
    Mostra que os computadores
    conseguem ouvir e compreender
  • 4:01 - 4:03
    (Vídeo) Richard Rashid: O último passo
  • 4:03 - 4:06
    que quero poder dar neste processo
  • 4:06 - 4:10
    é falar-vos em chinês.
  • 4:12 - 4:14
    O segredo para isso
  • 4:14 - 4:19
    é que conseguimos reunir muita
    informação de oradores chineses
  • 4:19 - 4:21
    e produzir um sistema texto-fala
  • 4:21 - 4:26
    que converte texto em chinês
    para a língua chinesa.
  • 4:27 - 4:30
    Depois usámos cerca de uma hora
    da minha própria voz
  • 4:30 - 4:34
    para modular o sistema texto-fala padrão
  • 4:34 - 4:37
    para que falasse como eu.
  • 4:37 - 4:40
    O resultado não é perfeito.
  • 4:40 - 4:42
    Há ainda alguns erros.
  • 4:42 - 4:44
    (Em chinês)
  • 4:44 - 4:48
    (Aplausos)
  • 4:49 - 4:53
    Há muito trabalho a fazer nesta área.
  • 4:54 - 4:57
    (Em chinês)
  • 4:57 - 5:01
    (Aplausos)
  • 5:01 - 5:05
    Isto foi numa conferência sobre
    aprendizagem automática na China.
  • 5:05 - 5:08
    Não é frequente ouvir,
    em conferências académicas,
  • 5:08 - 5:09
    aplausos espontâneos.
  • 5:09 - 5:13
    embora aconteça, por vezes,
    em conferências TEDx.
  • 5:13 - 5:15
    Todo o que vimos foi devido
    a aprendizagem profunda.
  • 5:15 - 5:17
    (Aplausos)
    Obrigado.
  • 5:17 - 5:20
    A transcrição para inglês foi feita
    com aprendizagem profunda,
  • 5:20 - 5:23
    assim como a tradução para chinês,
    no texto em cima, à direita,
  • 5:23 - 5:26
    e a construção da voz.
  • 5:27 - 5:29
    A aprendizagem profunda
    é algo extraordinário.
  • 5:29 - 5:32
    É um único algoritmo que parece
    poder fazer quase tudo.
  • 5:32 - 5:36
    Descobri que, um ano antes, também
    tinha aprendido a ver.
  • 5:36 - 5:37
    Nesta competição obscura, na Alemanha,
  • 5:37 - 5:40
    — Referência Alemã para Reconhecimento
    de Sinais de Trânsito —
  • 5:40 - 5:44
    a aprendizagem profunda conseguiu
    reconhecer sinais de trânsito.
  • 5:44 - 5:48
    Conseguiu reconhecer sinais de trânsito,
    melhor do que qualquer outro algoritmo,
  • 5:48 - 5:52
    e a avaliação mostrou que era cerca de
    duas vezes melhor do que as pessoas.
  • 5:52 - 5:54
    Por volta de 2011,
    tivemos o primeiro exemplo
  • 5:54 - 5:57
    de computadores que conseguem
    ver melhor do que as pessoas.
  • 5:57 - 5:59
    Desde então, muito aconteceu.
  • 5:59 - 6:03
    Em 2012, a Google anunciou que tinham
    um algoritmo de aprendizagem profunda
  • 6:03 - 6:04
    a observar vídeos no Youtube
  • 6:04 - 6:08
    e a processar dados de 16 000
    computadores por mês,
  • 6:08 - 6:12
    O computador conseguiu de forma autónoma
    aprender conceitos como pessoas e gatos
  • 6:12 - 6:14
    apenas observando os vídeos.
  • 6:14 - 6:16
    Isto é semelhante ao modo
    como os humanos aprendem.
  • 6:16 - 6:19
    Não aprendem dizendo-lhes
    o que estão a ver,
  • 6:19 - 6:22
    mas aprendendo por si
    o que estas coisas são.
  • 6:22 - 6:26
    Também em 2012, o Geoffrey Hinton,
    que vimos antes,
  • 6:26 - 6:29
    venceu a competição muito
    popular ImageNet,
  • 6:29 - 6:33
    ao tentar identificar, num conjunto
    de 1,5 milhões de imagens,
  • 6:33 - 6:34
    o que elas representavam.
  • 6:34 - 6:38
    Em 2014, reduzimos para 6% a taxa de erro
  • 6:38 - 6:39
    no reconhecimento de imagem.
  • 6:39 - 6:41
    Isto é melhor do que as
    pessoas conseguem fazer.
  • 6:41 - 6:45
    As máquinas estão realmente a fazer
    um trabalho extraordinário
  • 6:45 - 6:47
    que está agora a ser usado na indústria.
  • 6:47 - 6:50
    Por exemplo, a Google
    anunciou, no ano passado,
  • 6:50 - 6:55
    que mapearam todos os locais
    de França, em duas horas.
  • 6:55 - 6:58
    Processaram imagens de rua com um
    algoritmo de aprendizagem profunda,
  • 6:58 - 7:03
    para que reconhecesse
    e lesse números de ruas.
  • 7:03 - 7:05
    Imaginem quanto tempo
    isto teria demorado antes:
  • 7:05 - 7:09
    dúzias de pessoas, durante muitos anos.
  • 7:09 - 7:11
    Isto também está a acontecer na China.
  • 7:11 - 7:14
    Baidu é uma espécie de
    Google chinesa, acho eu.
  • 7:14 - 7:18
    O que veem aqui em cima, à esquerda,
    é um exemplo de uma imagem
  • 7:18 - 7:21
    que transferi para o sistema
    de aprendizagem profunda da Baidu.
  • 7:21 - 7:24
    Em baixo, podem ver que o sistema
    percebeu o que a imagem era
  • 7:24 - 7:26
    e encontrou imagens semelhantes.
  • 7:26 - 7:29
    As imagens semelhantes têm,
    na verdade, fundos idênticos,
  • 7:29 - 7:31
    direções semelhantes das faces
  • 7:31 - 7:33
    e algumas até com a língua de fora.
  • 7:33 - 7:36
    Isto não é evidente no texto
    de uma página "web".
  • 7:36 - 7:37
    Só transferi uma imagem.
  • 7:37 - 7:41
    Temos, agora, computadores que
    compreendem realmente o que veem
  • 7:41 - 7:43
    e que podem, por isso, procurar
    nas bases de dados
  • 7:43 - 7:46
    de centenas de milhões
    de imagens, em tempo real.
  • 7:46 - 7:50
    O que significa realmente os computadores
    conseguirem agora ver?
  • 7:50 - 7:51
    Não se trata apenas de conseguirem ver.
  • 7:51 - 7:54
    De facto, a aprendizagem profunda
    tem feito mais do que isso.
  • 7:54 - 7:57
    Frases complexas, com nuances, como esta
  • 7:57 - 8:00
    são agora percetíveis, com os algoritmos
    de aprendizagem profunda.
  • 8:00 - 8:01
    Como podem ver aqui,
  • 8:01 - 8:03
    este sistema de Stanford,
    com o ponto vermelho no topo,
  • 8:03 - 8:07
    percebeu que esta frase expressa
    um sentimento negativo.
  • 8:07 - 8:11
    A aprendizagem profunda está agora
    próxima do desempenho humano,
  • 8:11 - 8:16
    na perceção do sentido das frases
    e no que diz sobre essas coisas.
  • 8:16 - 8:19
    A aprendizagem profunda também
    tem sido usada para ler chinês,
  • 8:19 - 8:22
    a um nível próximo de um chinês nativo.
  • 8:22 - 8:24
    Este algoritmo foi desenvolvido na Suíça
  • 8:24 - 8:27
    por pessoas que não falam
    nem percebem chinês.
  • 8:27 - 8:29
    Como disse, a aprendizagem profunda
  • 8:29 - 8:32
    é o melhor sistema do mundo para isto
  • 8:32 - 8:37
    comparado até com a compreensão
    de um ser humano.
  • 8:37 - 8:40
    Este é um sistema que desenvolvemos
    na minha empresa
  • 8:40 - 8:42
    que mostra como juntar tudo isto.
  • 8:42 - 8:44
    Estas imagens não têm texto associado.
  • 8:44 - 8:47
    À medida que vou escrevendo estas frases
  • 8:47 - 8:50
    estas imagens vão sendo
    compreendidas em tempo real,
  • 8:50 - 8:51
    percebendo o que significam,
  • 8:51 - 8:54
    e descobrindo imagens de acordo
    com o texto que vou escrevendo.
  • 8:54 - 8:57
    Como podem ver, está de facto
    a perceber as minhas frases
  • 8:57 - 8:59
    e a perceber estas imagens.
  • 8:59 - 9:02
    Sei que viram algo parecido na Google,
  • 9:02 - 9:05
    em que podem escrever coisas
    e são-vos mostradas imagens.
  • 9:05 - 9:08
    Na realidade, o que está a fazer
    é pesquisar o vosso texto na "web".
  • 9:08 - 9:11
    Isso é muito diferente de perceber
    realmente as imagens.
  • 9:11 - 9:14
    Isto é algo que os computadores
    só começaram a fazer
  • 9:14 - 9:17
    há alguns meses, pela primeira vez.
  • 9:17 - 9:21
    Os computadores conseguem
    não apenas ver, mas também ler.
  • 9:21 - 9:25
    Já mostrámos, claro, que conseguem
    perceber o que ouvem.
  • 9:25 - 9:28
    Talvez não fiquem surpreendidos
    se vos disser que conseguem escrever.
  • 9:28 - 9:33
    Aqui está um texto que gerei ontem
    com um algoritmo de aprendizagem profunda.
  • 9:34 - 9:37
    E aqui está um texto gerado
    por um algoritmo de Stanford.
  • 9:37 - 9:39
    Cada uma destas frases foi gerada
  • 9:39 - 9:43
    por um algoritmo de aprendizagem profunda
    para descrever cada uma destas imagens.
  • 9:43 - 9:48
    Este algoritmo nunca tinha visto antes um
    homem de T-shirt preta a tocar guitarra.
  • 9:48 - 9:50
    Já tinha visto um homem e a cor preta.
  • 9:50 - 9:51
    Já tinha visto uma guitarra.
  • 9:51 - 9:56
    Mas gerou de forma independente
    esta nova descrição da imagem.
  • 9:56 - 9:59
    Ainda não estamos bem ao nível do
    desempenho humano, mas perto.
  • 9:59 - 10:03
    Em testes, os humanos preferem
    a descrição gerada pelo computador,
  • 10:03 - 10:05
    uma em cada quatro vezes.
  • 10:05 - 10:09
    Este sistema tem apenas duas semanas,
    por isso, provavelmente, no próximo ano,
  • 10:09 - 10:12
    o algoritmo estará bem à frente
    do desempenho humano,
  • 10:12 - 10:14
    tendo em conta a rapidez destas coisas.
  • 10:14 - 10:16
    Os computadores também conseguem escrever.
  • 10:16 - 10:20
    Juntamos tudo isto e obtemos
    oportunidades muito excitantes.
  • 10:20 - 10:21
    Por exemplo, na medicina,
  • 10:21 - 10:24
    uma equipa de Boston anunciou
    que descobriu
  • 10:24 - 10:28
    dúzias de novas características de
    tumores, clinicamente relevantes,
  • 10:28 - 10:31
    que ajudam os médicos a fazer
    prognósticos em relação a um cancro.
  • 10:32 - 10:35
    De igual modo, em Stanford,
  • 10:35 - 10:38
    um grupo anunciou que,
    observando tecidos ampliados,
  • 10:38 - 10:41
    desenvolveu um sistema baseado
    na aprendizagem automática
  • 10:41 - 10:43
    que supera os patologistas humanos
  • 10:43 - 10:48
    na previsão de taxas de sobrevivência
    de pacientes de cancro.
  • 10:48 - 10:51
    Em ambos os casos,
    as previsões foram mais precisas,
  • 10:51 - 10:53
    e também geraram novas
    perspetivas científicas.
  • 10:53 - 10:55
    No caso da radiologia,
  • 10:55 - 10:58
    revelaram-se novos indicadores clínicos
    que os humanos podem perceber.
  • 10:58 - 11:00
    Neste caso da patologia,
  • 11:00 - 11:04
    o sistema computacional descobriu
    que as células em torno do cancro
  • 11:04 - 11:08
    são tão importantes quanto
    as próprias células cancerígenas
  • 11:08 - 11:10
    na realização de um diagnóstico.
  • 11:10 - 11:15
    Isto é o contrário do que os patologistas
    têm aprendido ao longo de décadas.
  • 11:16 - 11:18
    Em ambos os casos, estes sistemas
    foram desenvolvidos
  • 11:18 - 11:22
    por especialistas médicos
    e de aprendizagem automática.
  • 11:22 - 11:24
    No último ano, fomos também além disso.
  • 11:24 - 11:27
    Isto é um exemplo de identificação
    de áreas cancerígenas,
  • 11:27 - 11:30
    em tecido humano, ao microscópio.
  • 11:30 - 11:34
    O sistema aqui apresentado consegue
    identificar essas áreas
  • 11:34 - 11:38
    de forma mais precisa, ou tão precisa
    quanto os patologistas humanos,
  • 11:38 - 11:41
    mas foi construído com aprendizagem
    profunda, sem conhecimentos médicos,
  • 11:41 - 11:44
    por pessoas sem formação na área.
  • 11:45 - 11:47
    De modo semelhante, nesta
    segmentação neuronal.
  • 11:47 - 11:51
    Podemos agora segmentar neurónios
    de forma tão precisa quanto um humano,
  • 11:51 - 11:54
    mas este sistema foi desenvolvido
    com aprendizagem profunda
  • 11:54 - 11:57
    com pessoas sem formação
    prévia em medicina.
  • 11:57 - 12:00
    Eu próprio, sendo alguém sem
    formação prévia em medicina
  • 12:00 - 12:04
    sou perfeitamente qualificado para abrir
    uma nova empresa médica,
  • 12:04 - 12:06
    Foi o que fiz.
  • 12:06 - 12:08
    Estava aterrorizado em relação a isso
  • 12:08 - 12:11
    mas a teoria sugeria ser possível
  • 12:11 - 12:16
    fazer medicina muito útil usando apenas
    estas técnicas de análise de dados.
  • 12:16 - 12:19
    Felizmente, a resposta
    tem sido fantástica.
  • 12:19 - 12:21
    Não apenas dos "media", mas também
    da comunidade médica,
  • 12:21 - 12:23
    que tem dado muito apoio.
  • 12:23 - 12:27
    A teoria é que podemos considerar
    a fase intermédia do processo médico
  • 12:27 - 12:30
    e transformá-la em análise de dados,
    tanto quanto possível,
  • 12:30 - 12:33
    deixando os médicos fazer
    aquilo em que são bons.
  • 12:33 - 12:35
    Quero dar-vos um exemplo.
  • 12:35 - 12:41
    Bastam 15 minutos para gerar um novo
    teste diagnóstico médico.
  • 12:41 - 12:42
    Vou mostrar-vos agora em tempo real,
  • 12:42 - 12:45
    mas comprimi para três minutos,
    cortando algumas partes.
  • 12:45 - 12:49
    Em vez de vos mostrar a criação de um
    novo teste diagnóstico médico,
  • 12:49 - 12:52
    vou mostrar-vos um teste diagnóstico
    de imagens de carros,
  • 12:52 - 12:54
    porque é algo fácil de perceber.
  • 12:54 - 12:57
    Começamos com cerca de 1,5 milhões
    de imagens de carros.
  • 12:57 - 13:00
    Quero criar algo que consiga dividi-las
  • 13:00 - 13:03
    segundo o ângulo em que a foto foi tirada.
  • 13:03 - 13:07
    Estas imagens não estão catalogadas,
    tenho de começar do zero.
  • 13:07 - 13:09
    Com o nosso algoritmo,
  • 13:09 - 13:12
    podem identificar-se automaticamente
    áreas de estruturas nestas imagens.
  • 13:12 - 13:16
    O interessante é o homem e o computador
    poderem agora trabalhar em conjunto.
  • 13:16 - 13:18
    O humano, como podem ver aqui,
  • 13:18 - 13:21
    está a dizer ao computador
    quais as áreas de interesse
  • 13:21 - 13:25
    que quer que o computador use
    para melhorar o seu algoritmo.
  • 13:26 - 13:30
    Estes sistemas de aprendizagem profunda
    estão em espaços de dimensão 16 000.
  • 13:30 - 13:33
    Podem ver aqui o computador a rodar
    isto através desse espaço,
  • 13:33 - 13:35
    tentando encontrar novas
    áreas de estrutura.
  • 13:35 - 13:37
    Quando consegue fazê-lo com sucesso,
  • 13:37 - 13:41
    o humano que está a comandá-lo
    pode indicar áreas de interesse.
  • 13:41 - 13:43
    Aqui o computador encontrou
    áreas, com sucesso.
  • 13:43 - 13:46
    Ângulos, por exemplo.
  • 13:46 - 13:47
    Ao longo deste processo,
  • 13:47 - 13:50
    vamos dizendo mais coisas ao computador
  • 13:50 - 13:52
    sobre o tipo de estruturas que procuramos.
  • 13:52 - 13:56
    Podem imaginar que, num diagnóstico,
    isto seria o patologista a identificar
  • 13:56 - 13:57
    áreas patológicas, por exemplo.
  • 13:57 - 14:02
    Ou o radiologista a indicar nódulos
    potencialmente problemáticos.
  • 14:02 - 14:05
    Por vezes pode ser difícil,
    para o algoritmo.
  • 14:05 - 14:07
    Neste caso, ficou algo confuso.
  • 14:07 - 14:10
    As frentes e as traseiras dos carros
    estão todas misturadas.
  • 14:10 - 14:12
    Aqui temos que ser um
    pouco mais cuidadosos,
  • 14:12 - 14:15
    selecionado manualmente estas frentes
    por oposição às traseiras,
  • 14:15 - 14:20
    dizendo depois ao computador
    que isto é o tipo de grupo
  • 14:20 - 14:22
    em que estamos interessados.
  • 14:22 - 14:24
    Fazemos isto durante algum tempo,
    avançamos um pouco,
  • 14:24 - 14:27
    e depois treinamos o algoritmo
    de aprendizagem automática,
  • 14:27 - 14:28
    baseados nestas centenas de coisas,
  • 14:28 - 14:30
    e esperamos que fique bastante melhor.
  • 14:30 - 14:33
    Podem ver que algumas imagens
    estão a começar a desvanecer,
  • 14:33 - 14:38
    mostrando-nos que já está a descobrir
    como perceber algumas destas sozinho.
  • 14:38 - 14:41
    Podemos, então, usar o conceito
    de imagens semelhantes.
  • 14:41 - 14:44
    Usando imagens semelhantes,
    podemos ver que o computador
  • 14:44 - 14:47
    é capaz, neste ponto, de identificar
    apenas as frentes dos carros.
  • 14:47 - 14:50
    Neste ponto, o humano pode
    dizer ao computador:
  • 14:50 - 14:53
    "Fizeste aqui um bom trabalho!"
  • 14:54 - 14:56
    Por vezes, claro, mesmo neste ponto,
  • 14:56 - 15:00
    ainda é difícil distinguir os grupos.
  • 15:00 - 15:03
    Neste caso, mesmo depois de deixarmos o
    computador rodar isto durante algum tempo,
  • 15:03 - 15:07
    ainda vemos que as imagens
    dos lados esquerdo e direito
  • 15:07 - 15:08
    estão todas misturadas.
  • 15:08 - 15:11
    Podemos dar, de novo, algumas
    pistas ao computador.
  • 15:11 - 15:13
    Dizemos: "Tenta descobrir uma
    projeção que separe,
  • 15:13 - 15:16
    "o lado esquerdo do direito,
    o mais possível,
  • 15:16 - 15:18
    "usando este algoritmo
    de aprendizagem profunda."
  • 15:18 - 15:21
    Dando-lhe esta pista, ele tem sucesso.
  • 15:21 - 15:24
    Conseguiu descobrir um modo
    de pensar neste objetos
  • 15:24 - 15:26
    que permitiu separá-los.
  • 15:26 - 15:29
    Percebem a ideia.
  • 15:30 - 15:37
    Neste caso, o humano não está
    a ser substituído pelo computador.
  • 15:37 - 15:40
    Estão a trabalhar em conjunto.
  • 15:40 - 15:43
    O que estamos a fazer é substituir
    algo que exigia uma equipa
  • 15:43 - 15:45
    de cinco ou seis pessoas,
    durante sete anos,
  • 15:45 - 15:48
    por algo que demora 15 minutos,
  • 15:48 - 15:50
    com uma pessoa a trabalhar sozinha.
  • 15:52 - 15:54
    Este processo demora
    quatro ou cinco iterações.
  • 15:54 - 15:56
    Podem ver que temos agora 62%
  • 15:56 - 15:59
    dos nossos 1,5 milhões de imagens,
    classificadas corretamente.
  • 15:59 - 16:01
    Neste ponto, podemos começar rapidamente
  • 16:01 - 16:03
    a trabalhar grandes secções,
  • 16:03 - 16:06
    e a verificar se não há erros.
  • 16:06 - 16:10
    Se houver erros, podemos fazer
    com que o computador o saiba.
  • 16:10 - 16:13
    Usando este processo, para cada
    um dos diferentes grupos,
  • 16:13 - 16:15
    temos agora uma taxa
    de sucesso de 80%,
  • 16:15 - 16:18
    na classificação de 1,5 milhões
    de imagens.
  • 16:18 - 16:21
    Neste ponto, trata-se de descobrir
  • 16:21 - 16:23
    as poucas que não estão
    classificadas corretamente,
  • 16:23 - 16:26
    e tentar perceber porquê.
  • 16:26 - 16:28
    Utilizando esta abordagem
  • 16:28 - 16:32
    conseguimos uma taxa de classificação
    de 97% em 15 minutos.
  • 16:32 - 16:37
    Esta técnica pode permitir-nos
    resolver um grande problema
  • 16:37 - 16:40
    que é a falta de especialistas
    médicos no mundo.
  • 16:40 - 16:43
    O Fórum Económico Mundial refere
    que há 10 a 20 vezes menos médicos
  • 16:43 - 16:46
    do que o necessário,
    nos países em desenvolvimento.
  • 16:46 - 16:48
    E que serão necessários 300 anos
  • 16:48 - 16:51
    para formar as pessoas necessárias
    para resolver o problema.
  • 16:51 - 16:54
    Imaginem que podemos ajudar
    a melhorar a sua eficiência
  • 16:54 - 16:57
    usando esta abordagem
    de aprendizagem profunda.
  • 16:57 - 16:59
    Estou muito entusiasmado
    com as oportunidades,
  • 16:59 - 17:02
    mas também estou preocupado
    em relação aos problemas.
  • 17:02 - 17:04
    O problema é que as áreas
    a azul, neste mapa,
  • 17:04 - 17:08
    são locais onde os serviços representam
    mais de 80% dos empregos.
  • 17:08 - 17:10
    O que são os serviços?
  • 17:10 - 17:11
    Isto são serviços.
  • 17:11 - 17:16
    São também as coisas que
    os computadores aprenderam a fazer.
  • 17:16 - 17:19
    80% dos postos de trabalho,
    no mundo desenvolvido,
  • 17:19 - 17:22
    são coisas que os computadores
    aprenderam a fazer.
  • 17:22 - 17:23
    O que significa isto?
  • 17:23 - 17:26
    Não há problema. Serão substituídos
    por outros empregos.
  • 17:26 - 17:29
    Por exemplo, haverá mais empregos
    para especialistas em dados.
  • 17:29 - 17:30
    Bem, não exatamente.
  • 17:30 - 17:33
    Os especialistas não demoram muito
    tempo a construir estas coisas.
  • 17:33 - 17:36
    Estes quatro algoritmos foram
    desenvolvidos pela mesma pessoa.
  • 17:36 - 17:38
    Se pensarmos bem, isto já aconteceu antes.
  • 17:38 - 17:42
    Já vimos, no passado, o resultado
    de surgirem coisas novas
  • 17:42 - 17:44
    que são substituídas por novos empregos.
  • 17:44 - 17:46
    O que serão estes novos empregos?
  • 17:46 - 17:48
    É muito difícil fazermos previsões,
  • 17:48 - 17:51
    porque o desempenho humano
    cresce a um ritmo gradual,
  • 17:51 - 17:54
    mas temos agora um sistema
    de aprendizagem profunda,
  • 17:54 - 17:57
    cuja capacidade cresce exponencialmente.
  • 17:57 - 17:58
    Estamos neste ponto.
  • 17:58 - 18:01
    Atualmente, vemos as coisas
    à nossa volta e pensamos:
  • 18:01 - 18:03
    "Os computadores ainda são muito burros."
  • 18:03 - 18:07
    Mas em cinco anos os computadores
    estarão fora deste gráfico.
  • 18:07 - 18:11
    Temos que começar já
    a pensar nesta capacidade.
  • 18:11 - 18:13
    É claro que já vimos isto.
  • 18:13 - 18:14
    Na Revolução Industrial,
  • 18:14 - 18:17
    vimos uma grande avanço na capacidade,
    graças às máquinas.
  • 18:18 - 18:21
    A questão é que, passado algum tempo,
    as coisas estabilizaram.
  • 18:21 - 18:22
    Houve ruturas sociais.
  • 18:22 - 18:26
    Mas quando as máquinas foram usadas
    para gerar poder em todas as situações,
  • 18:26 - 18:28
    as coisas acalmaram.
  • 18:29 - 18:31
    A Revolução da Aprendizagem Automática
    será muito diferente
  • 18:31 - 18:33

    da Revolução Industrial,
  • 18:33 - 18:36
    porque a Revolução da Aprendizagem
    Automática nunca estabilizará.
  • 18:36 - 18:39
    Quanto melhores forem os computadores
    em atividades intelectuais,
  • 18:39 - 18:43
    melhores computadores se construirão,
    com mais capacidades intelectuais.
  • 18:43 - 18:45
    Isto será um tipo de mudança
  • 18:45 - 18:47
    que o mundo nunca presenciou antes.
  • 18:47 - 18:51
    A nossa perceção do que é
    possível é diferente.
  • 18:51 - 18:53
    Isto já está a afetar-nos.
  • 18:53 - 18:56
    Nos últimos 25 anos, à medida que a
    produtividade do capital aumentou,
  • 18:56 - 19:01
    a produtividade laboral manteve-se,
    na verdade até desceu um pouco.
  • 19:01 - 19:04
    Quero que tenhamos esta discussão agora.
  • 19:04 - 19:07
    Sei que, quando falo disto às pessoas,
  • 19:07 - 19:09
    elas mostram algum desdém.
  • 19:09 - 19:11
    "Os computadores não conseguem pensar."
  • 19:11 - 19:13
    "Eles não se emocionam,
    nem percebem poesia."
  • 19:13 - 19:16
    "Não percebemos, na verdade,
    como funcionam."
  • 19:16 - 19:17
    E depois?
  • 19:17 - 19:19
    Os computadores conseguem
    fazer as coisas
  • 19:19 - 19:22
    que os humanos são pagos para fazer,
    na maior parte do seu tempo.
  • 19:22 - 19:24
    Este é o tempo para começar a pensar
  • 19:24 - 19:29
    como vamos ajustar as nossas
    estruturas sociais e económicas
  • 19:29 - 19:30
    para fazer face a esta nova realidade.
  • 19:30 - 19:31
    Obrigado.
  • 19:31 - 19:32
    (Aplausos)
Title:
As maravilhosas e aterradoras implicações de computadores que conseguem aprender
Speaker:
Jeremy Howard
Description:

O que sucede quando ensinamos um computador a aprender? O tecnólogo Jeremy Howard partilha alguns desenvolvimentos novos e surpreendentes, na área em rápida evolução da aprendizagem profunda, uma técnica que pode dar aos computadores a capacidade de aprender chinês, ou de reconhecer objetos em fotos, ou de ajudar a reflexão num diagnóstico médico. (Uma ferramenta de aprendizagem profunda, após horas a ver o Youtube, ensinou a si própria o conceito de "gatos"). Deixem-se envolver numa área que mudará o comportamento dos computadores à vossa volta... mas cedo do que provavelmente pensam.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
19:45

Portuguese subtitles

Revisions