Return to Video

As maravilhosas e aterradoras implicações de computadores que conseguem aprender

  • 0:01 - 0:05
    Antigamente se você quisesse que um
    computador fizesse algo novo,
  • 0:05 - 0:06
    você teria que programar.
  • 0:06 - 0:10
    Pois então, para quem aqui
    que nunca fez isso,
  • 0:10 - 0:13
    programação é algo que requer
    estabelecer com riqueza de detalhe
  • 0:13 - 0:17
    cada passo do que você quer
    que o computador faça
  • 0:17 - 0:19
    para atingir o seu objetivo.
  • 0:19 - 0:23
    Se você quiser fazer algo que
    ainda não sabe fazer sozinho,
  • 0:23 - 0:25
    isso se torna um grande desafio.
  • 0:25 - 0:28
    E esse foi o desafio enfrentado
    por este homem, Arthur Samuel.
  • 0:28 - 0:32
    Em 1956 ele queria que esse computador
  • 0:32 - 0:35
    fosse capaz de vencê-lo no jogo de damas.
  • 0:35 - 0:37
    Como você faz para escrever um programa,
  • 0:37 - 0:40
    estabelecer com riqueza de detalhe,
    que ele jogue damas melhor que você?
  • 0:40 - 0:42
    Então ele teve uma ideia:
  • 0:42 - 0:46
    ele fez o computador jogar
    contra si próprio milhares de vezes
  • 0:46 - 0:48
    para aprender a jogar damas.
  • 0:48 - 0:52
    E realmente funcionou,
    de fato em 1962
  • 0:52 - 0:56
    esse computador venceu
    o campeão estadual de Connecticut.
  • 0:56 - 0:59
    Arthur Samuel foi o pai
    do aprendizado de máquina,
  • 0:59 - 1:00
    e eu devo muito a ele,
  • 1:00 - 1:03
    porque eu sou um profissional
    de aprendizado de máquina.
  • 1:03 - 1:04
    Eu fui o presidente da Kaggle,
  • 1:04 - 1:08
    uma comunidade de mais de 200 mil
    profissionais dessa área.
  • 1:08 - 1:10
    A Kaggle organiza competições
  • 1:10 - 1:14
    para tentar resolver problemas
    até então sem solução,
  • 1:14 - 1:17
    e tem sido bem sucedida
    centenas de vezes.
  • 1:17 - 1:20
    Então desse ponto de vista,
    eu pude descobrir muito
  • 1:20 - 1:24
    sobre o que o aprendizado de máquina
    conseguiu no passado, hoje,
  • 1:24 - 1:26
    e o que poderia fazer no futuro.
  • 1:26 - 1:31
    Talvez o primeiro grande sucesso comercial
    de aprendizado de máquina foi o Google.
  • 1:31 - 1:34
    O Google mostrou que é possível
    encontrar informação
  • 1:34 - 1:36
    usando um algoritmo de computador,
  • 1:36 - 1:38
    e esse algoritmo é baseado
    no aprendizado de máquina.
  • 1:38 - 1:42
    Desde então houve muitos casos de sucesso
    comercial de aprendizado de máquina.
  • 1:42 - 1:44
    Empresas como Amazon e Netflix
  • 1:44 - 1:48
    usam aprendizado de máquina para sugerir
    produtos que você poderia querer,
  • 1:48 - 1:50
    filmes que você poderia querer assistir.
  • 1:50 - 1:52
    Às vezes é quase assustador.
  • 1:52 - 1:54
    Empresas como LinkedIn e Facebook
  • 1:54 - 1:56
    às vezes te dirão quem deveria
    ser seu amigo
  • 1:56 - 1:58
    e você não tem ideia de como,
  • 1:58 - 2:01
    e isso é porque está usando
    o poder do aprendizado de máquina.
  • 2:01 - 2:04
    São algoritmos que aprenderam
    como fazer isso a partir de dados
  • 2:04 - 2:07
    ao invés de serem programados à mão.
  • 2:07 - 2:10
    Foi assim que a IBM foi bem sucedida
  • 2:10 - 2:14
    em fazer que Watson vencesse
    dois campeões mundiais em Jeopardy,
  • 2:14 - 2:17
    respondendo questões incrivelmente
    sutis e complexas como essa:
  • 2:17 - 2:20
    ["O antigo 'Leão de Nimrud' desapareceu
    do museu nacional dessa cidade em 2003
    (junto com um monte de outras coisas)"]
  • 2:20 - 2:23
    Também por isso que agora vemos
    os primeiros carros auto-guiados.
  • 2:23 - 2:26
    Se você quiser poder diferenciar entre, digamos,
  • 2:26 - 2:28
    uma árvore e um pedestre,
    bem, isso é muito importante.
  • 2:28 - 2:31
    Não sabemos como escrever
    esses programas à mão,
  • 2:31 - 2:34
    mas com o aprendizado de máquina
    isso agora é possível.
  • 2:34 - 2:37
    De fato esse carro já dirigiu
    mais de um milhão de quilômetros
  • 2:37 - 2:40
    sem qualquer acidente em estradas normais.
  • 2:40 - 2:44
    Pois bem, agora sabemos que
    computadores conseguem aprender,
  • 2:44 - 2:46
    e podem aprender a fazer coisas
  • 2:46 - 2:49
    que inclusive nós mesmos
    não sabemos fazer,
  • 2:49 - 2:52
    ou então fazer melhor que nós.
  • 2:52 - 2:56
    Um dos exemplos mais surpreendentes
    de aprendizado de máquina que eu já vi
  • 2:56 - 2:58
    aconteceu num projeto
    que eu organizei na Kaggle
  • 2:58 - 3:02
    onde um time coordenado por alguém
    chamado Geoffrey Hinton
  • 3:02 - 3:03
    da Universidade de Toronto
  • 3:03 - 3:06
    venceu a competição de
    descoberta automática de fármacos.
  • 3:06 - 3:09
    O extraordinário aqui não é apenas
    que eles bateram
  • 3:09 - 3:13
    todos os algoritmos desenvolvidos pela
    Merck ou a comunidade acadêmica,
  • 3:13 - 3:18
    mas que ninguém no time tinha qualquer
    antecedente em biologia ou química,
  • 3:18 - 3:20
    e fizeram isso em duas semanas.
  • 3:20 - 3:22
    Como eles fizeram isso?
  • 3:22 - 3:25
    Usaram um algoritmo singular
    chamado aprendizado profundo.
  • 3:25 - 3:28
    Isso foi tão importante que de fato
    o sucesso foi noticiado
  • 3:28 - 3:31
    no The New York Times num artigo
    de página frontal semanas depois.
  • 3:31 - 3:34
    Esse é Geoffrey Hinton,
    aqui no lado esquerdo.
  • 3:34 - 3:38
    Aprendizado profundo é um algoritmo
    inspirado no cérebro humano,
  • 3:38 - 3:40
    ou seja, é um algoritmo
  • 3:40 - 3:44
    que não tem limitações teóricas
    para o que pode fazer.
  • 3:44 - 3:47
    Quanto mais dados e tempo você der a ele,
  • 3:47 - 3:48
    melhor ele fica.
  • 3:48 - 3:51
    O The New York Times mostrou
    nesse artigo também
  • 3:51 - 3:53
    outro resultado singular do
    aprendizado profundo
  • 3:53 - 3:56
    que eu vou mostrar para vocês agora.
  • 3:56 - 4:01
    Mostra que os computadores
    conseguem escutar e entender.
  • 4:01 - 4:03
    (Vídeo) Richard Rashid:
    Agora, o último passo
  • 4:03 - 4:06
    que eu pretendo dar nesse processo
  • 4:06 - 4:11
    é realmente falar com vocês em chinês.
  • 4:11 - 4:14
    A chave aqui é que
  • 4:14 - 4:19
    conseguimos levantar uma vasta quantidade
    de informação de muitos falantes do chinês
  • 4:19 - 4:21
    e produzir um sistema texto-para-fala
  • 4:21 - 4:26
    que pega o texto em chinês e
    converte para a linguagem chinesa,
  • 4:26 - 4:30
    e então pegamos mais ou menos uma hora
    da minha própria voz
  • 4:30 - 4:32
    e usamos para modular
  • 4:32 - 4:36
    o sistema texto-para-fala padrão
    para que possa parecer a minha voz.
  • 4:36 - 4:39
    O resultado não é perfeito.
  • 4:39 - 4:42
    Na verdade há alguns erros.
  • 4:42 - 4:44
    (Em chinês)
  • 4:44 - 4:47
    (Aplausos)
  • 4:49 - 4:53
    Há muito trabalho pela frente nessa área.
  • 4:53 - 4:57
    (Em chinês)
  • 4:57 - 5:00
    (Aplausos)
  • 5:01 - 5:05
    J. Howard: Isso foi num congresso
    de aprendizado de máquina na China.
  • 5:05 - 5:07
    Na verdade não é comum escutar aplausos
  • 5:07 - 5:09
    espontâneos em congressos acadêmicos,
  • 5:09 - 5:13
    embora obviamente às vezes acontecer
    em conferências TEDx, fiquem à vontade.
  • 5:13 - 5:15
    Tudo que vocês viram lá aconteceu
    com aprendizado profundo.
  • 5:15 - 5:17
    (Aplausos) Obrigado.
  • 5:17 - 5:19
    A transcrição em inglês foi
    aprendizado profundo.
  • 5:19 - 5:23
    A tradução para chinês e o texto na
    direita superior, também,
  • 5:23 - 5:26
    e a construção da voz também
    foi aprendizado profundo.
  • 5:26 - 5:29
    Então, aprendizado profundo é
    essa coisa extraordinária.
  • 5:29 - 5:32
    É um único algoritmo que parece
    fazer quase tudo,
  • 5:32 - 5:35
    e um ano antes eu descobri que
    ele também aprendeu a ver.
  • 5:35 - 5:38
    Nessa competição desconhecida
    alemã, chamada
  • 5:38 - 5:40
    Modelo de Reconhecimento de
    Sinais de Trânsito Alemães
  • 5:40 - 5:44
    aprendizado profundo aprendeu a
    reconhecer sinais de trânsito como esse.
  • 5:44 - 5:46
    Não apenas conseguiu reconhecer os sinais
  • 5:46 - 5:47
    melhor que qualquer outro algoritmo,
  • 5:47 - 5:50
    o ranking na verdade mostrou que
    era melhor do que gente,
  • 5:50 - 5:52
    quase duas vezes melhor do que gente.
  • 5:52 - 5:54
    Então em 2011 tivemos o primeiro exemplo
  • 5:54 - 5:57
    de computadores que conseguem ver
    melhor do que pessoas.
  • 5:57 - 5:59
    Desde então muito aconteceu.
  • 5:59 - 6:03
    Em 2012 Google anunciou que havia
    um algoritmo de aprendizado profundo
  • 6:03 - 6:04
    assistindo vídeos do YouTube
  • 6:04 - 6:08
    e remoendo os dados em 16 mil
    computadores por mês,
  • 6:08 - 6:12
    e o computador aprendeu sozinho
    conceitos como pessoas e gatos
  • 6:12 - 6:14
    apenas assistindo aos vídeos.
  • 6:14 - 6:16
    É desse jeito que os humanos aprendem.
  • 6:16 - 6:19
    Os humanos não aprendem com alguém
    explicando o que viram,
  • 6:19 - 6:22
    aprendem por si próprios.
  • 6:22 - 6:26
    Também em 2012, Geoffrey Hinton,
    a quem vimos antes,
  • 6:26 - 6:29
    venceu a conhecida competição ImageNet,
  • 6:29 - 6:33
    tentando descobrir a partir de
    um milhão e meio de imagens
  • 6:33 - 6:34
    o que elas retratam.
  • 6:34 - 6:38
    A partir de 2014 estamos
    com uma taxa de erro de 6%
  • 6:38 - 6:39
    em reconhecimento de imagem.
  • 6:39 - 6:41
    De novo, isso é melhor que gente.
  • 6:41 - 6:45
    Então, máquinas estão fazendo
    um ótimo trabalho
  • 6:45 - 6:47
    e agora está sendo usado na indústria.
  • 6:47 - 6:50
    Por exemplo, o Google anunciou ano passado
  • 6:50 - 6:55
    que mapearam cada local
    da França em duas horas,
  • 6:55 - 6:58
    e fizeram isso fornecendo imagens das ruas
  • 6:58 - 7:03
    para o algoritmo de aprendizado profundo
    reconhecer e ler os números das ruas.
  • 7:03 - 7:05
    Imaginem quanto levaria
    do jeito que era antes:
  • 7:05 - 7:08
    dúzias de pessoas, muitos anos.
  • 7:08 - 7:10
    Também está acontecendo na China.
  • 7:10 - 7:14
    Baidu é tipo o Google chinês, eu acho,
  • 7:14 - 7:17
    e o que vocês podem ver acima à esquerda
  • 7:17 - 7:20
    é um exemplo de uma imagem que eu subi ao
    sistema de aprendizado profundo do Baidu,
  • 7:20 - 7:24
    e abaixo você pode ver que o sistema
    entendeu que imagem é
  • 7:24 - 7:26
    e encontrou imagens similares.
  • 7:26 - 7:29
    As imagens similares de fato
    têm fundos similares,
  • 7:29 - 7:31
    direções de rostos similares,
  • 7:31 - 7:33
    algumas até com a língua para fora.
  • 7:33 - 7:36
    Claramente não está olhando
    para o texto da página.
  • 7:36 - 7:37
    Tudo que eu forneci foi uma imagem.
  • 7:37 - 7:41
    Agora temos computadores que
    realmente entendem o que veem
  • 7:41 - 7:43
    e então buscam em bancos de dados
  • 7:43 - 7:46
    de centenas de milhões
    de imagens em tempo real.
  • 7:46 - 7:50
    Então o que significa o fato dos
    computadores conseguirem ver?
  • 7:50 - 7:52
    Bem, não é só que conseguem ver.
  • 7:52 - 7:54
    De fato, o aprendizado profundo fez mais.
  • 7:54 - 7:57
    Frases matizadas e complexas
    como esta agora são
  • 7:57 - 7:59
    compreensíveis com algoritmos
    de aprendizado profundo.
  • 7:59 - 8:01
    Como vocês podem ver aqui,
  • 8:01 - 8:03
    esse sistema de Stanford com
    o ponto vermelho acima
  • 8:03 - 8:07
    descobriu que esta frase expressa
    um sentimento negativo.
  • 8:07 - 8:11
    Na verdade o aprendizado profundo
    está alcançando a performance humana
  • 8:11 - 8:16
    ao entender sobre o que as frases são e
    o que dizem sobre as coisas.
  • 8:16 - 8:19
    Além disso o aprendizado profundo
    é usado para ler chinês,
  • 8:19 - 8:22
    de novo no nível do falante nativo.
  • 8:22 - 8:24
    Esse algoritmo, desenvolvido na Suíça
  • 8:24 - 8:27
    por pessoas que não falam chinês.
  • 8:27 - 8:29
    Como eu digo, usar aprendizado profundo
  • 8:29 - 8:32
    é o melhor sistema no mundo para isso,
  • 8:32 - 8:37
    até mesmo comparando ao entendimento
    do humano nativo.
  • 8:37 - 8:40
    Esse é um sistema que montamos
    na minha empresa
  • 8:40 - 8:42
    que mostra tudo isso colocado junto.
  • 8:42 - 8:44
    Essas são imagens sem texto,
  • 8:44 - 8:47
    e enquanto digito frases aqui,
  • 8:47 - 8:50
    ele entende essas imagens em tempo real
  • 8:50 - 8:51
    e descobre sobre o que elas são
  • 8:51 - 8:54
    e encontram imagens similares ao
    texto que estou escrevendo.
  • 8:54 - 8:57
    Vocês podem ver, está realmente
    entendendo minhas frases
  • 8:57 - 8:59
    e entendendo essas imagens.
  • 8:59 - 9:02
    Sei que vocês viram algo assim no Google,
  • 9:02 - 9:05
    onde você digita coisas e
    aparecem imagens,
  • 9:05 - 9:08
    mas na verdade o que acontece é que
    está buscando o texto na página.
  • 9:08 - 9:11
    Isso é muito diferente de
    realmente entender as imagens.
  • 9:11 - 9:14
    Isso foi possível acontecer
    para computadores
  • 9:14 - 9:17
    pela primeira vez somente
    há alguns poucos meses.
  • 9:17 - 9:21
    Vemos que agora os computadores conseguem
    não apenas ver, mas ler também,
  • 9:21 - 9:25
    e claro, mostramos aqui que podem
    entender o que escutam.
  • 9:25 - 9:28
    Talvez não seja surpresa o que vou
    dizer agora: eles sabem escrever.
  • 9:28 - 9:33
    Aqui um texto que eu gerei usando um
    algoritmo de aprendizado profundo ontem.
  • 9:33 - 9:37
    E aqui um texto que um algoritmo
    de Stanford criou.
  • 9:37 - 9:39
    Cada uma dessas frases foi criada
  • 9:39 - 9:43
    por um algoritmo de aprendizado profundo
    para descrever cada uma dessas imagens.
  • 9:43 - 9:48
    Esse algoritmo nunca tinha visto um homem
    de camiseta preta tocando violão.
  • 9:48 - 9:50
    Ele já viu um homem antes,
    já viu a cor preta,
  • 9:50 - 9:51
    já viu um violão antes,
  • 9:51 - 9:56
    mas criou independentemente
    essa descrição inédita para essa imagem.
  • 9:56 - 9:59
    Ainda não chegamos ao patamar
    do desempenho humano, mas estamos perto.
  • 9:59 - 10:03
    Em testes, humanos preferem a legenda
    gerada por computador
  • 10:03 - 10:05
    uma a cada quatro vezes.
  • 10:05 - 10:07
    Agora esse sistema tem apenas
    duas semanas,
  • 10:07 - 10:09
    então provavelmente dentro de um ano,
  • 10:09 - 10:12
    o algoritmo de computador estará
    além do desempenho humano
  • 10:12 - 10:13
    no ritmo que as coisas vão.
  • 10:13 - 10:16
    E é isso, os computadores
    conseguem escrever.
  • 10:16 - 10:20
    Quando juntamos isso tudo,
    oportunidades muito empolgantes aparecem.
  • 10:20 - 10:21
    Por exemplo, na medicina,
  • 10:21 - 10:24
    uma equipe em Boston anunciou
    a descoberta de
  • 10:24 - 10:27
    dúzias de novas características
    clinicamente relevantes
  • 10:27 - 10:31
    de tumores que ajudam os médicos
    em prognósticos de câncer.
  • 10:32 - 10:35
    De modo semelhante, em Stanford,
  • 10:35 - 10:38
    um grupo lá anunciou que,
    observando tecidos sob ampliação,
  • 10:38 - 10:41
    desenvolveu um sistema
    com base em aprendizado de máquina
  • 10:41 - 10:43
    que de fato é melhor que
    patologistas humanos
  • 10:43 - 10:48
    ao prever índices de sobrevivência
    para pacientes de câncer.
  • 10:48 - 10:51
    Em ambos os casos, não apenas
    as previsões eram mais precisas,
  • 10:51 - 10:53
    mas criaram ciência perspicaz.
  • 10:53 - 10:55
    No caso da radiologia,
  • 10:55 - 10:58
    foram indicadores clínicos novos
    que humanos conseguem entender.
  • 10:58 - 11:00
    Nesse caso de patologia,
  • 11:00 - 11:04
    o sistema de computador descobriu que
    as células ao redor do câncer
  • 11:04 - 11:08
    são tão importantes quanto as
    próprias células cancerígenas
  • 11:08 - 11:09
    para se fazer um diagnóstico.
  • 11:09 - 11:15
    Isso é o oposto do que os patologistas
    tinham aprendido por décadas.
  • 11:15 - 11:18
    Em cada um desses dois casos, foram
    sistemas desenvolvidos por um
  • 11:18 - 11:22
    grupo de especialistas médicos e
    especialistas em aprendizado de máquina,
  • 11:22 - 11:24
    mas desde ano passado,
    estamos além disso também.
  • 11:24 - 11:28
    Esse é um exemplo de identificação
    de áreas cancerígenas
  • 11:28 - 11:30
    em tecido humano sob um microscópio.
  • 11:30 - 11:35
    O sistema aqui consegue identificar
    essas áreas com mais precisão,
  • 11:35 - 11:38
    ou com a mesma precisão,
    do que patologistas humanos,
  • 11:38 - 11:41
    mas foi construido com aprendizado
    profundo sem conhecimento médico
  • 11:41 - 11:44
    por pessoas sem antecedentes na área.
  • 11:45 - 11:47
    De modo similar, aqui,
    essa segmentação de neurônios.
  • 11:47 - 11:51
    Agora podemos segmentar neurônios
    tão precisamente quanto os humanos,
  • 11:51 - 11:54
    mas esse sistema foi desenvolvido
    com aprendizado profundo
  • 11:54 - 11:57
    por pessoas sem antecedentes em medicina.
  • 11:57 - 12:00
    Então eu mesmo, que não tenho
    antecedentes em medicina,
  • 12:00 - 12:04
    posso parecer inteiramente qualificado
    para iniciar uma empresa médica,
  • 12:04 - 12:06
    que foi o que eu fiz.
  • 12:06 - 12:08
    Eu estava meio aterrorizado,
  • 12:08 - 12:11
    mas a teoria sugeria que era possível
  • 12:11 - 12:16
    fazer medicina muito útil usando
    apenas essas técnicas analíticas de dados.
  • 12:16 - 12:19
    E ainda bem, a reação tem sido fantástica,
  • 12:19 - 12:21
    não apenas da mídia mas da
    comunidade médica,
  • 12:21 - 12:23
    que tem sido muito favorável.
  • 12:23 - 12:27
    A teoria é que podemos pegar a parte
    intermediária do precesso médico
  • 12:27 - 12:30
    e torná-la em análise de dados
    tanto quanto possível,
  • 12:30 - 12:33
    deixando aos médicos o que
    eles fazem de melhor.
  • 12:33 - 12:35
    Quero dar uma exemplo a vocês.
  • 12:35 - 12:40
    Hoje um novo teste de diagnóstico médico
    leva uns 15 minutos para ser feito
  • 12:40 - 12:42
    e vou mostrar em tempo real para vocês,
  • 12:42 - 12:45
    mas eu comprimi para três minutos,
    cortando alguns pedaços.
  • 12:45 - 12:48
    Ao invés de um teste de
    diagnóstico médico,
  • 12:48 - 12:52
    vou mostrar um teste de diagnóstico
    de imagens de carros,
  • 12:52 - 12:54
    pois é algo que todos podem entender.
  • 12:54 - 12:57
    Então aqui estamos iniciando com
    1,5 milhão de imagens de carro,
  • 12:57 - 13:00
    e eu quero criar algo que pode
    separar num ângulo
  • 13:00 - 13:03
    da foto que está sendo tirada.
  • 13:03 - 13:07
    Essas imagens são inteiramente não
    marcadas, então preciso começar do zero.
  • 13:07 - 13:08
    Com o algoritmo de
    aprendizado profundo,
  • 13:08 - 13:12
    pode-se automaticamente identificar áreas
    de estrutura nessas imagens.
  • 13:12 - 13:16
    O legal é que o humano e o computador
    agora podem trabalhar juntos.
  • 13:16 - 13:18
    Então o humano, como podem ver,
  • 13:18 - 13:21
    diz ao computador as áreas de interesse
  • 13:21 - 13:25
    que o computador então usa para
    melhorar o algoritmo.
  • 13:25 - 13:30
    Esses sistemas de aprendizado profundo
    agem num espaço de 16 mil dimensões,
  • 13:30 - 13:33
    dá para ver aqui o computador
    girando através do espaço,
  • 13:33 - 13:35
    tentando encontrar novas
    áreas de estrutura.
  • 13:35 - 13:37
    E quando consegue,
  • 13:37 - 13:41
    o humano que está no controle então
    aponta as áreas de interesse.
  • 13:41 - 13:43
    Aqui o computador encontrou as
    áreas com sucesso,
  • 13:43 - 13:46
    por exemplo, ângulos.
  • 13:46 - 13:47
    Enquanto seguimos o processo,
  • 13:47 - 13:50
    gradualmente dizendo mais e mais
    ao computador
  • 13:50 - 13:52
    sobre os tipos de estruturas que
    estamos buscando.
  • 13:52 - 13:54
    Se fosse um teste diagnóstico, seria
  • 13:54 - 13:57
    um patologista identificando áreas
    de condição patológica, por exemplo,
  • 13:57 - 14:02
    ou um radiologista indicando nódulos
    potencialmente problemáticos.
  • 14:02 - 14:05
    E às vezes pode ser difícil
    para o algoritmo.
  • 14:05 - 14:07
    Nesse caso, ficou um pouco confuso.
  • 14:07 - 14:09
    As frentes e as traseiras estão
    todas misturadas.
  • 14:09 - 14:11
    Então temos que ser cuidadosos,
  • 14:11 - 14:15
    manualmente separando as frentes e
    as traseiras,
  • 14:15 - 14:20
    e dizer ao computador que isso é
    o tipo de grupo
  • 14:20 - 14:22
    que nos interessa.
  • 14:22 - 14:24
    Então fizemos isso por um tempo,
    adiantamos um pouco, e
  • 14:24 - 14:26
    treinamos o algoritmo de
    aprendizado de máquina
  • 14:26 - 14:28
    com base em algumas centenas de coisas,
  • 14:28 - 14:30
    e esperamos que tenha ficado melhor.
  • 14:30 - 14:34
    Podem ver que agora algumas dessas
    imagens desapareceram,
  • 14:34 - 14:38
    mostrando que já consegue entender
    algumas por si próprio.
  • 14:38 - 14:41
    Podemos então usar esse conceito
    para imagens similares,
  • 14:41 - 14:43
    e usando imagens similares,
    vocês podem ver,
  • 14:43 - 14:47
    o computador nesse ponto consegue
    encontrar somente as frentes dos carros.
  • 14:47 - 14:50
    Nesse ponto o humano pode
    dizer ao computador,
  • 14:50 - 14:52
    "ok, sim, você fez um bom trabalho".
  • 14:54 - 14:56
    Claro que às vezes ainda é difícil
  • 14:56 - 15:00
    separar grupos.
  • 15:00 - 15:03
    Nesse caso mesmo depois
    do computador girar um pouco,
  • 15:03 - 15:07
    ainda vemos que imagens
    do lado esquerdo e do lado direito
  • 15:07 - 15:08
    estão todas misturadas.
  • 15:08 - 15:10
    Podemos novamente dar
    dicas ao computador,
  • 15:10 - 15:13
    e dizer, certo, encontre
    uma projeção que separe
  • 15:13 - 15:16
    os lados esquerdo e direito
    o melhor possível
  • 15:16 - 15:18
    usando o algoritmo de
    aprendizado profundo.
  • 15:18 - 15:21
    E dando aquela dica, ah, certo, conseguiu.
  • 15:21 - 15:24
    Encontrou um jeito de pensar
    nesses objetos
  • 15:24 - 15:26
    que acabou agrupando.
  • 15:26 - 15:29
    Vocês podem pegar a ideia aqui.
  • 15:29 - 15:37
    Não é o caso de substituir
    o humano pelo computador,
  • 15:37 - 15:40
    mas sim de trabalharem juntos.
  • 15:40 - 15:43
    O que fazemos aqui é substituir algo
    que costumava demandar de uma equipe
  • 15:43 - 15:45
    de cinco ou seis pessoas
    cerca de sete anos
  • 15:45 - 15:48
    com algo que leva apenas 15 minutos
  • 15:48 - 15:50
    para uma pessoa só.
  • 15:50 - 15:54
    Esse processo demanda
    cerca de quatro ou cinco iterações.
  • 15:54 - 15:56
    Podemos ver que agora temos 62%
  • 15:56 - 15:59
    de nossas 1,5 milhão de imagens
    classificadas corretamente.
  • 15:59 - 16:01
    Nesse ponto podemos rapidamente
  • 16:01 - 16:03
    pegar seções inteiras
  • 16:03 - 16:06
    e checar se não há erros.
  • 16:06 - 16:10
    Onde encontramos erros,
    podemos avisar o computador.
  • 16:10 - 16:13
    Usando esse tipo de processo para
    cada um dos diferentes grupos,
  • 16:13 - 16:15
    temos agora 80% de índice de sucesso
  • 16:15 - 16:18
    classificando 1,5 milhão de imagens.
  • 16:18 - 16:20
    Nesse ponto é só o caso de
  • 16:20 - 16:23
    encontrar o pequeno número que ainda
    não está classificado corretamente,
  • 16:23 - 16:26
    e tentar entender o motivo.
  • 16:26 - 16:28
    E com essa abordagem,
  • 16:28 - 16:32
    em 15 minutos temos 97%
    de índice de classificação.
  • 16:32 - 16:37
    Então esse tipo de técnica nos permite
    resolver um grande problema,
  • 16:37 - 16:40
    que é a falta de especialização
    médica no mundo.
  • 16:40 - 16:43
    O Fórum Econômico Mundial diz que há
    escassez de algo entre 10 e 20 vezes
  • 16:43 - 16:46
    de médicos no mundo em desenvolvimento,
  • 16:46 - 16:48
    e que levaria cerca de 300 anos
  • 16:48 - 16:51
    para treinar gente suficiente para
    resolver o problema.
  • 16:51 - 16:54
    Imaginem conseguirmos
    aumentar a eficiência
  • 16:54 - 16:56
    usando essas abordagens
    de aprendizado profundo?
  • 16:56 - 16:59
    Por isso estou empolgado
    com as oportunidades.
  • 16:59 - 17:01
    E estou preocupado com os problemas.
  • 17:01 - 17:04
    O problema aqui é que cada área
    em azul no mapa
  • 17:04 - 17:08
    é um lugar onde os serviços estão
    com mais de 80% de emprego.
  • 17:08 - 17:10
    O que são serviços?
  • 17:10 - 17:11
    São esses.
  • 17:11 - 17:16
    São também exatamente o que
    os computadores aprenderam a fazer.
  • 17:16 - 17:19
    Então 80% do emprego no mundo
    no mundo desenvolvido
  • 17:19 - 17:22
    é algo que computadores já
    aprenderam a fazer.
  • 17:22 - 17:23
    O que isso significa?
  • 17:23 - 17:26
    Ficaremos bem. Serão substituídos
    por outros empregos.
  • 17:26 - 17:29
    Por exemplo serão mais empregos
    para cientistas de dados.
  • 17:29 - 17:30
    Na verdade não.
  • 17:30 - 17:33
    Não demora muito para cientistas
    de dados fazerem essas coisas.
  • 17:33 - 17:36
    Por exemplo, os quatro algoritmos
    foram construídos pelo mesmo cara.
  • 17:36 - 17:38
    Então você pensa, oh,
    isso já aconteceu antes,
  • 17:38 - 17:42
    já vimos isso antes,
    quando coisas novas chegam
  • 17:42 - 17:44
    e novos empregos aparecem,
  • 17:44 - 17:46
    como serão esses novos empregos?
  • 17:46 - 17:48
    É muito difícil estimar isso,
  • 17:48 - 17:51
    porque o desempenho humano
    cresce nesse ritmo gradual,
  • 17:51 - 17:54
    mas agora temos um sistema,
    o aprendizado profundo,
  • 17:54 - 17:57
    que sabemos crescer em ritmo exponencial.
  • 17:57 - 17:58
    E nós estamos aqui.
  • 17:58 - 18:01
    Então hoje vemos as coisas ao redor
  • 18:01 - 18:03
    e dizemos: "Oh, os computadores são
    tão burros". Certo?
  • 18:03 - 18:07
    Mas dentro de cinco anos os computadores
    estarão fora desse gráfico.
  • 18:07 - 18:11
    Então precisamos começar a pensar
    nessa capacidade agora mesmo.
  • 18:11 - 18:13
    Já vimos isso antes, claro.
  • 18:13 - 18:14
    Na Revolução Industrial,
  • 18:14 - 18:17
    vimos uma mudança na capacidade
    graças aos motores.
  • 18:18 - 18:21
    Acontece que, as coisas foram
    se achatando.
  • 18:21 - 18:23
    Houve distúrbio social,
  • 18:23 - 18:26
    mas quando os motores foram usados para
    gerar força em todas as situações
  • 18:26 - 18:28
    as coisas se acalmaram.
  • 18:28 - 18:30
    A Revolução do Aprendizado de Máquina
  • 18:30 - 18:33
    será bem diferente,
  • 18:33 - 18:36
    porque ela nunca se acalma.
  • 18:36 - 18:39
    Quanto mais os computadores
    conseguem melhorar,
  • 18:39 - 18:43
    mais eles podem construir
    outros computadores, melhores,
  • 18:43 - 18:45
    então esse será um tipo de mudança
  • 18:45 - 18:47
    que o mundo nunca viveu antes,
  • 18:47 - 18:51
    então sua compreensão anterior do
    que é possível é diferente.
  • 18:51 - 18:53
    Isso já está nos afetando.
  • 18:53 - 18:56
    Nos últimos 25 anos, como
    a produtividade de capital aumentou,
  • 18:56 - 19:01
    a produtividade de mão de obra estacionou,
    de fato até caiu um pouco.
  • 19:01 - 19:04
    Então quero que comecemos
    essa discussão já.
  • 19:04 - 19:07
    Sei que quando eu conto isso
    para as pessoas,
  • 19:07 - 19:09
    elas podem acabar desdenhando.
  • 19:09 - 19:10
    "Os computadores não sabem pensar,
  • 19:10 - 19:13
    eles não se emocionam,
    não entendem poesia,
  • 19:13 - 19:16
    nós não sabemos como eles funcionam".
  • 19:16 - 19:17
    E daí?
  • 19:17 - 19:19
    Hoje computadores fazem coisas
  • 19:19 - 19:22
    que passamos a maior parte
    do tempo sendo pagos pra fazer,
  • 19:22 - 19:24
    então chegou a hora de pensar
  • 19:24 - 19:28
    em como vamos ajustar nossas
    estruturas sociais e econômicas
  • 19:28 - 19:30
    para essa nova realidade.
  • 19:30 - 19:31
    Obrigado.
  • 19:31 - 19:32
    (Aplausos)
Title:
As maravilhosas e aterradoras implicações de computadores que conseguem aprender
Speaker:
Jeremy Howard
Description:

O que acontece quando ensinamos um computador a aprender?
O tecnólogo Jeremy Howard compartilha alguns novos e surpreendentes avanços no dinâmico campo do aprendizado profundo, uma técnica que dá aos computadores a habilidade de aprender chinês ou reconhecer objetos em fotos, ou ajudar a analizar um diagnóstico médico. (Uma ferramenta de aprendizado profundo, depois de assistir a horas de YouTube, aprendeu o conceito de "gatos"). Seja cativado por uma área de conhecimento que vai mudar o modo como os computadores se comportam ao seu redor... Mais cedo que você pensa.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
19:45

Portuguese, Brazilian subtitles

Revisions