< Return to Video

A ascensão da inteligência artificial por meio da aprendizagem profunda | Yoshua Bengio | TEDxMontreal

  • 0:18 - 0:21
    Nosso mundo está mudando
    de várias formas
  • 0:21 - 0:26
    e uma das coisas que terá enorme
    impacto em nosso futuro
  • 0:26 - 0:29
    é a inteligência artificial, IA,
  • 0:29 - 0:33
    que trará outra revolução industrial.
  • 0:34 - 0:40
    As revoluções industriais anteriores
    expandiram o poder mecânico dos humanos.
  • 0:40 - 0:45
    Essa nova revolução,
    essa segunda era das máquinas,
  • 0:46 - 0:50
    expandirá nossas habilidades cognitivas,
  • 0:50 - 0:52
    nosso poder mental.
  • 0:53 - 0:57
    Os computadores não irão substituir
    apenas o trabalho manual,
  • 0:58 - 1:00
    mas também o trabalho mental.
  • 1:00 - 1:03
    Então, em que ponto estamos atualmente?
  • 1:04 - 1:08
    Vocês podem ter ouvido
    sobre o que aconteceu em março de 2016,
  • 1:08 - 1:12
    quando um sistema de aprendizado
    de máquina chamado AlphaGo
  • 1:12 - 1:18
    utilizou a aprendizagem profunda para
    derrotar o campeão mundial do jogo Go.
  • 1:18 - 1:21
    O Go é um jogo chinês antigo
  • 1:21 - 1:24
    que apresentava maior dificuldade
    para os computadores dominarem
  • 1:24 - 1:26
    do que o jogo de xadrez.
  • 1:27 - 1:32
    Como conseguimos isso agora,
    após décadas de pesquisas de IA?
  • 1:33 - 1:37
    O AlphaGo foi treinado para jogar Go.
  • 1:38 - 1:41
    Primeiramente, assistindo várias vezes
  • 1:42 - 1:47
    a dezenas de milhões de jogadas feitas
    por jogadores humanos muito fortes.
  • 1:48 - 1:52
    Depois, jogando milhões de partidas
    contra si mesmo.
  • 1:54 - 2:00
    O aprendizado de máquina permite
    que computadores aprendam pelo exemplo,
  • 2:00 - 2:03
    que aprendam pelos dados.
  • 2:04 - 2:07
    O aprendizado de máquina
    acabou se tornando uma chave
  • 2:07 - 2:12
    para preencher os computadores
    de conhecimento.
  • 2:12 - 2:14
    E isso é importante
  • 2:14 - 2:19
    porque o conhecimento
    é o que possibilita a inteligência.
  • 2:20 - 2:27
    Pôr conhecimento em computadores era um
    desafio para abordagens anteriores de IA.
  • 2:28 - 2:29
    Por quê?
  • 2:29 - 2:34
    Há muitas coisas
    que sabemos intuitivamente,
  • 2:35 - 2:38
    então não conseguimos
    comunicá-las verbalmente.
  • 2:39 - 2:43
    Não temos acesso consciente
    àquele conhecimento intuitivo.
  • 2:43 - 2:47
    Como podemos programar
    computadores sem conhecimento?
  • 2:48 - 2:49
    Qual é a solução?
  • 2:49 - 2:55
    A solução é que as máquinas aprendam
    esse conhecimento sozinhas,
  • 2:55 - 2:56
    assim como nós fazemos.
  • 2:56 - 3:03
    E isso é importante porque conhecimento
    é o que possibilita a inteligência.
  • 3:03 - 3:07
    Minha missão tem sido
    contribuir para descobrir
  • 3:07 - 3:13
    e entender os princípios da inteligência
    por meio do aprendizado,
  • 3:13 - 3:18
    seja ele animal, humano ou de máquina.
  • 3:19 - 3:25
    Eu e outros acreditamos
    que há alguns princípios-chave,
  • 3:25 - 3:28
    como as leis da física,
  • 3:28 - 3:33
    princípios simples que poderiam explicar
    a nossa própria inteligência
  • 3:33 - 3:36
    e nos ajudar a construir
    máquinas inteligentes.
  • 3:38 - 3:42
    Por exemplo, pensem
    nas leis da aerodinâmica,
  • 3:42 - 3:48
    que são gerais o bastante para explicarem
    o voo dos pássaros e o dos aviões.
  • 3:49 - 3:55
    Não seria maravilhoso descobrir
    princípios igualmente simples e poderosos
  • 3:56 - 3:59
    que explicariam a própria inteligência?
  • 4:01 - 4:03
    Bem, fizemos algum progresso.
  • 4:04 - 4:11
    Meus colaboradores e eu trabalhamos
    nos últimos anos em uma revolução da IA
  • 4:12 - 4:16
    com nossa pesquisa sobre as redes neurais
    e a aprendizagem profunda,
  • 4:16 - 4:21
    uma abordagem do aprendizado de máquina
    inspirada pelo cérebro.
  • 4:22 - 4:25
    Começou com o reconhecimento de fala
  • 4:25 - 4:30
    em seus celulares,
    com redes neurais, desde 2012.
  • 4:31 - 4:36
    Pouco tempo depois, veio um avanço
    na visão computacional.
  • 4:37 - 4:43
    Os computadores agora fazem bom trabalho
    no reconhecimento do conteúdo de imagens.
  • 4:44 - 4:48
    Eles se aproximaram do desempenho
    humano em alguns indicadores
  • 4:48 - 4:50
    nos últimos cinco anos.
  • 4:51 - 4:54
    Um computador agora pode
    ter um entendimento intuitivo
  • 4:54 - 4:58
    da aparência visual de um tabuleiro de Go
  • 4:58 - 5:02
    comparável ao dos melhores
    jogadores humanos.
  • 5:02 - 5:03
    Mais recentemente,
  • 5:03 - 5:06
    após algumas descobertas
    feitas em meu laboratório,
  • 5:07 - 5:11
    a aprendizagem profunda foi usada
    para traduzir de uma língua para outra
  • 5:11 - 5:14
    e vocês começarão a ver isso
    no Google Tradutor.
  • 5:15 - 5:18
    Isso está expandindo
    a habilidade computacional
  • 5:18 - 5:22
    para entender e gerar linguagem natural.
  • 5:24 - 5:26
    Mas não se enganem:
  • 5:26 - 5:30
    ainda estamos muito longe de uma máquina
  • 5:30 - 5:34
    que seja tão capaz quanto os humanos
  • 5:34 - 5:38
    de aprender a dominar
    vários aspectos de nosso mundo.
  • 5:39 - 5:41
    Então, vejamos um exemplo.
  • 5:42 - 5:47
    Até mesmo uma criança de dois anos
    é capaz de aprender coisas
  • 5:47 - 5:50
    de uma forma que os computadores
    não conseguem atualmente.
  • 5:52 - 5:56
    Uma criança de dois anos,
    na verdade, domina física intuitiva.
  • 5:57 - 6:02
    Ela sabe que uma bola
    cairá ao ser largada.
  • 6:02 - 6:06
    Quando derrama algum líquido,
    ela sabe que haverá sujeira.
  • 6:07 - 6:10
    Seus pais não precisam ensinar
  • 6:10 - 6:13
    as leis de Newton ou equações
    diferenciais à criança.
  • 6:14 - 6:20
    Ela descobre todas essas coisas sozinha,
    de forma não supervisionada.
  • 6:21 - 6:28
    A aprendizagem não supervisionada ainda é
    um dos principais desafios para a IA
  • 6:28 - 6:33
    e pode levar várias décadas
    de pesquisas básicas a mais
  • 6:33 - 6:35
    para desfazer esse nó.
  • 6:35 - 6:39
    Aprendizagem não supervisionada
    está tentando descobrir
  • 6:39 - 6:41
    representações dos dados.
  • 6:42 - 6:44
    Deixem-me mostrar-lhes um exemplo.
  • 6:44 - 6:49
    Considerem uma página na tela
    que veem com seus olhos
  • 6:49 - 6:54
    ou que o computador vê como
    uma imagem, um monte de pixels.
  • 6:55 - 7:00
    Para responder uma pergunta
    sobre o conteúdo da imagem,
  • 7:01 - 7:05
    é necessário entender
    seu significado de alto nível,
  • 7:06 - 7:12
    que corresponde ao nível mais elevado
    de representação em seu cérebro.
  • 7:13 - 7:18
    Abaixo dele, temos o significado
    individual das palavras
  • 7:19 - 7:24
    e, ainda mais abaixo, temos caracteres
    que compõem as palavras.
  • 7:25 - 7:28
    Esses caracteres podem ser renderizados
    de formas diferentes,
  • 7:28 - 7:31
    feitos de traços diferentes.
  • 7:32 - 7:35
    E esses traços são feitos de arestas,
  • 7:35 - 7:37
    que são feitas de pixels.
  • 7:37 - 7:40
    Então são níveis diferentes
    de representação.
  • 7:41 - 7:45
    Mas os pixels não são
    suficientes por si sós
  • 7:45 - 7:47
    para que a imagem faça sentido,
  • 7:47 - 7:52
    para responder uma questão de alto nível
    sobre o conteúdo da página.
  • 7:53 - 7:58
    Nosso cérebro tem esses níveis
    diferentes de representação,
  • 7:58 - 8:02
    começando pelos neurônios
    na primeira área visual do córtex, V1,
  • 8:02 - 8:05
    que reconhece os contornos.
  • 8:05 - 8:09
    Depois, os neurônios
    na segunda área visual do córtex, V2,
  • 8:09 - 8:13
    que reconhece traços e formas pequenas.
  • 8:13 - 8:17
    Mais acima, temos os neurônios
    que detectam partes de objetos
  • 8:17 - 8:20
    e depois objetos e cenas completas.
  • 8:21 - 8:25
    As redes neurais,
    quando treinadas com imagens,
  • 8:25 - 8:29
    podem de fato descobrir esses tipos
    de níveis de representação
  • 8:29 - 8:33
    que correspondem muito bem
    ao que observamos no cérebro.
  • 8:34 - 8:39
    Tanto as redes neurais biológicas,
    que são as que existem no cérebro,
  • 8:39 - 8:43
    como as redes neurais profundas
    que treinamos em nossas máquinas
  • 8:43 - 8:49
    podem aprender a transformar
    de um nível de representação ao seguinte,
  • 8:49 - 8:53
    com os altos níveis correspondendo
    a noções mais abstratas.
  • 8:53 - 8:58
    Por exemplo, a noção
    abstrata do caractere A
  • 8:58 - 9:01
    pode ser renderizada de muitas formas
    diferentes nos níveis mais baixos
  • 9:01 - 9:04
    como muitas configurações
    diferentes de pixels
  • 9:04 - 9:09
    dependendo da posição, rotação,
    fonte, e assim por diante.
  • 9:10 - 9:15
    Então, como aprendemos
    esses altos níveis de representações?
  • 9:17 - 9:21
    Até agora uma coisa
    que foi muito bem-sucedida
  • 9:21 - 9:23
    nas aplicações da aprendizagem profunda
  • 9:23 - 9:26
    é o que chamamos de
    aprendizagem supervisionada.
  • 9:26 - 9:32
    Na aprendizagem supervisionada,
    o computador deve ser "levado pela mão"
  • 9:32 - 9:35
    e humanos precisam dizer ao computador
    a resposta para várias perguntas.
  • 9:35 - 9:41
    Por exemplo, em milhões de imagens,
    humanos têm que dizer à máquina:
  • 9:42 - 9:44
    "Bem... nessa imagem, isso é um gato.
  • 9:44 - 9:47
    Nessa imagem, isso é um cachorro".
  • 9:47 - 9:50
    "Nessa imagem, isso é um laptop.
  • 9:50 - 9:55
    Nessa imagem, isso é um teclado",
    e assim por diante, milhões de vezes.
  • 9:56 - 10:01
    O que é muito penoso e usamos
    o crowdsourcing para conseguir fazer isso.
  • 10:01 - 10:03
    Embora seja muito poderoso
  • 10:03 - 10:06
    e possamos resolver
    vários problemas interessantes,
  • 10:06 - 10:08
    humanos são muito mais fortes
  • 10:08 - 10:12
    e podem aprender sobre muitos aspectos
    diferentes a mais do mundo
  • 10:12 - 10:14
    de uma forma muito mais autônoma,
  • 10:14 - 10:18
    como vimos com a criança aprendendo
    sobre física intuitiva.
  • 10:18 - 10:24
    A aprendizagem não supervisionada poderia
    nos ajudar com os carros sem condutor.
  • 10:25 - 10:26
    Deixem-me explicar:
  • 10:26 - 10:32
    a aprendizagem não supervisionada permite
    que computadores se projetem ao futuro
  • 10:32 - 10:37
    para gerarem futuros plausíveis
    condicionados à situação atual.
  • 10:38 - 10:43
    E isso permite que os computadores
    raciocinem e planejem adiante,
  • 10:43 - 10:48
    até para circunstâncias para as quais
    não tenham sido treinados.
  • 10:49 - 10:50
    Isso é importante
  • 10:50 - 10:54
    porque se usássemos a aprendizagem
    supervisionada, teríamos que dizer
  • 10:54 - 10:58
    aos computadores todas as circunstâncias
    onde o carro poderia estar
  • 10:58 - 11:02
    e como os humanos
    reagiriam àquela situação.
  • 11:02 - 11:06
    Como eu aprendi a evitar
    comportamentos perigosos dirigindo?
  • 11:07 - 11:11
    Eu precisei morrer mil vezes em acidentes?
  • 11:11 - 11:12
    (Risos)
  • 11:12 - 11:15
    Bem, é assim que treinamos
    as máquinas agora.
  • 11:15 - 11:18
    Então não vai decolar,
    ou pelo menos não vai dirigir.
  • 11:18 - 11:20
    (Risos)
  • 11:23 - 11:26
    Precisamos treinar nossos modelos
  • 11:26 - 11:32
    para serem capazes de gerar imagens
    ou futuros plausíveis, de serem criativos,
  • 11:32 - 11:34
    e estamos progredindo com isso.
  • 11:34 - 11:37
    Então, estamos treinando
    essas redes neurais profundas
  • 11:37 - 11:41
    para irem do significado
    de alto nível aos pixels
  • 11:41 - 11:43
    e não dos pixels
    aos significados de alto nível,
  • 11:43 - 11:47
    indo na outra direção por meio
    dos níveis de representação.
  • 11:47 - 11:50
    E, desse jeito, o computador
    pode gerar imagens
  • 11:51 - 11:55
    que sejam novas e diferentes
    daquelas que o computador viu
  • 11:55 - 11:57
    enquanto era treinado,
  • 11:57 - 12:00
    mas que sejam plausíveis
    e pareçam imagens naturais.
  • 12:02 - 12:06
    Também podemos usar esses modelos
    para conceber imagens estranhas,
  • 12:06 - 12:09
    por vezes assustadoras,
  • 12:09 - 12:12
    como os nossos sonhos e pesadelos.
  • 12:13 - 12:17
    Aqui estão algumas imagens
    que foram sintetizadas pelo computador
  • 12:17 - 12:20
    utilizando esses modelos
    de mapeamento profundo.
  • 12:20 - 12:22
    Elas parecem imagens naturais,
  • 12:22 - 12:25
    mas, se observarem com atenção,
    perceberão que são diferentes
  • 12:25 - 12:29
    e que lhes faltam alguns
    dos detalhes importantes
  • 12:29 - 12:31
    que nós reconheceríamos como naturais.
  • 12:32 - 12:34
    Dez anos atrás,
  • 12:34 - 12:39
    a aprendizagem não supervisionada
    era a chave para a inovação
  • 12:39 - 12:42
    que conquistamos ao descobrirmos
    a aprendizagem profunda.
  • 12:45 - 12:48
    Isso acontecia só em alguns laboratórios,
    incluindo o meu na época,
  • 12:48 - 12:52
    em um momento em que as redes neurais
    não eram populares.
  • 12:52 - 12:55
    Elas quase foram abandonadas
    pela comunidade científica.
  • 12:56 - 12:59
    Agora, as coisas mudaram bastante.
  • 12:59 - 13:01
    Esse campo se tornou muito difícil.
  • 13:02 - 13:06
    Agora há, todos os anos, centenas
    de estudantes se candidatando
  • 13:06 - 13:09
    para a graduação no meu laboratório,
    com meus colaboradores.
  • 13:11 - 13:17
    Montreal se tornou
    a maior concentração acadêmica
  • 13:17 - 13:19
    de pesquisadores da aprendizagem
    profunda no mundo.
  • 13:20 - 13:26
    Acabamos de receber uma enorme bolsa
    de pesquisa de 94 milhões de dólares
  • 13:27 - 13:30
    para ultrapassar os limites
    da IA e da ciência dos dados
  • 13:30 - 13:36
    e também para transferir a tecnologia
    da aprendizagem profunda à indústria.
  • 13:37 - 13:43
    Pessoas de negócios estimuladas
    por tudo isso estão criando start-ups
  • 13:43 - 13:47
    e laboratórios industriais,
    muitos deles perto das universidades.
  • 13:49 - 13:50
    Por exemplo,
  • 13:50 - 13:55
    algumas semanas atrás, anunciamos
    o lançamento de uma fábrica de start-ups
  • 13:55 - 13:57
    chamada "Element AI"
  • 13:57 - 14:00
    que focará as aplicações
    da aprendizagem profunda.
  • 14:02 - 14:06
    Simplesmente não há especialistas
    suficientes em aprendizagem profunda,
  • 14:06 - 14:11
    então eles ganham salários absurdos
  • 14:11 - 14:17
    e muitos dos meus antigos colegas
    acadêmicos aceitaram ofertas generosas
  • 14:17 - 14:21
    de empresas para trabalharem
    em laboratórios industriais.
  • 14:21 - 14:27
    Eu escolhi permanecer na universidade,
    para trabalhar pelo bem comum,
  • 14:28 - 14:31
    para trabalhar com os estudantes
    e permanecer independente.
  • 14:31 - 14:35
    Para guiar a próxima geração
    de especialistas em aprendizagem profunda.
  • 14:35 - 14:41
    Uma coisa que estamos fazendo
    que ultrapassa o valor comercial
  • 14:41 - 14:44
    é pensar sobre
    as implicações sociais da IA.
  • 14:47 - 14:50
    Muitos de nós começamos agora
    a voltar nossa atenção
  • 14:50 - 14:56
    a programas que possuem
    valor social, como a saúde.
  • 14:56 - 14:59
    Achamos que podemos usar
    a aprendizagem profunda
  • 14:59 - 15:03
    para melhorar tratamentos
    com uma medicina personalizada.
  • 15:04 - 15:06
    Acredito que, no futuro,
  • 15:06 - 15:10
    conforme coletamos mais dados
    de bilhões de pessoas ao redor da Terra,
  • 15:10 - 15:14
    conseguiremos fornecer
    aconselhamento médico
  • 15:14 - 15:17
    a bilhões de pessoas que não têm
    acesso a isso atualmente.
  • 15:18 - 15:23
    E podemos imaginar muitos outros usos
    para o valor social da IA.
  • 15:23 - 15:26
    Por exemplo, algo que resultará
    de nossa pesquisa
  • 15:26 - 15:29
    sobre o entendimento da linguagem natural
  • 15:29 - 15:31
    é o fornecimento de vários serviços,
  • 15:31 - 15:34
    como os serviços legais
    para quem não puder pagar por eles.
  • 15:35 - 15:37
    Agora também estamos virando nossa atenção
  • 15:37 - 15:41
    para as implicações sociais
    da IA na minha comunidade.
  • 15:42 - 15:45
    Mas não são só os especialistas
    que devem pensar sobre isso.
  • 15:46 - 15:50
    Acredito que, para além
    da matemática e do jargão,
  • 15:51 - 15:56
    as pessoas comuns podem ter uma noção
    do que ocorre sob a superfície
  • 15:57 - 16:01
    o bastante para participarem
    nas decisões importantes
  • 16:01 - 16:07
    que ocorrerão nos próximos
    anos e décadas sobre a IA.
  • 16:08 - 16:09
    Então, por favor,
  • 16:10 - 16:16
    deixem seu medo de lado e deem-se
    o espaço para aprender sobre isso.
  • 16:18 - 16:23
    Meus colaboradores e eu escrevemos
    vários artigos introdutórios
  • 16:23 - 16:25
    e um livro chamado "Aprendizagem Profunda"
  • 16:25 - 16:30
    para ajudar estudantes e engenheiros
    a entrarem nesse estimulante campo.
  • 16:31 - 16:36
    Também há muitos recursos on-line:
    softwares, tutoriais, vídeos, etc.
  • 16:36 - 16:41
    e muitos estudantes universitários estão
    aprendendo sozinhos vários desses tópicos
  • 16:41 - 16:45
    sobre pesquisas na aprendizagem profunda,
  • 16:45 - 16:48
    para depois se juntarem
    a laboratórios como o meu.
  • 16:49 - 16:55
    A IA terá um impacto significativo
    na nossa sociedade.
  • 16:57 - 17:02
    Então, é importante perguntar:
    como iremos usá-la?
  • 17:04 - 17:08
    Benefícios imensos poderão ser
    acompanhados por um lado negativo,
  • 17:08 - 17:11
    como o uso militar,
  • 17:11 - 17:15
    ou mudanças rápidas e turbulentas
    no mercado de trabalho.
  • 17:16 - 17:22
    Para garantir que as escolhas coletivas
    que serão feitas sobre a IA
  • 17:22 - 17:23
    nos próximos anos
  • 17:23 - 17:25
    sejam para o benefício de todos,
  • 17:25 - 17:29
    todo cidadão deveria
    assumir um papel ativo
  • 17:29 - 17:33
    na definição de como a IA
    moldará nosso futuro.
  • 17:34 - 17:35
    Obrigado.
  • 17:35 - 17:37
    (Aplausos)
Title:
A ascensão da inteligência artificial por meio da aprendizagem profunda | Yoshua Bengio | TEDxMontreal
Description:

A revolução na inteligência artificial está ocorrendo graças ao progresso na aprendizagem profunda. A que distância estamos do objetivo de conquistar IA de nível humano? Quais são alguns dos principais desafios adiante?

Yoshua Bengio acredita que entender o básico sobre a IA está ao alcance de todos os cidadãos. Que democratizar esses assuntos é importante para que nossas sociedades possam tomar as melhores decisões coletivas sobre as enormes mudanças que a IA trará, o que tornará essas mudanças benéficas e vantajosas para todos.

___________________________

Yoshua Bengio é um dos pioneiros da aprendizagem profunda. Ele é o dirigente do Instituto de Montreal para Algoritmos de Aprendizagem (MILA), professor na Universidade de Montreal, membro do conselho da NIPS e co-fundador do Element AI. Com um PhD na Universidade McGill (1991, Ciência da Computação) e pós-doutorado no MIT e AT&T Bell Labs, ele ocupa a cátedra Canada Research em Algoritmos de Aprendizagem Estatística, é membro sênior do Instituto Canadense de Pesquisas Avançadas e co-dirige seu programa focado na aprendizagem profunda. É melhor conhecido por suas contribuições à aprendizagem profunda, redes recorrentes, modelos de linguagem neural, tradução de máquina neural e aprendizagem de máquina inspirada na biologia.

https://mila.umontreal.ca/en/
https://www.elementai.com/

___________________________

Para mais informações, visite http://www.tedxmontreal.com

Esta palestra foi dada em um evento TEDx, que usa o formato de conferência TED, mas é organizado de forma independente por uma comunidade local. Para saber mais visite http://ted.com/tedx

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDxTalks
Duration:
17:54

Portuguese, Brazilian subtitles

Revisions