Return to Video

O perigo da IA é mais estranho do que pensamos

  • 0:03 - 0:05
    A Inteligência Artificial!
  • 0:05 - 0:08
    é conhecida por perturbar
    todos os tipos de indústrias.
  • 0:09 - 0:11
    Por exemplo, a dos gelados.
  • 0:12 - 0:16
    Que tipo de estonteantes sabores
    podemos criar
  • 0:16 - 0:19
    com o poder
    da inteligência artificial avançada?
  • 0:19 - 0:22
    Associei-me a um grupo de programadores
  • 0:22 - 0:23
    da escola secundária de Kealing,
  • 0:23 - 0:26
    para descobrir a resposta a esta pergunta.
  • 0:26 - 0:30
    Eles reuniram mais de 1600 sabores
    de gelados já existentes,
  • 0:30 - 0:36
    e fornecemos-lhes um algoritmo
    para verificar o que ele poderia gerar.
  • 0:36 - 0:40
    Estes são alguns dos sabores
    que a IA criou
  • 0:40 - 0:42
    [Quebra de Lixo de Abóbora]
  • 0:42 - 0:43
    (Risos)
  • 0:43 - 0:45
    [Baba de Manteiga de Amendoim]
  • 0:46 - 0:48
    [Doença de Creme de Morango]
  • 0:48 - 0:50
    (Risos)
  • 0:50 - 0:55
    Estes sabores não são tão deliciosos
    quanto esperávamos
  • 0:55 - 0:57
    Logo, a pergunta é:
    O que aconteceu?
  • 0:57 - 0:58
    O que correu mal?
  • 0:58 - 1:01
    A IA está a tentar matar-nos?
  • 1:01 - 1:06
    Ou está a tentar fazer o que pedimos
    e ocorreu um problema?
  • 1:07 - 1:09
    Nos filmes, quando algo
    corre mal com a IA,
  • 1:09 - 1:12
    é geralmente porque a IA decidiu
  • 1:12 - 1:14
    que não quer continuar
    a obedecer aos seres humanos
  • 1:14 - 1:17
    e tem os seus próprios objetivos,
    muito obrigado!
  • 1:17 - 1:20
    Porém, na vida real, a IA que temos
  • 1:21 - 1:23
    não tem inteligência suficiente para isso.
  • 1:23 - 1:25
    Tem uma capacidade de processamento
  • 1:26 - 1:27
    aproximada à de uma minhoca,
  • 1:27 - 1:30
    ou talvez no máximo,
    a de uma simples abelha
  • 1:30 - 1:33
    e de facto, talvez ainda menos.
  • 1:33 - 1:36
    Por exemplo, estamos sempre a aprender
    coisas novas sobre o cérebro
  • 1:36 - 1:40
    o que deixa claro o quanto a nossa IA
    não se compara com o nosso cérebro.
  • 1:40 - 1:45
    A IA de hoje consegue identificar
    um peão numa imagem,
  • 1:45 - 1:49
    mas não tem o conceito
    do que é um peão,
  • 1:49 - 1:53
    para além de um conjunto de linhas,
    de texturas e de elementos.
  • 1:54 - 1:57
    Não sabe o que é um ser humano.
  • 1:57 - 2:00
    Então, a IA de hoje
    irá fazer o que pedimos?
  • 2:00 - 2:02
    Sim, fará se puder,
  • 2:02 - 2:05
    mas pode não fazer o que desejamos.
  • 2:05 - 2:07
    Digamos que estamos a tentar
  • 2:07 - 2:10
    que a IA pegue neste conjunto
    de partes de um robô
  • 2:10 - 2:14
    e as monte num tipo de robô
    que vá do Ponto A ao Ponto B.
  • 2:14 - 2:16
    Se formos tentar resolver este problema
  • 2:16 - 2:19
    escrevendo um programa de computador
    ao estilo tradicional,
  • 2:19 - 2:22
    daríamos ao programa
    instruções passo a passo
  • 2:22 - 2:24
    de como agarrar nessas partes
  • 2:24 - 2:26
    e como as montar num robô com pernas,
  • 2:26 - 2:29
    e depois como usar essas pernas
    para andar até ao Ponto B.
  • 2:29 - 2:32
    Mas quando usamos a IA
    para resolver o problema,
  • 2:32 - 2:33
    as coisas funcionam de outro modo.
  • 2:33 - 2:35
    Não lhe dizemos como resolver o problema
  • 2:35 - 2:37
    apenas lhe damos o objetivo,
  • 2:37 - 2:40
    e ela terá de descobrir por si mesma,
    através de tentativas e erros,
  • 2:40 - 2:42
    como alcançar esse objetivo.
  • 2:42 - 2:46
    Acontece que a IA tem tendência
    a resolver este problema específico
  • 2:46 - 2:48
    fazendo o seguinte:
  • 2:48 - 2:51
    monta uma torre que depois cai,
  • 2:51 - 2:53
    aterrando no Ponto B.
  • 2:53 - 2:56
    Tecnicamente, isso resolve o problema.
  • 2:56 - 2:58
    Tecnicamente, ela chega ao Ponto B.
  • 2:58 - 3:02
    O perigo da IA não é que
    se vá revoltar contra nós,
  • 3:02 - 3:06
    mas que vai fazer exatamente
    o que lhe pedimos para fazer.
  • 3:07 - 3:10
    Logo, o segredo de trabalhar
    com IA passa a ser:
  • 3:10 - 3:14
    Como configuramos o problema para
    a IA fazer exatamente o que queremos?
  • 3:15 - 3:18
    Vejamos, este robô aqui,
    está a ser controlado por uma IA.
  • 3:18 - 3:21
    A IA desenvolveu um modelo
    paras as pernas do robô,
  • 3:21 - 3:25
    e depois descobriu como usá-las
    para ultrapassar todos os obstáculos.
  • 3:25 - 3:28
    Mas quando o David Ha realizou
    esta experiência,
  • 3:28 - 3:31
    teve de configurá-la
    com limites muito estritos
  • 3:31 - 3:34
    em relação à dimensão que a IA
    teria para fazer as pernas,
  • 3:34 - 3:35
    porque senão...
  • 3:43 - 3:45
    (Risos)
  • 3:49 - 3:52
    Tecnicamente, chegou ao fim
    daquela corrida de obstáculos.
  • 3:52 - 3:57
    Vemos como é difícil conseguir que a IA
    faça algo tão simples como andar.
  • 3:58 - 4:00
    Ao vermos a IA fazer isto, podemos dizer:
  • 4:00 - 4:04
    "Ok, não é justo, não podes ser
    uma torre alta e cair,
  • 4:04 - 4:07
    "tens de usar as pernas para andar".
  • 4:07 - 4:10
    Acontece que isso também
    nem sempre funciona.
  • 4:10 - 4:13
    A tarefa desta IA era avançar depressa.
  • 4:13 - 4:17
    Não lhe disseram que tinha de avançar
  • 4:17 - 4:19
    ou que não podia usar os braços.
  • 4:19 - 4:24
    Logo, isto é o que acontece
    quando treinamos a IA para andar depressa,
  • 4:24 - 4:28
    obtemos movimentos como cambalhotas
    e caminhadas ridículas.
  • 4:28 - 4:29
    É muito comum.
  • 4:30 - 4:33
    Tal como contorcer-se no chão.
  • 4:33 - 4:35
    (Risos)
  • 4:35 - 4:38
    Na minha opinião, sabem o que
    seria ainda mais estranho?
  • 4:38 - 4:40
    É o robô "Exterminador".
  • 4:40 - 4:44
    Invadir o "Matrix" é outra coisa que a IA
    fará, se lhe dermos essa oportunidade.
  • 4:44 - 4:47
    Se treinarmos a IA num simulador,
  • 4:47 - 4:51
    ela irá aprender a copiar
    os erros matemáticos do simulador
  • 4:51 - 4:53
    e colhê-los para obter energia.
  • 4:53 - 4:55
    Ou irá descobrir como andar mais depressa,
  • 4:55 - 4:58
    falhando repetidamente
    aquela anomalia no chão.
  • 4:58 - 5:00
    Quando se trabalha com a IA,
  • 5:00 - 5:03
    é menos como trabalhar
    com outro ser humano
  • 5:03 - 5:06
    e mais como trabalhar
    com uma estranha força da natureza.
  • 5:07 - 5:11
    É muito fácil dar, acidentalmente,
    à IA o problema errado para resolver,
  • 5:11 - 5:16
    e, geralmente, não damos por isso
    senão quando qualquer coisa corre mal.
  • 5:16 - 5:18
    Esta é uma experiência que fiz
  • 5:18 - 5:22
    em que eu queria que a IA copiasse
    as cores das tintas,
  • 5:22 - 5:23
    para inventar novas cores de tintas,
  • 5:23 - 5:27
    de acordo com uma lista como
    a que se encontra aqui à esquerda.
  • 5:27 - 5:30
    E aqui está o que a IA sugeriu.
  • 5:30 - 5:33
    [Cocó Sindis , Cocó,
    Sofrimento, Púbico Cinza]
  • 5:33 - 5:35
    (Risos)
  • 5:39 - 5:41
    Tecnicamente,
  • 5:41 - 5:43
    fez o que eu pedi que fizesse.
  • 5:43 - 5:46
    Eu pensei que estava a pedir
    nomes simpáticos para tintas,
  • 5:46 - 5:49
    mas o que tinha pedido
  • 5:49 - 5:52
    era apenas para imitar o tipo
    de combinações de letras
  • 5:52 - 5:54
    que ela tinha visto no original.
  • 5:54 - 5:57
    E eu nada disse em relação
    ao significado das palavras,
  • 5:57 - 6:00
    ou que talvez houvesse algumas palavras
  • 6:00 - 6:03
    que devia evitar usar
    nessas cores de tintas.
  • 6:03 - 6:07
    Portanto, todo o mundo dela
    eram os dados que lhe fornecera.
  • 6:07 - 6:11
    Tal como com os sabores dos gelados,
    ela não sabe mais nada.
  • 6:12 - 6:14
    É geralmente através dos dados
  • 6:14 - 6:19
    que acidentalmente dizemos à IA
    que faça as coisas erradas.
  • 6:19 - 6:22
    Este é um peixe chamado tenca.
  • 6:22 - 6:24
    Houve um grupo de investigadores
  • 6:24 - 6:27
    que treinaram uma IA para identificar
    esta tenca em imagens.
  • 6:27 - 6:29
    Mas quando lhe perguntaram
  • 6:29 - 6:32
    que parte da imagem utilizava
    para identificar o peixe,
  • 6:32 - 6:34
    eis o que ela salientou.
  • 6:35 - 6:37
    Sim, são dedos humanos.
  • 6:37 - 6:40
    Porque é que ela procurou dedos humanos
  • 6:40 - 6:42
    se estava a tentar identificar um peixe?
  • 6:42 - 6:45
    Bem, acontece que a tenca
    é um peixe-troféu,
  • 6:45 - 6:49
    por isso, em muitas das imagens
    que a IA viu deste peixe,
  • 6:49 - 6:50
    durante o treino,
  • 6:50 - 6:52
    o peixe aparecia assim.
  • 6:52 - 6:54
    (Risos)
  • 6:54 - 6:57
    A IA não sabia que os dedos
    não faziam parte do peixe.
  • 6:59 - 7:03
    Assim, vemos porque é tão difícil
    configurar uma IA
  • 7:03 - 7:06
    que consiga perceber o que procura.
  • 7:06 - 7:09
    Isto é o motivo por que criar
    o reconhecimento de imagem
  • 7:09 - 7:11
    num veículo autónomo é super difícil,
  • 7:11 - 7:14
    e o motivo do fracasso
    de tantos veículos autónomos
  • 7:14 - 7:16
    foi porque a IA ficou confusa.
  • 7:16 - 7:20
    Vou falar sobre um exemplo
    que aconteceu em 2016.
  • 7:20 - 7:25
    Houve um acidente fatal quando alguém
    usou o piloto automático da Tesla IA.
  • 7:25 - 7:28
    Em vez de usá-lo na autoestrada,
    como tinha sido desenvolvido,
  • 7:28 - 7:31
    usaram-no nas ruas da cidade.
  • 7:31 - 7:34
    Aconteceu que um camião
    atravessou-se em frente do carro
  • 7:34 - 7:36
    e o carro não travou.
  • 7:37 - 7:41
    A IA fora treinada para reconhecer
    o camião nas imagens.
  • 7:41 - 7:43
    Mas o que parece ter acontecido
  • 7:43 - 7:47
    foi que a IA foi treinada para reconhecer
    os camiões na autoestrada
  • 7:47 - 7:49
    onde esperamos ver os camiões por detrás.
  • 7:49 - 7:53
    Na autoestrada, os camiões
    não aparecem pelos lados.
  • 7:53 - 7:56
    Portanto, quando a IA viu o camião
  • 7:56 - 8:01
    parece tê-lo reconhecido
    como um sinal de trânsito
  • 8:01 - 8:04
    e portanto, seria seguro
    passar por baixo dele.
  • 8:04 - 8:07
    Aqui podem ver um erro da IA
    num setor diferente.
  • 8:07 - 8:10
    A Amazon teve de desistir
    de um algoritmo de seleção de currículos
  • 8:10 - 8:12
    em que estava a trabalhar,
  • 8:12 - 8:15
    quando descobriram que o algoritmo
    aprendera a discriminar as mulheres.
  • 8:15 - 8:18
    Aconteceu que testaram a IA
    com base em exemplos de currículos
  • 8:18 - 8:21
    de pessoas que tinham sido
    contratadas no passado.
  • 8:21 - 8:24
    Com base nesses exemplos, a IA
    aprendeu a evitar currículos de pessoas
  • 8:24 - 8:27
    que tinham frequentado colégios femininos
  • 8:27 - 8:29
    ou que tinham a palavra "feminina"
    algures no currículo,
  • 8:29 - 8:34
    como "equipa de futebol feminina"
    ou "Sociedade Feminina de Engenheiras".
  • 8:34 - 8:38
    A IA não sabia que não devia copiar
    estes aspetos específicos
  • 8:38 - 8:40
    que via os seres humanos fazerem.
  • 8:40 - 8:43
    Tecnicamente, o programa fez
    o que lhe pediram para fazer.
  • 8:43 - 8:46
    Só que eles pediram, sem querer,
    para fazer a coisa errada.
  • 8:47 - 8:50
    Isto está sempre a acontecer com a IA.
  • 8:50 - 8:54
    A IA pode ser destrutiva sem saber.
  • 8:54 - 8:59
    Por isso, as IA que recomendam novos
    conteúdos no Facebook e no YouTube,
  • 8:59 - 9:02
    estão otimizadas para aumentar
    o número de cliques e visualizações.
  • 9:02 - 9:06
    Infelizmente, uma das formas
    que encontraram para fazer isso
  • 9:06 - 9:11
    é recomendar os conteúdos
    de teorias de conspiração ou o fanatismo.
  • 9:11 - 9:16
    A IA, por si só, não tem qualquer conceito
    do que este conteúdo representa,
  • 9:16 - 9:20
    nem tem nenhum conceito
    das possíveis consequências
  • 9:20 - 9:22
    de recomendar esses conteúdos.
  • 9:22 - 9:24
    Logo, quando trabalhamos com a IA,
  • 9:24 - 9:28
    cabe-nos a nós evitar os problemas.
  • 9:29 - 9:31
    Evitar que algo corra mal
  • 9:31 - 9:35
    pode resumir-se ao velho problema
    da comunicação,
  • 9:35 - 9:39
    em que nós, enquanto humanos, temos
    de aprender a comunicar com a IA.
  • 9:39 - 9:43
    Temos de aprender o que a IA
    é capaz de fazer ou não
  • 9:43 - 9:46
    e perceber que, com o seu minúsculo
    cérebro de minhoca,
  • 9:46 - 9:51
    a IA não percebe o que estamos
    a tentar pedir-lhe para fazer.
  • 9:51 - 9:55
    Por outras palavras, temos de estar
    preparados para trabalhar com uma IA
  • 9:55 - 10:00
    que não seja a super competente
    ou a omnisciente IA da ficção científica.
  • 10:00 - 10:02
    Temos de nos preparar
    para trabalhar com uma IA
  • 10:02 - 10:05
    que seja a que atualmente temos.
  • 10:06 - 10:10
    E a IA atual é suficientemente estranha.
  • 10:10 - 10:11
    Obrigada.
  • 10:11 - 10:14
    (Aplausos)
Title:
O perigo da IA é mais estranho do que pensamos
Speaker:
Janelle Shane
Description:

O perigo da inteligência artificial não é que se vá virar contra nós, mas que irá fazer exatamente o que lhe pedirmos para fazer, diz Janelle Shane, investigadora da IA. Partilhando o estranho, por vezes práticas alarmantes dos algoritmos da IA, quando tentam resolver problemas humanos — como criar novos sabores de gelados ou identificar carros na estrada — Shane mostra como a IA ainda não se equipara aos cérebros reais.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:28

Portuguese subtitles

Revisions