< Return to Video

A verdadeira razão para termos medo da Inteligência Artificial | Peter Haas | TEDxDirigo

  • 0:14 - 0:16
    A ascensão das máquinas!
  • 0:18 - 0:23
    Quem aqui tem medo de robôs assassinos?
  • 0:23 - 0:25
    (Risos)
  • 0:26 - 0:27
    Eu tenho!
  • 0:28 - 0:32
    Eu trabalhava em VAA
    — Veículos Aéreos Autónomos —
  • 0:32 - 0:37
    e sempre que via aquelas coisas
    pensava que, um dia,
  • 0:37 - 0:41
    alguém iria colocar
    uma metralhadora naquelas coisas
  • 0:41 - 0:44
    que me iam perseguir em enxames.
  • 0:45 - 0:50
    Trabalho em robótica na Universidade Brown
    e tenho medo de robôs.
  • 0:51 - 0:53
    Sinto-me mesmo aterrorizado,
  • 0:54 - 0:56
    mas poderão censurar-me?
  • 0:56 - 1:00
    Desde miúdo, só tenho visto filmes
  • 1:00 - 1:03
    que descrevem a ascensão
    da Inteligência Artificial
  • 1:03 - 1:06
    e o nosso inevitável conflito com ela
  • 1:06 - 1:11
    — a Odisseia no Espaço 2001,
    o Exterminador, Matrix —
  • 1:12 - 1:16
    e as histórias que contam
    são assustadoras:
  • 1:16 - 1:21
    bandos de malfeitores a fugir
    de máquinas super inteligentes.
  • 1:22 - 1:27
    Isso assusta-me. Pelas vossas mãos,
    parece que também vos assusta.
  • 1:27 - 1:30
    Sei que é assustador para Elon Musk.
  • 1:31 - 1:35
    Mas temos algum tempo
    antes de os robôs se levantarem.
  • 1:35 - 1:39
    Os robôs como o PR2,
    que tenho na minha iniciativa,
  • 1:39 - 1:41
    ainda nem conseguem abrir a porta.
  • 1:42 - 1:47
    Portanto, acho que esta conversa
    sobre robôs super inteligentes
  • 1:47 - 1:52
    é uma manobra de diversão
    para uma coisa ainda mais insidiosa
  • 1:52 - 1:56
    que se passa com os sistemas IA
    por todo o país.
  • 1:57 - 2:00
    Neste momento, há pessoas
  • 2:00 - 2:04
    — médicos, juízes, contabilistas —
  • 2:04 - 2:08
    que estão a obter informações
    de um sistema de IA
  • 2:08 - 2:13
    e a trabalhá-las como se fossem
    informações de um colega de confiança.
  • 2:14 - 2:17
    É esta confiança que me preocupa,
  • 2:17 - 2:20
    não pela frequência com que a IA erra.
  • 2:20 - 2:24
    Todos os investigadores se orgulham
    do rigor dos seus resultados.
  • 2:25 - 2:28
    O pior é o grau de erro que existe
    quando ela se engana
  • 2:28 - 2:30
    que me preocupa mais.
  • 2:30 - 2:33
    Estes sistemas, quando erram,
    não erram por pouco.
  • 2:34 - 2:36
    Vejamos o que acontece.
  • 2:37 - 2:42
    Isto é um cão que um algoritmo da IA
    identificou erradamente como um lobo.
  • 2:43 - 2:45
    Os investigadores quiseram saber
  • 2:45 - 2:49
    porque é que este "husky"
    tinha sido confundido com um lobo.
  • 2:50 - 2:53
    Voltaram a escrever o algoritmo
    para que ele explicasse
  • 2:53 - 2:56
    quais as partes da imagem
    a que ele prestava atenção
  • 2:56 - 2:59
    quando o algoritmo da IA
    tomava a decisão.
  • 2:59 - 3:03
    Nesta imagem, a que é que acham
    que ele prestava atenção?
  • 3:03 - 3:05
    A que é que vocês prestariam atenção?
  • 3:05 - 3:10
    Talvez aos olhos,
    talvez às orelhas, ao focinho...
  • 3:13 - 3:16
    Mas ele prestava atenção a isto:
  • 3:17 - 3:20
    sobretudo à neve,
    o pano de fundo da imagem.
  • 3:21 - 3:26
    Estão a ver, havia um desvio no conjunto
    de dados que alimentava este algoritmo.
  • 3:26 - 3:30
    Na maior parte das imagens,
    os lobos estão no meio da neve,
  • 3:31 - 3:35
    por isso, o algoritmo da IA
    associava a presença ou ausência da neve
  • 3:35 - 3:38
    à presença ou ausência de um lobo.
  • 3:40 - 3:42
    O que é assustador nisto
  • 3:42 - 3:46
    é que os investigadores não faziam
    ideia de que isso acontecia
  • 3:46 - 3:50
    a não ser quando voltaram a escrever
    o algoritmo para que se explicasse.
  • 3:51 - 3:53
    É o que acontece com os algoritmos da IA,
  • 3:53 - 3:56
    com a aprendizagem profunda,
    a aprendizagem de máquinas.
  • 3:56 - 3:59
    Mesmo os especialistas
    que trabalham nesta coisa
  • 3:59 - 4:02
    não fazem ideia do que se passa.
  • 4:03 - 4:07
    Isto podia ser um bom exemplo
    para uma investigação
  • 4:07 - 4:10
    mas o que é que significa
    no mundo real?
  • 4:11 - 4:16
    O algoritmo Compas de Sentenças Criminais
    é usado em 13 estados
  • 4:16 - 4:18
    para determinar a reincidência criminal
  • 4:18 - 4:22
    ou o risco de voltar a praticar um crime
    depois de se ser libertado.
  • 4:23 - 4:27
    A ProPublica descobriu
    que, em relação aos afro-americanos,
  • 4:27 - 4:30
    o Compas tinha mais 77%
    de probabilidades de os classificar
  • 4:30 - 4:32
    como um agressor potencialmente violento
  • 4:32 - 4:34
    do que em relação aos caucasianos.
  • 4:35 - 4:38
    Isto é um sistema real
    que está a ser usado
  • 4:38 - 4:40
    no mundo real por juízes reais
  • 4:40 - 4:43
    para tomar decisões
    sobre a vida de pessoas reais.
  • 4:44 - 4:49
    Porque é que os juízes confiam nele
    se tudo indica que é parcial?
  • 4:50 - 4:55
    Eles usam o Compas porque
    é um modelo de eficácia.
  • 4:56 - 5:00
    O Compas permite-lhes resolver
    contenciosos muito mais depressa
  • 5:00 - 5:03
    num sistema judicial criminal
    assoberbado.
  • 5:05 - 5:08
    Porque é que haviam de pôr em causa
    o seu próprio "software"?
  • 5:08 - 5:11
    Foi adquirido pelo estado, aprovado
    pelo Departamento de Informática.
  • 5:11 - 5:13
    Porque é que haviam de o pôr em causa?
  • 5:13 - 5:17
    As pessoas condenadas pelo Compas
    puseram-no em causa
  • 5:17 - 5:19
    e os processos deviam
    assustar-nos a todos.
  • 5:19 - 5:22
    O Supremo Tribunal de Winsconsin
    determinou
  • 5:22 - 5:26
    que o Compass não negava
    ao réu um processo correto
  • 5:26 - 5:29
    se fosse usado "corretamente".
  • 5:29 - 5:31
    Na mesma decisão, determinaram
  • 5:31 - 5:35
    que o réu não podia inspecionar
    o código de origem do Compass.
  • 5:36 - 5:38
    Tinha que ser usado corretamente
  • 5:38 - 5:40
    mas não era possível inspecionar
    o código de origem?
  • 5:40 - 5:44
    É um conjunto de normas perturbador,
    quando consideradas em conjunto,
  • 5:44 - 5:46
    para quem enfrenta
    uma condenação criminal.
  • 5:47 - 5:49
    Vocês podem não se preocupar com isto
  • 5:49 - 5:51
    porque não enfrentam
    uma sentença criminal,
  • 5:51 - 5:55
    mas e se eu vos disser que
    algoritmos IA de caixa negra, como este,
  • 5:55 - 5:57
    estão a ser usados para decidir
  • 5:57 - 6:00
    se podemos obter ou não
    um empréstimo para comprar casa,
  • 6:00 - 6:03
    se conseguimos ou não
    uma entrevista para um emprego,
  • 6:03 - 6:06
    se obtemos ou não assistência médica,
  • 6:06 - 6:10
    e até estão a dirigir carros e camiões
    pelas autoestradas?
  • 6:11 - 6:15
    Desejariam que o público
    pudesse inspecionar o algoritmo
  • 6:15 - 6:17
    que está a tomar decisões
    entre um carrinho de compras
  • 6:17 - 6:20
    e um carrinho de bebé,
    num camião autónomo,
  • 6:21 - 6:24
    do mesmo modo que o algoritmo
    cão/lobo tentava decidir
  • 6:24 - 6:26
    entre um cão e um lobo?
  • 6:26 - 6:31
    Seremos potencialmente um cão
    metafórico confundido com um lobo
  • 6:31 - 6:34
    por qualquer algoritmo de IA?
  • 6:35 - 6:38
    Considerando a complexidade
    das pessoas, isso é possível.
  • 6:39 - 6:42
    Haverá alguma coisa
    que possamos fazer, neste momento?
  • 6:42 - 6:47
    Provavelmente não, e é nisso
    que devemos concentrar-nos.
  • 6:47 - 6:51
    Precisamos de exigir normas
    de responsabilização,
  • 6:51 - 6:55
    de transparência e recurso
    quanto aos sistemas de IA.
  • 6:56 - 6:59
    A Organização Internacional
    de Normalização,
  • 6:59 - 7:01
    instituiu há pouco uma comissão
  • 7:01 - 7:05
    para tomar decisões sobre o que fazer
    para normas da IA.
  • 7:05 - 7:09
    Vão demorar uns cinco anos
    antes de apresentarem uma norma.
  • 7:09 - 7:12
    Estes sistemas já estão a ser usados,
  • 7:14 - 7:19
    não só para empréstimos, estão a ser
    usados em veículos, como já referi.
  • 7:21 - 7:23
    Estão a ser usados em coisas como
  • 7:23 - 7:25
    o Controlo de Velocidade
    Adaptável Cooperativo.
  • 7:25 - 7:28
    É curioso que lhe chamem
    "controlo de velocidade"
  • 7:28 - 7:31
    porque o tipo de controlador que usaram
    para o controlo de velocidade
  • 7:31 - 7:33
    — um controlador PID —
  • 7:33 - 7:36
    foi usado durante 30 anos
    em instalações químicas,
  • 7:36 - 7:38
    antes de ser adaptado para carros.
  • 7:39 - 7:41
    O tipo de controlador que está a ser usado
  • 7:41 - 7:45
    para dirigir um carro autónomo
    e para aprendizagem de máquinas
  • 7:45 - 7:49
    só tem sido usado
    na investigação desde 2007.
  • 7:50 - 7:52
    Trata-se de tecnologias novas.
  • 7:52 - 7:56
    Precisamos de exigir as normas
    e precisamos de exigir regulamentação
  • 7:56 - 8:00
    para não termos "banha de cobra"
    no mercado.
  • 8:01 - 8:04
    Também temos de ter
    um pouco de ceticismo.
  • 8:06 - 8:08
    As experiências sobre autoridade
  • 8:08 - 8:11
    feitas por Stanley Milgram
    depois da II Guerra Mundial
  • 8:11 - 8:16
    mostraram que uma pessoa comum
    cumpre as ordens de figuras de autoridade
  • 8:16 - 8:20
    mesmo que isso signifique
    prejudicar os seus concidadãos.
  • 8:20 - 8:22
    Nesta experiência,
  • 8:23 - 8:27
    norte-americanos vulgares
    infligiram choques a um ator
  • 8:28 - 8:30
    ao ponto de ele se queixar
  • 8:32 - 8:35
    ao ponto de ele gritar de dor,
  • 8:36 - 8:40
    ao ponto de ele se calar,
    numa morte simulada,
  • 8:42 - 8:44
    só porque alguém
  • 8:44 - 8:48
    sem credenciais,
    com a bata do laboratório,
  • 8:48 - 8:51
    lhes dizia, com algumas variantes:
  • 8:51 - 8:54
    "A experiência tem que continuar".
  • 8:57 - 9:02
    Na IA, temos as figuras supremas
    de autoridade de Milgram.
  • 9:04 - 9:08
    Temos um sistema calculista
    que não reflete,
  • 9:09 - 9:12
    que não pode tomar outra decisão,
  • 9:13 - 9:15
    para a qual não há recurso,
  • 9:15 - 9:20
    que dirá sempre: "O sistema —
    ou o processo — tem que continuar".
  • 9:23 - 9:26
    Agora, vou contar uma história.
  • 9:26 - 9:29
    Trata-se se um passeio de carro
    que fiz pelo país.
  • 9:31 - 9:35
    Estava a chegar à cidade de Salt Lake,
    quando começou a chover.
  • 9:35 - 9:40
    Quando subi a montanha,
    a chuva transformou-se em neve
  • 9:40 - 9:43
    e, em breve, ficou tudo coberto de neve.
  • 9:43 - 9:46
    Não via as luzes traseiras do carro
    à minha frente.
  • 9:46 - 9:48
    Comecei a derrapar.
  • 9:48 - 9:51
    Dei uma volta para um lado,
    dei uma volta para o outro lado.
  • 9:51 - 9:53
    Saí da autoestrada.
  • 9:53 - 9:55
    Com os vidros cheios de lama,
    não conseguia ver nada.
  • 9:55 - 9:59
    Fiquei aflito com medo
    que outro carro colidisse comigo.
  • 10:00 - 10:04
    Estou a contar esta história
    para vocês pensarem
  • 10:04 - 10:07
    como uma pequena coisa,
    aparentemente vulgar,
  • 10:07 - 10:10
    como um pouco de precipitação,
  • 10:10 - 10:14
    pode facilmente passar a ser
    uma coisa muito perigosa.
  • 10:15 - 10:19
    Estamos a conduzir à chuva,
    neste momento, com a IA
  • 10:20 - 10:23
    e essa chuva vai transformar-se em neve.
  • 10:24 - 10:27
    Essa neve pode passar a ser
    uma tempestade de neve.
  • 10:28 - 10:30
    Temos que parar,
  • 10:31 - 10:33
    verificar as condições,
  • 10:33 - 10:35
    instituir normas de segurança,
  • 10:36 - 10:41
    e perguntar até onde
    queremos chegar,
  • 10:42 - 10:46
    porque os incentivos económicos
    para a IA e para a automação,
  • 10:47 - 10:49
    para substituir o trabalho humano
  • 10:49 - 10:53
    vão ultrapassar tudo o que vimos
    desde a Revolução Industrial.
  • 10:54 - 10:57
    As exigências do salário dos seres humanos
  • 10:57 - 11:01
    não podem competir
    com o custo básico da eletricidade.
  • 11:02 - 11:05
    A IA e os robôs vão substituir
  • 11:05 - 11:08
    os cozinheiros nas cadeias
    de comida rápida
  • 11:08 - 11:11
    e os radiologistas nos hospitais.
  • 11:11 - 11:14
    Um dia, a IA irá diagnosticar
    o nosso cancro,
  • 11:14 - 11:17
    e um robô realizará a cirurgia.
  • 11:18 - 11:22
    Só um saudável ceticismo
    em relação a esses sistemas
  • 11:22 - 11:26
    irá manter as pessoas nesse ciclo.
  • 11:26 - 11:31
    Tenho confiança de que,
    se pudermos manter pessoas no ciclo,
  • 11:31 - 11:35
    se pudermos criar sistemas de IA
    transparentes,
  • 11:35 - 11:36
    como o exemplo do cão/lobo,
  • 11:36 - 11:40
    em que a IA explicou o que estava
    a fazer às pessoas
  • 11:40 - 11:42
    e as pessoas puderam detetá-lo.
  • 11:43 - 11:47
    podemos criar novos empregos
    para as pessoas fazerem parceria com a IA.
  • 11:49 - 11:51
    Se trabalharmos em conjunto com a IA,
  • 11:51 - 11:55
    provavelmente conseguiremos resolver
    alguns dos nossos maiores problemas.
  • 11:57 - 12:01
    Mas, para isso, precisamos
    de comandar, não de obedecer.
  • 12:02 - 12:05
    Precisamos de optar
    por sermos menos como robôs
  • 12:05 - 12:10
    e precisamos de construir robôs
    mais parecidos com pessoas,
  • 12:11 - 12:13
    porque, no final,
  • 12:13 - 12:18
    a única coisa que temos de recear
    não são os robôs assassinos,
  • 12:19 - 12:21
    é a nossa preguiça intelectual.
  • 12:22 - 12:26
    A única coisa de que precisamos
    de ter medo é de nós mesmos.
  • 12:27 - 12:28
    Obrigado.
  • 12:28 - 12:31
    (Aplausos)
Title:
A verdadeira razão para termos medo da Inteligência Artificial | Peter Haas | TEDxDirigo
Description:

Peter Haas, investigador de robótica, convida-nos ao seu mundo para percebermos onde se situam as ameaças de robôs e da Inteligência Artificial. Antes de chegarmos aos robôs assassinos da ficção científica, à Internet das coisas ou ao transumanismo, há, mesmo à nossa frente, uma coisa que temos que enfrentar: nós mesmos.

Esta palestra foi feita num evento TEDx usando o formato de palestras TED, mas organizado independentemente por uma comunidade local. Saiba mais em http://ted.com/tedx

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDxTalks
Duration:
12:38

Portuguese subtitles

Revisions