A verdadeira razão para termos medo da Inteligência Artificial | Peter Haas | TEDxDirigo
-
0:14 - 0:16A ascensão das máquinas!
-
0:18 - 0:23Quem aqui tem medo de robôs assassinos?
-
0:23 - 0:25(Risos)
-
0:26 - 0:27Eu tenho!
-
0:28 - 0:32Eu trabalhava em VAA
— Veículos Aéreos Autónomos — -
0:32 - 0:37e sempre que via aquelas coisas
pensava que, um dia, -
0:37 - 0:41alguém iria colocar
uma metralhadora naquelas coisas -
0:41 - 0:44que me iam perseguir em enxames.
-
0:45 - 0:50Trabalho em robótica na Universidade Brown
e tenho medo de robôs. -
0:51 - 0:53Sinto-me mesmo aterrorizado,
-
0:54 - 0:56mas poderão censurar-me?
-
0:56 - 1:00Desde miúdo, só tenho visto filmes
-
1:00 - 1:03que descrevem a ascensão
da Inteligência Artificial -
1:03 - 1:06e o nosso inevitável conflito com ela
-
1:06 - 1:11— a Odisseia no Espaço 2001,
o Exterminador, Matrix — -
1:12 - 1:16e as histórias que contam
são assustadoras: -
1:16 - 1:21bandos de malfeitores a fugir
de máquinas super inteligentes. -
1:22 - 1:27Isso assusta-me. Pelas vossas mãos,
parece que também vos assusta. -
1:27 - 1:30Sei que é assustador para Elon Musk.
-
1:31 - 1:35Mas temos algum tempo
antes de os robôs se levantarem. -
1:35 - 1:39Os robôs como o PR2,
que tenho na minha iniciativa, -
1:39 - 1:41ainda nem conseguem abrir a porta.
-
1:42 - 1:47Portanto, acho que esta conversa
sobre robôs super inteligentes -
1:47 - 1:52é uma manobra de diversão
para uma coisa ainda mais insidiosa -
1:52 - 1:56que se passa com os sistemas IA
por todo o país. -
1:57 - 2:00Neste momento, há pessoas
-
2:00 - 2:04— médicos, juízes, contabilistas —
-
2:04 - 2:08que estão a obter informações
de um sistema de IA -
2:08 - 2:13e a trabalhá-las como se fossem
informações de um colega de confiança. -
2:14 - 2:17É esta confiança que me preocupa,
-
2:17 - 2:20não pela frequência com que a IA erra.
-
2:20 - 2:24Todos os investigadores se orgulham
do rigor dos seus resultados. -
2:25 - 2:28O pior é o grau de erro que existe
quando ela se engana -
2:28 - 2:30que me preocupa mais.
-
2:30 - 2:33Estes sistemas, quando erram,
não erram por pouco. -
2:34 - 2:36Vejamos o que acontece.
-
2:37 - 2:42Isto é um cão que um algoritmo da IA
identificou erradamente como um lobo. -
2:43 - 2:45Os investigadores quiseram saber
-
2:45 - 2:49porque é que este "husky"
tinha sido confundido com um lobo. -
2:50 - 2:53Voltaram a escrever o algoritmo
para que ele explicasse -
2:53 - 2:56quais as partes da imagem
a que ele prestava atenção -
2:56 - 2:59quando o algoritmo da IA
tomava a decisão. -
2:59 - 3:03Nesta imagem, a que é que acham
que ele prestava atenção? -
3:03 - 3:05A que é que vocês prestariam atenção?
-
3:05 - 3:10Talvez aos olhos,
talvez às orelhas, ao focinho... -
3:13 - 3:16Mas ele prestava atenção a isto:
-
3:17 - 3:20sobretudo à neve,
o pano de fundo da imagem. -
3:21 - 3:26Estão a ver, havia um desvio no conjunto
de dados que alimentava este algoritmo. -
3:26 - 3:30Na maior parte das imagens,
os lobos estão no meio da neve, -
3:31 - 3:35por isso, o algoritmo da IA
associava a presença ou ausência da neve -
3:35 - 3:38à presença ou ausência de um lobo.
-
3:40 - 3:42O que é assustador nisto
-
3:42 - 3:46é que os investigadores não faziam
ideia de que isso acontecia -
3:46 - 3:50a não ser quando voltaram a escrever
o algoritmo para que se explicasse. -
3:51 - 3:53É o que acontece com os algoritmos da IA,
-
3:53 - 3:56com a aprendizagem profunda,
a aprendizagem de máquinas. -
3:56 - 3:59Mesmo os especialistas
que trabalham nesta coisa -
3:59 - 4:02não fazem ideia do que se passa.
-
4:03 - 4:07Isto podia ser um bom exemplo
para uma investigação -
4:07 - 4:10mas o que é que significa
no mundo real? -
4:11 - 4:16O algoritmo Compas de Sentenças Criminais
é usado em 13 estados -
4:16 - 4:18para determinar a reincidência criminal
-
4:18 - 4:22ou o risco de voltar a praticar um crime
depois de se ser libertado. -
4:23 - 4:27A ProPublica descobriu
que, em relação aos afro-americanos, -
4:27 - 4:30o Compas tinha mais 77%
de probabilidades de os classificar -
4:30 - 4:32como um agressor potencialmente violento
-
4:32 - 4:34do que em relação aos caucasianos.
-
4:35 - 4:38Isto é um sistema real
que está a ser usado -
4:38 - 4:40no mundo real por juízes reais
-
4:40 - 4:43para tomar decisões
sobre a vida de pessoas reais. -
4:44 - 4:49Porque é que os juízes confiam nele
se tudo indica que é parcial? -
4:50 - 4:55Eles usam o Compas porque
é um modelo de eficácia. -
4:56 - 5:00O Compas permite-lhes resolver
contenciosos muito mais depressa -
5:00 - 5:03num sistema judicial criminal
assoberbado. -
5:05 - 5:08Porque é que haviam de pôr em causa
o seu próprio "software"? -
5:08 - 5:11Foi adquirido pelo estado, aprovado
pelo Departamento de Informática. -
5:11 - 5:13Porque é que haviam de o pôr em causa?
-
5:13 - 5:17As pessoas condenadas pelo Compas
puseram-no em causa -
5:17 - 5:19e os processos deviam
assustar-nos a todos. -
5:19 - 5:22O Supremo Tribunal de Winsconsin
determinou -
5:22 - 5:26que o Compass não negava
ao réu um processo correto -
5:26 - 5:29se fosse usado "corretamente".
-
5:29 - 5:31Na mesma decisão, determinaram
-
5:31 - 5:35que o réu não podia inspecionar
o código de origem do Compass. -
5:36 - 5:38Tinha que ser usado corretamente
-
5:38 - 5:40mas não era possível inspecionar
o código de origem? -
5:40 - 5:44É um conjunto de normas perturbador,
quando consideradas em conjunto, -
5:44 - 5:46para quem enfrenta
uma condenação criminal. -
5:47 - 5:49Vocês podem não se preocupar com isto
-
5:49 - 5:51porque não enfrentam
uma sentença criminal, -
5:51 - 5:55mas e se eu vos disser que
algoritmos IA de caixa negra, como este, -
5:55 - 5:57estão a ser usados para decidir
-
5:57 - 6:00se podemos obter ou não
um empréstimo para comprar casa, -
6:00 - 6:03se conseguimos ou não
uma entrevista para um emprego, -
6:03 - 6:06se obtemos ou não assistência médica,
-
6:06 - 6:10e até estão a dirigir carros e camiões
pelas autoestradas? -
6:11 - 6:15Desejariam que o público
pudesse inspecionar o algoritmo -
6:15 - 6:17que está a tomar decisões
entre um carrinho de compras -
6:17 - 6:20e um carrinho de bebé,
num camião autónomo, -
6:21 - 6:24do mesmo modo que o algoritmo
cão/lobo tentava decidir -
6:24 - 6:26entre um cão e um lobo?
-
6:26 - 6:31Seremos potencialmente um cão
metafórico confundido com um lobo -
6:31 - 6:34por qualquer algoritmo de IA?
-
6:35 - 6:38Considerando a complexidade
das pessoas, isso é possível. -
6:39 - 6:42Haverá alguma coisa
que possamos fazer, neste momento? -
6:42 - 6:47Provavelmente não, e é nisso
que devemos concentrar-nos. -
6:47 - 6:51Precisamos de exigir normas
de responsabilização, -
6:51 - 6:55de transparência e recurso
quanto aos sistemas de IA. -
6:56 - 6:59A Organização Internacional
de Normalização, -
6:59 - 7:01instituiu há pouco uma comissão
-
7:01 - 7:05para tomar decisões sobre o que fazer
para normas da IA. -
7:05 - 7:09Vão demorar uns cinco anos
antes de apresentarem uma norma. -
7:09 - 7:12Estes sistemas já estão a ser usados,
-
7:14 - 7:19não só para empréstimos, estão a ser
usados em veículos, como já referi. -
7:21 - 7:23Estão a ser usados em coisas como
-
7:23 - 7:25o Controlo de Velocidade
Adaptável Cooperativo. -
7:25 - 7:28É curioso que lhe chamem
"controlo de velocidade" -
7:28 - 7:31porque o tipo de controlador que usaram
para o controlo de velocidade -
7:31 - 7:33— um controlador PID —
-
7:33 - 7:36foi usado durante 30 anos
em instalações químicas, -
7:36 - 7:38antes de ser adaptado para carros.
-
7:39 - 7:41O tipo de controlador que está a ser usado
-
7:41 - 7:45para dirigir um carro autónomo
e para aprendizagem de máquinas -
7:45 - 7:49só tem sido usado
na investigação desde 2007. -
7:50 - 7:52Trata-se de tecnologias novas.
-
7:52 - 7:56Precisamos de exigir as normas
e precisamos de exigir regulamentação -
7:56 - 8:00para não termos "banha de cobra"
no mercado. -
8:01 - 8:04Também temos de ter
um pouco de ceticismo. -
8:06 - 8:08As experiências sobre autoridade
-
8:08 - 8:11feitas por Stanley Milgram
depois da II Guerra Mundial -
8:11 - 8:16mostraram que uma pessoa comum
cumpre as ordens de figuras de autoridade -
8:16 - 8:20mesmo que isso signifique
prejudicar os seus concidadãos. -
8:20 - 8:22Nesta experiência,
-
8:23 - 8:27norte-americanos vulgares
infligiram choques a um ator -
8:28 - 8:30ao ponto de ele se queixar
-
8:32 - 8:35ao ponto de ele gritar de dor,
-
8:36 - 8:40ao ponto de ele se calar,
numa morte simulada, -
8:42 - 8:44só porque alguém
-
8:44 - 8:48sem credenciais,
com a bata do laboratório, -
8:48 - 8:51lhes dizia, com algumas variantes:
-
8:51 - 8:54"A experiência tem que continuar".
-
8:57 - 9:02Na IA, temos as figuras supremas
de autoridade de Milgram. -
9:04 - 9:08Temos um sistema calculista
que não reflete, -
9:09 - 9:12que não pode tomar outra decisão,
-
9:13 - 9:15para a qual não há recurso,
-
9:15 - 9:20que dirá sempre: "O sistema —
ou o processo — tem que continuar". -
9:23 - 9:26Agora, vou contar uma história.
-
9:26 - 9:29Trata-se se um passeio de carro
que fiz pelo país. -
9:31 - 9:35Estava a chegar à cidade de Salt Lake,
quando começou a chover. -
9:35 - 9:40Quando subi a montanha,
a chuva transformou-se em neve -
9:40 - 9:43e, em breve, ficou tudo coberto de neve.
-
9:43 - 9:46Não via as luzes traseiras do carro
à minha frente. -
9:46 - 9:48Comecei a derrapar.
-
9:48 - 9:51Dei uma volta para um lado,
dei uma volta para o outro lado. -
9:51 - 9:53Saí da autoestrada.
-
9:53 - 9:55Com os vidros cheios de lama,
não conseguia ver nada. -
9:55 - 9:59Fiquei aflito com medo
que outro carro colidisse comigo. -
10:00 - 10:04Estou a contar esta história
para vocês pensarem -
10:04 - 10:07como uma pequena coisa,
aparentemente vulgar, -
10:07 - 10:10como um pouco de precipitação,
-
10:10 - 10:14pode facilmente passar a ser
uma coisa muito perigosa. -
10:15 - 10:19Estamos a conduzir à chuva,
neste momento, com a IA -
10:20 - 10:23e essa chuva vai transformar-se em neve.
-
10:24 - 10:27Essa neve pode passar a ser
uma tempestade de neve. -
10:28 - 10:30Temos que parar,
-
10:31 - 10:33verificar as condições,
-
10:33 - 10:35instituir normas de segurança,
-
10:36 - 10:41e perguntar até onde
queremos chegar, -
10:42 - 10:46porque os incentivos económicos
para a IA e para a automação, -
10:47 - 10:49para substituir o trabalho humano
-
10:49 - 10:53vão ultrapassar tudo o que vimos
desde a Revolução Industrial. -
10:54 - 10:57As exigências do salário dos seres humanos
-
10:57 - 11:01não podem competir
com o custo básico da eletricidade. -
11:02 - 11:05A IA e os robôs vão substituir
-
11:05 - 11:08os cozinheiros nas cadeias
de comida rápida -
11:08 - 11:11e os radiologistas nos hospitais.
-
11:11 - 11:14Um dia, a IA irá diagnosticar
o nosso cancro, -
11:14 - 11:17e um robô realizará a cirurgia.
-
11:18 - 11:22Só um saudável ceticismo
em relação a esses sistemas -
11:22 - 11:26irá manter as pessoas nesse ciclo.
-
11:26 - 11:31Tenho confiança de que,
se pudermos manter pessoas no ciclo, -
11:31 - 11:35se pudermos criar sistemas de IA
transparentes, -
11:35 - 11:36como o exemplo do cão/lobo,
-
11:36 - 11:40em que a IA explicou o que estava
a fazer às pessoas -
11:40 - 11:42e as pessoas puderam detetá-lo.
-
11:43 - 11:47podemos criar novos empregos
para as pessoas fazerem parceria com a IA. -
11:49 - 11:51Se trabalharmos em conjunto com a IA,
-
11:51 - 11:55provavelmente conseguiremos resolver
alguns dos nossos maiores problemas. -
11:57 - 12:01Mas, para isso, precisamos
de comandar, não de obedecer. -
12:02 - 12:05Precisamos de optar
por sermos menos como robôs -
12:05 - 12:10e precisamos de construir robôs
mais parecidos com pessoas, -
12:11 - 12:13porque, no final,
-
12:13 - 12:18a única coisa que temos de recear
não são os robôs assassinos, -
12:19 - 12:21é a nossa preguiça intelectual.
-
12:22 - 12:26A única coisa de que precisamos
de ter medo é de nós mesmos. -
12:27 - 12:28Obrigado.
-
12:28 - 12:31(Aplausos)
- Title:
- A verdadeira razão para termos medo da Inteligência Artificial | Peter Haas | TEDxDirigo
- Description:
-
Peter Haas, investigador de robótica, convida-nos ao seu mundo para percebermos onde se situam as ameaças de robôs e da Inteligência Artificial. Antes de chegarmos aos robôs assassinos da ficção científica, à Internet das coisas ou ao transumanismo, há, mesmo à nossa frente, uma coisa que temos que enfrentar: nós mesmos.
Esta palestra foi feita num evento TEDx usando o formato de palestras TED, mas organizado independentemente por uma comunidade local. Saiba mais em http://ted.com/tedx
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDxTalks
- Duration:
- 12:38
Margarida Ferreira approved Portuguese subtitles for The real reason to be afraid of Artificial Intelligence | Peter Haas | TEDxDirigo | ||
Margarida Ferreira edited Portuguese subtitles for The real reason to be afraid of Artificial Intelligence | Peter Haas | TEDxDirigo | ||
Mafalda Ferreira accepted Portuguese subtitles for The real reason to be afraid of Artificial Intelligence | Peter Haas | TEDxDirigo | ||
Mafalda Ferreira edited Portuguese subtitles for The real reason to be afraid of Artificial Intelligence | Peter Haas | TEDxDirigo | ||
Margarida Ferreira edited Portuguese subtitles for The real reason to be afraid of Artificial Intelligence | Peter Haas | TEDxDirigo | ||
Margarida Ferreira edited Portuguese subtitles for The real reason to be afraid of Artificial Intelligence | Peter Haas | TEDxDirigo | ||
Margarida Ferreira edited Portuguese subtitles for The real reason to be afraid of Artificial Intelligence | Peter Haas | TEDxDirigo |