Podemos construir IA sem perder o controlo?
-
0:01 - 0:03Eu vou falar de uma falha de intuição
-
0:04 - 0:05de que muitos de nós sofremos.
-
0:05 - 0:09É uma falha em detetar
um certo tipo de perigo. -
0:09 - 0:11Vou descrever um cenário
-
0:11 - 0:15que considero tão aterrador
-
0:15 - 0:17como provável de acontecer.
-
0:17 - 0:20Acontece que isto
não é uma boa combinação. -
0:20 - 0:22No entanto, em vez de assustados,
-
0:22 - 0:25a maioria de vocês acha
que aquilo de que estou a falar é fixe. -
0:25 - 0:28Eu vou descrever
como as vantagens obtidas -
0:28 - 0:30com a inteligência artificial
-
0:30 - 0:33podem acabar por nos destruir.
-
0:32 - 0:35Penso que é muito difícil
ver como não nos vão destruir -
0:35 - 0:37ou inspirar a destruirmo-nos a nós mesmos.
-
0:38 - 0:40Mas se vocês forem
minimamente como eu, -
0:40 - 0:43vão descobrir que é divertido
pensar nestas coisas. -
0:42 - 0:45Essa resposta faz parte do problema.
-
0:46 - 0:48Essa resposta devia preocupar-vos.
-
0:48 - 0:51Se eu vos convencesse nesta palestra
-
0:51 - 0:54que vamos, provavelmente,
sofrer uma fome mundial, -
0:54 - 0:57devido à mudança climática
ou devido a alguma outra catástrofe, -
0:57 - 1:01e que os vossos netos,
ou os netos deles, -
1:01 - 1:03têm a probabilidade de viver assim,
-
1:03 - 1:05não pensariam:
-
1:05 - 1:07"Que interessante.
-
1:07 - 1:09"Gosto desta palestra TED."
-
1:10 - 1:11A fome não tem graça.
-
1:12 - 1:15Mas a morte pela ficção científica
é divertida. -
1:15 - 1:19Uma das coisas que mais me preocupa
no desenvolvimento da IA, neste ponto, -
1:19 - 1:23é que parecemos incapazes de mobilizar
uma resposta emocional apropriada -
1:23 - 1:25para os perigos que nos esperam.
-
1:25 - 1:29Sou incapaz de conseguir esta resposta,
e estou a fazer esta palestra. -
1:30 - 1:33É como se estivéssemos diante
de duas portas. -
1:33 - 1:34Atrás da porta número um,
-
1:34 - 1:38deixamos de fazer progressos
na construção de máquinas inteligentes. -
1:38 - 1:42O hardware e o software dos computadores
deixam de melhorar, por alguma razão. -
1:42 - 1:45Agora, pensem um momento
na razão de isto poder acontecer. -
1:45 - 1:49Ou seja, sendo a inteligência
e a automação tão valiosas, -
1:49 - 1:52vamos continuar a melhorar
a tecnologia, se formos capazes disso. -
1:53 - 1:55O que é que nos pode impedir de o fazer?
-
1:56 - 1:58Uma guerra nuclear a larga escala?
-
1:59 - 2:01Uma pandemia mundial?
-
2:02 - 2:04O impacto de um asteroide?
-
2:06 - 2:08Justin Bieber tornar-se
presidente dos EUA? -
2:09 - 2:11(Risos)
-
2:13 - 2:17A questão é, algo teria de destruir
a civilização, tal como a conhecemos -
2:18 - 2:22Temos que imaginar
quão mau teria que ser -
2:22 - 2:25para nos impedir de fazer
melhoramentos na tecnologia -
2:25 - 2:26de forma permanente,
-
2:27 - 2:28geração após geração.
-
2:28 - 2:30Quase por definição,
isto é a pior coisa -
2:30 - 2:33que já aconteceu na história
da Humanidade. -
2:33 - 2:34Por isso, a única alternativa,
-
2:34 - 2:36— e é o que está detrás da porta dois —
-
2:36 - 2:39é que continuemos a melhorar
as nossas máquinas inteligentes -
2:40 - 2:41ano após ano após ano.
-
2:42 - 2:46A certa altura, iremos construir
máquinas mais inteligentes que nós, -
2:46 - 2:49e assim que tivermos máquinas
mais inteligentes que nós, -
2:49 - 2:51elas vão começar
a melhorar-se a si mesmas. -
2:51 - 2:54Então arriscamo-nos ao que
o matemático I.J. Good chamou -
2:54 - 2:55uma "explosão de inteligência,"
-
2:56 - 2:58que o processo poderá
sair das nossas mãos. -
2:58 - 3:02Isto é normalmente caricaturado,
como vemos aqui, -
3:01 - 3:05como o medo de que tropas
de robôs malignos nos vão atacar. -
3:05 - 3:08Mas este não é o cenário
mais provável. -
3:08 - 3:13As nossas máquinas não se tornarão
espontaneamente maléficas. -
3:13 - 3:16O problema é se
construímos máquinas -
3:16 - 3:18que são muito mais
competentes que nós -
3:18 - 3:22que à mínima divergência
entre os seus objetivos e os nossos -
3:22 - 3:23podem destruir-nos.
-
3:24 - 3:26Basta pensar na nossa
ligação às formigas. -
3:27 - 3:28Não as odiamos.
-
3:28 - 3:31Não saímos do nosso caminho
para as magoar. -
3:31 - 3:33Até fazemos o necessário
para não as magoar. -
3:33 - 3:35Passamos por cima delas
no passeio. -
3:35 - 3:37Mas quando a sua presença
-
3:37 - 3:40representa um conflito
com um dos nossos objetivos, -
3:40 - 3:42digamos, quando construindo
um edifício como este, -
3:42 - 3:44eliminamo-las sem hesitação.
-
3:44 - 3:48O problema é que iremos
um dia construir máquinas -
3:48 - 3:50que, conscientes ou não,
-
3:50 - 3:53podem tratar-nos com
o mesmo desprezo. -
3:54 - 3:57Suspeito que isto pareça
exagerado para a maioria. -
3:57 - 4:04Aposto que são os mesmos que duvidam
da possibilidade duma IA superinteligente, -
4:04 - 4:05e, mais ainda, inevitável.
-
4:06 - 4:09Então, devem encontrar algo de errado
nas seguintes premissas. -
4:09 - 4:11Só existem três.
-
4:12 - 4:15A inteligência é uma questão
de processamento de informação -
4:15 - 4:17em sistemas físicos.
-
4:18 - 4:20Na verdade, isto é mais
que uma premissa. -
4:20 - 4:23Já construímos inteligência
limitada nas nossas máquinas, -
4:24 - 4:26e muitas dessas máquinas já funcionam
-
4:26 - 4:29a um nível de inteligência super-humana.
-
4:29 - 4:31Sabemos que mera matéria
-
4:31 - 4:34pode dar origem ao que chamamos
"inteligência geral," -
4:34 - 4:38a capacidade de pensar flexivelmente
em múltiplos domínios, -
4:38 - 4:41porque o nosso cérebros conseguiu isso.
-
4:41 - 4:45Quero dizer, aqui só há átomos.
-
4:45 - 4:49Enquanto continuamos a construir
sistemas de átomos -
4:49 - 4:52que demonstram cada vez mais
um comportamento inteligente, -
4:52 - 4:55acabaremos — a não ser
que sejamos interrompidos — -
4:55 - 4:58acabaremos por construir
inteligência geral -
4:58 - 5:00nas nossas máquinas.
-
5:00 - 5:04É crucial entender que a velocidade
do progresso não importa, -
5:03 - 5:07pois qualquer progresso
é suficiente para nos levar ao final. -
5:07 - 5:10Não precisamos da Lei de Moore
nem de progresso exponencial -
5:10 - 5:11para continuar.
-
5:11 - 5:13Só precisamos de continuar.
-
5:14 - 5:17A segunda premissa
é que iremos continuar. -
5:17 - 5:20Continuaremos a melhorar
as nossas máquinas inteligentes. -
5:21 - 5:25E devido ao valor da inteligência
-
5:25 - 5:29— quer dizer, inteligência ou é
a fonte de tudo que valorizamos -
5:29 - 5:33ou precisamos dela para
salvaguardar tudo o que valorizamos. -
5:32 - 5:34É o nosso recurso mais valioso.
-
5:34 - 5:36Por isso, queremos fazer isto.
-
5:36 - 5:39Temos problemas que queremos
desesperadamente resolver. -
5:39 - 5:43Queremos curar doenças
como Alzheimer ou cancro. -
5:43 - 5:47Queremos entender sistemas económicos
e melhorar a nossa ciência climatérica. -
5:47 - 5:49Por isso iremos fazê-lo,
se conseguirmos, -
5:50 - 5:53O comboio já saiu da estação,
e não há travão para acionar. -
5:54 - 5:59Finalmente, não estamos
num pico da inteligência, -
5:59 - 6:01provavelmente, nem perto dela.
-
6:02 - 6:04E isto é a visão crucial.
-
6:04 - 6:06Isto é o que torna
a nossa situação tão precária. -
6:06 - 6:10Isto é o que torna tão incertas
as nossas intuições de risco. -
6:11 - 6:14Agora, pensem na pessoa
mais inteligente de sempre. -
6:15 - 6:18Na lista de quase toda a gente
está John von Neumann. -
6:18 - 6:22A impressão que von Neumann
deixou nas pessoas ao seu redor, -
6:22 - 6:25incluindo os melhores
matemáticos e físicos do seu tempo, -
6:26 - 6:27está bem documentada.
-
6:28 - 6:31Se metade das histórias sobre ele
são meio verdadeiras, -
6:31 - 6:32não há dúvida
-
6:33 - 6:35que ele foi uma das pessoas
mais inteligentes que existiu. -
6:35 - 6:39Considerem o espetro da inteligência.
-
6:38 - 6:40Aqui temos John von Neumann.
-
6:42 - 6:43E aqui estamos nós.
-
6:44 - 6:46E aqui temos uma galinha.
-
6:46 - 6:47(Risos)
-
6:47 - 6:49Desculpem, uma galinha.
-
6:49 - 6:50(Risos)
-
6:51 - 6:53Não preciso de tornar esta palestra
ainda mais deprimente. -
6:54 - 6:56(Risos)
-
6:56 - 7:00Mas parece muito provável
que o espetro da inteligência -
7:01 - 7:03se alargue muito mais além
do que imaginamos. -
7:04 - 7:07Se construirmos máquinas
mais inteligentes que nós, -
7:07 - 7:10iremos muito provavelmente
explorar este espetro -
7:10 - 7:12de formas inimagináveis,
-
7:12 - 7:14e superar-nos em formas,
que não imaginávamos. -
7:15 - 7:19É importante reconhecer que isto é verdade
só por virtude da velocidade. -
7:20 - 7:24Imaginem que construímos
uma IA superinteligente -
7:25 - 7:28que não é mais inteligente que
uma equipa normal de investigadores -
7:28 - 7:31de Stanford ou do MIT.
-
7:30 - 7:33Os circuitos eletrónicos funcionam
um milhão de vezes mais depressa -
7:33 - 7:35do que os circuitos bioquímicos,
-
7:35 - 7:38por isso essa máquina iria
pensar um milhão de vezes mais rápido -
7:38 - 7:40do que as mentes que a construíram.
-
7:40 - 7:42Pomo-la a funcionar
durante uma semana, -
7:42 - 7:47e ela irá realizar 20 000 anos
de trabalho intelectual humano, -
7:46 - 7:49semana após semana.
-
7:50 - 7:53Como podemos entender,
e muito menos restringir, -
7:53 - 7:56uma mente que faz tal progresso?
-
7:57 - 7:59A outra coisa preocupante, honestamente...
-
7:59 - 8:04Imaginem o melhor cenário possível.
-
8:04 - 8:08Imaginem que chegamos ao "design"
de uma IA superinteligente -
8:08 - 8:10sem problemas de segurança.
-
8:10 - 8:13Temos o "design" perfeito
na primeira tentativa. -
8:13 - 8:15Seria como se nos tivessem dado um oráculo
-
8:15 - 8:18cujo comportamento seria o esperado.
-
8:18 - 8:22Esta máquina poderia ser
a máquina perfeita para poupar trabalho. -
8:22 - 8:24Poderia conceber a máquina
para construir a máquina -
8:24 - 8:26que pode fazer qualquer
trabalho físico, -
8:26 - 8:28usando energia solar,
-
8:28 - 8:30mais ou menos ao custo
das matérias-primas. -
8:30 - 8:33Estamos a falar do fim
do trabalho duro humano -
8:34 - 8:37Estamos também a falar do fim
de maior parte do trabalho intelectual. -
8:37 - 8:40O que fariam macacos como nós
nestas circunstâncias? -
8:41 - 8:45Teríamos tempo para jogar ao disco,
e dar massagens uns aos outros. -
8:46 - 8:49Adicionem LSD e algumas
escolhas duvidosas de roupa, -
8:49 - 8:51e seria como o festival Burning Man
por todo o mundo. -
8:51 - 8:54(Risos)
-
8:55 - 8:57Isto até pode soar bem,
-
8:57 - 9:00mas questionem-se o que poderia aconteceu
-
9:00 - 9:03na nossa ordem atual
económica e política? -
9:03 - 9:05Parece que poderíamos testemunhar
-
9:06 - 9:08um nível de desigualdade de riqueza
-
9:08 - 9:10e desemprego como nunca vimos antes.
-
9:11 - 9:13Se não existir a vontade
de colocar essa riqueza -
9:13 - 9:16imediatamente ao serviço
de toda a humanidade, -
9:16 - 9:20alguns multimilionários poderiam figurar
nas capas das nossas revistas de negócios -
9:20 - 9:23enquanto o resto do mundo
estaria à fome. -
9:22 - 9:25E o que fariam os russos
ou os chineses -
9:25 - 9:28se soubessem que alguma companhia
em Silicon Valley -
9:28 - 9:30estaria prestes a implementar
uma IA superinteligente? -
9:30 - 9:33Essa máquina seria capaz
de fazer a guerra, -
9:33 - 9:35terrestre ou cibernética,
-
9:35 - 9:37com um poder inédito.
-
9:38 - 9:40Isto é um cenário de
"o vencedor leva tudo". -
9:40 - 9:43Estar seis meses adiantado
nesta competição -
9:43 - 9:47é como estar 500 000 anos adiantado,
-
9:46 - 9:47no mínimo.
-
9:48 - 9:52Parece que os meros rumores
deste tipo de inovação -
9:52 - 9:55poderiam descontrolar a nossa espécie.
-
9:55 - 9:58Uma das coisas mais assustadoras,
-
9:58 - 10:00na minha perspetiva, neste momento,
-
10:00 - 10:05são o tipo de coisas
que os investigadores da IA dizem -
10:05 - 10:07quando querem tranquilizar-nos.
-
10:07 - 10:11O motivo mais comum que invocam
para não nos preocuparmos é o tempo. -
10:11 - 10:13"Não sabem que isto ainda vem longe?
-
10:13 - 10:15"Só daqui a 50 ou 100 anos".
-
10:16 - 10:17Um investigador disse:
-
10:17 - 10:19"Preocupar-se com a segurança da IA
-
10:19 - 10:22"é como preocupar-se com
o excesso de população em Marte." -
10:22 - 10:24Esta é a versão de Silicon Valley
-
10:24 - 10:26de "não preocupem a vossa
cabeça com isto." -
10:26 - 10:27(Risos)
-
10:28 - 10:29Ninguém parece notar
-
10:29 - 10:33que mencionar o horizonte do tempo
-
10:32 - 10:35é um total "não se segue".
-
10:35 - 10:38Se a inteligência é apenas uma questão
de processamento de informação, -
10:38 - 10:41e continuarmos a melhorar
as nossas máquinas, -
10:41 - 10:44iremos produzir
alguma forma de superinteligência. -
10:44 - 10:48Não fazemos ideia
quanto tempo iremos demorar -
10:48 - 10:51a criar as condições
para o fazer em segurança. -
10:52 - 10:54Vou repetir.
-
10:54 - 10:57Não sabemos quanto tempo vamos demorar
-
10:57 - 11:00para criar as condições
para fazê-lo em segurança. -
11:01 - 11:04Se ainda não repararam,
50 anos não é o que era dantes. -
11:05 - 11:07Isto são 50 anos em meses.
-
11:07 - 11:10Isto é o tempo desde que temos o iPhone.
-
11:09 - 11:12Isto é o tempo em que "Os Simpsons"
têm estado na TV. -
11:13 - 11:1550 anos não é assim tanto tempo
-
11:15 - 11:19para ir de encontro aos maiores desafios
que a nossa espécie irá enfrentar. -
11:20 - 11:24Mais uma vez, parecemos estar a falhar
em ter uma resposta emocional apropriada -
11:24 - 11:26para o que acreditamos
que está para vir. -
11:27 - 11:31O cientista informático Stuart Russell
tem uma boa analogia para isto. -
11:31 - 11:35Disse: "Imaginem que recebemos
uma mensagem de uma civilização alienígena, -
11:35 - 11:37"que diz:
-
11:37 - 11:39" 'Habitantes da Terra,
-
11:39 - 11:41" vamos chegar ao vosso planeta
dentro de 50 anos. -
11:42 - 11:43" 'Preparem-se'."
-
11:44 - 11:47Vamos contar os meses
até a nave-mãe aterrar? -
11:48 - 11:51Sentiríamos mais urgência
do que o habitual. -
11:53 - 11:55Outro motivo que nos dão
para não nos preocuparmos -
11:55 - 11:58é que estas máquinas
vão partilhar os nossos valores -
11:58 - 12:00pois serão literalmente
extensões de nós próprios. -
12:00 - 12:02Serão implantadas no nosso cérebro,
-
12:02 - 12:05e seremos os seus sistemas límbicos.
-
12:05 - 12:07Parem um momento para considerar
-
12:07 - 12:10que o caminho mais prudente e seguro,
-
12:10 - 12:11o caminho recomendado,
-
12:11 - 12:14é implantar esta tecnologia
diretamente no nosso cérebro. -
12:15 - 12:18Isso poderá de facto ser
o caminho mais prudente e seguro, -
12:18 - 12:21mas normalmente as questões
de segurança de uma tecnologia -
12:21 - 12:25devem estar bem trabalhadas
antes de serem enfiadas na nossa cabeça. -
12:25 - 12:27(Risos)
-
12:27 - 12:32O maior problema é que
construir IA superinteligente, por si só, -
12:32 - 12:34parece ser mais fácil
-
12:34 - 12:36do que construir IA superinteligente
-
12:36 - 12:38e ter a neurociência completa
-
12:38 - 12:41que nos permita integrar facilmente
as nossas mentes com isso. -
12:41 - 12:44Sabendo que as companhias
e os governos que fazem este trabalho -
12:44 - 12:48provavelmente se consideram
numa corrida contra todos os outros, -
12:48 - 12:51sendo que ganhar esta corrida,
é ganhar o mundo, -
12:51 - 12:53desde que não o destruam
logo a seguir, -
12:54 - 12:56então é evidente que
o que for mais fácil -
12:56 - 12:58será o primeiro a ser feito.
-
12:59 - 13:01Infelizmente, não tenho
a solução para este problema, -
13:01 - 13:04apenas posso recomendar
que pensemos mais nisto. -
13:04 - 13:06Acho que precisamos de algo
como o Projeto Manhattan -
13:06 - 13:09no tópico da inteligência artificial.
-
13:09 - 13:11Não para a construir —acho
que o faremos inevitavelmente — -
13:12 - 13:15mas para compreender
como evitar uma corrida ao armamento -
13:15 - 13:19e para a construir de forma
a estar alinhada com os nossos interesses. -
13:18 - 13:20Quando falamos na IA superinteligente
-
13:20 - 13:23que pode alterar-se a si mesma,
-
13:23 - 13:25parece que só temos uma hipótese
-
13:25 - 13:27para conseguir
as condições iniciais corretas, -
13:27 - 13:30e mesmo assim precisaremos de absorver
-
13:30 - 13:33as consequências económicas e politicas
para conseguir tal. -
13:34 - 13:36Mas a partir do momento em que admitirmos
-
13:36 - 13:40que o processamento de informação
é a fonte de inteligência, -
13:41 - 13:46que algum sistema informático apropriado
é a base de inteligência, -
13:46 - 13:50e admitirmos que iremos melhorar
estes sistemas de forma contínua, -
13:51 - 13:54e admitirmos que o horizonte da cognição
-
13:54 - 13:57provavelmente ultrapassa
o que conhecemos agora, -
13:58 - 14:00então temos de admitir
-
14:00 - 14:03que estamos no processo
de construir uma espécie de deus. -
14:03 - 14:06Agora seria uma boa altura
de certificarmo-nos -
14:06 - 14:08que seja um deus
com quem queremos viver. -
14:08 - 14:10Muito obrigado.
-
14:10 - 14:13(Aplausos)
- Title:
- Podemos construir IA sem perder o controlo?
- Speaker:
- Sam Harris
- Description:
-
Assustado com a IA superinteligente? Devia estar, diz o neurocientista e filosofo Sam Harris — e não apenas teoricamente. Vamos construir máquinas super-humanas, diz Harris, mas ainda não lidámos com os problemas associados com a criação de uma coisa que nos poderá tratar do mesmo modo como tratamos as formigas.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
Margarida Ferreira edited Portuguese subtitles for Can we build AI without losing control over it? | |
![]() |
Margarida Ferreira approved Portuguese subtitles for Can we build AI without losing control over it? | |
![]() |
Margarida Ferreira accepted Portuguese subtitles for Can we build AI without losing control over it? | |
![]() |
Margarida Ferreira edited Portuguese subtitles for Can we build AI without losing control over it? | |
![]() |
Margarida Ferreira edited Portuguese subtitles for Can we build AI without losing control over it? | |
![]() |
Margarida Ferreira edited Portuguese subtitles for Can we build AI without losing control over it? | |
![]() |
Margarida Ferreira edited Portuguese subtitles for Can we build AI without losing control over it? | |
![]() |
Retired user edited Portuguese subtitles for Can we build AI without losing control over it? |