É possível construir inteligência artificial sem perder o controle?
-
0:01 - 0:03Vou falar sobre uma falha intuitiva
-
0:03 - 0:05que afeta muitos de nós.
-
0:05 - 0:09É a falha de reconhecer certo perigo.
-
0:09 - 0:11Eu vou descrever uma situação
-
0:11 - 0:14que considero aterrorizante
-
0:14 - 0:16e provável de acontecer,
-
0:17 - 0:18e não é uma boa combinação,
-
0:19 - 0:20ao que parece.
-
0:20 - 0:22Mesmo assim, em vez de sentir medo,
-
0:22 - 0:25a maioria vai achar legal o que vou falar.
-
0:25 - 0:28Vou descrever como nossas conquistas
-
0:28 - 0:30na área da inteligência artificial
-
0:30 - 0:32poderão nos destruir.
-
0:32 - 0:35Na verdade, acho muito difícil ver
como elas não vão nos destruir, -
0:35 - 0:37ou nos inspirar a nos destruirmos.
-
0:37 - 0:39E se você é como eu,
-
0:39 - 0:42vai descobrir que é divertido
pensar sobre essas coisas. -
0:42 - 0:45E essa resposta é parte do problema.
-
0:45 - 0:47OK? Essa resposta deve te preocupar.
-
0:48 - 0:51Se eu quisesse te convencer nessa palestra
-
0:51 - 0:54de que a fome mundial é provável,
-
0:54 - 0:57por causa do aquecimento global
ou qualquer outra catástrofe, -
0:57 - 1:01e de que seus netos
e os netos dos seus netos -
1:01 - 1:02provavelmente viverão assim,
-
1:03 - 1:04você não pensaria:
-
1:05 - 1:07"Interessante.
-
1:07 - 1:08Gostei dessa Palestra TED."
-
1:09 - 1:11Fome não é divertido.
-
1:12 - 1:15Morte por ficção científica,
por outro lado, é divertida, -
1:15 - 1:19e uma das coisas que mais me preocupa
no desenvolvimento de IA nesse ponto -
1:19 - 1:23é que somos incapazes de organizar
uma resposta emocional apropriada -
1:23 - 1:25para os perigos que estão à frente.
-
1:25 - 1:28Eu sou incapaz de ordenar essa resposta,
e estou dando esta palestra. -
1:30 - 1:33É como se estivéssemos
diante de duas portas. -
1:33 - 1:34Na porta de número 1,
-
1:34 - 1:37paramos de progredir na área de IA.
-
1:37 - 1:41Nossos softwares e hardwares param
de melhorar por algum motivo. -
1:41 - 1:44Pare um pouco para refletir
por que isso pode acontecer. -
1:45 - 1:49Dado que automação
e inteligência são valiosos, -
1:49 - 1:52continuaremos a melhorar
nossa tecnologia, se isso for possível. -
1:53 - 1:55O que poderia nos impedir de fazer isso?
-
1:56 - 1:58Uma guerra nuclear em grande escala?
-
1:59 - 2:01Uma pandemia global?
-
2:02 - 2:04A colisão de um asteroide?
-
2:06 - 2:08Justin Bieber como presidente
dos Estado Unidos? -
2:08 - 2:11(Risadas)
-
2:13 - 2:17A questão é que algo teria que destruir
a civilização que nós conhecemos. -
2:17 - 2:22Você precisa imaginar
o quão ruim teria que ser -
2:22 - 2:25para impedir os avanços
da nossa tecnologia -
2:25 - 2:26permanentemente,
-
2:26 - 2:28geração após geração.
-
2:28 - 2:30Quase que por definição,
essa é a pior coisa -
2:30 - 2:32que já aconteceu na história humana.
-
2:33 - 2:34A única alternativa,
-
2:34 - 2:36e é o que está atrás
da porta de número 2, -
2:36 - 2:39é que continuemos a aprimorar
nossas máquinas inteligentes, -
2:39 - 2:41ano após ano.
-
2:42 - 2:45Em algum ponto, construiremos máquinas
mais inteligentes que nós, -
2:46 - 2:49e uma vez que isso acontecer,
-
2:49 - 2:51elas aperfeiçoarão a si mesmas.
-
2:51 - 2:53E nós arriscamos o que o matemático
I. J. Good chamou -
2:53 - 2:55de "explosão de inteligência",
-
2:55 - 2:57que o processo poderia fugir do controle.
-
2:58 - 3:01Isso é frequentemente
caricaturado, desse jeito aqui, -
3:01 - 3:04como medo de que exércitos
de robôs malignos -
3:04 - 3:05nos ataquem.
-
3:05 - 3:08Mas essa não é a situação mais provável.
-
3:08 - 3:13Não é que nossas máquinas
se tornarão espontaneamente más. -
3:13 - 3:16A preocupação é que
construiremos máquinas -
3:16 - 3:18que são muito mais competentes do que nós,
-
3:18 - 3:22e que a menor das divergências
entre nosso propósito e o delas -
3:22 - 3:23possa nos destruir.
-
3:24 - 3:26Pense na nossa relação com as formigas.
-
3:27 - 3:28Nós não as odiamos.
-
3:28 - 3:30Nós não as machucamos de propósito.
-
3:30 - 3:33Na verdade, nós tentamos
não machucar elas. -
3:33 - 3:35Evitamos pisá-las na calçada.
-
3:35 - 3:37Mas sempre que a presença delas
-
3:37 - 3:39colide com um dos nossos objetivos,
-
3:39 - 3:42digamos que ao construirmos
um prédio como este, -
3:42 - 3:44nós exterminamos elas
sem a menor cerimônia. -
3:44 - 3:47A preocupação é que um dia
vamos construir máquinas -
3:47 - 3:50que, conscientes ou não,
-
3:50 - 3:52poderão nos tratar com o mesmo desprezo.
-
3:54 - 3:57Eu suspeito que isso pareça difícil
de acreditar para vocês. -
3:57 - 4:04Aposto que alguns de vocês duvidam
que uma IA superinteligente seja possível, -
4:04 - 4:05muito menos inevitável.
-
4:05 - 4:09Mas então você precisar achar algo
de errado com as seguintes suposições. -
4:09 - 4:11E existem apenas três.
-
4:12 - 4:16Inteligência é uma questão
de processamento de informação -
4:16 - 4:17em sistemas físicos.
-
4:17 - 4:20Na verdade, isso é mais
do que uma suposição. -
4:20 - 4:23Nós já construímos inteligência limitada
em nossas máquinas, -
4:23 - 4:28e muitas delas já trabalham num nível
de inteligência sobre-humano. -
4:29 - 4:31E sabemos que matéria comum
-
4:31 - 4:34pode dar origem ao que é chamado
de "inteligência geral", -
4:34 - 4:38a habilidade de pensar de forma flexível
em vários domínios, -
4:38 - 4:41porque nossos cérebros
conseguiram isso. Certo? -
4:41 - 4:45Existem apenas átomos aqui,
-
4:45 - 4:49e desde que continuemos a construir
sistemas de átomos -
4:49 - 4:52que mostrem mais e mais
comportamento inteligente, -
4:52 - 4:55a não ser que nos interrompam,
-
4:55 - 4:58vamos acabar construindo
inteligência geral -
4:58 - 4:59dentro de nossas máquinas.
-
4:59 - 5:03É crucial perceber que a taxa
de progresso não importa, -
5:03 - 5:06porque qualquer progresso é suficiente
para nos levar até a zona final. -
5:06 - 5:09Não precisamos da Lei de Moore
para continuar, -
5:09 - 5:12Não precisamos de progresso exponencial,
só precisamos continuar. -
5:13 - 5:16A segunda suposição é
que vamos continuar. -
5:17 - 5:20Continuaremos a melhorar
nossas máquinas inteligentes. -
5:21 - 5:25E dado o valor da inteligência...
-
5:25 - 5:29Inteligência ou é a fonte de tudo
aquilo que valorizamos -
5:29 - 5:32ou precisamos dela para que proteja
aquilo que valorizamos. -
5:32 - 5:34É a nossa fonte mais valiosa.
-
5:34 - 5:36Então nós queremos fazer isso.
-
5:36 - 5:39Temos problemas que precisamos
resolver urgentemente. -
5:39 - 5:42Queremos curar doenças
como Alzheimer e câncer. -
5:43 - 5:47Queremos entender sistemas econômicos.
Queremos aprimorar a ciência climática. -
5:47 - 5:49Nós faremos isso, se pudermos.
-
5:49 - 5:52O trem já saiu da estação,
e não há freio para puxar. -
5:54 - 5:59Finalmente, não estamos
em um pico de inteligência, -
5:59 - 6:01não estamos nem perto disso.
-
6:02 - 6:04E essa é a percepção crucial.
-
6:04 - 6:06Isso é o que faz a nossa situação
ser tão precária -
6:06 - 6:10e a nossa intuição sobre riscos
não ser confiável. -
6:11 - 6:14Pense na pessoa mais
inteligente que já existiu. -
6:15 - 6:18Na lista de quase todos aqui
está John von Neumann. -
6:18 - 6:21A impressão que ele causou
nas pessoas ao seu redor, -
6:21 - 6:25e isso inclui os melhores matemáticos
e físicos de seu tempo, -
6:26 - 6:27está muito bem documentada.
-
6:27 - 6:31Se apenas metade das histórias
sobre ele forem meio verdadeiras, -
6:31 - 6:35não há dúvida de que ele foi uma das
pessoas mais inteligentes que já existiu. -
6:35 - 6:38Considere o espectro da inteligência.
-
6:38 - 6:40Aqui temos John von Neumann.
-
6:42 - 6:43E aqui temos eu e você.
-
6:44 - 6:45E aqui temos uma galinha.
-
6:45 - 6:47(Risadas)
-
6:47 - 6:49Perdão, uma galinha.
-
6:49 - 6:50(Risadas)
-
6:50 - 6:54Não existe razão pra que eu torne isso
mais depressivo do que precisa ser. -
6:54 - 6:55(Risadas)
-
6:56 - 7:00Parece extremamente provável, no entanto,
que esse espectro da inteligência -
7:00 - 7:03se estenda muito além do que pensamos,
-
7:04 - 7:07e se construirmos máquinas
mais inteligentes do que nós, -
7:07 - 7:09elas provavelmente
vão explorar esse espectro -
7:09 - 7:11de maneiras que não podemos imaginar,
-
7:11 - 7:14e vão nos ultrapassar
de formas inimagináveis. -
7:15 - 7:19E é importante reconhecer que isso é
verdade apenas pela velocidade. -
7:19 - 7:24Imagine se construíssemos
uma IA superinteligente -
7:24 - 7:28que não fosse mais inteligente do que
seu time mediano de pesquisadores -
7:28 - 7:30em Stanford ou no MIT.
-
7:30 - 7:33Circuitos eletrônicos funcionam quase
1 milhão de vezes mais rápido -
7:33 - 7:35do que os biológicos,
-
7:35 - 7:38então essa máquina deve pensar
1 milhão de vezes mais rápido -
7:38 - 7:39do que a mente que a criou.
-
7:39 - 7:42Você deixa ela funcionando
por uma semana, -
7:42 - 7:46e ela vai realizar 20 mil anos humanos
de trabalho intelectual, -
7:46 - 7:48semana após semana.
-
7:50 - 7:53Como poderíamos entender,
muito menos restringir, -
7:53 - 7:55uma mente progredindo dessa maneira?
-
7:57 - 7:59Outra coisa que é
preocupante, francamente, -
7:59 - 8:04é... imagine o melhor cenário possível.
-
8:04 - 8:08Imagine que nos deparamos
com o design de uma IA superinteligente -
8:08 - 8:10que não tem problemas de segurança.
-
8:10 - 8:13Temos o design perfeito pela primeira vez.
-
8:13 - 8:15É como se tivéssemos recebido um oráculo
-
8:15 - 8:17que se comporta como deve.
-
8:17 - 8:21Essa máquina seria o perfeito
dispositivo de economia de trabalho. -
8:21 - 8:24Pode desenvolver a máquina
que pode construir a máquina -
8:24 - 8:26que pode executar
qualquer trabalho físico, -
8:26 - 8:27movido à luz solar,
-
8:27 - 8:30por mais ou menos
o custo da matéria-prima. -
8:30 - 8:33Estamos falando do fim
do esforço físico humano. -
8:33 - 8:37Também estamos falando do fim
da maior parte do trabalho intelectual. -
8:37 - 8:40O que símios como nós fariam
nessas circunstâncias? -
8:40 - 8:44Estaríamos livres para jogar Frisbee
e massagear uns aos outros. -
8:46 - 8:49Adicione LSD e escolhas
de roupas questionáveis, -
8:49 - 8:51e o mundo inteiro seria
como o Festival Burning Man. -
8:51 - 8:53(Risadas)
-
8:54 - 8:56Pode até parecer muito bom,
-
8:57 - 9:00mas se pergunte: o que aconteceria
-
9:00 - 9:02sob a atual economia e ordem política?
-
9:02 - 9:05Possivelmente, iríamos presenciar
-
9:05 - 9:09um nível de desigualdade
de riqueza e desemprego -
9:09 - 9:11nunca visto antes.
-
9:11 - 9:13Sem a vontade de colocar
imediatamente essa riqueza -
9:13 - 9:15a serviço da humanidade,
-
9:16 - 9:19alguns poucos trilionários apareceriam
nas capas das revistas de negócios, -
9:19 - 9:22enquanto o resto do mundo passaria fome.
-
9:22 - 9:25E o que os russos e os chineses fariam
-
9:25 - 9:27se soubessem que uma empresa
no Vale do Silício -
9:27 - 9:30estivesse pronta para implantar
uma IA superinteligente? -
9:30 - 9:33Essa máquina seria capaz
de travar uma guerra, -
9:33 - 9:35terrestre ou cibernética,
-
9:35 - 9:37com poder sem precedente.
-
9:38 - 9:40É um cenário onde o vencedor leva tudo.
-
9:40 - 9:43Estar seis meses à frente da competição
-
9:43 - 9:46é como estar 500 mil anos adiantado,
-
9:46 - 9:47no mínimo.
-
9:47 - 9:52Parece que mesmo os meros
rumores desse tipo de avanço -
9:52 - 9:55poderiam causar fúria em nossa espécie.
-
9:55 - 9:58Uma das coisas mais assustadoras,
-
9:58 - 10:00na minha opinião, nesse momento,
-
10:00 - 10:05são os tipos de coisas
que os pesquisadores de IA dizem -
10:05 - 10:06quando querem nos tranquilizar.
-
10:07 - 10:10E eles nos dizem para não
nos preocuparmos com o tempo. -
10:10 - 10:13Esse é um caminho longo,
se você não sabe. -
10:13 - 10:15Provavelmente está
a 50, 100 anos de distância. -
10:16 - 10:17Um pesquisador disse:
-
10:17 - 10:19"Se preocupar com a segurança de IA
-
10:19 - 10:21é como se preocupar
com a superpopulação em Marte." -
10:22 - 10:24Essa é a versão do Vale do Silício
-
10:24 - 10:26para que você "não esquente
sua cabecinha linda." -
10:26 - 10:27(Risadas)
-
10:28 - 10:29Ninguém parece perceber
-
10:29 - 10:32que fazer referência ao tempo
-
10:32 - 10:35é um argumento inválido.
-
10:35 - 10:38Se inteligência é questão
de processamento de informação, -
10:38 - 10:41e se continuarmos a aperfeiçoar
nossas máquinas, -
10:41 - 10:44produziremos alguma forma
de superinteligência. -
10:44 - 10:48E não temos ideia de quanto
tempo vai demorar -
10:48 - 10:50para fazer isso de forma segura.
-
10:52 - 10:53Vou dizer novamente.
-
10:54 - 10:57Não temos ideia de quanto tempo vai levar
-
10:57 - 11:00para fazer isso de forma segura.
-
11:01 - 11:04E se você não percebeu, 50 anos não
são mais o que costumavam ser. -
11:04 - 11:07Isso são 50 anos em meses.
-
11:07 - 11:09Esta é a idade que tem o iPhone.
-
11:09 - 11:12Este é o tempo que Os Simpsons
está na televisão. -
11:13 - 11:15Cinquenta anos não é muito tempo
-
11:15 - 11:18para conhecer um dos maiores desafios
que nossa espécie enfrentará. -
11:20 - 11:24Novamente, parece que estamos falhando
em uma reação emocional adequada -
11:24 - 11:26a algo que, com certeza, está vindo.
-
11:26 - 11:30O cientista de computação Stuart Russell
possui uma bela analogia: -
11:30 - 11:35imagine que recebamos uma mensagem
de uma civilização alienígena, -
11:35 - 11:36que diz:
-
11:37 - 11:39"Pessoas da Terra,
-
11:39 - 11:41chegaremos ao seu planeta em 50 anos.
-
11:42 - 11:43Se preparem."
-
11:43 - 11:48E agora estamos contando os meses
até a chegada da nave-mãe? -
11:48 - 11:51Nós teríamos mais urgência
do que temos agora. -
11:52 - 11:54Outro motivo dito
para não nos preocuparmos -
11:54 - 11:58é que essas máquinas não podem evitar
compartilhar nossos valores -
11:58 - 12:00porque eles serão literalmente
extensões de nós mesmos. -
12:00 - 12:03Eles serão transplantados
em nossos cérebros -
12:03 - 12:05e nos tornaremos parte
de seus sistemas límbicos. -
12:05 - 12:07Reserve um momento para considerar
-
12:07 - 12:11que o único caminho prudente
e seguro recomendado, -
12:11 - 12:15é implantar essa tecnologia
diretamente em nossos cérebros. -
12:15 - 12:18Esse pode ser o caminho
mais seguro e prudente, -
12:18 - 12:21mas, normalmente, os problemas
de segurança da tecnologia -
12:21 - 12:25precisam ser resolvidos antes de ser
implantado dentro da sua cabeça. -
12:25 - 12:26(Risadas)
-
12:27 - 12:32O maior problema é que construir
uma IA superinteligente por si só -
12:32 - 12:34parece ser mais fácil
-
12:34 - 12:36do que construir IA superinteligente
-
12:36 - 12:38e ter a neurociência completa
-
12:38 - 12:41que nos permita integrar
perfeitamente nossas mentes. -
12:41 - 12:44E dado que empresas e governos
que estão trabalhando nisso -
12:44 - 12:47se encontram numa corrida
uns contra os outros, -
12:48 - 12:50dado que vencer essa corrida é
conquistar o mundo, -
12:51 - 12:54supondo que você não o destrua
no momento seguinte, -
12:54 - 12:56então parece que o que for
mais fácil de se fazer -
12:56 - 12:58será feito primeiro.
-
12:59 - 13:01Infelizmente, eu não tenho
a solução para esse problema, -
13:01 - 13:04a não ser recomendar
que outros pensem sobre isso. -
13:04 - 13:06Acho que precisamos de algo
como o Projeto Manhattan -
13:06 - 13:08na área de inteligência artificial.
-
13:08 - 13:11Não para construir uma IA,
porque vamos inevitavelmente fazer isso, -
13:11 - 13:15mas para entender como evitar
uma corrida armamentista -
13:15 - 13:18e construir uma IA que esteja
alinhada aos nossos interesses. -
13:18 - 13:20Quando se fala de uma IA superinteligente
-
13:20 - 13:23que pode modificar a si mesma,
-
13:23 - 13:27parece que temos apenas uma chance
para acertar as condições primárias -
13:27 - 13:30e, mesmo assim, teremos que assimilar
-
13:30 - 13:33as consequências econômicas
e políticas desse acerto. -
13:34 - 13:36Mas no momento em que admitirmos
-
13:36 - 13:41que o processamento de informação
é a fonte da inteligência, -
13:41 - 13:46que um sistema computacional apropriado
é a base do que é a inteligência, -
13:46 - 13:51e admitirmos que continuaremos
a aprimorar esse sistema, -
13:51 - 13:55e que o horizonte do conhecimento
provavelmente ultrapassa -
13:56 - 13:57tudo o que sabemos agora,
-
13:58 - 14:00então teremos que admitir
-
14:00 - 14:03que estamos no processo de criação
de algum tipo de deus. -
14:03 - 14:06Agora seria um ótimo momento
de ter a certeza -
14:06 - 14:08de que é um deus
com o qual podemos viver. -
14:08 - 14:09Muito obrigado.
-
14:09 - 14:13(Aplausos)
- Title:
- É possível construir inteligência artificial sem perder o controle?
- Speaker:
- Sam Harris
- Description:
-
Tem medo de inteligências artificiais? Pois deveria, diz o filósofo e neurocientista Sam Harris; e não apenas na teoria. Vamos construir máquinas sobre-humanas, afirma Harris, mas ainda não sabemos lidar com os problemas associados à criação de algo que vai nos exterminar, assim como nós exterminamos formigas.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
![]() |
Leonardo Silva approved Portuguese, Brazilian subtitles for Can we build AI without losing control over it? | |
![]() |
Leonardo Silva edited Portuguese, Brazilian subtitles for Can we build AI without losing control over it? | |
![]() |
Leonardo Silva edited Portuguese, Brazilian subtitles for Can we build AI without losing control over it? | |
![]() |
Cristiano Garcia accepted Portuguese, Brazilian subtitles for Can we build AI without losing control over it? | |
![]() |
Cristiano Garcia edited Portuguese, Brazilian subtitles for Can we build AI without losing control over it? | |
![]() |
Cristiano Garcia edited Portuguese, Brazilian subtitles for Can we build AI without losing control over it? | |
![]() |
Cristiano Garcia edited Portuguese, Brazilian subtitles for Can we build AI without losing control over it? | |
![]() |
Cristiano Garcia edited Portuguese, Brazilian subtitles for Can we build AI without losing control over it? |