Vou falar sobre uma falha intuitiva
que afeta muitos de nós.
É a falha de reconhecer certo perigo.
Eu vou descrever uma situação
que considero aterrorizante
e provável de acontecer,
e não é uma boa combinação,
ao que parece.
Mesmo assim, em vez de sentir medo,
a maioria vai achar legal o que vou falar.
Vou descrever como nossas conquistas
na área da inteligência artificial
poderão nos destruir.
Na verdade, acho muito difícil ver
como elas não vão nos destruir,
ou nos inspirar a nos destruirmos.
E se você é como eu,
vai descobrir que é divertido
pensar sobre essas coisas.
E essa resposta é parte do problema.
OK? Essa resposta deve te preocupar.
Se eu quisesse te convencer nessa palestra
de que a fome mundial é provável,
por causa do aquecimento global
ou qualquer outra catástrofe,
e de que seus netos
e os netos dos seus netos
provavelmente viverão assim,
você não pensaria:
"Interessante.
Gostei dessa Palestra TED."
Fome não é divertido.
Morte por ficção científica,
por outro lado, é divertida,
e uma das coisas que mais me preocupa
no desenvolvimento de IA nesse ponto
é que somos incapazes de organizar
uma resposta emocional apropriada
para os perigos que estão à frente.
Eu sou incapaz de ordenar essa resposta,
e estou dando esta palestra.
É como se estivéssemos
diante de duas portas.
Na porta de número 1,
paramos de progredir na área de IA.
Nossos softwares e hardwares param
de melhorar por algum motivo.
Pare um pouco para refletir
por que isso pode acontecer.
Dado que automação
e inteligência são valiosos,
continuaremos a melhorar
nossa tecnologia, se isso for possível.
O que poderia nos impedir de fazer isso?
Uma guerra nuclear em grande escala?
Uma pandemia global?
A colisão de um asteroide?
Justin Bieber como presidente
dos Estado Unidos?
(Risadas)
A questão é que algo teria que destruir
a civilização que nós conhecemos.
Você precisa imaginar
o quão ruim teria que ser
para impedir os avanços
da nossa tecnologia
permanentemente,
geração após geração.
Quase que por definição,
essa é a pior coisa
que já aconteceu na história humana.
A única alternativa,
e é o que está atrás
da porta de número 2,
é que continuemos a aprimorar
nossas máquinas inteligentes,
ano após ano.
Em algum ponto, construiremos máquinas
mais inteligentes que nós,
e uma vez que isso acontecer,
elas aperfeiçoarão a si mesmas.
E nós arriscamos o que o matemático
I. J. Good chamou
de "explosão de inteligência",
que o processo poderia fugir do controle.
Isso é frequentemente
caricaturado, desse jeito aqui,
como medo de que exércitos
de robôs malignos
nos ataquem.
Mas essa não é a situação mais provável.
Não é que nossas máquinas
se tornarão espontaneamente más.
A preocupação é que
construiremos máquinas
que são muito mais competentes do que nós,
e que a menor das divergências
entre nosso propósito e o delas
possa nos destruir.
Pense na nossa relação com as formigas.
Nós não as odiamos.
Nós não as machucamos de propósito.
Na verdade, nós tentamos
não machucar elas.
Evitamos pisá-las na calçada.
Mas sempre que a presença delas
colide com um dos nossos objetivos,
digamos que ao construirmos
um prédio como este,
nós exterminamos elas
sem a menor cerimônia.
A preocupação é que um dia
vamos construir máquinas
que, conscientes ou não,
poderão nos tratar com o mesmo desprezo.
Eu suspeito que isso pareça difícil
de acreditar para vocês.
Aposto que alguns de vocês duvidam
que uma IA superinteligente seja possível,
muito menos inevitável.
Mas então você precisar achar algo
de errado com as seguintes suposições.
E existem apenas três.
Inteligência é uma questão
de processamento de informação
em sistemas físicos.
Na verdade, isso é mais
do que uma suposição.
Nós já construímos inteligência limitada
em nossas máquinas,
e muitas delas já trabalham num nível
de inteligência sobre-humano.
E sabemos que matéria comum
pode dar origem ao que é chamado
de "inteligência geral",
a habilidade de pensar de forma flexível
em vários domínios,
porque nossos cérebros
conseguiram isso. Certo?
Existem apenas átomos aqui,
e desde que continuemos a construir
sistemas de átomos
que mostrem mais e mais
comportamento inteligente,
a não ser que nos interrompam,
vamos acabar construindo
inteligência geral
dentro de nossas máquinas.
É crucial perceber que a taxa
de progresso não importa,
porque qualquer progresso é suficiente
para nos levar até a zona final.
Não precisamos da Lei de Moore
para continuar,
Não precisamos de progresso exponencial,
só precisamos continuar.
A segunda suposição é
que vamos continuar.
Continuaremos a melhorar
nossas máquinas inteligentes.
E dado o valor da inteligência...
Inteligência ou é a fonte de tudo
aquilo que valorizamos
ou precisamos dela para que proteja
aquilo que valorizamos.
É a nossa fonte mais valiosa.
Então nós queremos fazer isso.
Temos problemas que precisamos
resolver urgentemente.
Queremos curar doenças
como Alzheimer e câncer.
Queremos entender sistemas econômicos.
Queremos aprimorar a ciência climática.
Nós faremos isso, se pudermos.
O trem já saiu da estação,
e não há freio para puxar.
Finalmente, não estamos
em um pico de inteligência,
não estamos nem perto disso.
E essa é a percepção crucial.
Isso é o que faz a nossa situação
ser tão precária
e a nossa intuição sobre riscos
não ser confiável.
Pense na pessoa mais
inteligente que já existiu.
Na lista de quase todos aqui
está John von Neumann.
A impressão que ele causou
nas pessoas ao seu redor,
e isso inclui os melhores matemáticos
e físicos de seu tempo,
está muito bem documentada.
Se apenas metade das histórias
sobre ele forem meio verdadeiras,
não há dúvida de que ele foi uma das
pessoas mais inteligentes que já existiu.
Considere o espectro da inteligência.
Aqui temos John von Neumann.
E aqui temos eu e você.
E aqui temos uma galinha.
(Risadas)
Perdão, uma galinha.
(Risadas)
Não existe razão pra que eu torne isso
mais depressivo do que precisa ser.
(Risadas)
Parece extremamente provável, no entanto,
que esse espectro da inteligência
se estenda muito além do que pensamos,
e se construirmos máquinas
mais inteligentes do que nós,
elas provavelmente
vão explorar esse espectro
de maneiras que não podemos imaginar,
e vão nos ultrapassar
de formas inimagináveis.
E é importante reconhecer que isso é
verdade apenas pela velocidade.
Imagine se construíssemos
uma IA superinteligente
que não fosse mais inteligente do que
seu time mediano de pesquisadores
em Stanford ou no MIT.
Circuitos eletrônicos funcionam quase
1 milhão de vezes mais rápido
do que os biológicos,
então essa máquina deve pensar
1 milhão de vezes mais rápido
do que a mente que a criou.
Você deixa ela funcionando
por uma semana,
e ela vai realizar 20 mil anos humanos
de trabalho intelectual,
semana após semana.
Como poderíamos entender,
muito menos restringir,
uma mente progredindo dessa maneira?
Outra coisa que é
preocupante, francamente,
é... imagine o melhor cenário possível.
Imagine que nos deparamos
com o design de uma IA superinteligente
que não tem problemas de segurança.
Temos o design perfeito pela primeira vez.
É como se tivéssemos recebido um oráculo
que se comporta como deve.
Essa máquina seria o perfeito
dispositivo de economia de trabalho.
Pode desenvolver a máquina
que pode construir a máquina
que pode executar
qualquer trabalho físico,
movido à luz solar,
por mais ou menos
o custo da matéria-prima.
Estamos falando do fim
do esforço físico humano.
Também estamos falando do fim
da maior parte do trabalho intelectual.
O que símios como nós fariam
nessas circunstâncias?
Estaríamos livres para jogar Frisbee
e massagear uns aos outros.
Adicione LSD e escolhas
de roupas questionáveis,
e o mundo inteiro seria
como o Festival Burning Man.
(Risadas)
Pode até parecer muito bom,
mas se pergunte: o que aconteceria
sob a atual economia e ordem política?
Possivelmente, iríamos presenciar
um nível de desigualdade
de riqueza e desemprego
nunca visto antes.
Sem a vontade de colocar
imediatamente essa riqueza
a serviço da humanidade,
alguns poucos trilionários apareceriam
nas capas das revistas de negócios,
enquanto o resto do mundo passaria fome.
E o que os russos e os chineses fariam
se soubessem que uma empresa
no Vale do Silício
estivesse pronta para implantar
uma IA superinteligente?
Essa máquina seria capaz
de travar uma guerra,
terrestre ou cibernética,
com poder sem precedente.
É um cenário onde o vencedor leva tudo.
Estar seis meses à frente da competição
é como estar 500 mil anos adiantado,
no mínimo.
Parece que mesmo os meros
rumores desse tipo de avanço
poderiam causar fúria em nossa espécie.
Uma das coisas mais assustadoras,
na minha opinião, nesse momento,
são os tipos de coisas
que os pesquisadores de IA dizem
quando querem nos tranquilizar.
E eles nos dizem para não
nos preocuparmos com o tempo.
Esse é um caminho longo,
se você não sabe.
Provavelmente está
a 50, 100 anos de distância.
Um pesquisador disse:
"Se preocupar com a segurança de IA
é como se preocupar
com a superpopulação em Marte."
Essa é a versão do Vale do Silício
para que você "não esquente
sua cabecinha linda."
(Risadas)
Ninguém parece perceber
que fazer referência ao tempo
é um argumento inválido.
Se inteligência é questão
de processamento de informação,
e se continuarmos a aperfeiçoar
nossas máquinas,
produziremos alguma forma
de superinteligência.
E não temos ideia de quanto
tempo vai demorar
para fazer isso de forma segura.
Vou dizer novamente.
Não temos ideia de quanto tempo vai levar
para fazer isso de forma segura.
E se você não percebeu, 50 anos não
são mais o que costumavam ser.
Isso são 50 anos em meses.
Esta é a idade que tem o iPhone.
Este é o tempo que Os Simpsons
está na televisão.
Cinquenta anos não é muito tempo
para conhecer um dos maiores desafios
que nossa espécie enfrentará.
Novamente, parece que estamos falhando
em uma reação emocional adequada
a algo que, com certeza, está vindo.
O cientista de computação Stuart Russell
possui uma bela analogia:
imagine que recebamos uma mensagem
de uma civilização alienígena,
que diz:
"Pessoas da Terra,
chegaremos ao seu planeta em 50 anos.
Se preparem."
E agora estamos contando os meses
até a chegada da nave-mãe?
Nós teríamos mais urgência
do que temos agora.
Outro motivo dito
para não nos preocuparmos
é que essas máquinas não podem evitar
compartilhar nossos valores
porque eles serão literalmente
extensões de nós mesmos.
Eles serão transplantados
em nossos cérebros
e nos tornaremos parte
de seus sistemas límbicos.
Reserve um momento para considerar
que o único caminho prudente
e seguro recomendado,
é implantar essa tecnologia
diretamente em nossos cérebros.
Esse pode ser o caminho
mais seguro e prudente,
mas, normalmente, os problemas
de segurança da tecnologia
precisam ser resolvidos antes de ser
implantado dentro da sua cabeça.
(Risadas)
O maior problema é que construir
uma IA superinteligente por si só
parece ser mais fácil
do que construir IA superinteligente
e ter a neurociência completa
que nos permita integrar
perfeitamente nossas mentes.
E dado que empresas e governos
que estão trabalhando nisso
se encontram numa corrida
uns contra os outros,
dado que vencer essa corrida é
conquistar o mundo,
supondo que você não o destrua
no momento seguinte,
então parece que o que for
mais fácil de se fazer
será feito primeiro.
Infelizmente, eu não tenho
a solução para esse problema,
a não ser recomendar
que outros pensem sobre isso.
Acho que precisamos de algo
como o Projeto Manhattan
na área de inteligência artificial.
Não para construir uma IA,
porque vamos inevitavelmente fazer isso,
mas para entender como evitar
uma corrida armamentista
e construir uma IA que esteja
alinhada aos nossos interesses.
Quando se fala de uma IA superinteligente
que pode modificar a si mesma,
parece que temos apenas uma chance
para acertar as condições primárias
e, mesmo assim, teremos que assimilar
as consequências econômicas
e políticas desse acerto.
Mas no momento em que admitirmos
que o processamento de informação
é a fonte da inteligência,
que um sistema computacional apropriado
é a base do que é a inteligência,
e admitirmos que continuaremos
a aprimorar esse sistema,
e que o horizonte do conhecimento
provavelmente ultrapassa
tudo o que sabemos agora,
então teremos que admitir
que estamos no processo de criação
de algum tipo de deus.
Agora seria um ótimo momento
de ter a certeza
de que é um deus
com o qual podemos viver.
Muito obrigado.
(Aplausos)