Eu vou falar de uma falha de intuição de que muitos de nós sofremos. É uma falha em detetar um certo tipo de perigo. Vou descrever um cenário que considero tão aterrador como provável de acontecer. Acontece que isto não é uma boa combinação. No entanto, em vez de assustados, a maioria de vocês acha que aquilo de que estou a falar é fixe. Eu vou descrever como as vantagens obtidas com a inteligência artificial podem acabar por nos destruir. Penso que é muito difícil ver como não nos vão destruir ou inspirar a destruirmo-nos a nós mesmos. Mas se vocês forem minimamente como eu, vão descobrir que é divertido pensar nestas coisas. Essa resposta faz parte do problema. Essa resposta devia preocupar-vos. Se eu vos convencesse nesta palestra que vamos, provavelmente, sofrer uma fome mundial, devido à mudança climática ou devido a alguma outra catástrofe, e que os vossos netos, ou os netos deles, têm a probabilidade de viver assim, não pensariam: "Que interessante. "Gosto desta palestra TED." A fome não tem graça. Mas a morte pela ficção científica é divertida. Uma das coisas que mais me preocupa no desenvolvimento da IA, neste ponto, é que parecemos incapazes de mobilizar uma resposta emocional apropriada para os perigos que nos esperam. Sou incapaz de conseguir esta resposta, e estou a fazer esta palestra. É como se estivéssemos diante de duas portas. Atrás da porta número um, deixamos de fazer progressos na construção de máquinas inteligentes. O hardware e o software dos computadores deixam de melhorar, por alguma razão. Agora, pensem um momento na razão de isto poder acontecer. Ou seja, sendo a inteligência e a automação tão valiosas, vamos continuar a melhorar a tecnologia, se formos capazes disso. O que é que nos pode impedir de o fazer? Uma guerra nuclear a larga escala? Uma pandemia mundial? O impacto de um asteroide? Justin Bieber tornar-se presidente dos EUA? (Risos) A questão é, algo teria de destruir a civilização, tal como a conhecemos Temos que imaginar quão mau teria que ser para nos impedir de fazer melhoramentos na tecnologia de forma permanente, geração após geração. Quase por definição, isto é a pior coisa que já aconteceu na história da Humanidade. Por isso, a única alternativa, — e é o que está detrás da porta dois — é que continuemos a melhorar as nossas máquinas inteligentes ano após ano após ano. A certa altura, iremos construir máquinas mais inteligentes que nós, e assim que tivermos máquinas mais inteligentes que nós, elas vão começar a melhorar-se a si mesmas. Então arriscamo-nos ao que o matemático I.J. Good chamou uma "explosão de inteligência," que o processo poderá sair das nossas mãos. Isto é normalmente caricaturado, como vemos aqui, como o medo de que tropas de robôs malignos nos vão atacar. Mas este não é o cenário mais provável. As nossas máquinas não se tornarão espontaneamente maléficas. O problema é se construímos máquinas que são muito mais competentes que nós que à mínima divergência entre os seus objetivos e os nossos podem destruir-nos. Basta pensar na nossa ligação às formigas. Não as odiamos. Não saímos do nosso caminho para as magoar. Até fazemos o necessário para não as magoar. Passamos por cima delas no passeio. Mas quando a sua presença representa um conflito com um dos nossos objetivos, digamos, quando construindo um edifício como este, eliminamo-las sem hesitação. O problema é que iremos um dia construir máquinas que, conscientes ou não, podem tratar-nos com o mesmo desprezo. Suspeito que isto pareça exagerado para a maioria. Aposto que são os mesmos que duvidam da possibilidade duma IA superinteligente, e, mais ainda, inevitável. Então, devem encontrar algo de errado nas seguintes premissas. Só existem três. A inteligência é uma questão de processamento de informação em sistemas físicos. Na verdade, isto é mais que uma premissa. Já construímos inteligência limitada nas nossas máquinas, e muitas dessas máquinas já funcionam a um nível de inteligência super-humana. Sabemos que mera matéria pode dar origem ao que chamamos "inteligência geral," a capacidade de pensar flexivelmente em múltiplos domínios, porque o nosso cérebros conseguiu isso. Quero dizer, aqui só há átomos. Enquanto continuamos a construir sistemas de átomos que demonstram cada vez mais um comportamento inteligente, acabaremos — a não ser que sejamos interrompidos — acabaremos por construir inteligência geral nas nossas máquinas. É crucial entender que a velocidade do progresso não importa, pois qualquer progresso é suficiente para nos levar ao final. Não precisamos da Lei de Moore nem de progresso exponencial para continuar. Só precisamos de continuar. A segunda premissa é que iremos continuar. Continuaremos a melhorar as nossas máquinas inteligentes. E devido ao valor da inteligência — quer dizer, inteligência ou é a fonte de tudo que valorizamos ou precisamos dela para salvaguardar tudo o que valorizamos. É o nosso recurso mais valioso. Por isso, queremos fazer isto. Temos problemas que queremos desesperadamente resolver. Queremos curar doenças como Alzheimer ou cancro. Queremos entender sistemas económicos e melhorar a nossa ciência climatérica. Por isso iremos fazê-lo, se conseguirmos, O comboio já saiu da estação, e não há travão para acionar. Finalmente, não estamos num pico da inteligência, provavelmente, nem perto dela. E isto é a visão crucial. Isto é o que torna a nossa situação tão precária. Isto é o que torna tão incertas as nossas intuições de risco. Agora, pensem na pessoa mais inteligente de sempre. Na lista de quase toda a gente está John von Neumann. A impressão que von Neumann deixou nas pessoas ao seu redor, incluindo os melhores matemáticos e físicos do seu tempo, está bem documentada. Se metade das histórias sobre ele são meio verdadeiras, não há dúvida que ele foi uma das pessoas mais inteligentes que existiu. Considerem o espetro da inteligência. Aqui temos John von Neumann. E aqui estamos nós. E aqui temos uma galinha. (Risos) Desculpem, uma galinha. (Risos) Não preciso de tornar esta palestra ainda mais deprimente. (Risos) Mas parece muito provável que o espetro da inteligência se alargue muito mais além do que imaginamos. Se construirmos máquinas mais inteligentes que nós, iremos muito provavelmente explorar este espetro de formas inimagináveis, e superar-nos em formas, que não imaginávamos. É importante reconhecer que isto é verdade só por virtude da velocidade. Imaginem que construímos uma IA superinteligente que não é mais inteligente que uma equipa normal de investigadores de Stanford ou do MIT. Os circuitos eletrónicos funcionam um milhão de vezes mais depressa do que os circuitos bioquímicos, por isso essa máquina iria pensar um milhão de vezes mais rápido do que as mentes que a construíram. Pomo-la a funcionar durante uma semana, e ela irá realizar 20 000 anos de trabalho intelectual humano, semana após semana. Como podemos entender, e muito menos restringir, uma mente que faz tal progresso? A outra coisa preocupante, honestamente... Imaginem o melhor cenário possível. Imaginem que chegamos ao "design" de uma IA superinteligente sem problemas de segurança. Temos o "design" perfeito na primeira tentativa. Seria como se nos tivessem dado um oráculo cujo comportamento seria o esperado. Esta máquina poderia ser a máquina perfeita para poupar trabalho. Poderia conceber a máquina para construir a máquina que pode fazer qualquer trabalho físico, usando energia solar, mais ou menos ao custo das matérias-primas. Estamos a falar do fim do trabalho duro humano Estamos também a falar do fim de maior parte do trabalho intelectual. O que fariam macacos como nós nestas circunstâncias? Teríamos tempo para jogar ao disco, e dar massagens uns aos outros. Adicionem LSD e algumas escolhas duvidosas de roupa, e seria como o festival Burning Man por todo o mundo. (Risos) Isto até pode soar bem, mas questionem-se o que poderia aconteceu na nossa ordem atual económica e política? Parece que poderíamos testemunhar um nível de desigualdade de riqueza e desemprego como nunca vimos antes. Se não existir a vontade de colocar essa riqueza imediatamente ao serviço de toda a humanidade, alguns multimilionários poderiam figurar nas capas das nossas revistas de negócios enquanto o resto do mundo estaria à fome. E o que fariam os russos ou os chineses se soubessem que alguma companhia em Silicon Valley estaria prestes a implementar uma IA superinteligente? Essa máquina seria capaz de fazer a guerra, terrestre ou cibernética, com um poder inédito. Isto é um cenário de "o vencedor leva tudo". Estar seis meses adiantado nesta competição é como estar 500 000 anos adiantado, no mínimo. Parece que os meros rumores deste tipo de inovação poderiam descontrolar a nossa espécie. Uma das coisas mais assustadoras, na minha perspetiva, neste momento, são o tipo de coisas que os investigadores da IA dizem quando querem tranquilizar-nos. O motivo mais comum que invocam para não nos preocuparmos é o tempo. "Não sabem que isto ainda vem longe? "Só daqui a 50 ou 100 anos". Um investigador disse: "Preocupar-se com a segurança da IA "é como preocupar-se com o excesso de população em Marte." Esta é a versão de Silicon Valley de "não preocupem a vossa cabeça com isto." (Risos) Ninguém parece notar que mencionar o horizonte do tempo é um total "não se segue". Se a inteligência é apenas uma questão de processamento de informação, e continuarmos a melhorar as nossas máquinas, iremos produzir alguma forma de superinteligência. Não fazemos ideia quanto tempo iremos demorar a criar as condições para o fazer em segurança. Vou repetir. Não sabemos quanto tempo vamos demorar para criar as condições para fazê-lo em segurança. Se ainda não repararam, 50 anos não é o que era dantes. Isto são 50 anos em meses. Isto é o tempo desde que temos o iPhone. Isto é o tempo em que "Os Simpsons" têm estado na TV. 50 anos não é assim tanto tempo para ir de encontro aos maiores desafios que a nossa espécie irá enfrentar. Mais uma vez, parecemos estar a falhar em ter uma resposta emocional apropriada para o que acreditamos que está para vir. O cientista informático Stuart Russell tem uma boa analogia para isto. Disse: "Imaginem que recebemos uma mensagem de uma civilização alienígena, "que diz: " 'Habitantes da Terra, " vamos chegar ao vosso planeta dentro de 50 anos. " 'Preparem-se'." Vamos contar os meses até a nave-mãe aterrar? Sentiríamos mais urgência do que o habitual. Outro motivo que nos dão para não nos preocuparmos é que estas máquinas vão partilhar os nossos valores pois serão literalmente extensões de nós próprios. Serão implantadas no nosso cérebro, e seremos os seus sistemas límbicos. Parem um momento para considerar que o caminho mais prudente e seguro, o caminho recomendado, é implantar esta tecnologia diretamente no nosso cérebro. Isso poderá de facto ser o caminho mais prudente e seguro, mas normalmente as questões de segurança de uma tecnologia devem estar bem trabalhadas antes de serem enfiadas na nossa cabeça. (Risos) O maior problema é que construir IA superinteligente, por si só, parece ser mais fácil do que construir IA superinteligente e ter a neurociência completa que nos permita integrar facilmente as nossas mentes com isso. Sabendo que as companhias e os governos que fazem este trabalho provavelmente se consideram numa corrida contra todos os outros, sendo que ganhar esta corrida, é ganhar o mundo, desde que não o destruam logo a seguir, então é evidente que o que for mais fácil será o primeiro a ser feito. Infelizmente, não tenho a solução para este problema, apenas posso recomendar que pensemos mais nisto. Acho que precisamos de algo como o Projeto Manhattan no tópico da inteligência artificial. Não para a construir —acho que o faremos inevitavelmente — mas para compreender como evitar uma corrida ao armamento e para a construir de forma a estar alinhada com os nossos interesses. Quando falamos na IA superinteligente que pode alterar-se a si mesma, parece que só temos uma hipótese para conseguir as condições iniciais corretas, e mesmo assim precisaremos de absorver as consequências económicas e politicas para conseguir tal. Mas a partir do momento em que admitirmos que o processamento de informação é a fonte de inteligência, que algum sistema informático apropriado é a base de inteligência, e admitirmos que iremos melhorar estes sistemas de forma contínua, e admitirmos que o horizonte da cognição provavelmente ultrapassa o que conhecemos agora, então temos de admitir que estamos no processo de construir uma espécie de deus. Agora seria uma boa altura de certificarmo-nos que seja um deus com quem queremos viver. Muito obrigado. (Aplausos)