WEBVTT 00:00:01.000 --> 00:00:03.488 Eu vou falar de uma falha de intuição 00:00:03.540 --> 00:00:05.367 de que muitos de nós sofremos. 00:00:05.480 --> 00:00:08.947 É uma falha em detetar um certo tipo de perigo. 00:00:09.360 --> 00:00:11.368 Vou descrever um cenário 00:00:11.438 --> 00:00:14.566 que considero tão aterrador 00:00:14.627 --> 00:00:16.660 como provável de acontecer. 00:00:16.903 --> 00:00:19.668 Acontece que isto não é uma boa combinação. 00:00:20.080 --> 00:00:21.835 No entanto, em vez de assustados, 00:00:21.878 --> 00:00:24.885 a maioria de vocês acha que aquilo de que estou a falar é fixe. NOTE Paragraph 00:00:25.472 --> 00:00:28.257 Eu vou descrever como as vantagens obtidas 00:00:28.327 --> 00:00:30.176 com a inteligência artificial NOTE Paragraph 00:00:30.227 --> 00:00:32.660 podem acabar por nos destruir. 00:00:32.118 --> 00:00:35.110 Penso que é muito difícil ver como não nos vão destruir 00:00:35.152 --> 00:00:37.378 ou inspirar a destruirmo-nos a nós mesmos. 00:00:37.563 --> 00:00:39.510 Mas se vocês forem minimamente como eu, 00:00:39.552 --> 00:00:42.590 vão descobrir que é divertido pensar nestas coisas. 00:00:42.195 --> 00:00:45.336 Essa resposta faz parte do problema. 00:00:45.505 --> 00:00:47.698 Essa resposta devia preocupar-vos. 00:00:47.920 --> 00:00:50.512 Se eu vos convencesse nesta palestra 00:00:50.600 --> 00:00:53.952 que vamos, provavelmente, sofrer uma fome mundial, 00:00:54.040 --> 00:00:57.223 devido à mudança climática ou devido a alguma outra catástrofe, 00:00:57.274 --> 00:01:00.508 e que os vossos netos, ou os netos deles, 00:01:00.705 --> 00:01:03.140 têm a probabilidade de viver assim, 00:01:03.200 --> 00:01:04.745 não pensariam: 00:01:05.440 --> 00:01:06.957 "Que interessante. 00:01:07.360 --> 00:01:08.727 "Gosto desta palestra TED." NOTE Paragraph 00:01:09.545 --> 00:01:11.429 A fome não tem graça. 00:01:11.800 --> 00:01:14.709 Mas a morte pela ficção científica é divertida. 00:01:15.372 --> 00:01:18.903 Uma das coisas que mais me preocupa no desenvolvimento da IA, neste ponto, 00:01:18.963 --> 00:01:23.296 é que parecemos incapazes de mobilizar uma resposta emocional apropriada 00:01:23.320 --> 00:01:25.236 para os perigos que nos esperam. 00:01:25.296 --> 00:01:28.778 Sou incapaz de conseguir esta resposta, e estou a fazer esta palestra. NOTE Paragraph 00:01:30.120 --> 00:01:32.706 É como se estivéssemos diante de duas portas. 00:01:32.840 --> 00:01:34.341 Atrás da porta número um, 00:01:34.365 --> 00:01:37.606 deixamos de fazer progressos na construção de máquinas inteligentes. 00:01:37.676 --> 00:01:41.819 O hardware e o software dos computadores deixam de melhorar, por alguma razão. 00:01:41.880 --> 00:01:44.961 Agora, pensem um momento na razão de isto poder acontecer. 00:01:45.080 --> 00:01:48.736 Ou seja, sendo a inteligência e a automação tão valiosas, 00:01:48.823 --> 00:01:52.480 vamos continuar a melhorar a tecnologia, se formos capazes disso. 00:01:53.200 --> 00:01:55.221 O que é que nos pode impedir de o fazer? 00:01:55.800 --> 00:01:57.863 Uma guerra nuclear a larga escala? 00:01:59.000 --> 00:02:00.860 Uma pandemia mundial? 00:02:02.320 --> 00:02:04.349 O impacto de um asteroide? 00:02:05.640 --> 00:02:08.479 Justin Bieber tornar-se presidente dos EUA? NOTE Paragraph 00:02:08.558 --> 00:02:11.183 (Risos) NOTE Paragraph 00:02:12.760 --> 00:02:16.916 A questão é, algo teria de destruir a civilização, tal como a conhecemos 00:02:17.696 --> 00:02:21.546 Temos que imaginar quão mau teria que ser 00:02:21.798 --> 00:02:24.961 para nos impedir de fazer melhoramentos na tecnologia 00:02:25.120 --> 00:02:26.456 de forma permanente, 00:02:26.507 --> 00:02:28.296 geração após geração. 00:02:28.474 --> 00:02:30.456 Quase por definição, isto é a pior coisa 00:02:30.480 --> 00:02:32.641 que já aconteceu na história da Humanidade. NOTE Paragraph 00:02:32.692 --> 00:02:34.161 Por isso, a única alternativa, 00:02:34.216 --> 00:02:36.339 — e é o que está detrás da porta dois — 00:02:36.390 --> 00:02:39.490 é que continuemos a melhorar as nossas máquinas inteligentes 00:02:39.532 --> 00:02:41.460 ano após ano após ano. 00:02:41.720 --> 00:02:45.778 A certa altura, iremos construir máquinas mais inteligentes que nós, 00:02:46.080 --> 00:02:48.696 e assim que tivermos máquinas mais inteligentes que nós, 00:02:48.720 --> 00:02:50.959 elas vão começar a melhorar-se a si mesmas. 00:02:51.027 --> 00:02:53.664 Então arriscamo-nos ao que o matemático I.J. Good chamou 00:02:53.734 --> 00:02:55.465 uma "explosão de inteligência," 00:02:55.516 --> 00:02:57.980 que o processo poderá sair das nossas mãos. NOTE Paragraph 00:02:58.120 --> 00:03:01.630 Isto é normalmente caricaturado, como vemos aqui, 00:03:01.141 --> 00:03:05.176 como o medo de que tropas de robôs malignos nos vão atacar. 00:03:05.480 --> 00:03:07.866 Mas este não é o cenário mais provável. 00:03:08.418 --> 00:03:12.783 As nossas máquinas não se tornarão espontaneamente maléficas. 00:03:13.198 --> 00:03:15.732 O problema é se construímos máquinas 00:03:15.774 --> 00:03:17.866 que são muito mais competentes que nós 00:03:17.918 --> 00:03:21.657 que à mínima divergência entre os seus objetivos e os nossos 00:03:21.709 --> 00:03:23.309 podem destruir-nos. NOTE Paragraph 00:03:23.960 --> 00:03:26.394 Basta pensar na nossa ligação às formigas. 00:03:26.600 --> 00:03:28.301 Não as odiamos. 00:03:28.380 --> 00:03:30.554 Não saímos do nosso caminho para as magoar. 00:03:30.605 --> 00:03:32.926 Até fazemos o necessário para não as magoar. 00:03:32.987 --> 00:03:34.894 Passamos por cima delas no passeio. 00:03:34.954 --> 00:03:36.963 Mas quando a sua presença 00:03:37.009 --> 00:03:39.510 representa um conflito com um dos nossos objetivos, 00:03:39.570 --> 00:03:42.102 digamos, quando construindo um edifício como este, 00:03:42.153 --> 00:03:44.368 eliminamo-las sem hesitação. 00:03:44.480 --> 00:03:47.552 O problema é que iremos um dia construir máquinas 00:03:47.603 --> 00:03:50.412 que, conscientes ou não, 00:03:50.463 --> 00:03:52.781 podem tratar-nos com o mesmo desprezo. NOTE Paragraph 00:03:54.105 --> 00:03:56.974 Suspeito que isto pareça exagerado para a maioria. 00:03:57.469 --> 00:04:03.696 Aposto que são os mesmos que duvidam da possibilidade duma IA superinteligente, 00:04:03.747 --> 00:04:05.412 e, mais ainda, inevitável. 00:04:05.536 --> 00:04:08.938 Então, devem encontrar algo de errado nas seguintes premissas. 00:04:09.325 --> 00:04:10.897 Só existem três. NOTE Paragraph 00:04:11.800 --> 00:04:15.201 A inteligência é uma questão de processamento de informação 00:04:15.247 --> 00:04:17.201 em sistemas físicos. 00:04:17.574 --> 00:04:19.816 Na verdade, isto é mais que uma premissa. 00:04:19.877 --> 00:04:23.497 Já construímos inteligência limitada nas nossas máquinas, 00:04:23.594 --> 00:04:25.692 e muitas dessas máquinas já funcionam 00:04:25.761 --> 00:04:28.620 a um nível de inteligência super-humana. 00:04:28.840 --> 00:04:31.416 Sabemos que mera matéria 00:04:31.476 --> 00:04:34.274 pode dar origem ao que chamamos "inteligência geral," 00:04:34.316 --> 00:04:37.645 a capacidade de pensar flexivelmente em múltiplos domínios, 00:04:37.841 --> 00:04:40.686 porque o nosso cérebros conseguiu isso. 00:04:41.165 --> 00:04:44.665 Quero dizer, aqui só há átomos. 00:04:45.080 --> 00:04:49.376 Enquanto continuamos a construir sistemas de átomos 00:04:49.400 --> 00:04:52.186 que demonstram cada vez mais um comportamento inteligente, 00:04:52.238 --> 00:04:54.928 acabaremos — a não ser que sejamos interrompidos — 00:04:54.998 --> 00:04:58.183 acabaremos por construir inteligência geral 00:04:58.234 --> 00:04:59.685 nas nossas máquinas. NOTE Paragraph 00:04:59.766 --> 00:05:03.920 É crucial entender que a velocidade do progresso não importa, 00:05:03.143 --> 00:05:06.628 pois qualquer progresso é suficiente para nos levar ao final. 00:05:06.689 --> 00:05:09.507 Não precisamos da Lei de Moore nem de progresso exponencial 00:05:09.507 --> 00:05:10.752 para continuar. 00:05:10.825 --> 00:05:12.789 Só precisamos de continuar. NOTE Paragraph 00:05:13.707 --> 00:05:16.790 A segunda premissa é que iremos continuar. 00:05:17.000 --> 00:05:20.178 Continuaremos a melhorar as nossas máquinas inteligentes. 00:05:21.118 --> 00:05:25.166 E devido ao valor da inteligência 00:05:25.318 --> 00:05:28.936 — quer dizer, inteligência ou é a fonte de tudo que valorizamos 00:05:29.140 --> 00:05:32.630 ou precisamos dela para salvaguardar tudo o que valorizamos. 00:05:32.132 --> 00:05:34.106 É o nosso recurso mais valioso. 00:05:34.194 --> 00:05:35.930 Por isso, queremos fazer isto. 00:05:35.990 --> 00:05:39.136 Temos problemas que queremos desesperadamente resolver. 00:05:39.196 --> 00:05:42.578 Queremos curar doenças como Alzheimer ou cancro. 00:05:43.169 --> 00:05:47.132 Queremos entender sistemas económicos e melhorar a nossa ciência climatérica. 00:05:47.174 --> 00:05:49.448 Por isso iremos fazê-lo, se conseguirmos, 00:05:49.545 --> 00:05:52.831 O comboio já saiu da estação, e não há travão para acionar. NOTE Paragraph 00:05:53.916 --> 00:05:58.772 Finalmente, não estamos num pico da inteligência, 00:05:59.360 --> 00:06:01.350 provavelmente, nem perto dela. 00:06:01.640 --> 00:06:03.536 E isto é a visão crucial. 00:06:03.560 --> 00:06:06.157 Isto é o que torna a nossa situação tão precária. 00:06:06.218 --> 00:06:10.494 Isto é o que torna tão incertas as nossas intuições de risco. NOTE Paragraph 00:06:11.320 --> 00:06:14.267 Agora, pensem na pessoa mais inteligente de sempre. 00:06:14.785 --> 00:06:18.056 Na lista de quase toda a gente está John von Neumann. 00:06:18.161 --> 00:06:21.552 A impressão que von Neumann deixou nas pessoas ao seu redor, 00:06:21.594 --> 00:06:25.168 incluindo os melhores matemáticos e físicos do seu tempo, 00:06:25.520 --> 00:06:27.456 está bem documentada. 00:06:27.670 --> 00:06:31.256 Se metade das histórias sobre ele são meio verdadeiras, 00:06:31.280 --> 00:06:32.477 não há dúvida 00:06:32.501 --> 00:06:35.276 que ele foi uma das pessoas mais inteligentes que existiu. 00:06:35.327 --> 00:06:38.920 Considerem o espetro da inteligência. 00:06:38.465 --> 00:06:40.339 Aqui temos John von Neumann. 00:06:41.560 --> 00:06:43.175 E aqui estamos nós. 00:06:44.120 --> 00:06:45.634 E aqui temos uma galinha. NOTE Paragraph 00:06:45.730 --> 00:06:47.230 (Risos) NOTE Paragraph 00:06:47.400 --> 00:06:48.925 Desculpem, uma galinha. NOTE Paragraph 00:06:49.120 --> 00:06:50.423 (Risos) NOTE Paragraph 00:06:50.529 --> 00:06:53.346 Não preciso de tornar esta palestra ainda mais deprimente. NOTE Paragraph 00:06:53.607 --> 00:06:55.634 (Risos) NOTE Paragraph 00:06:56.339 --> 00:07:00.016 Mas parece muito provável que o espetro da inteligência 00:07:00.850 --> 00:07:03.405 se alargue muito mais além do que imaginamos. 00:07:04.317 --> 00:07:06.814 Se construirmos máquinas mais inteligentes que nós, 00:07:07.120 --> 00:07:09.679 iremos muito provavelmente explorar este espetro 00:07:09.703 --> 00:07:11.559 de formas inimagináveis, 00:07:11.629 --> 00:07:14.403 e superar-nos em formas, que não imaginávamos. NOTE Paragraph 00:07:15.200 --> 00:07:19.272 É importante reconhecer que isto é verdade só por virtude da velocidade. 00:07:19.605 --> 00:07:24.430 Imaginem que construímos uma IA superinteligente 00:07:24.540 --> 00:07:28.132 que não é mais inteligente que uma equipa normal de investigadores 00:07:28.201 --> 00:07:30.790 de Stanford ou do MIT. 00:07:30.121 --> 00:07:33.297 Os circuitos eletrónicos funcionam um milhão de vezes mais depressa 00:07:33.340 --> 00:07:34.905 do que os circuitos bioquímicos, 00:07:34.938 --> 00:07:38.192 por isso essa máquina iria pensar um milhão de vezes mais rápido 00:07:38.210 --> 00:07:40.032 do que as mentes que a construíram. 00:07:40.095 --> 00:07:41.948 Pomo-la a funcionar durante uma semana, 00:07:41.980 --> 00:07:46.870 e ela irá realizar 20 000 anos de trabalho intelectual humano, 00:07:46.400 --> 00:07:48.523 semana após semana. 00:07:49.885 --> 00:07:52.990 Como podemos entender, e muito menos restringir, 00:07:53.060 --> 00:07:55.794 uma mente que faz tal progresso? NOTE Paragraph 00:07:56.840 --> 00:07:59.212 A outra coisa preocupante, honestamente... 00:07:59.254 --> 00:08:03.976 Imaginem o melhor cenário possível. 00:08:04.118 --> 00:08:08.176 Imaginem que chegamos ao "design" de uma IA superinteligente 00:08:08.200 --> 00:08:09.894 sem problemas de segurança. 00:08:09.954 --> 00:08:12.856 Temos o "design" perfeito na primeira tentativa. 00:08:12.998 --> 00:08:15.259 Seria como se nos tivessem dado um oráculo 00:08:15.301 --> 00:08:17.508 cujo comportamento seria o esperado. 00:08:18.479 --> 00:08:21.634 Esta máquina poderia ser a máquina perfeita para poupar trabalho. 00:08:21.680 --> 00:08:24.199 Poderia conceber a máquina para construir a máquina 00:08:24.260 --> 00:08:26.241 que pode fazer qualquer trabalho físico, 00:08:26.286 --> 00:08:27.794 usando energia solar, 00:08:27.854 --> 00:08:30.159 mais ou menos ao custo das matérias-primas. 00:08:30.374 --> 00:08:33.376 Estamos a falar do fim do trabalho duro humano 00:08:33.581 --> 00:08:36.954 Estamos também a falar do fim de maior parte do trabalho intelectual. NOTE Paragraph 00:08:37.200 --> 00:08:40.337 O que fariam macacos como nós nestas circunstâncias? 00:08:40.916 --> 00:08:45.214 Teríamos tempo para jogar ao disco, e dar massagens uns aos outros. 00:08:45.958 --> 00:08:48.832 Adicionem LSD e algumas escolhas duvidosas de roupa, 00:08:48.874 --> 00:08:51.368 e seria como o festival Burning Man por todo o mundo. NOTE Paragraph 00:08:51.447 --> 00:08:53.587 (Risos) NOTE Paragraph 00:08:54.629 --> 00:08:56.829 Isto até pode soar bem, 00:08:57.280 --> 00:08:59.801 mas questionem-se o que poderia aconteceu 00:08:59.861 --> 00:09:02.561 na nossa ordem atual económica e política? 00:09:02.603 --> 00:09:05.190 Parece que poderíamos testemunhar 00:09:05.610 --> 00:09:07.597 um nível de desigualdade de riqueza 00:09:07.658 --> 00:09:10.499 e desemprego como nunca vimos antes. 00:09:10.560 --> 00:09:13.390 Se não existir a vontade de colocar essa riqueza 00:09:13.100 --> 00:09:15.616 imediatamente ao serviço de toda a humanidade, 00:09:15.776 --> 00:09:19.783 alguns multimilionários poderiam figurar nas capas das nossas revistas de negócios 00:09:19.816 --> 00:09:22.560 enquanto o resto do mundo estaria à fome. NOTE Paragraph 00:09:22.320 --> 00:09:24.616 E o que fariam os russos ou os chineses 00:09:24.667 --> 00:09:27.510 se soubessem que alguma companhia em Silicon Valley 00:09:27.570 --> 00:09:30.206 estaria prestes a implementar uma IA superinteligente? 00:09:30.267 --> 00:09:32.805 Essa máquina seria capaz de fazer a guerra, 00:09:32.856 --> 00:09:35.226 terrestre ou cibernética, 00:09:35.314 --> 00:09:37.185 com um poder inédito. 00:09:38.120 --> 00:09:40.185 Isto é um cenário de "o vencedor leva tudo". 00:09:40.245 --> 00:09:43.245 Estar seis meses adiantado nesta competição 00:09:43.305 --> 00:09:46.720 é como estar 500 000 anos adiantado, 00:09:46.123 --> 00:09:47.456 no mínimo. 00:09:47.780 --> 00:09:52.216 Parece que os meros rumores deste tipo de inovação 00:09:52.240 --> 00:09:54.779 poderiam descontrolar a nossa espécie. NOTE Paragraph 00:09:55.149 --> 00:09:57.599 Uma das coisas mais assustadoras, 00:09:57.678 --> 00:10:00.336 na minha perspetiva, neste momento, 00:10:00.432 --> 00:10:04.774 são o tipo de coisas que os investigadores da IA dizem 00:10:04.870 --> 00:10:06.749 quando querem tranquilizar-nos. 00:10:07.381 --> 00:10:10.592 O motivo mais comum que invocam para não nos preocuparmos é o tempo. 00:10:10.680 --> 00:10:12.717 "Não sabem que isto ainda vem longe? 00:10:12.778 --> 00:10:15.418 "Só daqui a 50 ou 100 anos". 00:10:15.720 --> 00:10:17.121 Um investigador disse: 00:10:17.181 --> 00:10:18.976 "Preocupar-se com a segurança da IA 00:10:19.115 --> 00:10:21.943 "é como preocupar-se com o excesso de população em Marte." 00:10:22.116 --> 00:10:23.899 Esta é a versão de Silicon Valley 00:10:23.969 --> 00:10:26.136 de "não preocupem a vossa cabeça com isto." NOTE Paragraph 00:10:26.214 --> 00:10:27.496 (Risos) NOTE Paragraph 00:10:27.647 --> 00:10:29.425 Ninguém parece notar 00:10:29.485 --> 00:10:32.920 que mencionar o horizonte do tempo 00:10:32.180 --> 00:10:34.656 é um total "não se segue". 00:10:34.716 --> 00:10:38.108 Se a inteligência é apenas uma questão de processamento de informação, 00:10:38.169 --> 00:10:40.761 e continuarmos a melhorar as nossas máquinas, 00:10:40.812 --> 00:10:43.938 iremos produzir alguma forma de superinteligência. 00:10:44.420 --> 00:10:48.076 Não fazemos ideia quanto tempo iremos demorar 00:10:48.136 --> 00:10:50.927 a criar as condições para o fazer em segurança. 00:10:52.200 --> 00:10:53.650 Vou repetir. 00:10:53.720 --> 00:10:57.381 Não sabemos quanto tempo vamos demorar 00:10:57.441 --> 00:11:00.163 para criar as condições para fazê-lo em segurança. NOTE Paragraph 00:11:00.920 --> 00:11:04.376 Se ainda não repararam, 50 anos não é o que era dantes. 00:11:04.536 --> 00:11:06.956 Isto são 50 anos em meses. 00:11:07.250 --> 00:11:09.920 Isto é o tempo desde que temos o iPhone. 00:11:09.440 --> 00:11:12.403 Isto é o tempo em que "Os Simpsons" têm estado na TV. 00:11:12.680 --> 00:11:15.156 50 anos não é assim tanto tempo 00:11:15.207 --> 00:11:18.967 para ir de encontro aos maiores desafios que a nossa espécie irá enfrentar. 00:11:19.640 --> 00:11:23.719 Mais uma vez, parecemos estar a falhar em ter uma resposta emocional apropriada 00:11:23.770 --> 00:11:26.376 para o que acreditamos que está para vir. NOTE Paragraph 00:11:26.509 --> 00:11:30.512 O cientista informático Stuart Russell tem uma boa analogia para isto. 00:11:30.627 --> 00:11:35.105 Disse: "Imaginem que recebemos uma mensagem de uma civilização alienígena, 00:11:35.320 --> 00:11:36.825 "que diz: 00:11:37.140 --> 00:11:38.803 " 'Habitantes da Terra, 00:11:38.845 --> 00:11:41.441 " vamos chegar ao vosso planeta dentro de 50 anos. 00:11:41.800 --> 00:11:43.376 " 'Preparem-se'." 00:11:43.627 --> 00:11:47.201 Vamos contar os meses até a nave-mãe aterrar? 00:11:47.816 --> 00:11:50.943 Sentiríamos mais urgência do que o habitual. NOTE Paragraph 00:11:52.543 --> 00:11:54.963 Outro motivo que nos dão para não nos preocuparmos 00:11:55.127 --> 00:11:57.812 é que estas máquinas vão partilhar os nossos valores 00:11:57.853 --> 00:12:00.288 pois serão literalmente extensões de nós próprios. 00:12:00.385 --> 00:12:02.346 Serão implantadas no nosso cérebro, 00:12:02.410 --> 00:12:04.767 e seremos os seus sistemas límbicos. 00:12:05.120 --> 00:12:06.736 Parem um momento para considerar 00:12:06.790 --> 00:12:09.736 que o caminho mais prudente e seguro, 00:12:09.760 --> 00:12:11.386 o caminho recomendado, 00:12:11.429 --> 00:12:14.483 é implantar esta tecnologia diretamente no nosso cérebro. 00:12:14.600 --> 00:12:17.976 Isso poderá de facto ser o caminho mais prudente e seguro, 00:12:18.354 --> 00:12:21.146 mas normalmente as questões de segurança de uma tecnologia 00:12:21.189 --> 00:12:24.881 devem estar bem trabalhadas antes de serem enfiadas na nossa cabeça. NOTE Paragraph 00:12:24.941 --> 00:12:26.666 (Risos) NOTE Paragraph 00:12:26.954 --> 00:12:32.136 O maior problema é que construir IA superinteligente, por si só, 00:12:32.160 --> 00:12:33.923 parece ser mais fácil 00:12:33.965 --> 00:12:35.948 do que construir IA superinteligente 00:12:36.000 --> 00:12:37.939 e ter a neurociência completa 00:12:38.000 --> 00:12:40.961 que nos permita integrar facilmente as nossas mentes com isso. 00:12:41.228 --> 00:12:44.211 Sabendo que as companhias e os governos que fazem este trabalho 00:12:44.253 --> 00:12:47.656 provavelmente se consideram numa corrida contra todos os outros, 00:12:47.734 --> 00:12:50.763 sendo que ganhar esta corrida, é ganhar o mundo, 00:12:50.960 --> 00:12:53.416 desde que não o destruam logo a seguir, 00:12:53.530 --> 00:12:56.237 então é evidente que o que for mais fácil 00:12:56.316 --> 00:12:58.125 será o primeiro a ser feito. NOTE Paragraph 00:12:58.560 --> 00:13:01.252 Infelizmente, não tenho a solução para este problema, 00:13:01.440 --> 00:13:03.828 apenas posso recomendar que pensemos mais nisto. 00:13:03.889 --> 00:13:06.456 Acho que precisamos de algo como o Projeto Manhattan 00:13:06.480 --> 00:13:08.677 no tópico da inteligência artificial. 00:13:08.738 --> 00:13:11.455 Não para a construir —acho que o faremos inevitavelmente — 00:13:11.525 --> 00:13:14.616 mas para compreender como evitar uma corrida ao armamento 00:13:14.658 --> 00:13:18.540 e para a construir de forma a estar alinhada com os nossos interesses. 00:13:18.160 --> 00:13:20.296 Quando falamos na IA superinteligente 00:13:20.320 --> 00:13:22.576 que pode alterar-se a si mesma, 00:13:22.618 --> 00:13:24.676 parece que só temos uma hipótese 00:13:24.758 --> 00:13:27.303 para conseguir as condições iniciais corretas, 00:13:27.376 --> 00:13:29.732 e mesmo assim precisaremos de absorver 00:13:29.810 --> 00:13:32.932 as consequências económicas e politicas para conseguir tal. NOTE Paragraph 00:13:33.760 --> 00:13:35.970 Mas a partir do momento em que admitirmos 00:13:36.210 --> 00:13:40.221 que o processamento de informação é a fonte de inteligência, 00:13:40.720 --> 00:13:45.629 que algum sistema informático apropriado é a base de inteligência, 00:13:46.360 --> 00:13:50.447 e admitirmos que iremos melhorar estes sistemas de forma contínua, 00:13:51.280 --> 00:13:54.108 e admitirmos que o horizonte da cognição 00:13:54.141 --> 00:13:57.350 provavelmente ultrapassa o que conhecemos agora, 00:13:58.120 --> 00:13:59.781 então temos de admitir 00:13:59.814 --> 00:14:02.563 que estamos no processo de construir uma espécie de deus. 00:14:03.424 --> 00:14:05.790 Agora seria uma boa altura de certificarmo-nos 00:14:05.854 --> 00:14:07.880 que seja um deus com quem queremos viver. NOTE Paragraph 00:14:08.120 --> 00:14:09.510 Muito obrigado. NOTE Paragraph 00:14:09.680 --> 00:14:12.791 (Aplausos)