1 00:00:01,000 --> 00:00:03,488 Eu vou falar de uma falha de intuição 2 00:00:03,540 --> 00:00:05,367 de que muitos de nós sofremos. 3 00:00:05,480 --> 00:00:08,947 É uma falha em detetar um certo tipo de perigo. 4 00:00:09,360 --> 00:00:11,368 Vou descrever um cenário 5 00:00:11,438 --> 00:00:14,566 que considero tão aterrador 6 00:00:14,627 --> 00:00:16,660 como provável de acontecer. 7 00:00:16,903 --> 00:00:19,668 Acontece que isto não é uma boa combinação. 8 00:00:20,080 --> 00:00:21,835 No entanto, em vez de assustados, 9 00:00:21,878 --> 00:00:24,885 a maioria de vocês acha que aquilo de que estou a falar é fixe. 10 00:00:25,472 --> 00:00:28,257 Eu vou descrever como as vantagens obtidas 11 00:00:28,327 --> 00:00:30,176 com a inteligência artificial 12 00:00:30,227 --> 00:00:32,660 podem acabar por nos destruir. 13 00:00:32,118 --> 00:00:35,110 Penso que é muito difícil ver como não nos vão destruir 14 00:00:35,152 --> 00:00:37,378 ou inspirar a destruirmo-nos a nós mesmos. 15 00:00:37,563 --> 00:00:39,510 Mas se vocês forem minimamente como eu, 16 00:00:39,552 --> 00:00:42,590 vão descobrir que é divertido pensar nestas coisas. 17 00:00:42,195 --> 00:00:45,336 Essa resposta faz parte do problema. 18 00:00:45,505 --> 00:00:47,698 Essa resposta devia preocupar-vos. 19 00:00:47,920 --> 00:00:50,512 Se eu vos convencesse nesta palestra 20 00:00:50,600 --> 00:00:53,952 que vamos, provavelmente, sofrer uma fome mundial, 21 00:00:54,040 --> 00:00:57,223 devido à mudança climática ou devido a alguma outra catástrofe, 22 00:00:57,274 --> 00:01:00,508 e que os vossos netos, ou os netos deles, 23 00:01:00,705 --> 00:01:03,140 têm a probabilidade de viver assim, 24 00:01:03,200 --> 00:01:04,745 não pensariam: 25 00:01:05,440 --> 00:01:06,957 "Que interessante. 26 00:01:07,360 --> 00:01:08,727 "Gosto desta palestra TED." 27 00:01:09,545 --> 00:01:11,429 A fome não tem graça. 28 00:01:11,800 --> 00:01:14,709 Mas a morte pela ficção científica é divertida. 29 00:01:15,372 --> 00:01:18,903 Uma das coisas que mais me preocupa no desenvolvimento da IA, neste ponto, 30 00:01:18,963 --> 00:01:23,296 é que parecemos incapazes de mobilizar uma resposta emocional apropriada 31 00:01:23,320 --> 00:01:25,236 para os perigos que nos esperam. 32 00:01:25,296 --> 00:01:28,778 Sou incapaz de conseguir esta resposta, e estou a fazer esta palestra. 33 00:01:30,120 --> 00:01:32,706 É como se estivéssemos diante de duas portas. 34 00:01:32,840 --> 00:01:34,341 Atrás da porta número um, 35 00:01:34,365 --> 00:01:37,606 deixamos de fazer progressos na construção de máquinas inteligentes. 36 00:01:37,676 --> 00:01:41,819 O hardware e o software dos computadores deixam de melhorar, por alguma razão. 37 00:01:41,880 --> 00:01:44,961 Agora, pensem um momento na razão de isto poder acontecer. 38 00:01:45,080 --> 00:01:48,736 Ou seja, sendo a inteligência e a automação tão valiosas, 39 00:01:48,823 --> 00:01:52,480 vamos continuar a melhorar a tecnologia, se formos capazes disso. 40 00:01:53,200 --> 00:01:55,221 O que é que nos pode impedir de o fazer? 41 00:01:55,800 --> 00:01:57,863 Uma guerra nuclear a larga escala? 42 00:01:59,000 --> 00:02:00,860 Uma pandemia mundial? 43 00:02:02,320 --> 00:02:04,349 O impacto de um asteroide? 44 00:02:05,640 --> 00:02:08,479 Justin Bieber tornar-se presidente dos EUA? 45 00:02:08,558 --> 00:02:11,183 (Risos) 46 00:02:12,760 --> 00:02:16,916 A questão é, algo teria de destruir a civilização, tal como a conhecemos 47 00:02:17,696 --> 00:02:21,546 Temos que imaginar quão mau teria que ser 48 00:02:21,798 --> 00:02:24,961 para nos impedir de fazer melhoramentos na tecnologia 49 00:02:25,120 --> 00:02:26,456 de forma permanente, 50 00:02:26,507 --> 00:02:28,296 geração após geração. 51 00:02:28,474 --> 00:02:30,456 Quase por definição, isto é a pior coisa 52 00:02:30,480 --> 00:02:32,641 que já aconteceu na história da Humanidade. 53 00:02:32,692 --> 00:02:34,161 Por isso, a única alternativa, 54 00:02:34,216 --> 00:02:36,339 — e é o que está detrás da porta dois — 55 00:02:36,390 --> 00:02:39,490 é que continuemos a melhorar as nossas máquinas inteligentes 56 00:02:39,532 --> 00:02:41,460 ano após ano após ano. 57 00:02:41,720 --> 00:02:45,778 A certa altura, iremos construir máquinas mais inteligentes que nós, 58 00:02:46,080 --> 00:02:48,696 e assim que tivermos máquinas mais inteligentes que nós, 59 00:02:48,720 --> 00:02:50,959 elas vão começar a melhorar-se a si mesmas. 60 00:02:51,027 --> 00:02:53,664 Então arriscamo-nos ao que o matemático I.J. Good chamou 61 00:02:53,734 --> 00:02:55,465 uma "explosão de inteligência," 62 00:02:55,516 --> 00:02:57,980 que o processo poderá sair das nossas mãos. 63 00:02:58,120 --> 00:03:01,630 Isto é normalmente caricaturado, como vemos aqui, 64 00:03:01,141 --> 00:03:05,176 como o medo de que tropas de robôs malignos nos vão atacar. 65 00:03:05,480 --> 00:03:07,866 Mas este não é o cenário mais provável. 66 00:03:08,418 --> 00:03:12,783 As nossas máquinas não se tornarão espontaneamente maléficas. 67 00:03:13,198 --> 00:03:15,732 O problema é se construímos máquinas 68 00:03:15,774 --> 00:03:17,866 que são muito mais competentes que nós 69 00:03:17,918 --> 00:03:21,657 que à mínima divergência entre os seus objetivos e os nossos 70 00:03:21,709 --> 00:03:23,309 podem destruir-nos. 71 00:03:23,960 --> 00:03:26,394 Basta pensar na nossa ligação às formigas. 72 00:03:26,600 --> 00:03:28,301 Não as odiamos. 73 00:03:28,380 --> 00:03:30,554 Não saímos do nosso caminho para as magoar. 74 00:03:30,605 --> 00:03:32,926 Até fazemos o necessário para não as magoar. 75 00:03:32,987 --> 00:03:34,894 Passamos por cima delas no passeio. 76 00:03:34,954 --> 00:03:36,963 Mas quando a sua presença 77 00:03:37,009 --> 00:03:39,510 representa um conflito com um dos nossos objetivos, 78 00:03:39,570 --> 00:03:42,102 digamos, quando construindo um edifício como este, 79 00:03:42,153 --> 00:03:44,368 eliminamo-las sem hesitação. 80 00:03:44,480 --> 00:03:47,552 O problema é que iremos um dia construir máquinas 81 00:03:47,603 --> 00:03:50,412 que, conscientes ou não, 82 00:03:50,463 --> 00:03:52,781 podem tratar-nos com o mesmo desprezo. 83 00:03:54,105 --> 00:03:56,974 Suspeito que isto pareça exagerado para a maioria. 84 00:03:57,469 --> 00:04:03,696 Aposto que são os mesmos que duvidam da possibilidade duma IA superinteligente, 85 00:04:03,747 --> 00:04:05,412 e, mais ainda, inevitável. 86 00:04:05,536 --> 00:04:08,938 Então, devem encontrar algo de errado nas seguintes premissas. 87 00:04:09,325 --> 00:04:10,897 Só existem três. 88 00:04:11,800 --> 00:04:15,201 A inteligência é uma questão de processamento de informação 89 00:04:15,247 --> 00:04:17,201 em sistemas físicos. 90 00:04:17,574 --> 00:04:19,816 Na verdade, isto é mais que uma premissa. 91 00:04:19,877 --> 00:04:23,497 Já construímos inteligência limitada nas nossas máquinas, 92 00:04:23,594 --> 00:04:25,692 e muitas dessas máquinas já funcionam 93 00:04:25,761 --> 00:04:28,620 a um nível de inteligência super-humana. 94 00:04:28,840 --> 00:04:31,416 Sabemos que mera matéria 95 00:04:31,476 --> 00:04:34,274 pode dar origem ao que chamamos "inteligência geral," 96 00:04:34,316 --> 00:04:37,645 a capacidade de pensar flexivelmente em múltiplos domínios, 97 00:04:37,841 --> 00:04:40,686 porque o nosso cérebros conseguiu isso. 98 00:04:41,165 --> 00:04:44,665 Quero dizer, aqui só há átomos. 99 00:04:45,080 --> 00:04:49,376 Enquanto continuamos a construir sistemas de átomos 100 00:04:49,400 --> 00:04:52,186 que demonstram cada vez mais um comportamento inteligente, 101 00:04:52,238 --> 00:04:54,928 acabaremos — a não ser que sejamos interrompidos — 102 00:04:54,998 --> 00:04:58,183 acabaremos por construir inteligência geral 103 00:04:58,234 --> 00:04:59,685 nas nossas máquinas. 104 00:04:59,766 --> 00:05:03,920 É crucial entender que a velocidade do progresso não importa, 105 00:05:03,143 --> 00:05:06,628 pois qualquer progresso é suficiente para nos levar ao final. 106 00:05:06,689 --> 00:05:09,507 Não precisamos da Lei de Moore nem de progresso exponencial 107 00:05:09,507 --> 00:05:10,752 para continuar. 108 00:05:10,825 --> 00:05:12,789 Só precisamos de continuar. 109 00:05:13,707 --> 00:05:16,790 A segunda premissa é que iremos continuar. 110 00:05:17,000 --> 00:05:20,178 Continuaremos a melhorar as nossas máquinas inteligentes. 111 00:05:21,118 --> 00:05:25,166 E devido ao valor da inteligência 112 00:05:25,318 --> 00:05:28,936 — quer dizer, inteligência ou é a fonte de tudo que valorizamos 113 00:05:29,140 --> 00:05:32,630 ou precisamos dela para salvaguardar tudo o que valorizamos. 114 00:05:32,132 --> 00:05:34,106 É o nosso recurso mais valioso. 115 00:05:34,194 --> 00:05:35,930 Por isso, queremos fazer isto. 116 00:05:35,990 --> 00:05:39,136 Temos problemas que queremos desesperadamente resolver. 117 00:05:39,196 --> 00:05:42,578 Queremos curar doenças como Alzheimer ou cancro. 118 00:05:43,169 --> 00:05:47,132 Queremos entender sistemas económicos e melhorar a nossa ciência climatérica. 119 00:05:47,174 --> 00:05:49,448 Por isso iremos fazê-lo, se conseguirmos, 120 00:05:49,545 --> 00:05:52,831 O comboio já saiu da estação, e não há travão para acionar. 121 00:05:53,916 --> 00:05:58,772 Finalmente, não estamos num pico da inteligência, 122 00:05:59,360 --> 00:06:01,350 provavelmente, nem perto dela. 123 00:06:01,640 --> 00:06:03,536 E isto é a visão crucial. 124 00:06:03,560 --> 00:06:06,157 Isto é o que torna a nossa situação tão precária. 125 00:06:06,218 --> 00:06:10,494 Isto é o que torna tão incertas as nossas intuições de risco. 126 00:06:11,320 --> 00:06:14,267 Agora, pensem na pessoa mais inteligente de sempre. 127 00:06:14,785 --> 00:06:18,056 Na lista de quase toda a gente está John von Neumann. 128 00:06:18,161 --> 00:06:21,552 A impressão que von Neumann deixou nas pessoas ao seu redor, 129 00:06:21,594 --> 00:06:25,168 incluindo os melhores matemáticos e físicos do seu tempo, 130 00:06:25,520 --> 00:06:27,456 está bem documentada. 131 00:06:27,670 --> 00:06:31,256 Se metade das histórias sobre ele são meio verdadeiras, 132 00:06:31,280 --> 00:06:32,477 não há dúvida 133 00:06:32,501 --> 00:06:35,276 que ele foi uma das pessoas mais inteligentes que existiu. 134 00:06:35,327 --> 00:06:38,920 Considerem o espetro da inteligência. 135 00:06:38,465 --> 00:06:40,339 Aqui temos John von Neumann. 136 00:06:41,560 --> 00:06:43,175 E aqui estamos nós. 137 00:06:44,120 --> 00:06:45,634 E aqui temos uma galinha. 138 00:06:45,730 --> 00:06:47,230 (Risos) 139 00:06:47,400 --> 00:06:48,925 Desculpem, uma galinha. 140 00:06:49,120 --> 00:06:50,423 (Risos) 141 00:06:50,529 --> 00:06:53,346 Não preciso de tornar esta palestra ainda mais deprimente. 142 00:06:53,607 --> 00:06:55,634 (Risos) 143 00:06:56,339 --> 00:07:00,016 Mas parece muito provável que o espetro da inteligência 144 00:07:00,850 --> 00:07:03,405 se alargue muito mais além do que imaginamos. 145 00:07:04,317 --> 00:07:06,814 Se construirmos máquinas mais inteligentes que nós, 146 00:07:07,120 --> 00:07:09,679 iremos muito provavelmente explorar este espetro 147 00:07:09,703 --> 00:07:11,559 de formas inimagináveis, 148 00:07:11,629 --> 00:07:14,403 e superar-nos em formas, que não imaginávamos. 149 00:07:15,200 --> 00:07:19,272 É importante reconhecer que isto é verdade só por virtude da velocidade. 150 00:07:19,605 --> 00:07:24,430 Imaginem que construímos uma IA superinteligente 151 00:07:24,540 --> 00:07:28,132 que não é mais inteligente que uma equipa normal de investigadores 152 00:07:28,201 --> 00:07:30,790 de Stanford ou do MIT. 153 00:07:30,121 --> 00:07:33,297 Os circuitos eletrónicos funcionam um milhão de vezes mais depressa 154 00:07:33,340 --> 00:07:34,905 do que os circuitos bioquímicos, 155 00:07:34,938 --> 00:07:38,192 por isso essa máquina iria pensar um milhão de vezes mais rápido 156 00:07:38,210 --> 00:07:40,032 do que as mentes que a construíram. 157 00:07:40,095 --> 00:07:41,948 Pomo-la a funcionar durante uma semana, 158 00:07:41,980 --> 00:07:46,870 e ela irá realizar 20 000 anos de trabalho intelectual humano, 159 00:07:46,400 --> 00:07:48,523 semana após semana. 160 00:07:49,885 --> 00:07:52,990 Como podemos entender, e muito menos restringir, 161 00:07:53,060 --> 00:07:55,794 uma mente que faz tal progresso? 162 00:07:56,840 --> 00:07:59,212 A outra coisa preocupante, honestamente... 163 00:07:59,254 --> 00:08:03,976 Imaginem o melhor cenário possível. 164 00:08:04,118 --> 00:08:08,176 Imaginem que chegamos ao "design" de uma IA superinteligente 165 00:08:08,200 --> 00:08:09,894 sem problemas de segurança. 166 00:08:09,954 --> 00:08:12,856 Temos o "design" perfeito na primeira tentativa. 167 00:08:12,998 --> 00:08:15,259 Seria como se nos tivessem dado um oráculo 168 00:08:15,301 --> 00:08:17,508 cujo comportamento seria o esperado. 169 00:08:18,479 --> 00:08:21,634 Esta máquina poderia ser a máquina perfeita para poupar trabalho. 170 00:08:21,680 --> 00:08:24,199 Poderia conceber a máquina para construir a máquina 171 00:08:24,260 --> 00:08:26,241 que pode fazer qualquer trabalho físico, 172 00:08:26,286 --> 00:08:27,794 usando energia solar, 173 00:08:27,854 --> 00:08:30,159 mais ou menos ao custo das matérias-primas. 174 00:08:30,374 --> 00:08:33,376 Estamos a falar do fim do trabalho duro humano 175 00:08:33,581 --> 00:08:36,954 Estamos também a falar do fim de maior parte do trabalho intelectual. 176 00:08:37,200 --> 00:08:40,337 O que fariam macacos como nós nestas circunstâncias? 177 00:08:40,916 --> 00:08:45,214 Teríamos tempo para jogar ao disco, e dar massagens uns aos outros. 178 00:08:45,958 --> 00:08:48,832 Adicionem LSD e algumas escolhas duvidosas de roupa, 179 00:08:48,874 --> 00:08:51,368 e seria como o festival Burning Man por todo o mundo. 180 00:08:51,447 --> 00:08:53,587 (Risos) 181 00:08:54,629 --> 00:08:56,829 Isto até pode soar bem, 182 00:08:57,280 --> 00:08:59,801 mas questionem-se o que poderia aconteceu 183 00:08:59,861 --> 00:09:02,561 na nossa ordem atual económica e política? 184 00:09:02,603 --> 00:09:05,190 Parece que poderíamos testemunhar 185 00:09:05,610 --> 00:09:07,597 um nível de desigualdade de riqueza 186 00:09:07,658 --> 00:09:10,499 e desemprego como nunca vimos antes. 187 00:09:10,560 --> 00:09:13,390 Se não existir a vontade de colocar essa riqueza 188 00:09:13,100 --> 00:09:15,616 imediatamente ao serviço de toda a humanidade, 189 00:09:15,776 --> 00:09:19,783 alguns multimilionários poderiam figurar nas capas das nossas revistas de negócios 190 00:09:19,816 --> 00:09:22,560 enquanto o resto do mundo estaria à fome. 191 00:09:22,320 --> 00:09:24,616 E o que fariam os russos ou os chineses 192 00:09:24,667 --> 00:09:27,510 se soubessem que alguma companhia em Silicon Valley 193 00:09:27,570 --> 00:09:30,206 estaria prestes a implementar uma IA superinteligente? 194 00:09:30,267 --> 00:09:32,805 Essa máquina seria capaz de fazer a guerra, 195 00:09:32,856 --> 00:09:35,226 terrestre ou cibernética, 196 00:09:35,314 --> 00:09:37,185 com um poder inédito. 197 00:09:38,120 --> 00:09:40,185 Isto é um cenário de "o vencedor leva tudo". 198 00:09:40,245 --> 00:09:43,245 Estar seis meses adiantado nesta competição 199 00:09:43,305 --> 00:09:46,720 é como estar 500 000 anos adiantado, 200 00:09:46,123 --> 00:09:47,456 no mínimo. 201 00:09:47,780 --> 00:09:52,216 Parece que os meros rumores deste tipo de inovação 202 00:09:52,240 --> 00:09:54,779 poderiam descontrolar a nossa espécie. 203 00:09:55,149 --> 00:09:57,599 Uma das coisas mais assustadoras, 204 00:09:57,678 --> 00:10:00,336 na minha perspetiva, neste momento, 205 00:10:00,432 --> 00:10:04,774 são o tipo de coisas que os investigadores da IA dizem 206 00:10:04,870 --> 00:10:06,749 quando querem tranquilizar-nos. 207 00:10:07,381 --> 00:10:10,592 O motivo mais comum que invocam para não nos preocuparmos é o tempo. 208 00:10:10,680 --> 00:10:12,717 "Não sabem que isto ainda vem longe? 209 00:10:12,778 --> 00:10:15,418 "Só daqui a 50 ou 100 anos". 210 00:10:15,720 --> 00:10:17,121 Um investigador disse: 211 00:10:17,181 --> 00:10:18,976 "Preocupar-se com a segurança da IA 212 00:10:19,115 --> 00:10:21,943 "é como preocupar-se com o excesso de população em Marte." 213 00:10:22,116 --> 00:10:23,899 Esta é a versão de Silicon Valley 214 00:10:23,969 --> 00:10:26,136 de "não preocupem a vossa cabeça com isto." 215 00:10:26,214 --> 00:10:27,496 (Risos) 216 00:10:27,647 --> 00:10:29,425 Ninguém parece notar 217 00:10:29,485 --> 00:10:32,920 que mencionar o horizonte do tempo 218 00:10:32,180 --> 00:10:34,656 é um total "não se segue". 219 00:10:34,716 --> 00:10:38,108 Se a inteligência é apenas uma questão de processamento de informação, 220 00:10:38,169 --> 00:10:40,761 e continuarmos a melhorar as nossas máquinas, 221 00:10:40,812 --> 00:10:43,938 iremos produzir alguma forma de superinteligência. 222 00:10:44,420 --> 00:10:48,076 Não fazemos ideia quanto tempo iremos demorar 223 00:10:48,136 --> 00:10:50,927 a criar as condições para o fazer em segurança. 224 00:10:52,200 --> 00:10:53,650 Vou repetir. 225 00:10:53,720 --> 00:10:57,381 Não sabemos quanto tempo vamos demorar 226 00:10:57,441 --> 00:11:00,163 para criar as condições para fazê-lo em segurança. 227 00:11:00,920 --> 00:11:04,376 Se ainda não repararam, 50 anos não é o que era dantes. 228 00:11:04,536 --> 00:11:06,956 Isto são 50 anos em meses. 229 00:11:07,250 --> 00:11:09,920 Isto é o tempo desde que temos o iPhone. 230 00:11:09,440 --> 00:11:12,403 Isto é o tempo em que "Os Simpsons" têm estado na TV. 231 00:11:12,680 --> 00:11:15,156 50 anos não é assim tanto tempo 232 00:11:15,207 --> 00:11:18,967 para ir de encontro aos maiores desafios que a nossa espécie irá enfrentar. 233 00:11:19,640 --> 00:11:23,719 Mais uma vez, parecemos estar a falhar em ter uma resposta emocional apropriada 234 00:11:23,770 --> 00:11:26,376 para o que acreditamos que está para vir. 235 00:11:26,509 --> 00:11:30,512 O cientista informático Stuart Russell tem uma boa analogia para isto. 236 00:11:30,627 --> 00:11:35,105 Disse: "Imaginem que recebemos uma mensagem de uma civilização alienígena, 237 00:11:35,320 --> 00:11:36,825 "que diz: 238 00:11:37,140 --> 00:11:38,803 " 'Habitantes da Terra, 239 00:11:38,845 --> 00:11:41,441 " vamos chegar ao vosso planeta dentro de 50 anos. 240 00:11:41,800 --> 00:11:43,376 " 'Preparem-se'." 241 00:11:43,627 --> 00:11:47,201 Vamos contar os meses até a nave-mãe aterrar? 242 00:11:47,816 --> 00:11:50,943 Sentiríamos mais urgência do que o habitual. 243 00:11:52,543 --> 00:11:54,963 Outro motivo que nos dão para não nos preocuparmos 244 00:11:55,127 --> 00:11:57,812 é que estas máquinas vão partilhar os nossos valores 245 00:11:57,853 --> 00:12:00,288 pois serão literalmente extensões de nós próprios. 246 00:12:00,385 --> 00:12:02,346 Serão implantadas no nosso cérebro, 247 00:12:02,410 --> 00:12:04,767 e seremos os seus sistemas límbicos. 248 00:12:05,120 --> 00:12:06,736 Parem um momento para considerar 249 00:12:06,790 --> 00:12:09,736 que o caminho mais prudente e seguro, 250 00:12:09,760 --> 00:12:11,386 o caminho recomendado, 251 00:12:11,429 --> 00:12:14,483 é implantar esta tecnologia diretamente no nosso cérebro. 252 00:12:14,600 --> 00:12:17,976 Isso poderá de facto ser o caminho mais prudente e seguro, 253 00:12:18,354 --> 00:12:21,146 mas normalmente as questões de segurança de uma tecnologia 254 00:12:21,189 --> 00:12:24,881 devem estar bem trabalhadas antes de serem enfiadas na nossa cabeça. 255 00:12:24,941 --> 00:12:26,666 (Risos) 256 00:12:26,954 --> 00:12:32,136 O maior problema é que construir IA superinteligente, por si só, 257 00:12:32,160 --> 00:12:33,923 parece ser mais fácil 258 00:12:33,965 --> 00:12:35,948 do que construir IA superinteligente 259 00:12:36,000 --> 00:12:37,939 e ter a neurociência completa 260 00:12:38,000 --> 00:12:40,961 que nos permita integrar facilmente as nossas mentes com isso. 261 00:12:41,228 --> 00:12:44,211 Sabendo que as companhias e os governos que fazem este trabalho 262 00:12:44,253 --> 00:12:47,656 provavelmente se consideram numa corrida contra todos os outros, 263 00:12:47,734 --> 00:12:50,763 sendo que ganhar esta corrida, é ganhar o mundo, 264 00:12:50,960 --> 00:12:53,416 desde que não o destruam logo a seguir, 265 00:12:53,530 --> 00:12:56,237 então é evidente que o que for mais fácil 266 00:12:56,316 --> 00:12:58,125 será o primeiro a ser feito. 267 00:12:58,560 --> 00:13:01,252 Infelizmente, não tenho a solução para este problema, 268 00:13:01,440 --> 00:13:03,828 apenas posso recomendar que pensemos mais nisto. 269 00:13:03,889 --> 00:13:06,456 Acho que precisamos de algo como o Projeto Manhattan 270 00:13:06,480 --> 00:13:08,677 no tópico da inteligência artificial. 271 00:13:08,738 --> 00:13:11,455 Não para a construir —acho que o faremos inevitavelmente — 272 00:13:11,525 --> 00:13:14,616 mas para compreender como evitar uma corrida ao armamento 273 00:13:14,658 --> 00:13:18,540 e para a construir de forma a estar alinhada com os nossos interesses. 274 00:13:18,160 --> 00:13:20,296 Quando falamos na IA superinteligente 275 00:13:20,320 --> 00:13:22,576 que pode alterar-se a si mesma, 276 00:13:22,618 --> 00:13:24,676 parece que só temos uma hipótese 277 00:13:24,758 --> 00:13:27,303 para conseguir as condições iniciais corretas, 278 00:13:27,376 --> 00:13:29,732 e mesmo assim precisaremos de absorver 279 00:13:29,810 --> 00:13:32,932 as consequências económicas e politicas para conseguir tal. 280 00:13:33,760 --> 00:13:35,970 Mas a partir do momento em que admitirmos 281 00:13:36,210 --> 00:13:40,221 que o processamento de informação é a fonte de inteligência, 282 00:13:40,720 --> 00:13:45,629 que algum sistema informático apropriado é a base de inteligência, 283 00:13:46,360 --> 00:13:50,447 e admitirmos que iremos melhorar estes sistemas de forma contínua, 284 00:13:51,280 --> 00:13:54,108 e admitirmos que o horizonte da cognição 285 00:13:54,141 --> 00:13:57,350 provavelmente ultrapassa o que conhecemos agora, 286 00:13:58,120 --> 00:13:59,781 então temos de admitir 287 00:13:59,814 --> 00:14:02,563 que estamos no processo de construir uma espécie de deus. 288 00:14:03,424 --> 00:14:05,790 Agora seria uma boa altura de certificarmo-nos 289 00:14:05,854 --> 00:14:07,880 que seja um deus com quem queremos viver. 290 00:14:08,120 --> 00:14:09,510 Muito obrigado. 291 00:14:09,680 --> 00:14:12,791 (Aplausos)