1 00:00:01,000 --> 00:00:03,216 Vou falar sobre uma falha intuitiva 2 00:00:03,240 --> 00:00:04,840 que afeta muitos de nós. 3 00:00:05,480 --> 00:00:08,520 É a falha de reconhecer certo perigo. 4 00:00:09,360 --> 00:00:11,096 Eu vou descrever uma situação 5 00:00:11,120 --> 00:00:14,376 que considero aterrorizante 6 00:00:14,400 --> 00:00:16,160 e provável de acontecer, 7 00:00:16,840 --> 00:00:18,496 e não é uma boa combinação, 8 00:00:18,520 --> 00:00:19,916 ao que parece. 9 00:00:19,930 --> 00:00:21,600 Mesmo assim, em vez de sentir medo, 10 00:00:21,610 --> 00:00:24,640 a maioria vai achar legal o que vou falar. 11 00:00:25,200 --> 00:00:28,176 Vou descrever como nossas conquistas 12 00:00:28,200 --> 00:00:29,976 na área da inteligência artificial 13 00:00:30,000 --> 00:00:31,776 poderão nos destruir. 14 00:00:31,800 --> 00:00:35,256 Na verdade, acho muito difícil ver como elas não vão nos destruir, 15 00:00:35,280 --> 00:00:36,960 ou nos inspirar a nos destruirmos. 16 00:00:37,400 --> 00:00:39,256 E se você é como eu, 17 00:00:39,280 --> 00:00:41,936 vai descobrir que é divertido pensar sobre essas coisas. 18 00:00:41,960 --> 00:00:45,336 E essa resposta é parte do problema. 19 00:00:45,360 --> 00:00:47,080 OK? Essa resposta deve te preocupar. 20 00:00:47,920 --> 00:00:50,576 Se eu quisesse te convencer nessa palestra 21 00:00:50,600 --> 00:00:54,016 de que a fome mundial é provável, 22 00:00:54,040 --> 00:00:57,096 por causa do aquecimento global ou qualquer outra catástrofe, 23 00:00:57,120 --> 00:01:00,536 e de que seus netos e os netos dos seus netos 24 00:01:00,560 --> 00:01:02,360 provavelmente viverão assim, 25 00:01:03,200 --> 00:01:04,400 você não pensaria: 26 00:01:05,440 --> 00:01:06,776 "Interessante. 27 00:01:06,800 --> 00:01:08,270 Gostei dessa Palestra TED." 28 00:01:09,200 --> 00:01:10,720 Fome não é divertido. 29 00:01:11,800 --> 00:01:15,176 Morte por ficção científica, por outro lado, é divertida, 30 00:01:15,200 --> 00:01:18,696 e uma das coisas que mais me preocupa no desenvolvimento de IA nesse ponto 31 00:01:18,700 --> 00:01:23,296 é que somos incapazes de organizar uma resposta emocional apropriada 32 00:01:23,320 --> 00:01:25,136 para os perigos que estão à frente. 33 00:01:25,160 --> 00:01:28,490 Eu sou incapaz de ordenar essa resposta, e estou dando esta palestra. 34 00:01:30,120 --> 00:01:32,816 É como se estivéssemos diante de duas portas. 35 00:01:32,840 --> 00:01:34,096 Na porta de número 1, 36 00:01:34,120 --> 00:01:37,416 paramos de progredir na área de IA. 37 00:01:37,440 --> 00:01:41,456 Nossos softwares e hardwares param de melhorar por algum motivo. 38 00:01:41,480 --> 00:01:44,480 Pare um pouco para refletir por que isso pode acontecer. 39 00:01:45,080 --> 00:01:48,736 Dado que automação e inteligência são valiosos, 40 00:01:48,760 --> 00:01:52,280 continuaremos a melhorar nossa tecnologia, se isso for possível. 41 00:01:53,200 --> 00:01:55,157 O que poderia nos impedir de fazer isso? 42 00:01:55,800 --> 00:01:57,600 Uma guerra nuclear em grande escala? 43 00:01:59,000 --> 00:02:00,560 Uma pandemia global? 44 00:02:02,320 --> 00:02:03,640 A colisão de um asteroide? 45 00:02:05,640 --> 00:02:08,216 Justin Bieber como presidente dos Estado Unidos? 46 00:02:08,240 --> 00:02:11,050 (Risadas) 47 00:02:12,760 --> 00:02:16,680 A questão é que algo teria que destruir a civilização que nós conhecemos. 48 00:02:17,360 --> 00:02:21,656 Você precisa imaginar o quão ruim teria que ser 49 00:02:21,680 --> 00:02:25,016 para impedir os avanços da nossa tecnologia 50 00:02:25,040 --> 00:02:26,256 permanentemente, 51 00:02:26,280 --> 00:02:28,296 geração após geração. 52 00:02:28,320 --> 00:02:30,456 Quase que por definição, essa é a pior coisa 53 00:02:30,480 --> 00:02:32,496 que já aconteceu na história humana. 54 00:02:32,520 --> 00:02:33,816 A única alternativa, 55 00:02:33,840 --> 00:02:36,176 e é o que está atrás da porta de número 2, 56 00:02:36,200 --> 00:02:39,336 é que continuemos a aprimorar nossas máquinas inteligentes, 57 00:02:39,360 --> 00:02:40,960 ano após ano. 58 00:02:41,720 --> 00:02:45,360 Em algum ponto, construiremos máquinas mais inteligentes que nós, 59 00:02:46,080 --> 00:02:48,696 e uma vez que isso acontecer, 60 00:02:48,720 --> 00:02:50,696 elas aperfeiçoarão a si mesmas. 61 00:02:50,720 --> 00:02:53,456 E nós arriscamos o que o matemático I. J. Good chamou 62 00:02:53,480 --> 00:02:55,256 de "explosão de inteligência", 63 00:02:55,280 --> 00:02:57,280 que o processo poderia fugir do controle. 64 00:02:58,120 --> 00:03:00,936 Isso é frequentemente caricaturado, desse jeito aqui, 65 00:03:00,960 --> 00:03:04,176 como medo de que exércitos de robôs malignos 66 00:03:04,200 --> 00:03:05,456 nos ataquem. 67 00:03:05,480 --> 00:03:08,176 Mas essa não é a situação mais provável. 68 00:03:08,200 --> 00:03:13,056 Não é que nossas máquinas se tornarão espontaneamente más. 69 00:03:13,080 --> 00:03:15,696 A preocupação é que construiremos máquinas 70 00:03:15,720 --> 00:03:17,776 que são muito mais competentes do que nós, 71 00:03:17,800 --> 00:03:21,576 e que a menor das divergências entre nosso propósito e o delas 72 00:03:21,600 --> 00:03:22,800 possa nos destruir. 73 00:03:23,960 --> 00:03:26,040 Pense na nossa relação com as formigas. 74 00:03:26,600 --> 00:03:28,090 Nós não as odiamos. 75 00:03:28,090 --> 00:03:30,486 Nós não as machucamos de propósito. 76 00:03:30,486 --> 00:03:32,736 Na verdade, nós tentamos não machucar elas. 77 00:03:32,760 --> 00:03:34,776 Evitamos pisá-las na calçada. 78 00:03:34,800 --> 00:03:36,936 Mas sempre que a presença delas 79 00:03:36,960 --> 00:03:39,456 colide com um dos nossos objetivos, 80 00:03:39,480 --> 00:03:41,957 digamos que ao construirmos um prédio como este, 81 00:03:41,981 --> 00:03:44,471 nós exterminamos elas sem a menor cerimônia. 82 00:03:44,480 --> 00:03:47,416 A preocupação é que um dia vamos construir máquinas 83 00:03:47,440 --> 00:03:50,176 que, conscientes ou não, 84 00:03:50,200 --> 00:03:52,200 poderão nos tratar com o mesmo desprezo. 85 00:03:53,660 --> 00:03:56,520 Eu suspeito que isso pareça difícil de acreditar para vocês. 86 00:03:57,360 --> 00:04:03,696 Aposto que alguns de vocês duvidam que uma IA superinteligente seja possível, 87 00:04:03,720 --> 00:04:05,376 muito menos inevitável. 88 00:04:05,400 --> 00:04:09,020 Mas então você precisar achar algo de errado com as seguintes suposições. 89 00:04:09,044 --> 00:04:10,616 E existem apenas três. 90 00:04:11,620 --> 00:04:15,529 Inteligência é uma questão de processamento de informação 91 00:04:15,529 --> 00:04:17,349 em sistemas físicos. 92 00:04:17,349 --> 00:04:19,935 Na verdade, isso é mais do que uma suposição. 93 00:04:19,959 --> 00:04:23,416 Nós já construímos inteligência limitada em nossas máquinas, 94 00:04:23,440 --> 00:04:28,166 e muitas delas já trabalham num nível de inteligência sobre-humano. 95 00:04:28,840 --> 00:04:31,416 E sabemos que matéria comum 96 00:04:31,440 --> 00:04:34,116 pode dar origem ao que é chamado de "inteligência geral", 97 00:04:34,116 --> 00:04:37,730 a habilidade de pensar de forma flexível em vários domínios, 98 00:04:37,730 --> 00:04:40,956 porque nossos cérebros conseguiram isso. Certo? 99 00:04:40,956 --> 00:04:44,856 Existem apenas átomos aqui, 100 00:04:44,880 --> 00:04:49,376 e desde que continuemos a construir sistemas de átomos 101 00:04:49,400 --> 00:04:52,096 que mostrem mais e mais comportamento inteligente, 102 00:04:52,120 --> 00:04:54,656 a não ser que nos interrompam, 103 00:04:54,680 --> 00:04:58,056 vamos acabar construindo inteligência geral 104 00:04:58,080 --> 00:04:59,376 dentro de nossas máquinas. 105 00:04:59,400 --> 00:05:03,050 É crucial perceber que a taxa de progresso não importa, 106 00:05:03,050 --> 00:05:06,426 porque qualquer progresso é suficiente para nos levar até a zona final. 107 00:05:06,426 --> 00:05:08,596 Não precisamos da Lei de Moore para continuar, 108 00:05:08,596 --> 00:05:11,716 Não precisamos de progresso exponencial, só precisamos continuar. 109 00:05:13,480 --> 00:05:16,400 A segunda suposição é que vamos continuar. 110 00:05:17,000 --> 00:05:19,760 Continuaremos a melhorar nossas máquinas inteligentes. 111 00:05:21,000 --> 00:05:25,376 E dado o valor da inteligência... 112 00:05:25,400 --> 00:05:28,936 Inteligência ou é a fonte de tudo aquilo que valorizamos 113 00:05:28,960 --> 00:05:31,736 ou precisamos dela para que proteja aquilo que valorizamos. 114 00:05:31,760 --> 00:05:34,016 É a nossa fonte mais valiosa. 115 00:05:34,040 --> 00:05:35,576 Então nós queremos fazer isso. 116 00:05:35,600 --> 00:05:38,936 Temos problemas que precisamos resolver urgentemente. 117 00:05:38,960 --> 00:05:42,160 Queremos curar doenças como Alzheimer e câncer. 118 00:05:42,960 --> 00:05:46,896 Queremos entender sistemas econômicos. Queremos aprimorar a ciência climática. 119 00:05:46,920 --> 00:05:49,176 Nós faremos isso, se pudermos. 120 00:05:49,200 --> 00:05:52,486 O trem já saiu da estação, e não há freio para puxar. 121 00:05:53,880 --> 00:05:59,336 Finalmente, não estamos em um pico de inteligência, 122 00:05:59,360 --> 00:06:01,160 não estamos nem perto disso. 123 00:06:01,640 --> 00:06:03,536 E essa é a percepção crucial. 124 00:06:03,560 --> 00:06:05,976 Isso é o que faz a nossa situação ser tão precária 125 00:06:06,000 --> 00:06:10,040 e a nossa intuição sobre riscos não ser confiável. 126 00:06:11,110 --> 00:06:13,920 Pense na pessoa mais inteligente que já existiu. 127 00:06:14,720 --> 00:06:18,106 Na lista de quase todos aqui está John von Neumann. 128 00:06:18,106 --> 00:06:21,416 A impressão que ele causou nas pessoas ao seu redor, 129 00:06:21,440 --> 00:06:25,496 e isso inclui os melhores matemáticos e físicos de seu tempo, 130 00:06:25,520 --> 00:06:27,456 está muito bem documentada. 131 00:06:27,480 --> 00:06:31,200 Se apenas metade das histórias sobre ele forem meio verdadeiras, 132 00:06:31,200 --> 00:06:34,916 não há dúvida de que ele foi uma das pessoas mais inteligentes que já existiu. 133 00:06:34,916 --> 00:06:37,520 Considere o espectro da inteligência. 134 00:06:38,320 --> 00:06:39,749 Aqui temos John von Neumann. 135 00:06:41,560 --> 00:06:42,894 E aqui temos eu e você. 136 00:06:44,120 --> 00:06:45,416 E aqui temos uma galinha. 137 00:06:45,440 --> 00:06:47,376 (Risadas) 138 00:06:47,400 --> 00:06:48,616 Perdão, uma galinha. 139 00:06:48,640 --> 00:06:49,896 (Risadas) 140 00:06:49,920 --> 00:06:53,806 Não existe razão pra que eu torne isso mais depressivo do que precisa ser. 141 00:06:53,806 --> 00:06:55,310 (Risadas) 142 00:06:56,339 --> 00:06:59,876 Parece extremamente provável, no entanto, que esse espectro da inteligência 143 00:06:59,876 --> 00:07:02,960 se estenda muito além do que pensamos, 144 00:07:03,880 --> 00:07:07,096 e se construirmos máquinas mais inteligentes do que nós, 145 00:07:07,120 --> 00:07:09,416 elas provavelmente vão explorar esse espectro 146 00:07:09,440 --> 00:07:11,296 de maneiras que não podemos imaginar, 147 00:07:11,320 --> 00:07:13,840 e vão nos ultrapassar de formas inimagináveis. 148 00:07:15,000 --> 00:07:19,336 E é importante reconhecer que isso é verdade apenas pela velocidade. 149 00:07:19,360 --> 00:07:24,416 Imagine se construíssemos uma IA superinteligente 150 00:07:24,440 --> 00:07:27,896 que não fosse mais inteligente do que seu time mediano de pesquisadores 151 00:07:27,920 --> 00:07:30,210 em Stanford ou no MIT. 152 00:07:30,210 --> 00:07:33,370 Circuitos eletrônicos funcionam quase 1 milhão de vezes mais rápido 153 00:07:33,370 --> 00:07:34,616 do que os biológicos, 154 00:07:34,616 --> 00:07:37,656 então essa máquina deve pensar 1 milhão de vezes mais rápido 155 00:07:37,680 --> 00:07:39,490 do que a mente que a criou. 156 00:07:39,490 --> 00:07:41,726 Você deixa ela funcionando por uma semana, 157 00:07:41,726 --> 00:07:45,820 e ela vai realizar 20 mil anos humanos de trabalho intelectual, 158 00:07:46,100 --> 00:07:48,430 semana após semana. 159 00:07:49,640 --> 00:07:52,736 Como poderíamos entender, muito menos restringir, 160 00:07:52,760 --> 00:07:55,040 uma mente progredindo dessa maneira? 161 00:07:56,840 --> 00:07:58,976 Outra coisa que é preocupante, francamente, 162 00:07:59,000 --> 00:08:03,976 é... imagine o melhor cenário possível. 163 00:08:04,000 --> 00:08:08,140 Imagine que nos deparamos com o design de uma IA superinteligente 164 00:08:08,140 --> 00:08:09,826 que não tem problemas de segurança. 165 00:08:09,826 --> 00:08:12,856 Temos o design perfeito pela primeira vez. 166 00:08:12,880 --> 00:08:15,096 É como se tivéssemos recebido um oráculo 167 00:08:15,120 --> 00:08:17,136 que se comporta como deve. 168 00:08:17,160 --> 00:08:20,880 Essa máquina seria o perfeito dispositivo de economia de trabalho. 169 00:08:21,130 --> 00:08:23,789 Pode desenvolver a máquina que pode construir a máquina 170 00:08:23,789 --> 00:08:25,936 que pode executar qualquer trabalho físico, 171 00:08:25,936 --> 00:08:27,376 movido à luz solar, 172 00:08:27,400 --> 00:08:30,096 por mais ou menos o custo da matéria-prima. 173 00:08:30,120 --> 00:08:33,376 Estamos falando do fim do esforço físico humano. 174 00:08:33,400 --> 00:08:36,660 Também estamos falando do fim da maior parte do trabalho intelectual. 175 00:08:37,200 --> 00:08:40,256 O que símios como nós fariam nessas circunstâncias? 176 00:08:40,280 --> 00:08:44,360 Estaríamos livres para jogar Frisbee e massagear uns aos outros. 177 00:08:45,840 --> 00:08:48,696 Adicione LSD e escolhas de roupas questionáveis, 178 00:08:48,720 --> 00:08:51,266 e o mundo inteiro seria como o Festival Burning Man. 179 00:08:51,266 --> 00:08:52,970 (Risadas) 180 00:08:54,320 --> 00:08:56,320 Pode até parecer muito bom, 181 00:08:57,280 --> 00:08:59,656 mas se pergunte: o que aconteceria 182 00:08:59,680 --> 00:09:02,416 sob a atual economia e ordem política? 183 00:09:02,440 --> 00:09:04,856 Possivelmente, iríamos presenciar 184 00:09:04,880 --> 00:09:09,016 um nível de desigualdade de riqueza e desemprego 185 00:09:09,040 --> 00:09:10,536 nunca visto antes. 186 00:09:10,560 --> 00:09:13,366 Sem a vontade de colocar imediatamente essa riqueza 187 00:09:13,366 --> 00:09:14,680 a serviço da humanidade, 188 00:09:15,640 --> 00:09:19,256 alguns poucos trilionários apareceriam nas capas das revistas de negócios, 189 00:09:19,280 --> 00:09:21,720 enquanto o resto do mundo passaria fome. 190 00:09:22,320 --> 00:09:24,616 E o que os russos e os chineses fariam 191 00:09:24,640 --> 00:09:27,256 se soubessem que uma empresa no Vale do Silício 192 00:09:27,280 --> 00:09:30,016 estivesse pronta para implantar uma IA superinteligente? 193 00:09:30,040 --> 00:09:32,896 Essa máquina seria capaz de travar uma guerra, 194 00:09:32,920 --> 00:09:35,136 terrestre ou cibernética, 195 00:09:35,160 --> 00:09:36,840 com poder sem precedente. 196 00:09:38,120 --> 00:09:39,976 É um cenário onde o vencedor leva tudo. 197 00:09:40,000 --> 00:09:43,136 Estar seis meses à frente da competição 198 00:09:43,160 --> 00:09:45,936 é como estar 500 mil anos adiantado, 199 00:09:45,960 --> 00:09:47,456 no mínimo. 200 00:09:47,480 --> 00:09:52,216 Parece que mesmo os meros rumores desse tipo de avanço 201 00:09:52,240 --> 00:09:54,616 poderiam causar fúria em nossa espécie. 202 00:09:54,640 --> 00:09:57,536 Uma das coisas mais assustadoras, 203 00:09:57,560 --> 00:10:00,336 na minha opinião, nesse momento, 204 00:10:00,360 --> 00:10:04,656 são os tipos de coisas que os pesquisadores de IA dizem 205 00:10:04,680 --> 00:10:06,240 quando querem nos tranquilizar. 206 00:10:07,000 --> 00:10:10,456 E eles nos dizem para não nos preocuparmos com o tempo. 207 00:10:10,480 --> 00:10:12,536 Esse é um caminho longo, se você não sabe. 208 00:10:12,560 --> 00:10:15,000 Provavelmente está a 50, 100 anos de distância. 209 00:10:15,720 --> 00:10:16,976 Um pesquisador disse: 210 00:10:17,000 --> 00:10:18,716 "Se preocupar com a segurança de IA 211 00:10:18,716 --> 00:10:21,170 é como se preocupar com a superpopulação em Marte." 212 00:10:22,026 --> 00:10:23,730 Essa é a versão do Vale do Silício 213 00:10:23,730 --> 00:10:26,446 para que você "não esquente sua cabecinha linda." 214 00:10:26,446 --> 00:10:27,496 (Risadas) 215 00:10:27,520 --> 00:10:29,416 Ninguém parece perceber 216 00:10:29,440 --> 00:10:32,056 que fazer referência ao tempo 217 00:10:32,080 --> 00:10:34,656 é um argumento inválido. 218 00:10:34,680 --> 00:10:37,936 Se inteligência é questão de processamento de informação, 219 00:10:37,960 --> 00:10:40,616 e se continuarmos a aperfeiçoar nossas máquinas, 220 00:10:40,640 --> 00:10:43,520 produziremos alguma forma de superinteligência. 221 00:10:44,320 --> 00:10:47,976 E não temos ideia de quanto tempo vai demorar 222 00:10:48,000 --> 00:10:50,400 para fazer isso de forma segura. 223 00:10:52,200 --> 00:10:53,496 Vou dizer novamente. 224 00:10:53,520 --> 00:10:57,336 Não temos ideia de quanto tempo vai levar 225 00:10:57,360 --> 00:10:59,600 para fazer isso de forma segura. 226 00:11:00,920 --> 00:11:04,376 E se você não percebeu, 50 anos não são mais o que costumavam ser. 227 00:11:04,400 --> 00:11:06,856 Isso são 50 anos em meses. 228 00:11:06,880 --> 00:11:08,720 Esta é a idade que tem o iPhone. 229 00:11:09,440 --> 00:11:12,040 Este é o tempo que Os Simpsons está na televisão. 230 00:11:12,680 --> 00:11:15,056 Cinquenta anos não é muito tempo 231 00:11:15,080 --> 00:11:18,240 para conhecer um dos maiores desafios que nossa espécie enfrentará. 232 00:11:19,640 --> 00:11:23,656 Novamente, parece que estamos falhando em uma reação emocional adequada 233 00:11:23,680 --> 00:11:26,376 a algo que, com certeza, está vindo. 234 00:11:26,400 --> 00:11:30,376 O cientista de computação Stuart Russell possui uma bela analogia: 235 00:11:30,400 --> 00:11:35,236 imagine que recebamos uma mensagem de uma civilização alienígena, 236 00:11:35,242 --> 00:11:36,138 que diz: 237 00:11:36,794 --> 00:11:38,520 "Pessoas da Terra, 238 00:11:38,630 --> 00:11:41,316 chegaremos ao seu planeta em 50 anos. 239 00:11:41,770 --> 00:11:43,090 Se preparem." 240 00:11:43,453 --> 00:11:47,543 E agora estamos contando os meses até a chegada da nave-mãe? 241 00:11:47,543 --> 00:11:50,569 Nós teríamos mais urgência do que temos agora. 242 00:11:52,340 --> 00:11:54,406 Outro motivo dito para não nos preocuparmos 243 00:11:54,406 --> 00:11:57,842 é que essas máquinas não podem evitar compartilhar nossos valores 244 00:11:57,842 --> 00:12:00,488 porque eles serão literalmente extensões de nós mesmos. 245 00:12:00,488 --> 00:12:02,888 Eles serão transplantados em nossos cérebros 246 00:12:02,888 --> 00:12:05,214 e nos tornaremos parte de seus sistemas límbicos. 247 00:12:05,224 --> 00:12:06,970 Reserve um momento para considerar 248 00:12:06,970 --> 00:12:10,726 que o único caminho prudente e seguro recomendado, 249 00:12:11,180 --> 00:12:14,556 é implantar essa tecnologia diretamente em nossos cérebros. 250 00:12:14,556 --> 00:12:18,152 Esse pode ser o caminho mais seguro e prudente, 251 00:12:18,330 --> 00:12:21,426 mas, normalmente, os problemas de segurança da tecnologia 252 00:12:21,426 --> 00:12:24,752 precisam ser resolvidos antes de ser implantado dentro da sua cabeça. 253 00:12:24,752 --> 00:12:26,478 (Risadas) 254 00:12:26,740 --> 00:12:31,576 O maior problema é que construir uma IA superinteligente por si só 255 00:12:32,240 --> 00:12:34,096 parece ser mais fácil 256 00:12:34,096 --> 00:12:35,872 do que construir IA superinteligente 257 00:12:35,872 --> 00:12:37,832 e ter a neurociência completa 258 00:12:37,832 --> 00:12:40,798 que nos permita integrar perfeitamente nossas mentes. 259 00:12:40,798 --> 00:12:44,234 E dado que empresas e governos que estão trabalhando nisso 260 00:12:44,234 --> 00:12:47,490 se encontram numa corrida uns contra os outros, 261 00:12:47,740 --> 00:12:50,366 dado que vencer essa corrida é conquistar o mundo, 262 00:12:51,010 --> 00:12:53,626 supondo que você não o destrua no momento seguinte, 263 00:12:53,626 --> 00:12:56,096 então parece que o que for mais fácil de se fazer 264 00:12:56,096 --> 00:12:57,742 será feito primeiro. 265 00:12:58,620 --> 00:13:01,236 Infelizmente, eu não tenho a solução para esse problema, 266 00:13:01,240 --> 00:13:03,866 a não ser recomendar que outros pensem sobre isso. 267 00:13:03,866 --> 00:13:06,342 Acho que precisamos de algo como o Projeto Manhattan 268 00:13:06,342 --> 00:13:08,278 na área de inteligência artificial. 269 00:13:08,278 --> 00:13:11,434 Não para construir uma IA, porque vamos inevitavelmente fazer isso, 270 00:13:11,434 --> 00:13:14,580 mas para entender como evitar uma corrida armamentista 271 00:13:14,580 --> 00:13:17,636 e construir uma IA que esteja alinhada aos nossos interesses. 272 00:13:18,160 --> 00:13:20,416 Quando se fala de uma IA superinteligente 273 00:13:20,416 --> 00:13:22,702 que pode modificar a si mesma, 274 00:13:22,702 --> 00:13:27,148 parece que temos apenas uma chance para acertar as condições primárias 275 00:13:27,280 --> 00:13:29,660 e, mesmo assim, teremos que assimilar 276 00:13:29,660 --> 00:13:32,726 as consequências econômicas e políticas desse acerto. 277 00:13:33,940 --> 00:13:35,890 Mas no momento em que admitirmos 278 00:13:35,890 --> 00:13:40,680 que o processamento de informação é a fonte da inteligência, 279 00:13:40,700 --> 00:13:45,810 que um sistema computacional apropriado é a base do que é a inteligência, 280 00:13:46,464 --> 00:13:50,920 e admitirmos que continuaremos a aprimorar esse sistema, 281 00:13:50,920 --> 00:13:55,460 e que o horizonte do conhecimento provavelmente ultrapassa 282 00:13:55,550 --> 00:13:57,136 tudo o que sabemos agora, 283 00:13:58,240 --> 00:13:59,780 então teremos que admitir 284 00:13:59,780 --> 00:14:02,526 que estamos no processo de criação de algum tipo de deus. 285 00:14:03,310 --> 00:14:05,723 Agora seria um ótimo momento de ter a certeza 286 00:14:05,723 --> 00:14:07,679 de que é um deus com o qual podemos viver. 287 00:14:08,100 --> 00:14:09,153 Muito obrigado. 288 00:14:09,153 --> 00:14:13,303 (Aplausos)