0:00:01.000,0:00:03.488 Eu vou falar de uma falha de intuição 0:00:03.540,0:00:05.367 de que muitos de nós sofremos. 0:00:05.480,0:00:08.947 É uma falha em detetar[br]um certo tipo de perigo. 0:00:09.360,0:00:11.368 Vou descrever um cenário 0:00:11.438,0:00:14.566 que considero tão aterrador 0:00:14.627,0:00:16.660 como provável de acontecer. 0:00:16.903,0:00:19.668 Acontece que isto[br]não é uma boa combinação. 0:00:20.080,0:00:21.835 No entanto, em vez de assustados, 0:00:21.878,0:00:24.885 a maioria de vocês acha[br]que aquilo de que estou a falar é fixe. 0:00:25.472,0:00:28.257 Eu vou descrever[br]como as vantagens obtidas 0:00:28.327,0:00:30.176 com a inteligência artificial 0:00:30.227,0:00:32.660 podem acabar por nos destruir. 0:00:32.118,0:00:35.110 Penso que é muito difícil[br]ver como não nos vão destruir 0:00:35.152,0:00:37.378 ou inspirar a destruirmo-nos a nós mesmos. 0:00:37.563,0:00:39.510 Mas se vocês forem[br]minimamente como eu, 0:00:39.552,0:00:42.590 vão descobrir que é divertido[br]pensar nestas coisas. 0:00:42.195,0:00:45.336 Essa resposta faz parte do problema. 0:00:45.505,0:00:47.698 Essa resposta devia preocupar-vos. 0:00:47.920,0:00:50.512 Se eu vos convencesse nesta palestra 0:00:50.600,0:00:53.952 que vamos, provavelmente,[br]sofrer uma fome mundial, 0:00:54.040,0:00:57.223 devido à mudança climática[br]ou devido a alguma outra catástrofe, 0:00:57.274,0:01:00.508 e que os vossos netos,[br]ou os netos deles, 0:01:00.705,0:01:03.140 têm a probabilidade de viver assim, 0:01:03.200,0:01:04.745 não pensariam: 0:01:05.440,0:01:06.957 "Que interessante. 0:01:07.360,0:01:08.727 "Gosto desta palestra TED." 0:01:09.545,0:01:11.429 A fome não tem graça. 0:01:11.800,0:01:14.709 Mas a morte pela ficção científica[br]é divertida. 0:01:15.372,0:01:18.903 Uma das coisas que mais me preocupa[br]no desenvolvimento da IA, neste ponto, 0:01:18.963,0:01:23.296 é que parecemos incapazes de mobilizar[br]uma resposta emocional apropriada 0:01:23.320,0:01:25.236 para os perigos que nos esperam. 0:01:25.296,0:01:28.778 Sou incapaz de conseguir esta resposta,[br]e estou a fazer esta palestra. 0:01:30.120,0:01:32.706 É como se estivéssemos diante[br]de duas portas. 0:01:32.840,0:01:34.341 Atrás da porta número um, 0:01:34.365,0:01:37.606 deixamos de fazer progressos[br]na construção de máquinas inteligentes. 0:01:37.676,0:01:41.819 O hardware e o software dos computadores[br]deixam de melhorar, por alguma razão. 0:01:41.880,0:01:44.961 Agora, pensem um momento[br]na razão de isto poder acontecer. 0:01:45.080,0:01:48.736 Ou seja, sendo a inteligência[br]e a automação tão valiosas, 0:01:48.823,0:01:52.480 vamos continuar a melhorar[br]a tecnologia, se formos capazes disso. 0:01:53.200,0:01:55.221 O que é que nos pode impedir de o fazer? 0:01:55.800,0:01:57.863 Uma guerra nuclear a larga escala? 0:01:59.000,0:02:00.860 Uma pandemia mundial? 0:02:02.320,0:02:04.349 O impacto de um asteroide? 0:02:05.640,0:02:08.479 Justin Bieber tornar-se[br]presidente dos EUA? 0:02:08.558,0:02:11.183 (Risos) 0:02:12.760,0:02:16.916 A questão é, algo teria de destruir[br]a civilização, tal como a conhecemos 0:02:17.696,0:02:21.546 Temos que imaginar[br]quão mau teria que ser 0:02:21.798,0:02:24.961 para nos impedir de fazer[br]melhoramentos na tecnologia 0:02:25.120,0:02:26.456 de forma permanente, 0:02:26.507,0:02:28.296 geração após geração. 0:02:28.474,0:02:30.456 Quase por definição,[br]isto é a pior coisa 0:02:30.480,0:02:32.641 que já aconteceu na história[br]da Humanidade. 0:02:32.692,0:02:34.161 Por isso, a única alternativa, 0:02:34.216,0:02:36.339 — e é o que está detrás da porta dois — 0:02:36.390,0:02:39.490 é que continuemos a melhorar[br]as nossas máquinas inteligentes 0:02:39.532,0:02:41.460 ano após ano após ano. 0:02:41.720,0:02:45.778 A certa altura, iremos construir[br]máquinas mais inteligentes que nós, 0:02:46.080,0:02:48.696 e assim que tivermos máquinas[br]mais inteligentes que nós, 0:02:48.720,0:02:50.959 elas vão começar[br]a melhorar-se a si mesmas. 0:02:51.027,0:02:53.664 Então arriscamo-nos ao que[br]o matemático I.J. Good chamou 0:02:53.734,0:02:55.465 uma "explosão de inteligência," 0:02:55.516,0:02:57.980 que o processo poderá[br]sair das nossas mãos. 0:02:58.120,0:03:01.630 Isto é normalmente caricaturado,[br]como vemos aqui, 0:03:01.141,0:03:05.176 como o medo de que tropas[br]de robôs malignos nos vão atacar. 0:03:05.480,0:03:07.866 Mas este não é o cenário[br]mais provável. 0:03:08.418,0:03:12.783 As nossas máquinas não se tornarão[br]espontaneamente maléficas. 0:03:13.198,0:03:15.732 O problema é se[br]construímos máquinas 0:03:15.774,0:03:17.866 que são muito mais[br]competentes que nós 0:03:17.918,0:03:21.657 que à mínima divergência[br]entre os seus objetivos e os nossos 0:03:21.709,0:03:23.309 podem destruir-nos. 0:03:23.960,0:03:26.394 Basta pensar na nossa [br]ligação às formigas. 0:03:26.600,0:03:28.301 Não as odiamos. 0:03:28.380,0:03:30.554 Não saímos do nosso caminho[br]para as magoar. 0:03:30.605,0:03:32.926 Até fazemos o necessário[br]para não as magoar. 0:03:32.987,0:03:34.894 Passamos por cima delas[br]no passeio. 0:03:34.954,0:03:36.963 Mas quando a sua presença 0:03:37.009,0:03:39.510 representa um conflito[br]com um dos nossos objetivos, 0:03:39.570,0:03:42.102 digamos, quando construindo[br]um edifício como este, 0:03:42.153,0:03:44.368 eliminamo-las sem hesitação. 0:03:44.480,0:03:47.552 O problema é que iremos[br]um dia construir máquinas 0:03:47.603,0:03:50.412 que, conscientes ou não, 0:03:50.463,0:03:52.781 podem tratar-nos com[br]o mesmo desprezo. 0:03:54.105,0:03:56.974 Suspeito que isto pareça[br]exagerado para a maioria. 0:03:57.469,0:04:03.696 Aposto que são os mesmos que duvidam [br]da possibilidade duma IA superinteligente, 0:04:03.747,0:04:05.412 e, mais ainda, inevitável. 0:04:05.536,0:04:08.938 Então, devem encontrar algo de errado[br]nas seguintes premissas. 0:04:09.325,0:04:10.897 Só existem três. 0:04:11.800,0:04:15.201 A inteligência é uma questão[br]de processamento de informação 0:04:15.247,0:04:17.201 em sistemas físicos. 0:04:17.574,0:04:19.816 Na verdade, isto é mais[br]que uma premissa. 0:04:19.877,0:04:23.497 Já construímos inteligência[br]limitada nas nossas máquinas, 0:04:23.594,0:04:25.692 e muitas dessas máquinas já funcionam 0:04:25.761,0:04:28.620 a um nível de inteligência super-humana. 0:04:28.840,0:04:31.416 Sabemos que mera matéria 0:04:31.476,0:04:34.274 pode dar origem ao que chamamos[br]"inteligência geral," 0:04:34.316,0:04:37.645 a capacidade de pensar flexivelmente[br]em múltiplos domínios, 0:04:37.841,0:04:40.686 porque o nosso cérebros conseguiu isso. 0:04:41.165,0:04:44.665 Quero dizer, aqui só há átomos. 0:04:45.080,0:04:49.376 Enquanto continuamos a construir[br]sistemas de átomos 0:04:49.400,0:04:52.186 que demonstram cada vez mais[br]um comportamento inteligente, 0:04:52.238,0:04:54.928 acabaremos — a não ser[br]que sejamos interrompidos — 0:04:54.998,0:04:58.183 acabaremos por construir[br]inteligência geral 0:04:58.234,0:04:59.685 nas nossas máquinas. 0:04:59.766,0:05:03.920 É crucial entender que a velocidade[br]do progresso não importa, 0:05:03.143,0:05:06.628 pois qualquer progresso[br]é suficiente para nos levar ao final. 0:05:06.689,0:05:09.507 Não precisamos da Lei de Moore[br]nem de progresso exponencial 0:05:09.507,0:05:10.752 para continuar. 0:05:10.825,0:05:12.789 Só precisamos de continuar. 0:05:13.707,0:05:16.790 A segunda premissa[br]é que iremos continuar. 0:05:17.000,0:05:20.178 Continuaremos a melhorar[br]as nossas máquinas inteligentes. 0:05:21.118,0:05:25.166 E devido ao valor da inteligência 0:05:25.318,0:05:28.936 — quer dizer, inteligência ou é[br]a fonte de tudo que valorizamos 0:05:29.140,0:05:32.630 ou precisamos dela para[br]salvaguardar tudo o que valorizamos. 0:05:32.132,0:05:34.106 É o nosso recurso mais valioso. 0:05:34.194,0:05:35.930 Por isso, queremos fazer isto. 0:05:35.990,0:05:39.136 Temos problemas que queremos[br]desesperadamente resolver. 0:05:39.196,0:05:42.578 Queremos curar doenças[br]como Alzheimer ou cancro. 0:05:43.169,0:05:47.132 Queremos entender sistemas económicos[br]e melhorar a nossa ciência climatérica. 0:05:47.174,0:05:49.448 Por isso iremos fazê-lo,[br]se conseguirmos, 0:05:49.545,0:05:52.831 O comboio já saiu da estação,[br]e não há travão para acionar. 0:05:53.916,0:05:58.772 Finalmente, não estamos[br]num pico da inteligência, 0:05:59.360,0:06:01.350 provavelmente, nem perto dela. 0:06:01.640,0:06:03.536 E isto é a visão crucial. 0:06:03.560,0:06:06.157 Isto é o que torna[br]a nossa situação tão precária. 0:06:06.218,0:06:10.494 Isto é o que torna tão incertas[br]as nossas intuições de risco. 0:06:11.320,0:06:14.267 Agora, pensem na pessoa[br]mais inteligente de sempre. 0:06:14.785,0:06:18.056 Na lista de quase toda a gente[br]está John von Neumann. 0:06:18.161,0:06:21.552 A impressão que von Neumann[br]deixou nas pessoas ao seu redor, 0:06:21.594,0:06:25.168 incluindo os melhores[br]matemáticos e físicos do seu tempo, 0:06:25.520,0:06:27.456 está bem documentada. 0:06:27.670,0:06:31.256 Se metade das histórias sobre ele [br]são meio verdadeiras, 0:06:31.280,0:06:32.477 não há dúvida 0:06:32.501,0:06:35.276 que ele foi uma das pessoas[br]mais inteligentes que existiu. 0:06:35.327,0:06:38.920 Considerem o espetro da inteligência. 0:06:38.465,0:06:40.339 Aqui temos John von Neumann. 0:06:41.560,0:06:43.175 E aqui estamos nós. 0:06:44.120,0:06:45.634 E aqui temos uma galinha. 0:06:45.730,0:06:47.230 (Risos) 0:06:47.400,0:06:48.925 Desculpem, uma galinha. 0:06:49.120,0:06:50.423 (Risos) 0:06:50.529,0:06:53.346 Não preciso de tornar esta palestra[br]ainda mais deprimente. 0:06:53.607,0:06:55.634 (Risos) 0:06:56.339,0:07:00.016 Mas parece muito provável[br]que o espetro da inteligência 0:07:00.850,0:07:03.405 se alargue muito mais além[br]do que imaginamos. 0:07:04.317,0:07:06.814 Se construirmos máquinas[br]mais inteligentes que nós, 0:07:07.120,0:07:09.679 iremos muito provavelmente[br]explorar este espetro 0:07:09.703,0:07:11.559 de formas inimagináveis, 0:07:11.629,0:07:14.403 e superar-nos em formas,[br]que não imaginávamos. 0:07:15.200,0:07:19.272 É importante reconhecer que isto é verdade[br]só por virtude da velocidade. 0:07:19.605,0:07:24.430 Imaginem que construímos[br]uma IA superinteligente 0:07:24.540,0:07:28.132 que não é mais inteligente que[br]uma equipa normal de investigadores 0:07:28.201,0:07:30.790 de Stanford ou do MIT. 0:07:30.121,0:07:33.297 Os circuitos eletrónicos funcionam[br]um milhão de vezes mais depressa 0:07:33.340,0:07:34.905 do que os circuitos bioquímicos, 0:07:34.938,0:07:38.192 por isso essa máquina iria [br]pensar um milhão de vezes mais rápido 0:07:38.210,0:07:40.032 do que as mentes que a construíram. 0:07:40.095,0:07:41.948 Pomo-la a funcionar[br]durante uma semana, 0:07:41.980,0:07:46.870 e ela irá realizar 20 000 anos[br]de trabalho intelectual humano, 0:07:46.400,0:07:48.523 semana após semana. 0:07:49.885,0:07:52.990 Como podemos entender,[br]e muito menos restringir, 0:07:53.060,0:07:55.794 uma mente que faz tal progresso? 0:07:56.840,0:07:59.212 A outra coisa preocupante, honestamente... 0:07:59.254,0:08:03.976 Imaginem o melhor cenário possível. 0:08:04.118,0:08:08.176 Imaginem que chegamos ao "design"[br]de uma IA superinteligente 0:08:08.200,0:08:09.894 sem problemas de segurança. 0:08:09.954,0:08:12.856 Temos o "design" perfeito[br]na primeira tentativa. 0:08:12.998,0:08:15.259 Seria como se nos tivessem dado um oráculo 0:08:15.301,0:08:17.508 cujo comportamento seria o esperado. 0:08:18.479,0:08:21.634 Esta máquina poderia ser[br]a máquina perfeita para poupar trabalho. 0:08:21.680,0:08:24.199 Poderia conceber a máquina[br]para construir a máquina 0:08:24.260,0:08:26.241 que pode fazer qualquer[br]trabalho físico, 0:08:26.286,0:08:27.794 usando energia solar, 0:08:27.854,0:08:30.159 mais ou menos ao custo[br]das matérias-primas. 0:08:30.374,0:08:33.376 Estamos a falar do fim[br]do trabalho duro humano 0:08:33.581,0:08:36.954 Estamos também a falar do fim[br]de maior parte do trabalho intelectual. 0:08:37.200,0:08:40.337 O que fariam macacos como nós[br]nestas circunstâncias? 0:08:40.916,0:08:45.214 Teríamos tempo para jogar ao disco,[br]e dar massagens uns aos outros. 0:08:45.958,0:08:48.832 Adicionem LSD e algumas[br]escolhas duvidosas de roupa, 0:08:48.874,0:08:51.368 e seria como o festival Burning Man[br]por todo o mundo. 0:08:51.447,0:08:53.587 (Risos) 0:08:54.629,0:08:56.829 Isto até pode soar bem, 0:08:57.280,0:08:59.801 mas questionem-se o que poderia aconteceu 0:08:59.861,0:09:02.561 na nossa ordem atual[br]económica e política? 0:09:02.603,0:09:05.190 Parece que poderíamos testemunhar 0:09:05.610,0:09:07.597 um nível de desigualdade de riqueza 0:09:07.658,0:09:10.499 e desemprego como nunca vimos antes. 0:09:10.560,0:09:13.390 Se não existir a vontade[br]de colocar essa riqueza 0:09:13.100,0:09:15.616 imediatamente ao serviço[br]de toda a humanidade, 0:09:15.776,0:09:19.783 alguns multimilionários poderiam figurar[br]nas capas das nossas revistas de negócios 0:09:19.816,0:09:22.560 enquanto o resto do mundo[br]estaria à fome. 0:09:22.320,0:09:24.616 E o que fariam os russos[br]ou os chineses 0:09:24.667,0:09:27.510 se soubessem que alguma companhia[br]em Silicon Valley 0:09:27.570,0:09:30.206 estaria prestes a implementar[br]uma IA superinteligente? 0:09:30.267,0:09:32.805 Essa máquina seria capaz [br]de fazer a guerra, 0:09:32.856,0:09:35.226 terrestre ou cibernética, 0:09:35.314,0:09:37.185 com um poder inédito. 0:09:38.120,0:09:40.185 Isto é um cenário de[br]"o vencedor leva tudo". 0:09:40.245,0:09:43.245 Estar seis meses adiantado[br]nesta competição 0:09:43.305,0:09:46.720 é como estar 500 000 anos adiantado, 0:09:46.123,0:09:47.456 no mínimo. 0:09:47.780,0:09:52.216 Parece que os meros rumores[br]deste tipo de inovação 0:09:52.240,0:09:54.779 poderiam descontrolar a nossa espécie. 0:09:55.149,0:09:57.599 Uma das coisas mais assustadoras, 0:09:57.678,0:10:00.336 na minha perspetiva, neste momento, 0:10:00.432,0:10:04.774 são o tipo de coisas[br]que os investigadores da IA dizem 0:10:04.870,0:10:06.749 quando querem tranquilizar-nos. 0:10:07.381,0:10:10.592 O motivo mais comum que invocam[br]para não nos preocuparmos é o tempo. 0:10:10.680,0:10:12.717 "Não sabem que isto ainda vem longe? 0:10:12.778,0:10:15.418 "Só daqui a 50 ou 100 anos". 0:10:15.720,0:10:17.121 Um investigador disse: 0:10:17.181,0:10:18.976 "Preocupar-se com a segurança da IA 0:10:19.115,0:10:21.943 "é como preocupar-se com[br]o excesso de população em Marte." 0:10:22.116,0:10:23.899 Esta é a versão de Silicon Valley 0:10:23.969,0:10:26.136 de "não preocupem a vossa [br]cabeça com isto." 0:10:26.214,0:10:27.496 (Risos) 0:10:27.647,0:10:29.425 Ninguém parece notar 0:10:29.485,0:10:32.920 que mencionar o horizonte do tempo 0:10:32.180,0:10:34.656 é um total "não se segue". 0:10:34.716,0:10:38.108 Se a inteligência é apenas uma questão[br]de processamento de informação, 0:10:38.169,0:10:40.761 e continuarmos a melhorar[br]as nossas máquinas, 0:10:40.812,0:10:43.938 iremos produzir[br]alguma forma de superinteligência. 0:10:44.420,0:10:48.076 Não fazemos ideia[br]quanto tempo iremos demorar 0:10:48.136,0:10:50.927 a criar as condições[br]para o fazer em segurança. 0:10:52.200,0:10:53.650 Vou repetir. 0:10:53.720,0:10:57.381 Não sabemos quanto tempo vamos demorar 0:10:57.441,0:11:00.163 para criar as condições[br]para fazê-lo em segurança. 0:11:00.920,0:11:04.376 Se ainda não repararam,[br]50 anos não é o que era dantes. 0:11:04.536,0:11:06.956 Isto são 50 anos em meses. 0:11:07.250,0:11:09.920 Isto é o tempo desde que temos o iPhone. 0:11:09.440,0:11:12.403 Isto é o tempo em que "Os Simpsons"[br]têm estado na TV. 0:11:12.680,0:11:15.156 50 anos não é assim tanto tempo 0:11:15.207,0:11:18.967 para ir de encontro aos maiores desafios[br]que a nossa espécie irá enfrentar. 0:11:19.640,0:11:23.719 Mais uma vez, parecemos estar a falhar[br]em ter uma resposta emocional apropriada 0:11:23.770,0:11:26.376 para o que acreditamos[br]que está para vir. 0:11:26.509,0:11:30.512 O cientista informático Stuart Russell[br]tem uma boa analogia para isto. 0:11:30.627,0:11:35.105 Disse: "Imaginem que recebemos[br]uma mensagem de uma civilização alienígena, 0:11:35.320,0:11:36.825 "que diz: 0:11:37.140,0:11:38.803 " 'Habitantes da Terra, 0:11:38.845,0:11:41.441 " vamos chegar ao vosso planeta[br]dentro de 50 anos. 0:11:41.800,0:11:43.376 " 'Preparem-se'." 0:11:43.627,0:11:47.201 Vamos contar os meses[br]até a nave-mãe aterrar? 0:11:47.816,0:11:50.943 Sentiríamos mais urgência[br]do que o habitual. 0:11:52.543,0:11:54.963 Outro motivo que nos dão[br]para não nos preocuparmos 0:11:55.127,0:11:57.812 é que estas máquinas [br]vão partilhar os nossos valores 0:11:57.853,0:12:00.288 pois serão literalmente[br]extensões de nós próprios. 0:12:00.385,0:12:02.346 Serão implantadas no nosso cérebro, 0:12:02.410,0:12:04.767 e seremos os seus sistemas límbicos. 0:12:05.120,0:12:06.736 Parem um momento para considerar 0:12:06.790,0:12:09.736 que o caminho mais prudente e seguro, 0:12:09.760,0:12:11.386 o caminho recomendado, 0:12:11.429,0:12:14.483 é implantar esta tecnologia[br]diretamente no nosso cérebro. 0:12:14.600,0:12:17.976 Isso poderá de facto ser[br]o caminho mais prudente e seguro, 0:12:18.354,0:12:21.146 mas normalmente as questões[br]de segurança de uma tecnologia 0:12:21.189,0:12:24.881 devem estar bem trabalhadas[br]antes de serem enfiadas na nossa cabeça. 0:12:24.941,0:12:26.666 (Risos) 0:12:26.954,0:12:32.136 O maior problema é que[br]construir IA superinteligente, por si só, 0:12:32.160,0:12:33.923 parece ser mais fácil 0:12:33.965,0:12:35.948 do que construir IA superinteligente 0:12:36.000,0:12:37.939 e ter a neurociência completa 0:12:38.000,0:12:40.961 que nos permita integrar facilmente[br]as nossas mentes com isso. 0:12:41.228,0:12:44.211 Sabendo que as companhias[br]e os governos que fazem este trabalho 0:12:44.253,0:12:47.656 provavelmente se consideram [br]numa corrida contra todos os outros, 0:12:47.734,0:12:50.763 sendo que ganhar esta corrida,[br]é ganhar o mundo, 0:12:50.960,0:12:53.416 desde que não o destruam[br]logo a seguir, 0:12:53.530,0:12:56.237 então é evidente que[br]o que for mais fácil 0:12:56.316,0:12:58.125 será o primeiro a ser feito. 0:12:58.560,0:13:01.252 Infelizmente, não tenho[br]a solução para este problema, 0:13:01.440,0:13:03.828 apenas posso recomendar[br]que pensemos mais nisto. 0:13:03.889,0:13:06.456 Acho que precisamos de algo[br]como o Projeto Manhattan 0:13:06.480,0:13:08.677 no tópico da inteligência artificial. 0:13:08.738,0:13:11.455 Não para a construir —acho[br]que o faremos inevitavelmente — 0:13:11.525,0:13:14.616 mas para compreender[br]como evitar uma corrida ao armamento 0:13:14.658,0:13:18.540 e para a construir de forma[br]a estar alinhada com os nossos interesses. 0:13:18.160,0:13:20.296 Quando falamos na IA superinteligente 0:13:20.320,0:13:22.576 que pode alterar-se a si mesma, 0:13:22.618,0:13:24.676 parece que só temos uma hipótese 0:13:24.758,0:13:27.303 para conseguir[br]as condições iniciais corretas, 0:13:27.376,0:13:29.732 e mesmo assim precisaremos de absorver 0:13:29.810,0:13:32.932 as consequências económicas e politicas[br]para conseguir tal. 0:13:33.760,0:13:35.970 Mas a partir do momento em que admitirmos 0:13:36.210,0:13:40.221 que o processamento de informação[br]é a fonte de inteligência, 0:13:40.720,0:13:45.629 que algum sistema informático apropriado[br]é a base de inteligência, 0:13:46.360,0:13:50.447 e admitirmos que iremos melhorar[br]estes sistemas de forma contínua, 0:13:51.280,0:13:54.108 e admitirmos que o horizonte da cognição 0:13:54.141,0:13:57.350 provavelmente ultrapassa[br]o que conhecemos agora, 0:13:58.120,0:13:59.781 então temos de admitir 0:13:59.814,0:14:02.563 que estamos no processo[br]de construir uma espécie de deus. 0:14:03.424,0:14:05.790 Agora seria uma boa altura[br]de certificarmo-nos 0:14:05.854,0:14:07.880 que seja um deus[br]com quem queremos viver. 0:14:08.120,0:14:09.510 Muito obrigado. 0:14:09.680,0:14:12.791 (Aplausos)