0:00:00.570,0:00:05.337 Eu trabalho com um grupo de matemáticos,[br]filósofos e informáticos, 0:00:05.337,0:00:09.986 e pensamos acerca do futuro [br]da inteligência mecânica, 0:00:09.986,0:00:12.030 entre outras coisas. 0:00:12.210,0:00:16.755 Algumas pessoas pensam que algumas [br]destas coisas são como ciência ficção, 0:00:16.755,0:00:19.856 muito longe da realidade. 0:00:19.856,0:00:21.326 Mas eu gosto de dizer, 0:00:21.326,0:00:24.930 olhemos para as condições [br]humanas modernas. 0:00:24.930,0:00:26.622 (Risos) 0:00:26.622,0:00:29.024 Essa é a forma normal de as coisas serem. 0:00:29.024,0:00:31.309 Mas se pensarmos nisso, 0:00:31.309,0:00:34.602 somos na verdade visitantes [br]recentes neste planeta, 0:00:34.602,0:00:36.684 a espécie humana. 0:00:36.684,0:00:41.430 Imaginem, se a Terra tivesse sido [br]criada há um ano, 0:00:41.430,0:00:44.978 a espécie humana, então,[br]teria 10 minutos de vida. 0:00:44.978,0:00:48.146 A era da indústria teria começado [br]há 2 segundos. 0:00:49.276,0:00:51.171 Outra forma de olhar para isto [br] 0:00:51.171,0:00:54.321 é calcular o PIB mundial[br]dos últimos 10 000 anos, 0:00:54.501,0:00:57.530 Tive a preocupação de inserir[br]isto num gráfico para vocês verem. 0:00:57.680,0:00:59.304 Parece-se com isto. 0:00:59.304,0:01:00.667 (Risos) 0:01:00.667,0:01:02.818 É uma forma curiosa [br]para uma situação normal. 0:01:03.178,0:01:05.046 Eu não ficaria muito descansado. 0:01:05.046,0:01:07.067 (Risos) 0:01:07.067,0:01:11.841 Perguntemos a nós próprios, [br]qual é a causa dessa anomalia? 0:01:11.841,0:01:14.563 Algumas pessoas diriam que é a tecnologia. 0:01:14.563,0:01:19.061 É verdade, a tecnologia acumulou-se[br]durante a história da humanidade 0:01:19.061,0:01:23.713 e, neste momento, a tecnologia evolui[br]extremamente depressa 0:01:23.713,0:01:25.478 — essa é a causa imediata — 0:01:25.478,0:01:28.073 é por isso que estamos tão produtivos. 0:01:28.473,0:01:32.134 Mas eu gosto de pensar mais além,[br]para a causa fundamental. 0:01:33.114,0:01:36.640 Olhem para estes dois senhores [br]muito distintos: 0:01:36.880,0:01:38.480 Temos o Kanzi, 0:01:38.480,0:01:43.123 ele dominava 200 símbolos lexicais, [br]uma incrível proeza. 0:01:43.123,0:01:46.817 E Ed Witten desencadeou a segunda[br]revolução das supercordas. 0:01:46.817,0:01:49.201 Se examinarmos é isto que encontramos: 0:01:49.201,0:01:50.811 basicamente a mesma coisa. 0:01:50.811,0:01:52.524 Uma é um pouco maior, 0:01:52.524,0:01:55.582 talvez tenha alguns truques na maneira[br]como está ligado. 0:01:55.582,0:01:59.094 Contudo, essas diferenças invisíveis [br]não podem ser muito complicadas, 0:01:59.094,0:02:03.559 porque apenas houve 250 000 gerações 0:02:03.559,0:02:05.581 desde o nosso último antepassado comum. 0:02:05.581,0:02:09.200 Sabemos que os mecanismos complicados [br]levam muito tempo a evoluir. 0:02:10.000,0:02:12.499 Portanto algumas mudanças mínimas 0:02:12.499,0:02:16.016 levam-nos de Kanzi para Witten, 0:02:16.016,0:02:20.109 desde ramos de árvores quebrados até[br]mísseis balísticos intercontinentais. 0:02:20.839,0:02:24.774 Assim, parece óbvio que tudo aquilo [br]que tenhamos realizado, 0:02:24.774,0:02:26.572 e tudo aquilo que nos preocupa, 0:02:26.572,0:02:31.380 dependa crucialmente de algumas mudanças[br]mínimas que construíram a mente humana. 0:02:32.650,0:02:36.312 E o corolário, claro, é que[br]quaisquer mudanças adicionais 0:02:36.312,0:02:39.789 que poderiam mudar significativamente[br]o substrato de pensar 0:02:39.789,0:02:42.991 poderiam ter enormes consequências. 0:02:44.321,0:02:47.226 Alguns dos meus colegas pensam[br]que estamos à beira 0:02:47.226,0:02:51.134 de algo que poderá causar uma mudança[br]drástica nesse substrato, 0:02:51.134,0:02:54.347 e isso é a super inteligência mecânica. 0:02:54.347,0:02:59.086 A inteligência artificial costumava [br]cingir-se a ordens numa caixa. 0:02:59.086,0:03:00.951 Tínhamos programadores humanos 0:03:00.951,0:03:04.096 que construíam objectos inteligentes[br]cuidadosamente. 0:03:04.686,0:03:06.772 Construíamos esses sistemas [br]especializados, 0:03:06.772,0:03:08.296 e eram úteis para alguns fins, 0:03:08.296,0:03:10.977 mas eram muito frágeis,[br]não podíamos aumentá-los. 0:03:10.977,0:03:14.410 Basicamente, apenas obtínhamos [br]aquilo que lá colocávamos inicialmente. 0:03:14.410,0:03:15.717 Mas a partir daí, 0:03:15.717,0:03:19.234 ocorreu uma mudança de paradigma[br]no campo da inteligência artificial. 0:03:19.234,0:03:22.034 Hoje, a acção anda à volta da[br]aprendizagem da máquina. 0:03:22.764,0:03:28.741 Portanto em vez de construir [br]representações e elementos do conhecimento 0:03:28.741,0:03:34.065 criamos algoritmos que aprendem,[br]muitas vezes a partir de dados em bruto. 0:03:34.905,0:03:38.043 Basicamente a mesma coisa[br]que a criança faz. 0:03:39.063,0:03:43.270 O resultado é uma inteligência artificial[br]que não se limita a um domínio 0:03:43.270,0:03:47.901 — o mesmo sistema que pode aprender a[br]traduzir várias línguas, 0:03:47.901,0:03:53.338 ou aprender a jogar qualquer tipo [br]de jogo de computador na consola Atari. 0:03:53.598,0:03:55.117 Agora, é claro, 0:03:55.117,0:03:59.116 a inteligência artificial ainda está muito[br]longe de ter a mesma capacidade poderosa 0:03:59.116,0:04:02.225 e transversal para aprender[br]e planificar tal como um ser humano. 0:04:02.225,0:04:04.461 O córtex ainda tem alguns[br]truques algorítmicos 0:04:04.461,0:04:06.816 que ainda não sabemos [br]como ligar nas máquinas. 0:04:07.886,0:04:09.785 Portanto a questão é, 0:04:09.785,0:04:13.285 a que distância estamos [br]de poder ligar esses truques? 0:04:14.245,0:04:15.698 Há alguns anos, 0:04:15.698,0:04:18.406 fizemos um inquérito a alguns dos[br]especialistas em I.A., 0:04:18.406,0:04:21.580 para ver o que eles pensam, e uma das[br]questões que colocámos foi: 0:04:21.580,0:04:24.793 "Por volta de que ano é que pensa que[br]atingiremos a I.A. 0:04:24.793,0:04:28.275 ao nível humano,[br]com 50% de probabilidade?" 0:04:28.785,0:04:32.968 Definimos o nível humano [br]como a capacidade de realizar 0:04:32.968,0:04:35.839 praticamente qualquer trabalho.[br]pelo menos como adulto, 0:04:35.839,0:04:39.844 a nível humano real, não apenas[br]dentro de um domínio limitado. 0:04:39.844,0:04:43.494 A resposta média foi 2040 ou 2050, 0:04:43.494,0:04:46.300 consoante o grupo de especialistas [br]a que perguntámos. 0:04:47.430,0:04:50.339 Poderá acontecer muito mais tarde, [br]ou mais cedo, 0:04:50.339,0:04:52.419 a verdade é que ninguém sabe. 0:04:53.259,0:04:56.321 O que nós sabemos [br]é que o limite fundamental 0:04:56.321,0:04:58.961 para processar informação[br]no substrato duma máquina, 0:04:58.961,0:05:02.542 é muito superior ao limite[br]dos tecidos biológicos. 0:05:03.241,0:05:05.619 Isto leva-nos à física. 0:05:05.619,0:05:10.337 Um neurónio biológico dispara, talvez,[br]a 200 hertz, 200 vezes por segundo. 0:05:10.337,0:05:13.691 Mas até um transístor moderno [br]opera em gigahertz. 0:05:13.931,0:05:19.088 Os neurónios propagam lentamente[br]em axónios, a 100 metros por segundo. 0:05:19.088,0:05:22.429 Mas em computadores, os sinais podem[br]deslocar-se à velocidade da luz. 0:05:23.079,0:05:24.948 Também há limitações de tamanho. 0:05:24.948,0:05:27.975 O cérebro humano tem que[br]caber dentro do crânio, 0:05:27.975,0:05:32.736 mas um computador pode ser do tamanho [br]de um armazém ou ainda maior. 0:05:32.736,0:05:38.335 Por isso o potencial para a super[br]inteligência permanece latente na matéria, 0:05:38.335,0:05:44.047 tal como a potência do átomo permaneceu[br]latente na história da humanidade, 0:05:44.047,0:05:47.172 pacientemente à espera até 1945. 0:05:48.452,0:05:49.700 Neste século, 0:05:49.700,0:05:53.818 os cientistas talvez aprendam a despertar[br]o poder da inteligência artificial. 0:05:53.818,0:05:57.826 E penso que poderemos então assistir[br]a uma explosão intelectual. 0:05:58.406,0:06:02.363 A maioria das pessoas, quando pensam[br]acerca do que é a esperteza e a estupidez, 0:06:02.363,0:06:05.386 têm em mente uma imagem [br]como esta, penso eu. 0:06:05.386,0:06:07.984 Numa ponta temos o idiota da aldeia, 0:06:07.984,0:06:10.467 e noutra ponta muito distante 0:06:10.467,0:06:14.733 temos Ed Witten, ou Albert Einstein,[br]ou qualquer um dos vossos gurus favoritos. 0:06:15.223,0:06:19.057 Mas penso que, do ponto de vista[br]da inteligência artificial, 0:06:19.057,0:06:22.738 a imagem verdadeira é provavelmente[br]mais parecida com isto. 0:06:23.258,0:06:26.756 Começa tudo neste ponto aqui,[br]na inteligência zero, 0:06:26.756,0:06:29.647 e depois, após muitos anos [br]de trabalho árduo, 0:06:29.647,0:06:33.721 talvez cheguemos à inteligência[br]artificial ao nível de um rato, 0:06:33.721,0:06:36.231 uma coisa que possa navegar [br]em ambientes obstruídos 0:06:36.231,0:06:37.908 tal como um rato pode. 0:06:37.908,0:06:42.221 E depois, após muitos mais anos[br]de trabalho árduo, muitos investimentos, 0:06:42.221,0:06:46.860 talvez cheguemos à inteligência [br]artificial a nível de um chimpanzé. 0:06:46.860,0:06:50.070 E depois, após ainda mais anos [br]de trabalho ainda mais duro, 0:06:50.070,0:06:53.173 chegamos à inteligência artificial [br]a nível do idiota da aldeia. 0:06:53.173,0:06:56.255 E alguns momentos depois, [br]ultrapassamos Ed Witten. 0:06:56.255,0:06:59.225 O comboio não pára na estação Humanville. 0:06:59.225,0:07:02.247 É mais provável que a ultrapasse. 0:07:02.247,0:07:04.541 Isto tem profundas implicações, 0:07:04.541,0:07:07.693 particularmente no que toca[br]à questão do poder. 0:07:08.103,0:07:10.052 Por exemplo, os chimpanzés são fortes 0:07:10.052,0:07:14.604 — em proporção ao peso, um chimpanzé[br]é duas vezes mais forte que um ser humano. 0:07:15.414,0:07:20.118 No entanto, o destino de Kanzi e dos seus[br]camaradas depende mais 0:07:20.118,0:07:23.968 daquilo que nós humanos fazemos [br]do que o que os chimpanzés fazem. 0:07:25.608,0:07:27.682 Uma vez atingida a super inteligência, 0:07:27.682,0:07:31.251 o destino da humanidade pode depender[br]daquilo que a super inteligência faz. 0:07:32.451,0:07:33.798 Pensem nisto: 0:07:33.798,0:07:38.552 A inteligência mecânica é a última invenção[br]que a humanidade precisa de fazer. 0:07:38.552,0:07:41.525 As máquinas tornar-se-ão melhores [br]a inventar do que nós, 0:07:41.525,0:07:44.065 e farão isso em tempos digitais. 0:07:44.335,0:07:48.966 O que isto significa é basicamente uma[br]previsão do futuro distante. 0:07:49.156,0:07:52.764 Pensem em todas as tecnologias absurdas[br]que alguma vez podem ter imaginado 0:07:52.764,0:07:55.412 que os humanos pudessem ter[br]desenvolvido com o tempo: 0:07:55.412,0:07:58.580 curas para o envelhecimento,[br]colonização do espaço, 0:07:58.580,0:08:02.311 nanorobôs auto-replicadores ou transferir[br]as nossas mentes para computadores, 0:08:02.311,0:08:04.650 todos os tipos de objectos [br]da ciência ficção 0:08:04.650,0:08:07.337 que, no entanto, são consistentes[br]com as leis da física. 0:08:07.337,0:08:11.419 Toda esta super inteligência poderia [br]ser desenvolvida, e rapidamente. 0:08:12.449,0:08:16.007 Uma super inteligência com tanta[br]maturidade tecnológica 0:08:16.007,0:08:18.186 poderia ser extremamente poderosa 0:08:18.186,0:08:22.732 e, pelo menos nalguns cenários,[br]poderia conseguir aquilo que quer. 0:08:23.372,0:08:26.855 Teríamos então um futuro construído 0:08:26.855,0:08:29.625 segundo as preferências [br]dessa inteligência artificial. 0:08:29.855,0:08:33.604 Agora uma boa pergunta é,[br]quais são essas preferências? 0:08:34.244,0:08:35.953 Aqui torna-se mais complicado. 0:08:35.953,0:08:37.848 Para fazer qualquer progresso com isto, 0:08:37.848,0:08:40.724 temos de, primeiramente,[br]evitar antropomorfizar. 0:08:41.934,0:08:45.565 E isto é irónico porque [br]todos os artigos de jornais 0:08:45.565,0:08:48.810 acerca do futuro da inteligência[br]artificial têm uma imagem como esta. 0:08:50.280,0:08:54.414 Então penso que aquilo que temos de fazer[br]é imaginar a questão mais abstractamente, 0:08:54.414,0:08:57.204 não em termos de cenários[br]brilhantes de Hollywood. 0:08:57.204,0:09:00.821 Temos de pensar na inteligência como[br]um processo de optimização, 0:09:00.821,0:09:05.870 um processo que guia o futuro para [br]um conjunto particular de configurações. 0:09:06.470,0:09:10.091 A super inteligência é um processo de[br]optimização muito forte. 0:09:10.091,0:09:14.098 É extremamente bom a utilizar os meios[br]disponíveis para atingir um estado 0:09:14.098,0:09:16.267 no qual o seu objetivo seja atingido. 0:09:16.447,0:09:19.119 Isto significa que não há [br]ligação necessária 0:09:19.119,0:09:21.853 entre ser muito inteligente neste sentido, 0:09:21.853,0:09:26.515 e ter um objectivo que nós humanos[br]acharíamos útil ou proveitoso. 0:09:27.191,0:09:31.445 Suponham que damos o objectivo de criar[br]sorrisos humanos à inteligência artificial. 0:09:31.445,0:09:34.097 Quando a I.A. é fraca,[br]realiza acções cómicas ou úteis 0:09:34.097,0:09:36.314 que levam o utilizador a sorrir. 0:09:36.314,0:09:39.241 Quando a inteligência artificial [br]se torna super inteligente, 0:09:39.241,0:09:42.554 apercebe-se que existe uma melhor forma [br]de atingir esse objectivo: 0:09:42.554,0:09:44.476 controlar o mundo 0:09:44.476,0:09:47.638 e inserir eléctrodos [br]nos músculos faciais dos humanos 0:09:47.638,0:09:50.479 para causar sorrisos [br]constantes e radiantes. 0:09:50.479,0:09:51.614 Outro exemplo: 0:09:51.614,0:09:54.997 suponham que desafiamos a I.A.[br]a resolver um problema matemático difícil. 0:09:54.997,0:09:56.934 Quando a I.A. se torna[br]super inteligente, 0:09:56.934,0:10:01.105 percebe que a forma mais eficiente de [br]obter a solução para este problema 0:10:01.105,0:10:04.035 é através da transformação do planeta[br]num computador gigante, 0:10:04.035,0:10:06.281 para aumentar a sua capacidade de pensar. 0:10:06.281,0:10:09.045 E reparem que isto dá uma razão[br]instrumental à I.A. 0:10:09.045,0:10:11.441 para nos fazer coisas [br]que possamos não aprovar. 0:10:11.441,0:10:13.776 Neste modelo, os seres humanos [br]são uma ameaça, 0:10:13.776,0:10:16.737 poderíamos impedir a resolução [br]deste problema matemático. 0:10:16.877,0:10:20.701 Claro, as coisas não vão dar erradas [br]nessas formas particulares; 0:10:20.701,0:10:22.454 estes são exemplos caricaturados. 0:10:22.454,0:10:24.503 Mas este ponto geral é importante: 0:10:24.503,0:10:27.266 se criarem um processo de optimização[br]muito potente 0:10:27.266,0:10:29.500 para maximizar o objectivo x, 0:10:29.500,0:10:31.776 é melhor assegurarem-se [br]que a definição de x 0:10:31.776,0:10:34.245 incorpora tudo aquilo que vos interessa. 0:10:34.835,0:10:39.219 Esta é uma lição que também [br]é ensinada em muitos mitos. 0:10:39.219,0:10:44.517 O Rei Midas deseja que tudo aquilo[br]em que ele toca se torne ouro. 0:10:44.517,0:10:47.378 Toca na filha dele, transforma-a em ouro. 0:10:47.378,0:10:49.931 Toca na comida dele, esta torna-se ouro. 0:10:49.931,0:10:52.520 Isto poderia tornar-se [br]particularmente relevante, 0:10:52.520,0:10:54.590 não apenas como metáfora para a ganância, 0:10:54.590,0:10:56.745 mas como uma ilustração[br]daquilo que acontece 0:10:56.745,0:10:59.322 se criarem um processo [br]de optimização poderoso 0:10:59.322,0:11:03.321 e lhe derem objectivos pouco específicos. 0:11:04.441,0:11:09.300 Podem dizer, se um computador começar a[br]prender eléctrodos nas caras das pessoas, 0:11:09.300,0:11:11.565 basta desligá-los. 0:11:12.555,0:11:17.895 A) isso não é assim tão fácil de fazer[br]se nos tornarmos dependentes do sistema 0:11:17.895,0:11:20.627 — por exemplo, onde está [br]o interruptor da Internet? 0:11:21.087,0:11:24.267 B) porque é que os chimpanzés [br]ou os neandertais 0:11:24.267,0:11:27.298 não desligaram[br]o interruptor para a humanidade? 0:11:27.298,0:11:29.964 Eles de certeza que tinham motivos. 0:11:29.964,0:11:32.759 Temos um interruptor aqui, por exemplo. 0:11:32.899,0:11:34.313 (Sufocação) 0:11:34.583,0:11:37.238 A razão é que somos [br]um adversário inteligente; 0:11:37.238,0:11:39.966 podemos prever ameaças [br]e fazer planos para evitá-las. 0:11:39.966,0:11:42.470 Mas isso também consegue[br]um agente super inteligente, 0:11:42.470,0:11:45.034 e seria muito melhor nisso do que nós. 0:11:45.724,0:11:52.911 A questão é, não devemos ser confiantes [br]e pensar que temos tudo sob controlo. 0:11:52.911,0:11:55.778 Podíamos tentar fazer o nosso trabalho[br]um pouco mais fácil, 0:11:55.778,0:11:57.948 pondo a inteligência artificial numa caixa, 0:11:57.948,0:11:59.854 como um "software" de ambiente seguro, 0:11:59.854,0:12:02.766 uma simulação da realidade virtual [br]da qual não possa escapar. 0:12:02.766,0:12:06.912 Mas quanta certeza podemos ter [br]que a I.A. não encontraria um buraco. 0:12:06.912,0:12:10.081 Dado que os "hackers" humanos[br]estão sempre a encontrar buracos, 0:12:10.081,0:12:13.117 eu diria, provavelmente [br]não muito confiantes. 0:12:14.237,0:12:18.785 Então desligamos o cabo da Ethernet [br]para criar uma caixa de ar, 0:12:18.785,0:12:21.453 mas mais uma vez, como meros "hackers" 0:12:21.453,0:12:24.834 que transgridem caixas de ar [br]utilizando engenharia social. 0:12:24.834,0:12:26.533 Neste momento em que falo, 0:12:26.533,0:12:28.732 tenho a certeza que há [br]um empregado, algures. 0:12:28.732,0:12:31.828 a quem alguém que diz [br]ser do departamento de informática 0:12:31.828,0:12:34.574 está a pedir os dados [br]de identificação e "password". 0:12:34.814,0:12:37.021 Também são possíveis [br]cenários mais criativos. 0:12:37.021,0:12:38.786 Por exemplo, uma I.A. pode imaginar 0:12:38.786,0:12:41.548 agitar eléctrodos nos circuitos internos 0:12:41.548,0:12:44.750 para criar ondas de rádio [br]que pode utilizar para comunicar. 0:12:45.010,0:12:47.304 Ou talvez pudesse fingir uma avaria 0:12:47.304,0:12:51.061 e depois, quando os programadores a abrirem[br]para ver o que se passou de errado, 0:12:51.061,0:12:52.867 olham para o código fonte — Bam! — 0:12:52.867,0:12:55.314 a manipulação toma lugar. 0:12:55.314,0:12:58.744 Ou poderia emitir um rascunho [br]para uma tecnologia genial 0:12:58.744,0:13:00.322 e, quando a implementamos, 0:13:00.322,0:13:04.539 tem alguns efeitos secundários [br]que a inteligência artificial planeou. 0:13:05.149,0:13:08.112 A questão aqui é que não deveríamos[br]confiar na nossa capacidade 0:13:08.112,0:13:11.810 em manter um génio super inteligente[br]fechado na sua garrafa para sempre. 0:13:11.810,0:13:14.064 Mais cedo ou mais tarde ele vai sair. 0:13:15.034,0:13:18.137 Acredito que a resposta seja encontrar 0:13:18.137,0:13:23.161 uma forma de criar uma inteligência[br]artificial que, mesmo que escape, 0:13:23.161,0:13:26.438 ainda se mantenha segura porque está[br]fundamentalmente do nosso lado 0:13:26.438,0:13:28.337 porque partilha os nossos valores. 0:13:28.337,0:13:31.547 Não vejo outra forma [br]para este problema complexo. 0:13:32.557,0:13:36.391 Eu sinto-me optimista [br]quanto à resolução deste problema. 0:13:36.391,0:13:40.294 Não teríamos de escrever uma longa lista[br]com tudo aquilo que nos é importante, 0:13:40.294,0:13:43.937 ou ainda pior, enunciá-la numa[br]linguagem de computador 0:13:43.937,0:13:45.391 como C++ ou Python, 0:13:45.391,0:13:48.158 o que seria uma tarefa sem esperança. 0:13:48.158,0:13:52.455 Em vez disso, criaríamos uma inteligência[br]artificial que utiliza a sua inteligência 0:13:52.455,0:13:55.226 para aprender o que nós valorizamos. 0:13:55.226,0:14:00.506 O seu sistema de motivação seria construído[br]de tal forma que fosse motivado 0:14:00.506,0:14:05.738 pela busca de valores ou de acções,[br]prevendo que iríamos aprová-las. 0:14:06.338,0:14:09.432 Iríamos então elevar a sua inteligência[br]o mais possível 0:14:09.432,0:14:12.117 para resolver o problema de [br]carregamento de valores. 0:14:12.727,0:14:14.239 Isto pode acontecer, 0:14:14.239,0:14:17.835 e o resultado poderia ser muito[br]bom para a Humanidade. 0:14:17.835,0:14:21.022 Mas não acontece sozinho. 0:14:21.792,0:14:24.790 As condições iniciais para a [br]explosão da inteligência 0:14:24.790,0:14:27.653 podem precisar de ser definidas[br]da forma correta 0:14:27.653,0:14:30.363 se queremos ter uma detonação controlada. 0:14:31.183,0:14:33.801 Os valores da I.A.[br]têm de corresponder aos nossos, 0:14:33.801,0:14:35.701 não apenas num contexto familiar, 0:14:35.701,0:14:38.389 onde podemos ver com facilidade[br]como a I.A. se comporta, 0:14:38.389,0:14:41.233 mas também em todos os contextos [br]que a I.A. possa encontrar 0:14:41.233,0:14:42.790 no futuro indefinido. 0:14:42.790,0:14:47.527 E há também algumas questões esotéricas[br]que teriam de ser resolvidas, que são: 0:14:47.527,0:14:49.616 os detalhes exactos da sua[br]teoria decisiva, 0:14:49.616,0:14:52.480 como lidar com a incerteza lógica [br]e assim por diante. 0:14:53.330,0:14:56.292 Os problemas que têm de ser[br]resolvidos tornam este trabalho 0:14:56.292,0:14:57.545 um pouco difícil 0:14:57.545,0:15:01.065 — não tão difícil como fazer uma[br]inteligência artificial super inteligente 0:15:01.065,0:15:03.793 mas bastante difícil. 0:15:03.793,0:15:05.488 A preocupação é esta: 0:15:05.488,0:15:10.172 Criar uma inteligência artificial super[br]inteligente é um grande desafio. 0:15:10.172,0:15:12.720 Fazer uma inteligência artificial[br]que seja segura 0:15:12.720,0:15:15.466 envolve desafios adicionais [br]para além deste. 0:15:16.216,0:15:19.703 O risco é que, se alguém descobre uma[br]forma de piratear o primeiro desafio 0:15:19.703,0:15:22.704 sem ter pirateado o desafio adicional 0:15:22.704,0:15:24.865 de assegurar a segurança perfeita. 0:15:25.375,0:15:28.706 Por isso eu penso que deveríamos [br]trabalhar numa solução 0:15:28.706,0:15:31.528 para controlar os problemas[br]com antecedência, 0:15:31.528,0:15:34.188 para que o tenhamos disponível [br]para quando for preciso. 0:15:34.768,0:15:38.275 Pode ser que não consigamos resolver [br]o problema de controlo por inteiro 0:15:38.275,0:15:41.299 porque talvez apenas se possam[br]colocar alguns elementos 0:15:41.299,0:15:45.296 uma vez que saibamos os detalhes da[br]arquitectura onde vai ser implementado. 0:15:45.296,0:15:48.986 Mas quanto mais resolvermos [br]o problema de controlo, 0:15:48.986,0:15:52.966 maior será a probabilidade que a transição[br]para a era da inteligência mecânica 0:15:52.966,0:15:54.306 corra bem. 0:15:54.566,0:15:58.950 Isto parece-me algo [br]que vale a pena ser feito 0:15:58.950,0:16:02.282 e posso imaginar que,[br]se as coisas correrem bem, 0:16:02.282,0:16:06.940 as pessoas daqui um milhão de anos[br]vão olhar para este século 0:16:06.940,0:16:10.942 e é muito provável que digam que uma das[br]coisas que fizemos e que teve impacto 0:16:10.942,0:16:12.509 foi pôr isto a funcionar. 0:16:12.509,0:16:14.198 Obrigado. 0:16:14.210,0:16:18.210 (Aplausos)