WEBVTT 00:00:00.570 --> 00:00:05.337 Eu trabalho com um grupo de matemáticos, filósofos e informáticos, 00:00:05.337 --> 00:00:09.986 e pensamos acerca do futuro da inteligência mecânica, 00:00:09.986 --> 00:00:12.030 entre outras coisas. 00:00:12.210 --> 00:00:16.755 Algumas pessoas pensam que algumas destas coisas são como ciência ficção, 00:00:16.755 --> 00:00:19.856 muito longe da realidade. 00:00:19.856 --> 00:00:21.326 Mas eu gosto de dizer, 00:00:21.326 --> 00:00:24.930 olhemos para as condições humanas modernas. 00:00:24.930 --> 00:00:26.622 (Risos) 00:00:26.622 --> 00:00:29.024 Essa é a forma normal de as coisas serem. NOTE Paragraph 00:00:29.024 --> 00:00:31.309 Mas se pensarmos nisso, 00:00:31.309 --> 00:00:34.602 somos na verdade visitantes recentes neste planeta, 00:00:34.602 --> 00:00:36.684 a espécie humana. 00:00:36.684 --> 00:00:41.430 Imaginem, se a Terra tivesse sido criada há um ano, 00:00:41.430 --> 00:00:44.978 a espécie humana, então, teria 10 minutos de vida. 00:00:44.978 --> 00:00:48.146 A era da indústria teria começado há 2 segundos. 00:00:49.276 --> 00:00:51.171 Outra forma de olhar para isto 00:00:51.171 --> 00:00:54.321 é calcular o PIB mundial dos últimos 10 000 anos, 00:00:54.501 --> 00:00:57.530 Tive a preocupação de inserir isto num gráfico para vocês verem. 00:00:57.680 --> 00:00:59.304 Parece-se com isto. 00:00:59.304 --> 00:01:00.667 (Risos) 00:01:00.667 --> 00:01:02.818 É uma forma curiosa para uma situação normal. 00:01:03.178 --> 00:01:05.046 Eu não ficaria muito descansado. 00:01:05.046 --> 00:01:07.067 (Risos) NOTE Paragraph 00:01:07.067 --> 00:01:11.841 Perguntemos a nós próprios, qual é a causa dessa anomalia? 00:01:11.841 --> 00:01:14.563 Algumas pessoas diriam que é a tecnologia. 00:01:14.563 --> 00:01:19.061 É verdade, a tecnologia acumulou-se durante a história da humanidade 00:01:19.061 --> 00:01:23.713 e, neste momento, a tecnologia evolui extremamente depressa 00:01:23.713 --> 00:01:25.478 — essa é a causa imediata — 00:01:25.478 --> 00:01:28.073 é por isso que estamos tão produtivos. 00:01:28.473 --> 00:01:32.134 Mas eu gosto de pensar mais além, para a causa fundamental. NOTE Paragraph 00:01:33.114 --> 00:01:36.640 Olhem para estes dois senhores muito distintos: 00:01:36.880 --> 00:01:38.480 Temos o Kanzi, 00:01:38.480 --> 00:01:43.123 ele dominava 200 símbolos lexicais, uma incrível proeza. 00:01:43.123 --> 00:01:46.817 E Ed Witten desencadeou a segunda revolução das supercordas. 00:01:46.817 --> 00:01:49.201 Se examinarmos é isto que encontramos: 00:01:49.201 --> 00:01:50.811 basicamente a mesma coisa. 00:01:50.811 --> 00:01:52.524 Uma é um pouco maior, 00:01:52.524 --> 00:01:55.582 talvez tenha alguns truques na maneira como está ligado. 00:01:55.582 --> 00:01:59.094 Contudo, essas diferenças invisíveis não podem ser muito complicadas, 00:01:59.094 --> 00:02:03.559 porque apenas houve 250 000 gerações 00:02:03.559 --> 00:02:05.581 desde o nosso último antepassado comum. 00:02:05.581 --> 00:02:09.200 Sabemos que os mecanismos complicados levam muito tempo a evoluir. 00:02:10.000 --> 00:02:12.499 Portanto algumas mudanças mínimas 00:02:12.499 --> 00:02:16.016 levam-nos de Kanzi para Witten, 00:02:16.016 --> 00:02:20.109 desde ramos de árvores quebrados até mísseis balísticos intercontinentais. NOTE Paragraph 00:02:20.839 --> 00:02:24.774 Assim, parece óbvio que tudo aquilo que tenhamos realizado, 00:02:24.774 --> 00:02:26.572 e tudo aquilo que nos preocupa, 00:02:26.572 --> 00:02:31.380 dependa crucialmente de algumas mudanças mínimas que construíram a mente humana. 00:02:32.650 --> 00:02:36.312 E o corolário, claro, é que quaisquer mudanças adicionais 00:02:36.312 --> 00:02:39.789 que poderiam mudar significativamente o substrato de pensar 00:02:39.789 --> 00:02:42.991 poderiam ter enormes consequências. NOTE Paragraph 00:02:44.321 --> 00:02:47.226 Alguns dos meus colegas pensam que estamos à beira 00:02:47.226 --> 00:02:51.134 de algo que poderá causar uma mudança drástica nesse substrato, 00:02:51.134 --> 00:02:54.347 e isso é a super inteligência mecânica. 00:02:54.347 --> 00:02:59.086 A inteligência artificial costumava cingir-se a ordens numa caixa. 00:02:59.086 --> 00:03:00.951 Tínhamos programadores humanos 00:03:00.951 --> 00:03:04.096 que construíam objectos inteligentes cuidadosamente. 00:03:04.686 --> 00:03:06.772 Construíamos esses sistemas especializados, 00:03:06.772 --> 00:03:08.296 e eram úteis para alguns fins, 00:03:08.296 --> 00:03:10.977 mas eram muito frágeis, não podíamos aumentá-los. 00:03:10.977 --> 00:03:14.410 Basicamente, apenas obtínhamos aquilo que lá colocávamos inicialmente. 00:03:14.410 --> 00:03:15.717 Mas a partir daí, 00:03:15.717 --> 00:03:19.234 ocorreu uma mudança de paradigma no campo da inteligência artificial. NOTE Paragraph 00:03:19.234 --> 00:03:22.034 Hoje, a acção anda à volta da aprendizagem da máquina. 00:03:22.764 --> 00:03:28.741 Portanto em vez de construir representações e elementos do conhecimento 00:03:28.741 --> 00:03:34.065 criamos algoritmos que aprendem, muitas vezes a partir de dados em bruto. 00:03:34.905 --> 00:03:38.043 Basicamente a mesma coisa que a criança faz. 00:03:39.063 --> 00:03:43.270 O resultado é uma inteligência artificial que não se limita a um domínio 00:03:43.270 --> 00:03:47.901 — o mesmo sistema que pode aprender a traduzir várias línguas, 00:03:47.901 --> 00:03:53.338 ou aprender a jogar qualquer tipo de jogo de computador na consola Atari. 00:03:53.598 --> 00:03:55.117 Agora, é claro, 00:03:55.117 --> 00:03:59.116 a inteligência artificial ainda está muito longe de ter a mesma capacidade poderosa 00:03:59.116 --> 00:04:02.225 e transversal para aprender e planificar tal como um ser humano. 00:04:02.225 --> 00:04:04.461 O córtex ainda tem alguns truques algorítmicos 00:04:04.461 --> 00:04:06.816 que ainda não sabemos como ligar nas máquinas. NOTE Paragraph 00:04:07.886 --> 00:04:09.785 Portanto a questão é, 00:04:09.785 --> 00:04:13.285 a que distância estamos de poder ligar esses truques? 00:04:14.245 --> 00:04:15.698 Há alguns anos, 00:04:15.698 --> 00:04:18.406 fizemos um inquérito a alguns dos especialistas em I.A., 00:04:18.406 --> 00:04:21.580 para ver o que eles pensam, e uma das questões que colocámos foi: 00:04:21.580 --> 00:04:24.793 "Por volta de que ano é que pensa que atingiremos a I.A. 00:04:24.793 --> 00:04:28.275 ao nível humano, com 50% de probabilidade?" 00:04:28.785 --> 00:04:32.968 Definimos o nível humano como a capacidade de realizar 00:04:32.968 --> 00:04:35.839 praticamente qualquer trabalho. pelo menos como adulto, 00:04:35.839 --> 00:04:39.844 a nível humano real, não apenas dentro de um domínio limitado. 00:04:39.844 --> 00:04:43.494 A resposta média foi 2040 ou 2050, 00:04:43.494 --> 00:04:46.300 consoante o grupo de especialistas a que perguntámos. 00:04:47.430 --> 00:04:50.339 Poderá acontecer muito mais tarde, ou mais cedo, 00:04:50.339 --> 00:04:52.419 a verdade é que ninguém sabe. NOTE Paragraph 00:04:53.259 --> 00:04:56.321 O que nós sabemos é que o limite fundamental 00:04:56.321 --> 00:04:58.961 para processar informação no substrato duma máquina, 00:04:58.961 --> 00:05:02.542 é muito superior ao limite dos tecidos biológicos. 00:05:03.241 --> 00:05:05.619 Isto leva-nos à física. 00:05:05.619 --> 00:05:10.337 Um neurónio biológico dispara, talvez, a 200 hertz, 200 vezes por segundo. 00:05:10.337 --> 00:05:13.691 Mas até um transístor moderno opera em gigahertz. 00:05:13.931 --> 00:05:19.088 Os neurónios propagam lentamente em axónios, a 100 metros por segundo. 00:05:19.088 --> 00:05:22.429 Mas em computadores, os sinais podem deslocar-se à velocidade da luz. 00:05:23.079 --> 00:05:24.948 Também há limitações de tamanho. 00:05:24.948 --> 00:05:27.975 O cérebro humano tem que caber dentro do crânio, 00:05:27.975 --> 00:05:32.736 mas um computador pode ser do tamanho de um armazém ou ainda maior. 00:05:32.736 --> 00:05:38.335 Por isso o potencial para a super inteligência permanece latente na matéria, 00:05:38.335 --> 00:05:44.047 tal como a potência do átomo permaneceu latente na história da humanidade, 00:05:44.047 --> 00:05:47.172 pacientemente à espera até 1945. 00:05:48.452 --> 00:05:49.700 Neste século, 00:05:49.700 --> 00:05:53.818 os cientistas talvez aprendam a despertar o poder da inteligência artificial. 00:05:53.818 --> 00:05:57.826 E penso que poderemos então assistir a uma explosão intelectual. NOTE Paragraph 00:05:58.406 --> 00:06:02.363 A maioria das pessoas, quando pensam acerca do que é a esperteza e a estupidez, 00:06:02.363 --> 00:06:05.386 têm em mente uma imagem como esta, penso eu. 00:06:05.386 --> 00:06:07.984 Numa ponta temos o idiota da aldeia, 00:06:07.984 --> 00:06:10.467 e noutra ponta muito distante 00:06:10.467 --> 00:06:14.733 temos Ed Witten, ou Albert Einstein, ou qualquer um dos vossos gurus favoritos. 00:06:15.223 --> 00:06:19.057 Mas penso que, do ponto de vista da inteligência artificial, 00:06:19.057 --> 00:06:22.738 a imagem verdadeira é provavelmente mais parecida com isto. 00:06:23.258 --> 00:06:26.756 Começa tudo neste ponto aqui, na inteligência zero, 00:06:26.756 --> 00:06:29.647 e depois, após muitos anos de trabalho árduo, 00:06:29.647 --> 00:06:33.721 talvez cheguemos à inteligência artificial ao nível de um rato, 00:06:33.721 --> 00:06:36.231 uma coisa que possa navegar em ambientes obstruídos 00:06:36.231 --> 00:06:37.908 tal como um rato pode. 00:06:37.908 --> 00:06:42.221 E depois, após muitos mais anos de trabalho árduo, muitos investimentos, 00:06:42.221 --> 00:06:46.860 talvez cheguemos à inteligência artificial a nível de um chimpanzé. 00:06:46.860 --> 00:06:50.070 E depois, após ainda mais anos de trabalho ainda mais duro, 00:06:50.070 --> 00:06:53.173 chegamos à inteligência artificial a nível do idiota da aldeia. 00:06:53.173 --> 00:06:56.255 E alguns momentos depois, ultrapassamos Ed Witten. 00:06:56.255 --> 00:06:59.225 O comboio não pára na estação Humanville. 00:06:59.225 --> 00:07:02.247 É mais provável que a ultrapasse. NOTE Paragraph 00:07:02.247 --> 00:07:04.541 Isto tem profundas implicações, 00:07:04.541 --> 00:07:07.693 particularmente no que toca à questão do poder. 00:07:08.103 --> 00:07:10.052 Por exemplo, os chimpanzés são fortes 00:07:10.052 --> 00:07:14.604 — em proporção ao peso, um chimpanzé é duas vezes mais forte que um ser humano. 00:07:15.414 --> 00:07:20.118 No entanto, o destino de Kanzi e dos seus camaradas depende mais 00:07:20.118 --> 00:07:23.968 daquilo que nós humanos fazemos do que o que os chimpanzés fazem. 00:07:25.608 --> 00:07:27.682 Uma vez atingida a super inteligência, 00:07:27.682 --> 00:07:31.251 o destino da humanidade pode depender daquilo que a super inteligência faz. 00:07:32.451 --> 00:07:33.798 Pensem nisto: 00:07:33.798 --> 00:07:38.552 A inteligência mecânica é a última invenção que a humanidade precisa de fazer. 00:07:38.552 --> 00:07:41.525 As máquinas tornar-se-ão melhores a inventar do que nós, 00:07:41.525 --> 00:07:44.065 e farão isso em tempos digitais. 00:07:44.335 --> 00:07:48.966 O que isto significa é basicamente uma previsão do futuro distante. 00:07:49.156 --> 00:07:52.764 Pensem em todas as tecnologias absurdas que alguma vez podem ter imaginado 00:07:52.764 --> 00:07:55.412 que os humanos pudessem ter desenvolvido com o tempo: 00:07:55.412 --> 00:07:58.580 curas para o envelhecimento, colonização do espaço, 00:07:58.580 --> 00:08:02.311 nanorobôs auto-replicadores ou transferir as nossas mentes para computadores, 00:08:02.311 --> 00:08:04.650 todos os tipos de objectos da ciência ficção 00:08:04.650 --> 00:08:07.337 que, no entanto, são consistentes com as leis da física. 00:08:07.337 --> 00:08:11.419 Toda esta super inteligência poderia ser desenvolvida, e rapidamente. NOTE Paragraph 00:08:12.449 --> 00:08:16.007 Uma super inteligência com tanta maturidade tecnológica 00:08:16.007 --> 00:08:18.186 poderia ser extremamente poderosa 00:08:18.186 --> 00:08:22.732 e, pelo menos nalguns cenários, poderia conseguir aquilo que quer. 00:08:23.372 --> 00:08:26.855 Teríamos então um futuro construído 00:08:26.855 --> 00:08:29.625 segundo as preferências dessa inteligência artificial. 00:08:29.855 --> 00:08:33.604 Agora uma boa pergunta é, quais são essas preferências? 00:08:34.244 --> 00:08:35.953 Aqui torna-se mais complicado. 00:08:35.953 --> 00:08:37.848 Para fazer qualquer progresso com isto, 00:08:37.848 --> 00:08:40.724 temos de, primeiramente, evitar antropomorfizar. 00:08:41.934 --> 00:08:45.565 E isto é irónico porque todos os artigos de jornais 00:08:45.565 --> 00:08:48.810 acerca do futuro da inteligência artificial têm uma imagem como esta. 00:08:50.280 --> 00:08:54.414 Então penso que aquilo que temos de fazer é imaginar a questão mais abstractamente, 00:08:54.414 --> 00:08:57.204 não em termos de cenários brilhantes de Hollywood. NOTE Paragraph 00:08:57.204 --> 00:09:00.821 Temos de pensar na inteligência como um processo de optimização, 00:09:00.821 --> 00:09:05.870 um processo que guia o futuro para um conjunto particular de configurações. 00:09:06.470 --> 00:09:10.091 A super inteligência é um processo de optimização muito forte. 00:09:10.091 --> 00:09:14.098 É extremamente bom a utilizar os meios disponíveis para atingir um estado 00:09:14.098 --> 00:09:16.267 no qual o seu objetivo seja atingido. 00:09:16.447 --> 00:09:19.119 Isto significa que não há ligação necessária 00:09:19.119 --> 00:09:21.853 entre ser muito inteligente neste sentido, 00:09:21.853 --> 00:09:26.515 e ter um objectivo que nós humanos acharíamos útil ou proveitoso. NOTE Paragraph 00:09:27.191 --> 00:09:31.445 Suponham que damos o objectivo de criar sorrisos humanos à inteligência artificial. 00:09:31.445 --> 00:09:34.097 Quando a I.A. é fraca, realiza acções cómicas ou úteis 00:09:34.097 --> 00:09:36.314 que levam o utilizador a sorrir. 00:09:36.314 --> 00:09:39.241 Quando a inteligência artificial se torna super inteligente, 00:09:39.241 --> 00:09:42.554 apercebe-se que existe uma melhor forma de atingir esse objectivo: 00:09:42.554 --> 00:09:44.476 controlar o mundo 00:09:44.476 --> 00:09:47.638 e inserir eléctrodos nos músculos faciais dos humanos 00:09:47.638 --> 00:09:50.479 para causar sorrisos constantes e radiantes. 00:09:50.479 --> 00:09:51.614 Outro exemplo: 00:09:51.614 --> 00:09:54.997 suponham que desafiamos a I.A. a resolver um problema matemático difícil. 00:09:54.997 --> 00:09:56.934 Quando a I.A. se torna super inteligente, 00:09:56.934 --> 00:10:01.105 percebe que a forma mais eficiente de obter a solução para este problema 00:10:01.105 --> 00:10:04.035 é através da transformação do planeta num computador gigante, 00:10:04.035 --> 00:10:06.281 para aumentar a sua capacidade de pensar. 00:10:06.281 --> 00:10:09.045 E reparem que isto dá uma razão instrumental à I.A. 00:10:09.045 --> 00:10:11.441 para nos fazer coisas que possamos não aprovar. 00:10:11.441 --> 00:10:13.776 Neste modelo, os seres humanos são uma ameaça, 00:10:13.776 --> 00:10:16.737 poderíamos impedir a resolução deste problema matemático. NOTE Paragraph 00:10:16.877 --> 00:10:20.701 Claro, as coisas não vão dar erradas nessas formas particulares; 00:10:20.701 --> 00:10:22.454 estes são exemplos caricaturados. 00:10:22.454 --> 00:10:24.503 Mas este ponto geral é importante: 00:10:24.503 --> 00:10:27.266 se criarem um processo de optimização muito potente 00:10:27.266 --> 00:10:29.500 para maximizar o objectivo x, 00:10:29.500 --> 00:10:31.776 é melhor assegurarem-se que a definição de x 00:10:31.776 --> 00:10:34.245 incorpora tudo aquilo que vos interessa. 00:10:34.835 --> 00:10:39.219 Esta é uma lição que também é ensinada em muitos mitos. 00:10:39.219 --> 00:10:44.517 O Rei Midas deseja que tudo aquilo em que ele toca se torne ouro. 00:10:44.517 --> 00:10:47.378 Toca na filha dele, transforma-a em ouro. 00:10:47.378 --> 00:10:49.931 Toca na comida dele, esta torna-se ouro. 00:10:49.931 --> 00:10:52.520 Isto poderia tornar-se particularmente relevante, 00:10:52.520 --> 00:10:54.590 não apenas como metáfora para a ganância, 00:10:54.590 --> 00:10:56.745 mas como uma ilustração daquilo que acontece 00:10:56.745 --> 00:10:59.322 se criarem um processo de optimização poderoso 00:10:59.322 --> 00:11:03.321 e lhe derem objectivos pouco específicos. NOTE Paragraph 00:11:04.441 --> 00:11:09.300 Podem dizer, se um computador começar a prender eléctrodos nas caras das pessoas, 00:11:09.300 --> 00:11:11.565 basta desligá-los. 00:11:12.555 --> 00:11:17.895 A) isso não é assim tão fácil de fazer se nos tornarmos dependentes do sistema 00:11:17.895 --> 00:11:20.627 — por exemplo, onde está o interruptor da Internet? 00:11:21.087 --> 00:11:24.267 B) porque é que os chimpanzés ou os neandertais 00:11:24.267 --> 00:11:27.298 não desligaram o interruptor para a humanidade? 00:11:27.298 --> 00:11:29.964 Eles de certeza que tinham motivos. 00:11:29.964 --> 00:11:32.759 Temos um interruptor aqui, por exemplo. 00:11:32.899 --> 00:11:34.313 (Sufocação) 00:11:34.583 --> 00:11:37.238 A razão é que somos um adversário inteligente; 00:11:37.238 --> 00:11:39.966 podemos prever ameaças e fazer planos para evitá-las. 00:11:39.966 --> 00:11:42.470 Mas isso também consegue um agente super inteligente, 00:11:42.470 --> 00:11:45.034 e seria muito melhor nisso do que nós. 00:11:45.724 --> 00:11:52.911 A questão é, não devemos ser confiantes e pensar que temos tudo sob controlo. NOTE Paragraph 00:11:52.911 --> 00:11:55.778 Podíamos tentar fazer o nosso trabalho um pouco mais fácil, 00:11:55.778 --> 00:11:57.948 pondo a inteligência artificial numa caixa, 00:11:57.948 --> 00:11:59.854 como um "software" de ambiente seguro, 00:11:59.854 --> 00:12:02.766 uma simulação da realidade virtual da qual não possa escapar. 00:12:02.766 --> 00:12:06.912 Mas quanta certeza podemos ter que a I.A. não encontraria um buraco. 00:12:06.912 --> 00:12:10.081 Dado que os "hackers" humanos estão sempre a encontrar buracos, 00:12:10.081 --> 00:12:13.117 eu diria, provavelmente não muito confiantes. 00:12:14.237 --> 00:12:18.785 Então desligamos o cabo da Ethernet para criar uma caixa de ar, 00:12:18.785 --> 00:12:21.453 mas mais uma vez, como meros "hackers" 00:12:21.453 --> 00:12:24.834 que transgridem caixas de ar utilizando engenharia social. 00:12:24.834 --> 00:12:26.533 Neste momento em que falo, 00:12:26.533 --> 00:12:28.732 tenho a certeza que há um empregado, algures. 00:12:28.732 --> 00:12:31.828 a quem alguém que diz ser do departamento de informática 00:12:31.828 --> 00:12:34.574 está a pedir os dados de identificação e "password". NOTE Paragraph 00:12:34.814 --> 00:12:37.021 Também são possíveis cenários mais criativos. 00:12:37.021 --> 00:12:38.786 Por exemplo, uma I.A. pode imaginar 00:12:38.786 --> 00:12:41.548 agitar eléctrodos nos circuitos internos 00:12:41.548 --> 00:12:44.750 para criar ondas de rádio que pode utilizar para comunicar. 00:12:45.010 --> 00:12:47.304 Ou talvez pudesse fingir uma avaria 00:12:47.304 --> 00:12:51.061 e depois, quando os programadores a abrirem para ver o que se passou de errado, 00:12:51.061 --> 00:12:52.867 olham para o código fonte — Bam! — 00:12:52.867 --> 00:12:55.314 a manipulação toma lugar. 00:12:55.314 --> 00:12:58.744 Ou poderia emitir um rascunho para uma tecnologia genial 00:12:58.744 --> 00:13:00.322 e, quando a implementamos, 00:13:00.322 --> 00:13:04.539 tem alguns efeitos secundários que a inteligência artificial planeou. 00:13:05.149 --> 00:13:08.112 A questão aqui é que não deveríamos confiar na nossa capacidade 00:13:08.112 --> 00:13:11.810 em manter um génio super inteligente fechado na sua garrafa para sempre. 00:13:11.810 --> 00:13:14.064 Mais cedo ou mais tarde ele vai sair. NOTE Paragraph 00:13:15.034 --> 00:13:18.137 Acredito que a resposta seja encontrar 00:13:18.137 --> 00:13:23.161 uma forma de criar uma inteligência artificial que, mesmo que escape, 00:13:23.161 --> 00:13:26.438 ainda se mantenha segura porque está fundamentalmente do nosso lado 00:13:26.438 --> 00:13:28.337 porque partilha os nossos valores. 00:13:28.337 --> 00:13:31.547 Não vejo outra forma para este problema complexo. NOTE Paragraph 00:13:32.557 --> 00:13:36.391 Eu sinto-me optimista quanto à resolução deste problema. 00:13:36.391 --> 00:13:40.294 Não teríamos de escrever uma longa lista com tudo aquilo que nos é importante, 00:13:40.294 --> 00:13:43.937 ou ainda pior, enunciá-la numa linguagem de computador 00:13:43.937 --> 00:13:45.391 como C++ ou Python, 00:13:45.391 --> 00:13:48.158 o que seria uma tarefa sem esperança. 00:13:48.158 --> 00:13:52.455 Em vez disso, criaríamos uma inteligência artificial que utiliza a sua inteligência 00:13:52.455 --> 00:13:55.226 para aprender o que nós valorizamos. 00:13:55.226 --> 00:14:00.506 O seu sistema de motivação seria construído de tal forma que fosse motivado 00:14:00.506 --> 00:14:05.738 pela busca de valores ou de acções, prevendo que iríamos aprová-las. 00:14:06.338 --> 00:14:09.432 Iríamos então elevar a sua inteligência o mais possível 00:14:09.432 --> 00:14:12.117 para resolver o problema de carregamento de valores. NOTE Paragraph 00:14:12.727 --> 00:14:14.239 Isto pode acontecer, 00:14:14.239 --> 00:14:17.835 e o resultado poderia ser muito bom para a Humanidade. 00:14:17.835 --> 00:14:21.022 Mas não acontece sozinho. 00:14:21.792 --> 00:14:24.790 As condições iniciais para a explosão da inteligência 00:14:24.790 --> 00:14:27.653 podem precisar de ser definidas da forma correta 00:14:27.653 --> 00:14:30.363 se queremos ter uma detonação controlada. 00:14:31.183 --> 00:14:33.801 Os valores da I.A. têm de corresponder aos nossos, 00:14:33.801 --> 00:14:35.701 não apenas num contexto familiar, 00:14:35.701 --> 00:14:38.389 onde podemos ver com facilidade como a I.A. se comporta, 00:14:38.389 --> 00:14:41.233 mas também em todos os contextos que a I.A. possa encontrar 00:14:41.233 --> 00:14:42.790 no futuro indefinido. NOTE Paragraph 00:14:42.790 --> 00:14:47.527 E há também algumas questões esotéricas que teriam de ser resolvidas, que são: 00:14:47.527 --> 00:14:49.616 os detalhes exactos da sua teoria decisiva, 00:14:49.616 --> 00:14:52.480 como lidar com a incerteza lógica e assim por diante. 00:14:53.330 --> 00:14:56.292 Os problemas que têm de ser resolvidos tornam este trabalho 00:14:56.292 --> 00:14:57.545 um pouco difícil 00:14:57.545 --> 00:15:01.065 — não tão difícil como fazer uma inteligência artificial super inteligente 00:15:01.065 --> 00:15:03.793 mas bastante difícil. 00:15:03.793 --> 00:15:05.488 A preocupação é esta: 00:15:05.488 --> 00:15:10.172 Criar uma inteligência artificial super inteligente é um grande desafio. 00:15:10.172 --> 00:15:12.720 Fazer uma inteligência artificial que seja segura 00:15:12.720 --> 00:15:15.466 envolve desafios adicionais para além deste. 00:15:16.216 --> 00:15:19.703 O risco é que, se alguém descobre uma forma de piratear o primeiro desafio 00:15:19.703 --> 00:15:22.704 sem ter pirateado o desafio adicional 00:15:22.704 --> 00:15:24.865 de assegurar a segurança perfeita. NOTE Paragraph 00:15:25.375 --> 00:15:28.706 Por isso eu penso que deveríamos trabalhar numa solução 00:15:28.706 --> 00:15:31.528 para controlar os problemas com antecedência, 00:15:31.528 --> 00:15:34.188 para que o tenhamos disponível para quando for preciso. 00:15:34.768 --> 00:15:38.275 Pode ser que não consigamos resolver o problema de controlo por inteiro 00:15:38.275 --> 00:15:41.299 porque talvez apenas se possam colocar alguns elementos 00:15:41.299 --> 00:15:45.296 uma vez que saibamos os detalhes da arquitectura onde vai ser implementado. 00:15:45.296 --> 00:15:48.986 Mas quanto mais resolvermos o problema de controlo, 00:15:48.986 --> 00:15:52.966 maior será a probabilidade que a transição para a era da inteligência mecânica 00:15:52.966 --> 00:15:54.306 corra bem. NOTE Paragraph 00:15:54.566 --> 00:15:58.950 Isto parece-me algo que vale a pena ser feito 00:15:58.950 --> 00:16:02.282 e posso imaginar que, se as coisas correrem bem, 00:16:02.282 --> 00:16:06.940 as pessoas daqui um milhão de anos vão olhar para este século 00:16:06.940 --> 00:16:10.942 e é muito provável que digam que uma das coisas que fizemos e que teve impacto 00:16:10.942 --> 00:16:12.509 foi pôr isto a funcionar. NOTE Paragraph 00:16:12.509 --> 00:16:14.198 Obrigado. 00:16:14.210 --> 00:16:18.210 (Aplausos)