1 00:00:00,760 --> 00:00:04,447 Quando eu era miúdo, era um grandessíssimo "nerd". 2 00:00:05,320 --> 00:00:07,610 Acho que alguns de vocês também eram. 3 00:00:07,643 --> 00:00:08,821 (Risos) 4 00:00:08,893 --> 00:00:12,242 E o senhor, que riu mais alto, provavelmente ainda é. 5 00:00:12,304 --> 00:00:14,151 (Risos) 6 00:00:14,280 --> 00:00:15,880 Cresci numa cidade pequena 7 00:00:15,880 --> 00:00:18,038 nas planícies empoeiradas do norte do Texas, 8 00:00:18,085 --> 00:00:21,297 filho de um xerife que era filho de um pastor. 9 00:00:21,360 --> 00:00:23,613 Meter-me em sarilhos estava fora de causa. 10 00:00:24,040 --> 00:00:27,467 Por isso, comecei a ler livros de cálculo por diversão. 11 00:00:27,538 --> 00:00:28,856 (Risos) 12 00:00:28,965 --> 00:00:30,861 Vocês também fizeram isso. 13 00:00:30,923 --> 00:00:34,450 Isso levou-me a construir um laser, um computador e modelos de foguetões 14 00:00:34,493 --> 00:00:37,998 e levou-me a fazer combustível para foguetões, no meu quarto. 15 00:00:40,074 --> 00:00:41,816 Em termos científicos, 16 00:00:41,868 --> 00:00:44,953 chamamos a isso uma ideia muito má. 17 00:00:45,005 --> 00:00:46,240 (Risos) 18 00:00:46,360 --> 00:00:48,269 Por volta dessa época, 19 00:00:48,569 --> 00:00:51,871 "2001: A Odisseia no Espaço", de Stanley Kubrick, chegou ao cinema 20 00:00:51,914 --> 00:00:54,304 e a minha vida mudou para sempre. 21 00:00:54,457 --> 00:00:56,545 Adorei tudo naquele filme, 22 00:00:56,579 --> 00:00:59,086 especialmente o HAL 9000, 23 00:00:59,177 --> 00:01:01,318 O HAL era um computador sensível 24 00:01:01,352 --> 00:01:03,646 concebido para guiar a astronave Discovery 25 00:01:03,689 --> 00:01:06,016 da Terra para Júpiter. 26 00:01:06,259 --> 00:01:08,372 O HAL também era um personagem com defeitos, 27 00:01:08,434 --> 00:01:12,676 porque, no final, preferiu valorizar a missão em vez da vida humana. 28 00:01:13,020 --> 00:01:15,078 O HAL era uma personagem fictícia, 29 00:01:15,112 --> 00:01:17,635 mas, mesmo assim, fala dos nossos medos, 30 00:01:17,697 --> 00:01:19,974 dos nossos medos de sermos subjugados 31 00:01:20,007 --> 00:01:23,023 por alguma inteligência insensível, artificial 32 00:01:23,076 --> 00:01:25,236 que é indiferente à nossa humanidade. 33 00:01:25,880 --> 00:01:28,513 Acredito que tais medos são infundados. 34 00:01:28,575 --> 00:01:31,185 Na verdade, estamos numa época notável 35 00:01:31,228 --> 00:01:32,974 da história humana, 36 00:01:32,998 --> 00:01:37,736 em que, impelidos pela recusa de aceitar os limites do nosso corpo e da nossa mente, 37 00:01:37,760 --> 00:01:39,532 estamos a construir máquinas 38 00:01:39,584 --> 00:01:43,096 de complexidade e graça requintada e bonita 39 00:01:43,120 --> 00:01:45,328 que alargará a experiência humana 40 00:01:45,380 --> 00:01:47,470 de formas para além da nossa imaginação. 41 00:01:47,672 --> 00:01:50,610 Depois duma carreira que me levou da Academia da Força Aérea 42 00:01:50,643 --> 00:01:52,494 até ao Comando Espacial, agora, 43 00:01:52,537 --> 00:01:54,290 tornei-me engenheiro de sistemas, 44 00:01:54,337 --> 00:01:56,955 e recentemente, envolvi-me num problema de engenharia 45 00:01:56,998 --> 00:01:59,374 associado à missão da NASA em Marte. 46 00:01:59,502 --> 00:02:01,970 Em voos espaciais para a Lua, 47 00:02:02,032 --> 00:02:05,016 podemos confiar no controlo da missão em Houston 48 00:02:05,078 --> 00:02:07,225 para observar todos os aspetos dum voo. 49 00:02:07,316 --> 00:02:10,652 No entanto, Marte está 200 vezes mais longe 50 00:02:10,695 --> 00:02:14,092 e, em resultado, são precisos 13 minutos, em média, 51 00:02:14,135 --> 00:02:17,099 para um sinal viajar da Terra até Marte. 52 00:02:17,171 --> 00:02:20,552 Se houver problemas, não há tempo suficiente. 53 00:02:20,840 --> 00:02:23,421 Assim, uma solução razoável de engenharia 54 00:02:23,464 --> 00:02:26,040 pede-nos para pôr o controlo da missão 55 00:02:26,074 --> 00:02:28,728 dentro das paredes da astronave Orion. 56 00:02:29,000 --> 00:02:32,010 Uma outra ideia fascinante, no perfil da missão, 57 00:02:32,043 --> 00:02:34,977 coloca robôs humanoides na superfície de Marte 58 00:02:35,049 --> 00:02:36,962 antes de os seres humanos chegarem, 59 00:02:37,005 --> 00:02:38,747 primeiro para construir instalações 60 00:02:38,795 --> 00:02:42,283 e depois, para servir como membros colaborativos da equipa de ciência 61 00:02:43,400 --> 00:02:46,231 Como olhei para isto numa perspetiva de engenharia 62 00:02:46,274 --> 00:02:49,583 percebi rapidamente que aquilo de que precisava para arquitetar 63 00:02:49,636 --> 00:02:51,536 era de uma inteligência artificial, 64 00:02:51,560 --> 00:02:54,078 esperta, colaborativa e socialmente inteligente. 65 00:02:54,160 --> 00:02:58,189 Por outras palavras, tinha de construir algo muito parecido com um HAL 66 00:02:58,280 --> 00:03:00,696 mas sem tendências homicidas. 67 00:03:00,862 --> 00:03:02,222 (Risos) 68 00:03:02,920 --> 00:03:04,859 Vamos fazer uma pausa por um momento 69 00:03:04,921 --> 00:03:08,656 Será realmente possível construir uma inteligência artificial assim? 70 00:03:08,803 --> 00:03:10,136 Na verdade, é. 71 00:03:10,226 --> 00:03:11,416 De muitas formas, 72 00:03:11,440 --> 00:03:13,416 isso é um árduo problema de engenharia 73 00:03:13,440 --> 00:03:15,457 com elementos de inteligência artificial, 74 00:03:15,472 --> 00:03:19,511 não um problema complicado de IA que precisa de ser projetado. 75 00:03:19,640 --> 00:03:22,115 Parafraseando Alan Turing, 76 00:03:22,138 --> 00:03:24,848 não estou interessado em construir uma máquina sensível. 77 00:03:24,872 --> 00:03:26,505 Não estou a construir um HAL. 78 00:03:26,558 --> 00:03:28,936 Só estou a procurar um cérebro simples, 79 00:03:28,969 --> 00:03:32,175 algo que ofereça a ilusão de inteligência. 80 00:03:33,000 --> 00:03:36,278 A arte e a ciência da informática têm percorrido um longo caminho 81 00:03:36,331 --> 00:03:37,989 desde que o HAL esteve no ecrã 82 00:03:38,013 --> 00:03:41,115 e imagino que, se o seu inventor Dr. Chandra estivesse aqui hoje, 83 00:03:41,148 --> 00:03:43,389 teria um monte de questões para nós. 84 00:03:43,460 --> 00:03:45,376 Será realmente possível 85 00:03:45,400 --> 00:03:49,416 termos um sistema de milhões e milhões de dispositivos, 86 00:03:49,440 --> 00:03:51,010 para ler nos fluxos de dados, 87 00:03:51,062 --> 00:03:53,318 prever as suas falhas e agir com antecedência? 88 00:03:53,352 --> 00:03:54,416 É, sim. 89 00:03:54,449 --> 00:03:57,825 Podemos construir sistemas que conversam com humanos em língua natural? 90 00:03:57,859 --> 00:03:58,856 Podemos, sim. 91 00:03:58,880 --> 00:04:02,322 Podemos construir sistemas que reconheçam objetos, identifiquem emoções, 92 00:04:02,346 --> 00:04:05,217 se emocionem, joguem jogos e até leiam lábios? 93 00:04:05,280 --> 00:04:06,496 Podemos, sim. 94 00:04:06,520 --> 00:04:08,893 Podemos construir um sistema que estabeleça metas, 95 00:04:08,908 --> 00:04:12,438 que execute planos para essas metas e aprenda ao longo do caminho? 96 00:04:12,491 --> 00:04:13,669 Podemos, sim. 97 00:04:13,712 --> 00:04:16,972 Podemos construir sistemas que tenham uma teoria de pensamento? 98 00:04:17,034 --> 00:04:18,606 Estamos a aprender a fazer isso. 99 00:04:18,659 --> 00:04:22,224 Podemos construir sistemas que têm um fundamento ético e moral? 100 00:04:22,480 --> 00:04:24,853 Temos de aprender a fazer isso. 101 00:04:25,360 --> 00:04:26,936 Vamos aceitar, por instantes, 102 00:04:26,969 --> 00:04:29,713 que é possível construir essa inteligência artificial 103 00:04:29,765 --> 00:04:31,958 para este tipo de missão e outros. 104 00:04:31,992 --> 00:04:34,376 A pergunta seguinte que devemos fazer é: 105 00:04:34,466 --> 00:04:36,170 Devemos ter medo dela? 106 00:04:36,232 --> 00:04:37,913 Cada nova tecnologia 107 00:04:37,965 --> 00:04:40,595 traz consigo uma certa trepidação. 108 00:04:40,800 --> 00:04:42,791 Quando viram carros pela primeira vez, 109 00:04:42,853 --> 00:04:46,536 as pessoas queixaram-se de que veríamos a destruição da família. 110 00:04:46,721 --> 00:04:49,398 Quando viram os telefones, pela primeira vez, 111 00:04:49,432 --> 00:04:52,537 as pessoas recearam que fossem destruir toda a conversação civil. 112 00:04:52,571 --> 00:04:56,221 A certa altura, vimos a palavra escrita tornar-se universal. 113 00:04:56,360 --> 00:04:58,979 As pessoas pensaram perder a capacidade de memorizar. 114 00:04:59,013 --> 00:05:01,097 Tudo isto é verdade, até certo ponto, 115 00:05:01,131 --> 00:05:03,404 mas acontece também que essas tecnologias 116 00:05:03,466 --> 00:05:06,576 trouxeram-nos coisas que ampliaram a experiência humana 117 00:05:06,600 --> 00:05:08,546 de formas profundas. 118 00:05:09,840 --> 00:05:12,386 Então, vamos levar isso um pouco mais longe. 119 00:05:13,120 --> 00:05:17,579 Eu não temo a criação duma IA como esta, 120 00:05:17,880 --> 00:05:21,696 porque ela acabará por incorporar alguns dos nossos valores. 121 00:05:21,891 --> 00:05:25,444 Considerem isto: construir um sistema cognitivo é totalmente diferente 122 00:05:25,468 --> 00:05:29,002 de construir um sistema tradicional de software intensivo do passado. 123 00:05:29,055 --> 00:05:31,216 Não os programamos. Ensinamo-los. 124 00:05:31,287 --> 00:05:33,715 Para ensinar um sistema a reconhecer flores, 125 00:05:33,767 --> 00:05:36,736 mostro-lhe milhares de flores dos tipos que gosto. 126 00:05:36,845 --> 00:05:39,016 Para ensinar um sistema a jogar um jogo... 127 00:05:39,182 --> 00:05:41,790 — bem, eu ensinaria, vocês também ensinariam. 128 00:05:42,600 --> 00:05:44,754 Adoro flores. Vamos lá. 129 00:05:45,440 --> 00:05:48,296 Para ensinar um sistema a jogar um jogo como o Go, 130 00:05:48,339 --> 00:05:50,471 deixá-lo-ia jogar milhares de jogos do Go, 131 00:05:50,504 --> 00:05:52,189 mas no processo também lhe ensino 132 00:05:52,241 --> 00:05:54,619 como discernir um jogo bom de um jogo mau. 133 00:05:54,767 --> 00:05:58,330 Se eu quiser criar um assistente legal artificialmente inteligente, 134 00:05:58,363 --> 00:06:00,596 vou ensinar-lhe algumas noções de leis 135 00:06:00,625 --> 00:06:03,019 mas, ao mesmo tempo, estou a introduzir-lhe 136 00:06:03,062 --> 00:06:06,200 o sentido de piedade e de justiça que faz parte dessas leis. 137 00:06:06,560 --> 00:06:09,764 Em termos científicos, é aquilo a que chamamos verdade fundamental, 138 00:06:09,807 --> 00:06:11,728 e este é o ponto importante: 139 00:06:11,771 --> 00:06:13,275 ao produzir estas máquinas, 140 00:06:13,308 --> 00:06:16,286 estamos a ensinar-lhes um sentido dos nossos valores. 141 00:06:16,520 --> 00:06:20,294 Para esse fim, confio tanto numa inteligência artificial, 142 00:06:20,365 --> 00:06:23,729 — ou mesmo mais — do que num ser humano que é bem formado. 143 00:06:24,080 --> 00:06:25,496 Mas podem perguntar: 144 00:06:25,529 --> 00:06:28,088 "E quanto a agentes desonestos, 145 00:06:28,150 --> 00:06:31,296 "a alguma organização não governamental bem financiada?" 146 00:06:31,481 --> 00:06:35,136 Eu não temo uma inteligência artificial na mão de um lobo solitário. 147 00:06:35,360 --> 00:06:37,424 Claramente, não conseguimos proteger-nos 148 00:06:37,462 --> 00:06:39,777 contra todos os atos fortuitos de violência, 149 00:06:39,843 --> 00:06:42,008 mas a realidade é que um sistema destes 150 00:06:42,060 --> 00:06:44,976 requer formação substancial e formação subtil 151 00:06:45,028 --> 00:06:47,410 muito para além dos recursos de um indivíduo. 152 00:06:47,491 --> 00:06:48,640 E além disso, 153 00:06:48,683 --> 00:06:51,977 é muito mais do que injetar um vírus de Internet no mundo 154 00:06:52,020 --> 00:06:54,936 em que apertamos um botão, e ele aparece num milhão de lugares 155 00:06:54,960 --> 00:06:57,663 e os portáteis começam a explodir por toda a parte. 156 00:06:57,706 --> 00:07:00,408 Estes tipos de substância são muito maiores, 157 00:07:00,460 --> 00:07:02,375 e certamente vamos vê-los chegar. 158 00:07:02,653 --> 00:07:05,576 Será que receio que essa inteligência artificial 159 00:07:05,600 --> 00:07:07,902 possa ameaçar toda a humanidade? 160 00:07:08,280 --> 00:07:12,332 Se olharmos para filmes como "The Matrix", "Metropolis", 161 00:07:12,394 --> 00:07:15,856 "O Exterminador Implacável", séries como "Westworld", 162 00:07:15,880 --> 00:07:18,016 todos falam desse tipo de medo. 163 00:07:18,192 --> 00:07:22,336 De facto, no livro "Superintelligence" do filósofo Nick Bostrom, 164 00:07:22,360 --> 00:07:24,000 ele pega neste tema 165 00:07:24,043 --> 00:07:28,002 e nota que uma superinteligência pode não só ser perigosa, 166 00:07:28,083 --> 00:07:31,816 pode representar uma ameaça existencial para toda a humanidade. 167 00:07:31,935 --> 00:07:34,113 O argumento básico do Dr. Bostrom 168 00:07:34,165 --> 00:07:37,082 é que tais sistemas vão acabar por ter 169 00:07:37,144 --> 00:07:40,153 uma tal ânsia insaciável de informação 170 00:07:40,215 --> 00:07:43,016 que talvez aprendam como aprender 171 00:07:43,116 --> 00:07:45,703 e acabem por descobrir que podem ter metas 172 00:07:45,756 --> 00:07:48,071 que são contrárias às necessidades humanas. 173 00:07:48,123 --> 00:07:50,075 O Dr. Bostrom tem muitos seguidores. 174 00:07:50,137 --> 00:07:54,390 É apoiado por pessoas como Elon Musk e Stephen Hawking. 175 00:07:54,975 --> 00:07:57,518 Com o devido respeito 176 00:07:58,160 --> 00:08:00,176 a essas mentes brilhantes, 177 00:08:00,200 --> 00:08:02,675 acho que estão fundamentalmente errados. 178 00:08:02,727 --> 00:08:05,732 Há muitas peças do argumento do Dr. Bostrom para desmontar, 179 00:08:05,794 --> 00:08:08,092 mas não tenho tempo para desmontá-las a todas, 180 00:08:08,144 --> 00:08:10,536 mas muito rapidamente, considerem isto: 181 00:08:10,760 --> 00:08:14,257 o super conhecimento é muito diferente da super ação. 182 00:08:14,320 --> 00:08:16,930 O HAL só foi uma ameaça para a tripulação do Discovery 183 00:08:16,973 --> 00:08:20,722 na medida em que o HAL comandava todos os aspetos do Discovery. 184 00:08:20,803 --> 00:08:23,290 Então teria de ser com superinteligência. 185 00:08:23,361 --> 00:08:25,848 Teria que ter o domínio sobre todo o nosso mundo. 186 00:08:25,901 --> 00:08:28,697 Isto é o material do Skynet de “O Exterminador Implacável” 187 00:08:28,760 --> 00:08:30,606 em que tínhamos uma superinteligência 188 00:08:30,668 --> 00:08:32,235 que comandava a vontade humana, 189 00:08:32,268 --> 00:08:35,505 que dirigia todos os dispositivos que estavam pelo mundo inteiro. 190 00:08:35,720 --> 00:08:37,337 Em termos práticos, 191 00:08:37,362 --> 00:08:39,229 isso não vai acontecer. 192 00:08:39,320 --> 00:08:42,423 Não estamos a construir IA que controlam o tempo, 193 00:08:42,476 --> 00:08:44,059 que dirigem as marés, 194 00:08:44,093 --> 00:08:47,288 que comandam os seres humanos caprichosos e caóticos. 195 00:08:47,379 --> 00:08:50,970 E além disso, se existisse tal inteligência artificial, 196 00:08:51,041 --> 00:08:54,063 teria de competir com economias humanas, 197 00:08:54,116 --> 00:08:56,902 e, portanto, competir connosco pelos recursos. 198 00:08:57,200 --> 00:08:58,416 E, no final, 199 00:08:58,440 --> 00:09:00,356 — não digam isto ao Siri — 200 00:09:00,440 --> 00:09:02,282 podemos sempre desligá-los. 201 00:09:02,349 --> 00:09:03,960 (Risos) 202 00:09:05,455 --> 00:09:07,816 Estamos numa viagem incrível 203 00:09:07,840 --> 00:09:10,336 de coevolução com as nossas máquinas. 204 00:09:10,502 --> 00:09:12,979 Os seres humanos que somos hoje 205 00:09:13,032 --> 00:09:15,416 não são os seres humanos que seremos depois. 206 00:09:15,592 --> 00:09:18,776 Preocuparmo-nos agora com o aparecimento duma superinteligência 207 00:09:18,828 --> 00:09:21,808 é, em muitos aspetos, uma diversão perigosa. 208 00:09:21,870 --> 00:09:24,187 porque o aparecimento da própria informática 209 00:09:24,240 --> 00:09:27,198 traz-nos uma série de questões humanas e sociais 210 00:09:27,241 --> 00:09:29,281 às quais devemos agora dar atenção. 211 00:09:29,360 --> 00:09:32,176 Como é que organizo melhor a sociedade 212 00:09:32,200 --> 00:09:34,697 quando a necessidade de trabalho humano diminui? 213 00:09:34,741 --> 00:09:38,461 Como posso trazer compreensão e educação a todo o mundo 214 00:09:38,504 --> 00:09:40,423 sem desrespeitar as nossas diferenças? 215 00:09:40,457 --> 00:09:44,608 Como posso ampliar e melhorar a vida humana através da assistência médica cognitiva? 216 00:09:44,660 --> 00:09:47,459 Como posso usar a informática 217 00:09:47,512 --> 00:09:49,529 para nos levar às estrelas? 218 00:09:49,760 --> 00:09:51,876 E esta é a coisa excitante. 219 00:09:52,400 --> 00:09:54,736 As oportunidades de usar a informática 220 00:09:54,760 --> 00:09:56,696 para fazer avançar a experiência humana 221 00:09:56,748 --> 00:09:59,250 estão ao nosso alcance, aqui e agora, 222 00:09:59,640 --> 00:10:01,758 e estamos apenas a começar. 223 00:10:02,280 --> 00:10:03,572 Muito obrigado. 224 00:10:03,605 --> 00:10:06,701 (Aplausos)