1 00:00:00,630 --> 00:00:04,600 Quando criança, eu era fundamentalmente "nerd". 2 00:00:05,430 --> 00:00:07,496 Acho que alguns de vocês também eram. 3 00:00:07,520 --> 00:00:08,526 (Risos) 4 00:00:08,550 --> 00:00:11,976 E o senhor, que deu a risada mais alta, provavelmente ainda é. 5 00:00:12,000 --> 00:00:14,096 (Risos) 6 00:00:14,110 --> 00:00:17,676 Cresci numa cidadezinha nas planícies empoeiradas do norte do Texas, 7 00:00:17,700 --> 00:00:21,016 filho de um xerife que era filho de um pastor. 8 00:00:21,030 --> 00:00:23,380 Me meter em confusão não era uma opção. 9 00:00:23,920 --> 00:00:27,296 Então, comecei a ler livros de cálculo pra me distrair. 10 00:00:27,320 --> 00:00:28,786 (Risos) 11 00:00:28,800 --> 00:00:30,520 Você também! 12 00:00:30,540 --> 00:00:34,336 Isso me levou a criar um lêiser, um computador e protótipos de foguete, 13 00:00:34,360 --> 00:00:37,820 o que me levou a inventar combustível de foguete em meu quarto. 14 00:00:37,840 --> 00:00:41,516 Bem, em termos científicos, 15 00:00:41,530 --> 00:00:44,896 chamamos isso de "péssima ideia". 16 00:00:44,920 --> 00:00:46,136 (Risos) 17 00:00:46,160 --> 00:00:48,336 Mais ou menos na mesma época, 18 00:00:48,360 --> 00:00:50,750 "2001: Uma odisseia no espaço", de Stanley Kubrick, 19 00:00:50,770 --> 00:00:54,210 estreou nos cinemas e minha vida mudou para sempre. 20 00:00:54,230 --> 00:00:58,826 Adorei tudo naquele filme, principalmente o HAL 9000. 21 00:00:58,840 --> 00:01:00,926 HAL era um computador consciente, 22 00:01:00,940 --> 00:01:05,956 projetado para conduzir a nave Discovery da Terra até Júpiter. 23 00:01:05,970 --> 00:01:08,020 HAL também era um personagem imperfeito, 24 00:01:08,040 --> 00:01:12,750 pois, no fim, decidiu priorizar a missão em vez da vida humana. 25 00:01:12,770 --> 00:01:14,816 Bem, HAL era um personagem de ficção, 26 00:01:14,830 --> 00:01:17,496 mas, mesmo assim, traz à tona nossos medos, 27 00:01:17,510 --> 00:01:19,736 medo de sermos subjugados 28 00:01:19,760 --> 00:01:22,776 por uma inteligência artificial sem sentimentos, 29 00:01:22,800 --> 00:01:25,180 indiferente à nossa humanidade. 30 00:01:25,720 --> 00:01:28,356 Acredito que esses medos não têm fundamento. 31 00:01:28,370 --> 00:01:32,660 De fato, vivemos numa época incrível da história da humanidade, 32 00:01:32,680 --> 00:01:37,736 em que, por nos recursarmos a aceitar as limitações do nosso corpo e mente, 33 00:01:37,760 --> 00:01:43,066 criamos máquinas graciosas e de linda e primorosa complexidade, 34 00:01:43,090 --> 00:01:47,596 que vão ampliar a experiência humana de formas além do que imaginamos. 35 00:01:47,620 --> 00:01:50,296 Depois de trabalhar na Academia da Força Aérea americana 36 00:01:50,310 --> 00:01:53,926 e chegar ao Comando Espacial americano, me tornei engenheiro de sistemas, 37 00:01:53,950 --> 00:01:56,736 e recentemente estou ajudando num problema de engenharia 38 00:01:56,760 --> 00:01:59,246 relacionado à missão da NASA a Marte. 39 00:01:59,260 --> 00:02:01,770 Bem, nos voos espaciais à Lua, 40 00:02:01,804 --> 00:02:04,940 podemos contar com o apoio do controle de missão em Houston, 41 00:02:04,940 --> 00:02:07,016 que monitora todos os aspectos do voo. 42 00:02:07,016 --> 00:02:10,472 Porém, Marte fica 200 vezes mais distante de nós que a Lua 43 00:02:10,593 --> 00:02:14,113 e, consequentemente, leva em média 13 minutos 44 00:02:14,133 --> 00:02:16,976 para que um sinal de comunicação viaje da Terra a Marte. 45 00:02:17,000 --> 00:02:20,400 Se houver algum problema, não dá tempo de resolver. 46 00:02:20,730 --> 00:02:23,346 Então, uma solução razoável de engenharia 47 00:02:23,360 --> 00:02:28,906 é colocarmos o controle de missão dentro da nave Orion. 48 00:02:28,930 --> 00:02:31,796 Outra ideia fascinante no projeto da missão 49 00:02:31,810 --> 00:02:34,756 é colocar robôs humanoides na superfície de Marte 50 00:02:34,770 --> 00:02:36,696 antes de os humanos chegarem, 51 00:02:36,720 --> 00:02:38,376 para construírem instalações 52 00:02:38,400 --> 00:02:42,230 e depois atuarem como colaboradores da equipe científica. 53 00:02:43,300 --> 00:02:46,046 Bom, de uma perspectiva de engenharia, 54 00:02:46,060 --> 00:02:49,336 ficou bem claro pra mim que o que eu precisava projetar 55 00:02:49,360 --> 00:02:51,536 era uma inteligência artificial 56 00:02:51,560 --> 00:02:53,936 moderna, colaborativa e com habilidade social. 57 00:02:53,960 --> 00:02:58,256 Em outras palavras, eu precisava criar algo bem parecido com o HAL, 58 00:02:58,280 --> 00:03:00,696 mas sem suas tendências homicidas. 59 00:03:00,720 --> 00:03:02,080 (Risos) 60 00:03:02,880 --> 00:03:04,736 Mas espera um pouco: 61 00:03:04,760 --> 00:03:08,656 será mesmo possível criar uma inteligência artificial assim? 62 00:03:08,680 --> 00:03:10,136 Na verdade, é possível sim. 63 00:03:10,160 --> 00:03:13,396 De muitas formas, trata-se de um desafio complexo de engenharia, 64 00:03:13,416 --> 00:03:14,896 com alguns elementos de IA; 65 00:03:14,920 --> 00:03:19,616 não da ideia mirabolante de criar uma IA repulsiva. 66 00:03:19,640 --> 00:03:24,696 Parafraseando Alan Turing, não quero criar uma máquina consciente. 67 00:03:24,726 --> 00:03:26,296 Não vou criar um HAL. 68 00:03:26,320 --> 00:03:32,006 Só quero criar um cérebro simples, algo que cause a ilusão de inteligência. 69 00:03:33,000 --> 00:03:36,136 A arte e a ciência da computação evoluíram bastante 70 00:03:36,160 --> 00:03:37,656 desde que HAL surgiu no cinema, 71 00:03:37,680 --> 00:03:40,896 e imagino que, se o Dr. Chandra, seu inventor, estivesse aqui hoje, 72 00:03:40,920 --> 00:03:43,256 ele teria um monte de perguntas pra nós. 73 00:03:43,280 --> 00:03:45,376 Será que conseguimos 74 00:03:45,400 --> 00:03:49,416 pegar um sistema com milhões e milhões de dispositivos, 75 00:03:49,440 --> 00:03:50,896 entrar com os dados, 76 00:03:50,920 --> 00:03:53,176 prever suas falhas e nos anteciparmos a elas? 77 00:03:53,200 --> 00:03:54,266 Sim. 78 00:03:54,280 --> 00:03:57,506 Será possível criar sistemas que conversem conosco em nossa língua? 79 00:03:57,520 --> 00:03:58,496 Sim. 80 00:03:58,520 --> 00:04:01,796 Será possível criar sistemas que reconheçam objetos e emoções, 81 00:04:01,820 --> 00:04:05,216 que reajam emotivamente, usem de estratégia e até leitura labial? 82 00:04:05,240 --> 00:04:06,206 Sim. 83 00:04:06,230 --> 00:04:08,656 Será possível criar um sistema que estabeleça metas, 84 00:04:08,680 --> 00:04:12,296 faça planos e aprenda ao longo do caminho? 85 00:04:12,320 --> 00:04:13,456 Sim. 86 00:04:13,480 --> 00:04:16,826 Será possível criarmos sistemas com capacidade cognitiva? 87 00:04:16,850 --> 00:04:18,416 Estamos aprendendo a fazer isso. 88 00:04:18,440 --> 00:04:22,420 Será possível criarmos sistemas que tenham princípios éticos e morais? 89 00:04:22,450 --> 00:04:24,810 Precisamos aprender a fazer isso. 90 00:04:25,300 --> 00:04:26,736 Então, digamos, por exemplo, 91 00:04:26,760 --> 00:04:29,656 que seja possível criar uma inteligência artificial assim, 92 00:04:29,680 --> 00:04:31,706 para esse tipo de missão e para outras. 93 00:04:31,730 --> 00:04:35,816 A próxima pergunta que precisamos fazer é: devemos temer essa inteligência? 94 00:04:35,826 --> 00:04:40,726 Bom, toda nova tecnologia traz algum tipo de preocupação. 95 00:04:40,760 --> 00:04:42,496 Quando surgiram os carros, 96 00:04:42,520 --> 00:04:46,456 as pessoas acharam que veríamos a destruição da família. 97 00:04:46,470 --> 00:04:49,206 Quando surgiram os telefones, 98 00:04:49,220 --> 00:04:52,176 as pessoas temiam que ele destruiria a socialização entre as pessoas. 99 00:04:52,200 --> 00:04:56,026 Quando vimos a palavra escrita se espalhar, 100 00:04:56,050 --> 00:04:58,586 acharam que perderíamos nossa capacidade de memorizar. 101 00:04:58,600 --> 00:05:00,736 Tudo isso é de certa forma verdade, 102 00:05:00,760 --> 00:05:03,086 mas também é verdade que essas tecnologias 103 00:05:03,110 --> 00:05:06,576 nos possibilitaram ampliar a experiência humana 104 00:05:06,600 --> 00:05:08,770 de formas profundas. 105 00:05:09,840 --> 00:05:12,120 Vou explicar melhor. 106 00:05:13,120 --> 00:05:17,856 Não temo a criação de uma IA assim, 107 00:05:17,880 --> 00:05:21,696 porque ela vai acabar assimilando alguns dos nossos valores. 108 00:05:21,720 --> 00:05:25,216 Pensem só: criar um sistema cognitivo é fundamentalmente diferente 109 00:05:25,240 --> 00:05:28,536 de criar um sistema complexo e tradicional do passado. 110 00:05:28,560 --> 00:05:31,016 Não a programamos. Nós lhe ensinamos. 111 00:05:31,040 --> 00:05:33,696 Para ensinar um sistema a reconhecer flores, 112 00:05:33,720 --> 00:05:36,676 mostro a ele milhares de flores do tipo de que gosto. 113 00:05:36,690 --> 00:05:38,946 Para ensinar um sistema a jogar... 114 00:05:38,960 --> 00:05:41,000 eu faria isso, e vocês também... 115 00:05:42,600 --> 00:05:44,640 Eu gosto de jogos. Qual é! 116 00:05:45,440 --> 00:05:48,226 Para ensinar um sistema a jogar, por exemplo, o "Go", 117 00:05:48,240 --> 00:05:50,930 eu o faria jogá-lo várias vezes, mas, no processo, 118 00:05:50,950 --> 00:05:54,496 eu também o ensinaria a diferenciar um jogo bom de um jogo ruim. 119 00:05:54,520 --> 00:05:58,216 Se quisesse criar um assistente jurídico com inteligência artificial, 120 00:05:58,240 --> 00:06:01,260 eu lhe ensinaria algumas leis, mas, ao mesmo tempo, 121 00:06:01,280 --> 00:06:05,800 colocaria nele o senso de compaixão e de justiça que acompanham essas leis. 122 00:06:06,480 --> 00:06:09,536 Em termos científicos, é o que chamamos de situação fática, 123 00:06:09,560 --> 00:06:11,576 e eis o mais importante: 124 00:06:11,600 --> 00:06:13,056 ao criar essas máquinas, 125 00:06:13,080 --> 00:06:16,496 estamos ensinando a elas algo dos nossos valores. 126 00:06:16,520 --> 00:06:19,606 Sendo assim, eu confio na inteligência artificial 127 00:06:19,620 --> 00:06:23,320 tanto quanto num humano bem treinado; quem sabe até mais. 128 00:06:23,920 --> 00:06:25,156 Talvez vocês perguntem: 129 00:06:25,170 --> 00:06:30,746 "E quanto a agentes maliciosos, tipo, uma ONG bem financiada?" 130 00:06:31,230 --> 00:06:35,086 Não temo uma inteligência artificial nas mãos de um "lobo solitário". 131 00:06:35,100 --> 00:06:37,230 Obviamente, não podemos nos proteger 132 00:06:37,250 --> 00:06:39,600 contra todos os possíveis atos de violência, 133 00:06:39,630 --> 00:06:44,926 mas a verdade é que um sistema assim requer treinamento sólido e inteligente 134 00:06:44,950 --> 00:06:47,246 muito além das capacidades de um indivíduo. 135 00:06:47,270 --> 00:06:48,336 Além disso, 136 00:06:48,360 --> 00:06:51,816 a coisa vai além de simplesmente injetar um vírus virtual no mundo, 137 00:06:51,840 --> 00:06:54,946 pressionando um botão e, de repente, propagando-o por toda parte, 138 00:06:54,960 --> 00:06:57,366 fazendo notebooks explodirem por aí. 139 00:06:57,390 --> 00:07:01,836 Esses tipos de coisas são bem maiores, e certamente os veremos chegar. 140 00:07:02,380 --> 00:07:05,576 Se eu temo que uma inteligência artificial assim 141 00:07:05,600 --> 00:07:08,160 possa ameaçar toda a espécie humana? 142 00:07:08,180 --> 00:07:12,610 Ao assistir a filmes como "Matrix", "Metrópolis", 143 00:07:12,630 --> 00:07:15,736 "O Exterminador do Futuro", ou a séries como "Westworld", 144 00:07:15,750 --> 00:07:18,016 vemos que todos falam desse tipo de medo. 145 00:07:18,040 --> 00:07:22,226 No livro "Superintelligence", do filósofo Nick Bostrom, 146 00:07:22,240 --> 00:07:23,896 ele aborda esse tema 147 00:07:23,920 --> 00:07:27,816 e explica que uma superinteligência pode não só ser perigosa, 148 00:07:27,840 --> 00:07:31,816 mas também representar uma ameaça à existência da espécie humana. 149 00:07:31,840 --> 00:07:35,626 O argumento básico do Dr. Bostrom é o de que esses sistemas 150 00:07:35,640 --> 00:07:40,096 vão acabar tendo tamanha sede por informação 151 00:07:40,120 --> 00:07:43,016 que vão talvez aprender a aprender 152 00:07:43,040 --> 00:07:45,656 e vão acabar descobrindo que podem ter objetivos 153 00:07:45,680 --> 00:07:47,900 que são contrários às necessidades humanas. 154 00:07:47,930 --> 00:07:49,856 O Dr. Bostrom têm alguns seguidores. 155 00:07:49,880 --> 00:07:54,200 Pessoas como Elon Musk e Stephen Hawking concordam com ele. 156 00:07:54,810 --> 00:08:00,140 Com todo o respeito a essas mentes brilhantes, 157 00:08:00,160 --> 00:08:02,456 creio que estejam fundamentalmente equivocados. 158 00:08:02,480 --> 00:08:05,656 São muitos os aspectos do argumento do Dr. Bostrom para discutir 159 00:08:05,680 --> 00:08:07,676 e não tenho tenho para falar sobre todos, 160 00:08:07,690 --> 00:08:10,536 mas, rapidamente, pensem no seguinte: 161 00:08:10,560 --> 00:08:14,206 ser "super" no saber é bem diferente de ser "super" no fazer. 162 00:08:14,220 --> 00:08:16,266 HAL foi uma ameaça à tripulação da Discovery 163 00:08:16,280 --> 00:08:20,546 só porque comandava todos os aspectos da nave. 164 00:08:20,560 --> 00:08:23,106 Assim teria que ser com uma superinteligência. 165 00:08:23,120 --> 00:08:25,556 Ela teria que ter controle sobre todo o nosso mundo. 166 00:08:25,580 --> 00:08:28,396 Isso é coisa da Skynet, do filme "O Exterminador do Futuro", 167 00:08:28,420 --> 00:08:31,736 uma superinteligência que controlava a vontade humana, 168 00:08:31,750 --> 00:08:35,606 que controlava qualquer dispositivo em qualquer parte do mundo. 169 00:08:35,630 --> 00:08:39,236 Em termos práticos, isso não vai rolar. 170 00:08:39,250 --> 00:08:42,326 Não estamos criando IAs que controlem o clima, 171 00:08:42,350 --> 00:08:43,736 que controlem as marés, 172 00:08:43,760 --> 00:08:47,136 ou que comandem a nós, humanos inconstantes e caóticos. 173 00:08:47,160 --> 00:08:51,056 Além do mais, se uma inteligência artificial dessas existisse, 174 00:08:51,080 --> 00:08:54,016 ela teria que competir nas economias mundiais 175 00:08:54,040 --> 00:08:56,560 e, portanto, competir conosco por recursos. 176 00:08:57,070 --> 00:09:00,336 No fim... não contem isso ao Siri... 177 00:09:00,356 --> 00:09:01,816 sempre é possível desligá-la. 178 00:09:01,840 --> 00:09:03,960 (Risos) 179 00:09:05,270 --> 00:09:10,246 Estamos numa jornada incrível de coevolução com nossas máquinas. 180 00:09:10,270 --> 00:09:15,406 Não seremos no futuro os mesmos humanos que somos hoje. 181 00:09:15,420 --> 00:09:18,576 Preocupar-se agora com o surgimento de uma superinteligência 182 00:09:18,600 --> 00:09:21,656 é, de várias maneiras, uma distração perigosa 183 00:09:21,680 --> 00:09:24,016 porque a ascensão da própria computação 184 00:09:24,040 --> 00:09:27,056 nos traz diversas questões, humanas e sociais, 185 00:09:27,080 --> 00:09:29,280 com as quais agora devemos lidar. 186 00:09:29,300 --> 00:09:32,176 Como organizar a sociedade 187 00:09:32,200 --> 00:09:34,536 quando a demanda por trabalho humano diminuir? 188 00:09:34,560 --> 00:09:38,376 Como disseminar entendimento e educação por todo o planeta 189 00:09:38,400 --> 00:09:40,176 sem desrespeitar nossas diferenças? 190 00:09:40,200 --> 00:09:44,400 Como prolongar e melhorar a vida com esse tipo de inteligência na área de saúde? 191 00:09:44,420 --> 00:09:49,676 Como posso usar a computação para fazer com que cheguemos às estrelas? 192 00:09:49,690 --> 00:09:51,800 Isso é o mais empolgante. 193 00:09:52,300 --> 00:09:56,220 As oportunidades de usar a computação para ampliar a experiência humana 194 00:09:56,240 --> 00:09:59,520 estão a nosso alcance, aqui e agora, 195 00:09:59,540 --> 00:10:01,520 e estamos apenas começando. 196 00:10:02,080 --> 00:10:03,316 Muito obrigado. 197 00:10:03,330 --> 00:10:05,388 (Aplausos)