WEBVTT 00:00:00.630 --> 00:00:04.600 Quando criança, eu era fundamentalmente "nerd". 00:00:05.430 --> 00:00:07.496 Acho que alguns de vocês também eram. NOTE Paragraph 00:00:07.520 --> 00:00:08.526 (Risos) NOTE Paragraph 00:00:08.550 --> 00:00:11.976 E o senhor, que deu a risada mais alta, provavelmente ainda é. NOTE Paragraph 00:00:12.000 --> 00:00:14.096 (Risos) NOTE Paragraph 00:00:14.110 --> 00:00:17.676 Cresci numa cidadezinha nas planícies empoeiradas do norte do Texas, 00:00:17.700 --> 00:00:21.016 filho de um xerife que era filho de um pastor. 00:00:21.030 --> 00:00:23.380 Me meter em confusão não era uma opção. 00:00:23.920 --> 00:00:27.296 Então, comecei a ler livros de cálculo pra me distrair. NOTE Paragraph 00:00:27.320 --> 00:00:28.786 (Risos) NOTE Paragraph 00:00:28.800 --> 00:00:30.520 Você também! 00:00:30.540 --> 00:00:34.336 Isso me levou a criar um lêiser, um computador e protótipos de foguete, 00:00:34.360 --> 00:00:37.820 o que me levou a inventar combustível de foguete em meu quarto. 00:00:37.840 --> 00:00:41.516 Bem, em termos científicos, 00:00:41.530 --> 00:00:44.896 chamamos isso de "péssima ideia". NOTE Paragraph 00:00:44.920 --> 00:00:46.136 (Risos) NOTE Paragraph 00:00:46.160 --> 00:00:48.336 Mais ou menos na mesma época, 00:00:48.360 --> 00:00:50.750 "2001: Uma odisseia no espaço", de Stanley Kubrick, 00:00:50.770 --> 00:00:54.210 estreou nos cinemas e minha vida mudou para sempre. 00:00:54.230 --> 00:00:58.826 Adorei tudo naquele filme, principalmente o HAL 9000. 00:00:58.840 --> 00:01:00.926 HAL era um computador consciente, 00:01:00.940 --> 00:01:05.956 projetado para conduzir a nave Discovery da Terra até Júpiter. 00:01:05.970 --> 00:01:08.020 HAL também era um personagem imperfeito, 00:01:08.040 --> 00:01:12.750 pois, no fim, decidiu priorizar a missão em vez da vida humana. 00:01:12.770 --> 00:01:14.816 Bem, HAL era um personagem de ficção, 00:01:14.830 --> 00:01:17.496 mas, mesmo assim, traz à tona nossos medos, 00:01:17.510 --> 00:01:19.736 medo de sermos subjugados 00:01:19.760 --> 00:01:22.776 por uma inteligência artificial sem sentimentos, 00:01:22.800 --> 00:01:25.180 indiferente à nossa humanidade. NOTE Paragraph 00:01:25.720 --> 00:01:28.356 Acredito que esses medos não têm fundamento. 00:01:28.370 --> 00:01:32.660 De fato, vivemos numa época incrível da história da humanidade, 00:01:32.680 --> 00:01:37.736 em que, por nos recursarmos a aceitar as limitações do nosso corpo e mente, 00:01:37.760 --> 00:01:43.066 criamos máquinas graciosas e de linda e primorosa complexidade, 00:01:43.090 --> 00:01:47.596 que vão ampliar a experiência humana de formas além do que imaginamos. NOTE Paragraph 00:01:47.620 --> 00:01:50.296 Depois de trabalhar na Academia da Força Aérea americana 00:01:50.310 --> 00:01:53.926 e chegar ao Comando Espacial americano, me tornei engenheiro de sistemas, 00:01:53.950 --> 00:01:56.736 e recentemente estou ajudando num problema de engenharia 00:01:56.760 --> 00:01:59.246 relacionado à missão da NASA a Marte. 00:01:59.260 --> 00:02:01.770 Bem, nos voos espaciais à Lua, 00:02:01.804 --> 00:02:04.940 podemos contar com o apoio do controle de missão em Houston, 00:02:04.940 --> 00:02:07.016 que monitora todos os aspectos do voo. 00:02:07.016 --> 00:02:10.472 Porém, Marte fica 200 vezes mais distante de nós que a Lua 00:02:10.593 --> 00:02:14.113 e, consequentemente, leva em média 13 minutos 00:02:14.133 --> 00:02:16.976 para que um sinal de comunicação viaje da Terra a Marte. 00:02:17.000 --> 00:02:20.400 Se houver algum problema, não dá tempo de resolver. 00:02:20.730 --> 00:02:23.346 Então, uma solução razoável de engenharia 00:02:23.360 --> 00:02:28.906 é colocarmos o controle de missão dentro da nave Orion. 00:02:28.930 --> 00:02:31.796 Outra ideia fascinante no projeto da missão 00:02:31.810 --> 00:02:34.756 é colocar robôs humanoides na superfície de Marte 00:02:34.770 --> 00:02:36.696 antes de os humanos chegarem, 00:02:36.720 --> 00:02:38.376 para construírem instalações 00:02:38.400 --> 00:02:42.230 e depois atuarem como colaboradores da equipe científica. NOTE Paragraph 00:02:43.300 --> 00:02:46.046 Bom, de uma perspectiva de engenharia, 00:02:46.060 --> 00:02:49.336 ficou bem claro pra mim que o que eu precisava projetar 00:02:49.360 --> 00:02:51.536 era uma inteligência artificial 00:02:51.560 --> 00:02:53.936 moderna, colaborativa e com habilidade social. 00:02:53.960 --> 00:02:58.256 Em outras palavras, eu precisava criar algo bem parecido com o HAL, 00:02:58.280 --> 00:03:00.696 mas sem suas tendências homicidas. NOTE Paragraph 00:03:00.720 --> 00:03:02.080 (Risos) NOTE Paragraph 00:03:02.880 --> 00:03:04.736 Mas espera um pouco: 00:03:04.760 --> 00:03:08.656 será mesmo possível criar uma inteligência artificial assim? 00:03:08.680 --> 00:03:10.136 Na verdade, é possível sim. 00:03:10.160 --> 00:03:13.396 De muitas formas, trata-se de um desafio complexo de engenharia, 00:03:13.416 --> 00:03:14.896 com alguns elementos de IA; 00:03:14.920 --> 00:03:19.616 não da ideia mirabolante de criar uma IA repulsiva. 00:03:19.640 --> 00:03:24.696 Parafraseando Alan Turing, não quero criar uma máquina consciente. 00:03:24.726 --> 00:03:26.296 Não vou criar um HAL. 00:03:26.320 --> 00:03:32.006 Só quero criar um cérebro simples, algo que cause a ilusão de inteligência. NOTE Paragraph 00:03:33.000 --> 00:03:36.136 A arte e a ciência da computação evoluíram bastante 00:03:36.160 --> 00:03:37.656 desde que HAL surgiu no cinema, 00:03:37.680 --> 00:03:40.896 e imagino que, se o Dr. Chandra, seu inventor, estivesse aqui hoje, 00:03:40.920 --> 00:03:43.256 ele teria um monte de perguntas pra nós. 00:03:43.280 --> 00:03:45.376 Será que conseguimos 00:03:45.400 --> 00:03:49.416 pegar um sistema com milhões e milhões de dispositivos, 00:03:49.440 --> 00:03:50.896 entrar com os dados, 00:03:50.920 --> 00:03:53.176 prever suas falhas e nos anteciparmos a elas? 00:03:53.200 --> 00:03:54.266 Sim. 00:03:54.280 --> 00:03:57.506 Será possível criar sistemas que conversem conosco em nossa língua? 00:03:57.520 --> 00:03:58.496 Sim. 00:03:58.520 --> 00:04:01.796 Será possível criar sistemas que reconheçam objetos e emoções, 00:04:01.820 --> 00:04:05.216 que reajam emotivamente, usem de estratégia e até leitura labial? 00:04:05.240 --> 00:04:06.206 Sim. 00:04:06.230 --> 00:04:08.656 Será possível criar um sistema que estabeleça metas, 00:04:08.680 --> 00:04:12.296 faça planos e aprenda ao longo do caminho? 00:04:12.320 --> 00:04:13.456 Sim. 00:04:13.480 --> 00:04:16.826 Será possível criarmos sistemas com capacidade cognitiva? 00:04:16.850 --> 00:04:18.416 Estamos aprendendo a fazer isso. 00:04:18.440 --> 00:04:22.420 Será possível criarmos sistemas que tenham princípios éticos e morais? 00:04:22.450 --> 00:04:24.810 Precisamos aprender a fazer isso. 00:04:25.300 --> 00:04:26.736 Então, digamos, por exemplo, 00:04:26.760 --> 00:04:29.656 que seja possível criar uma inteligência artificial assim, 00:04:29.680 --> 00:04:31.706 para esse tipo de missão e para outras. NOTE Paragraph 00:04:31.730 --> 00:04:35.816 A próxima pergunta que precisamos fazer é: devemos temer essa inteligência? 00:04:35.826 --> 00:04:40.726 Bom, toda nova tecnologia traz algum tipo de preocupação. 00:04:40.760 --> 00:04:42.496 Quando surgiram os carros, 00:04:42.520 --> 00:04:46.456 as pessoas acharam que veríamos a destruição da família. 00:04:46.470 --> 00:04:49.206 Quando surgiram os telefones, 00:04:49.220 --> 00:04:52.176 as pessoas temiam que ele destruiria a socialização entre as pessoas. 00:04:52.200 --> 00:04:56.026 Quando vimos a palavra escrita se espalhar, 00:04:56.050 --> 00:04:58.586 acharam que perderíamos nossa capacidade de memorizar. 00:04:58.600 --> 00:05:00.736 Tudo isso é de certa forma verdade, 00:05:00.760 --> 00:05:03.086 mas também é verdade que essas tecnologias 00:05:03.110 --> 00:05:06.576 nos possibilitaram ampliar a experiência humana 00:05:06.600 --> 00:05:08.770 de formas profundas. NOTE Paragraph 00:05:09.840 --> 00:05:12.120 Vou explicar melhor. 00:05:13.120 --> 00:05:17.856 Não temo a criação de uma IA assim, 00:05:17.880 --> 00:05:21.696 porque ela vai acabar assimilando alguns dos nossos valores. 00:05:21.720 --> 00:05:25.216 Pensem só: criar um sistema cognitivo é fundamentalmente diferente 00:05:25.240 --> 00:05:28.536 de criar um sistema complexo e tradicional do passado. 00:05:28.560 --> 00:05:31.016 Não a programamos. Nós lhe ensinamos. 00:05:31.040 --> 00:05:33.696 Para ensinar um sistema a reconhecer flores, 00:05:33.720 --> 00:05:36.676 mostro a ele milhares de flores do tipo de que gosto. 00:05:36.690 --> 00:05:38.946 Para ensinar um sistema a jogar... 00:05:38.960 --> 00:05:41.000 eu faria isso, e vocês também... 00:05:42.600 --> 00:05:44.640 Eu gosto de jogos. Qual é! 00:05:45.440 --> 00:05:48.226 Para ensinar um sistema a jogar, por exemplo, o "Go", 00:05:48.240 --> 00:05:50.930 eu o faria jogá-lo várias vezes, mas, no processo, 00:05:50.950 --> 00:05:54.496 eu também o ensinaria a diferenciar um jogo bom de um jogo ruim. 00:05:54.520 --> 00:05:58.216 Se quisesse criar um assistente jurídico com inteligência artificial, 00:05:58.240 --> 00:06:01.260 eu lhe ensinaria algumas leis, mas, ao mesmo tempo, 00:06:01.280 --> 00:06:05.800 colocaria nele o senso de compaixão e de justiça que acompanham essas leis. 00:06:06.480 --> 00:06:09.536 Em termos científicos, é o que chamamos de situação fática, 00:06:09.560 --> 00:06:11.576 e eis o mais importante: 00:06:11.600 --> 00:06:13.056 ao criar essas máquinas, 00:06:13.080 --> 00:06:16.496 estamos ensinando a elas algo dos nossos valores. 00:06:16.520 --> 00:06:19.606 Sendo assim, eu confio na inteligência artificial 00:06:19.620 --> 00:06:23.320 tanto quanto num humano bem treinado; quem sabe até mais. NOTE Paragraph 00:06:23.920 --> 00:06:25.156 Talvez vocês perguntem: 00:06:25.170 --> 00:06:30.746 "E quanto a agentes maliciosos, tipo, uma ONG bem financiada?" 00:06:31.230 --> 00:06:35.086 Não temo uma inteligência artificial nas mãos de um "lobo solitário". 00:06:35.100 --> 00:06:37.230 Obviamente, não podemos nos proteger 00:06:37.250 --> 00:06:39.600 contra todos os possíveis atos de violência, 00:06:39.630 --> 00:06:44.926 mas a verdade é que um sistema assim requer treinamento sólido e inteligente 00:06:44.950 --> 00:06:47.246 muito além das capacidades de um indivíduo. 00:06:47.270 --> 00:06:48.336 Além disso, 00:06:48.360 --> 00:06:51.816 a coisa vai além de simplesmente injetar um vírus virtual no mundo, 00:06:51.840 --> 00:06:54.946 pressionando um botão e, de repente, propagando-o por toda parte, 00:06:54.960 --> 00:06:57.366 fazendo notebooks explodirem por aí. 00:06:57.390 --> 00:07:01.836 Esses tipos de coisas são bem maiores, e certamente os veremos chegar. NOTE Paragraph 00:07:02.380 --> 00:07:05.576 Se eu temo que uma inteligência artificial assim 00:07:05.600 --> 00:07:08.160 possa ameaçar toda a espécie humana? 00:07:08.180 --> 00:07:12.610 Ao assistir a filmes como "Matrix", "Metrópolis", 00:07:12.630 --> 00:07:15.736 "O Exterminador do Futuro", ou a séries como "Westworld", 00:07:15.750 --> 00:07:18.016 vemos que todos falam desse tipo de medo. 00:07:18.040 --> 00:07:22.226 No livro "Superintelligence", do filósofo Nick Bostrom, 00:07:22.240 --> 00:07:23.896 ele aborda esse tema 00:07:23.920 --> 00:07:27.816 e explica que uma superinteligência pode não só ser perigosa, 00:07:27.840 --> 00:07:31.816 mas também representar uma ameaça à existência da espécie humana. 00:07:31.840 --> 00:07:35.626 O argumento básico do Dr. Bostrom é o de que esses sistemas 00:07:35.640 --> 00:07:40.096 vão acabar tendo tamanha sede por informação 00:07:40.120 --> 00:07:43.016 que vão talvez aprender a aprender 00:07:43.040 --> 00:07:45.656 e vão acabar descobrindo que podem ter objetivos 00:07:45.680 --> 00:07:47.900 que são contrários às necessidades humanas. 00:07:47.930 --> 00:07:49.856 O Dr. Bostrom têm alguns seguidores. 00:07:49.880 --> 00:07:54.200 Pessoas como Elon Musk e Stephen Hawking concordam com ele. 00:07:54.810 --> 00:08:00.140 Com todo o respeito a essas mentes brilhantes, 00:08:00.160 --> 00:08:02.456 creio que estejam fundamentalmente equivocados. 00:08:02.480 --> 00:08:05.656 São muitos os aspectos do argumento do Dr. Bostrom para discutir 00:08:05.680 --> 00:08:07.676 e não tenho tenho para falar sobre todos, 00:08:07.690 --> 00:08:10.536 mas, rapidamente, pensem no seguinte: 00:08:10.560 --> 00:08:14.206 ser "super" no saber é bem diferente de ser "super" no fazer. 00:08:14.220 --> 00:08:16.266 HAL foi uma ameaça à tripulação da Discovery 00:08:16.280 --> 00:08:20.546 só porque comandava todos os aspectos da nave. 00:08:20.560 --> 00:08:23.106 Assim teria que ser com uma superinteligência. 00:08:23.120 --> 00:08:25.556 Ela teria que ter controle sobre todo o nosso mundo. 00:08:25.580 --> 00:08:28.396 Isso é coisa da Skynet, do filme "O Exterminador do Futuro", 00:08:28.420 --> 00:08:31.736 uma superinteligência que controlava a vontade humana, 00:08:31.750 --> 00:08:35.606 que controlava qualquer dispositivo em qualquer parte do mundo. 00:08:35.630 --> 00:08:39.236 Em termos práticos, isso não vai rolar. 00:08:39.250 --> 00:08:42.326 Não estamos criando IAs que controlem o clima, 00:08:42.350 --> 00:08:43.736 que controlem as marés, 00:08:43.760 --> 00:08:47.136 ou que comandem a nós, humanos inconstantes e caóticos. 00:08:47.160 --> 00:08:51.056 Além do mais, se uma inteligência artificial dessas existisse, 00:08:51.080 --> 00:08:54.016 ela teria que competir nas economias mundiais 00:08:54.040 --> 00:08:56.560 e, portanto, competir conosco por recursos. 00:08:57.070 --> 00:09:00.336 No fim... não contem isso ao Siri... 00:09:00.356 --> 00:09:01.816 sempre é possível desligá-la. NOTE Paragraph 00:09:01.840 --> 00:09:03.960 (Risos) NOTE Paragraph 00:09:05.270 --> 00:09:10.246 Estamos numa jornada incrível de coevolução com nossas máquinas. 00:09:10.270 --> 00:09:15.406 Não seremos no futuro os mesmos humanos que somos hoje. 00:09:15.420 --> 00:09:18.576 Preocupar-se agora com o surgimento de uma superinteligência 00:09:18.600 --> 00:09:21.656 é, de várias maneiras, uma distração perigosa 00:09:21.680 --> 00:09:24.016 porque a ascensão da própria computação 00:09:24.040 --> 00:09:27.056 nos traz diversas questões, humanas e sociais, 00:09:27.080 --> 00:09:29.280 com as quais agora devemos lidar. 00:09:29.300 --> 00:09:32.176 Como organizar a sociedade 00:09:32.200 --> 00:09:34.536 quando a demanda por trabalho humano diminuir? 00:09:34.560 --> 00:09:38.376 Como disseminar entendimento e educação por todo o planeta 00:09:38.400 --> 00:09:40.176 sem desrespeitar nossas diferenças? 00:09:40.200 --> 00:09:44.400 Como prolongar e melhorar a vida com esse tipo de inteligência na área de saúde? 00:09:44.420 --> 00:09:49.676 Como posso usar a computação para fazer com que cheguemos às estrelas? NOTE Paragraph 00:09:49.690 --> 00:09:51.800 Isso é o mais empolgante. 00:09:52.300 --> 00:09:56.220 As oportunidades de usar a computação para ampliar a experiência humana 00:09:56.240 --> 00:09:59.520 estão a nosso alcance, aqui e agora, 00:09:59.540 --> 00:10:01.520 e estamos apenas começando. NOTE Paragraph 00:10:02.080 --> 00:10:03.316 Muito obrigado. NOTE Paragraph 00:10:03.330 --> 00:10:05.388 (Aplausos)