WEBVTT 00:00:00.760 --> 00:00:04.447 Quando eu era miúdo, era um grandessíssimo "nerd". 00:00:05.320 --> 00:00:07.610 Acho que alguns de vocês também eram. NOTE Paragraph 00:00:07.643 --> 00:00:08.821 (Risos) NOTE Paragraph 00:00:08.893 --> 00:00:12.242 E o senhor, que riu mais alto, provavelmente ainda é. NOTE Paragraph 00:00:12.304 --> 00:00:14.151 (Risos) NOTE Paragraph 00:00:14.280 --> 00:00:15.880 Cresci numa cidade pequena 00:00:15.880 --> 00:00:18.038 nas planícies empoeiradas do norte do Texas, 00:00:18.085 --> 00:00:21.297 filho de um xerife que era filho de um pastor. 00:00:21.360 --> 00:00:23.613 Meter-me em sarilhos estava fora de causa. 00:00:24.040 --> 00:00:27.467 Por isso, comecei a ler livros de cálculo por diversão. NOTE Paragraph 00:00:27.538 --> 00:00:28.856 (Risos) NOTE Paragraph 00:00:28.965 --> 00:00:30.861 Vocês também fizeram isso. 00:00:30.923 --> 00:00:34.450 Isso levou-me a construir um laser, um computador e modelos de foguetões 00:00:34.493 --> 00:00:37.998 e levou-me a fazer combustível para foguetões, no meu quarto. 00:00:40.074 --> 00:00:41.816 Em termos científicos, 00:00:41.868 --> 00:00:44.953 chamamos a isso uma ideia muito má. NOTE Paragraph 00:00:45.005 --> 00:00:46.240 (Risos) NOTE Paragraph 00:00:46.360 --> 00:00:48.269 Por volta dessa época, 00:00:48.569 --> 00:00:51.871 "2001: A Odisseia no Espaço", de Stanley Kubrick, chegou ao cinema 00:00:51.914 --> 00:00:54.304 e a minha vida mudou para sempre. 00:00:54.457 --> 00:00:56.545 Adorei tudo naquele filme, 00:00:56.579 --> 00:00:59.086 especialmente o HAL 9000, 00:00:59.177 --> 00:01:01.318 O HAL era um computador sensível 00:01:01.352 --> 00:01:03.646 concebido para guiar a astronave Discovery 00:01:03.689 --> 00:01:06.016 da Terra para Júpiter. 00:01:06.259 --> 00:01:08.372 O HAL também era um personagem com defeitos, 00:01:08.434 --> 00:01:12.676 porque, no final, preferiu valorizar a missão em vez da vida humana. 00:01:13.020 --> 00:01:15.078 O HAL era uma personagem fictícia, 00:01:15.112 --> 00:01:17.635 mas, mesmo assim, fala dos nossos medos, 00:01:17.697 --> 00:01:19.974 dos nossos medos de sermos subjugados 00:01:20.007 --> 00:01:23.023 por alguma inteligência insensível, artificial 00:01:23.076 --> 00:01:25.236 que é indiferente à nossa humanidade. NOTE Paragraph 00:01:25.880 --> 00:01:28.513 Acredito que tais medos são infundados. 00:01:28.575 --> 00:01:31.185 Na verdade, estamos numa época notável 00:01:31.228 --> 00:01:32.974 da história humana, 00:01:32.998 --> 00:01:37.736 em que, impelidos pela recusa de aceitar os limites do nosso corpo e da nossa mente, 00:01:37.760 --> 00:01:39.532 estamos a construir máquinas 00:01:39.584 --> 00:01:43.096 de complexidade e graça requintada e bonita 00:01:43.120 --> 00:01:45.328 que alargará a experiência humana 00:01:45.380 --> 00:01:47.470 de formas para além da nossa imaginação. NOTE Paragraph 00:01:47.672 --> 00:01:50.610 Depois duma carreira que me levou da Academia da Força Aérea 00:01:50.643 --> 00:01:52.494 até ao Comando Espacial, agora, 00:01:52.537 --> 00:01:54.290 tornei-me engenheiro de sistemas, 00:01:54.337 --> 00:01:56.955 e recentemente, envolvi-me num problema de engenharia 00:01:56.998 --> 00:01:59.374 associado à missão da NASA em Marte. 00:01:59.502 --> 00:02:01.970 Em voos espaciais para a Lua, 00:02:02.032 --> 00:02:05.016 podemos confiar no controlo da missão em Houston 00:02:05.078 --> 00:02:07.225 para observar todos os aspetos dum voo. 00:02:07.316 --> 00:02:10.652 No entanto, Marte está 200 vezes mais longe 00:02:10.695 --> 00:02:14.092 e, em resultado, são precisos 13 minutos, em média, 00:02:14.135 --> 00:02:17.099 para um sinal viajar da Terra até Marte. 00:02:17.171 --> 00:02:20.552 Se houver problemas, não há tempo suficiente. 00:02:20.840 --> 00:02:23.421 Assim, uma solução razoável de engenharia 00:02:23.464 --> 00:02:26.040 pede-nos para pôr o controlo da missão 00:02:26.074 --> 00:02:28.728 dentro das paredes da astronave Orion. 00:02:29.000 --> 00:02:32.010 Uma outra ideia fascinante, no perfil da missão, 00:02:32.043 --> 00:02:34.977 coloca robôs humanoides na superfície de Marte 00:02:35.049 --> 00:02:36.962 antes de os seres humanos chegarem, 00:02:37.005 --> 00:02:38.747 primeiro para construir instalações 00:02:38.795 --> 00:02:42.283 e depois, para servir como membros colaborativos da equipa de ciência NOTE Paragraph 00:02:43.400 --> 00:02:46.231 Como olhei para isto numa perspetiva de engenharia 00:02:46.274 --> 00:02:49.583 percebi rapidamente que aquilo de que precisava para arquitetar 00:02:49.636 --> 00:02:51.536 era de uma inteligência artificial, 00:02:51.560 --> 00:02:54.078 esperta, colaborativa e socialmente inteligente. 00:02:54.160 --> 00:02:58.189 Por outras palavras, tinha de construir algo muito parecido com um HAL 00:02:58.280 --> 00:03:00.696 mas sem tendências homicidas. NOTE Paragraph 00:03:00.862 --> 00:03:02.222 (Risos) NOTE Paragraph 00:03:02.920 --> 00:03:04.859 Vamos fazer uma pausa por um momento 00:03:04.921 --> 00:03:08.656 Será realmente possível construir uma inteligência artificial assim? 00:03:08.803 --> 00:03:10.136 Na verdade, é. 00:03:10.226 --> 00:03:11.416 De muitas formas, 00:03:11.440 --> 00:03:13.416 isso é um árduo problema de engenharia 00:03:13.440 --> 00:03:15.457 com elementos de inteligência artificial, 00:03:15.472 --> 00:03:19.511 não um problema complicado de IA que precisa de ser projetado. 00:03:19.640 --> 00:03:22.115 Parafraseando Alan Turing, 00:03:22.138 --> 00:03:24.848 não estou interessado em construir uma máquina sensível. 00:03:24.872 --> 00:03:26.505 Não estou a construir um HAL. 00:03:26.558 --> 00:03:28.936 Só estou a procurar um cérebro simples, 00:03:28.969 --> 00:03:32.175 algo que ofereça a ilusão de inteligência. NOTE Paragraph 00:03:33.000 --> 00:03:36.278 A arte e a ciência da informática têm percorrido um longo caminho 00:03:36.331 --> 00:03:37.989 desde que o HAL esteve no ecrã 00:03:38.013 --> 00:03:41.115 e imagino que, se o seu inventor Dr. Chandra estivesse aqui hoje, 00:03:41.148 --> 00:03:43.389 teria um monte de questões para nós. 00:03:43.460 --> 00:03:45.376 Será realmente possível 00:03:45.400 --> 00:03:49.416 termos um sistema de milhões e milhões de dispositivos, 00:03:49.440 --> 00:03:51.010 para ler nos fluxos de dados, 00:03:51.062 --> 00:03:53.318 prever as suas falhas e agir com antecedência? 00:03:53.352 --> 00:03:54.416 É, sim. 00:03:54.449 --> 00:03:57.825 Podemos construir sistemas que conversam com humanos em língua natural? 00:03:57.859 --> 00:03:58.856 Podemos, sim. 00:03:58.880 --> 00:04:02.322 Podemos construir sistemas que reconheçam objetos, identifiquem emoções, 00:04:02.346 --> 00:04:05.217 se emocionem, joguem jogos e até leiam lábios? 00:04:05.280 --> 00:04:06.496 Podemos, sim. 00:04:06.520 --> 00:04:08.893 Podemos construir um sistema que estabeleça metas, 00:04:08.908 --> 00:04:12.438 que execute planos para essas metas e aprenda ao longo do caminho? 00:04:12.491 --> 00:04:13.669 Podemos, sim. 00:04:13.712 --> 00:04:16.972 Podemos construir sistemas que tenham uma teoria de pensamento? 00:04:17.034 --> 00:04:18.606 Estamos a aprender a fazer isso. 00:04:18.659 --> 00:04:22.224 Podemos construir sistemas que têm um fundamento ético e moral? 00:04:22.480 --> 00:04:24.853 Temos de aprender a fazer isso. 00:04:25.360 --> 00:04:26.936 Vamos aceitar, por instantes, 00:04:26.969 --> 00:04:29.713 que é possível construir essa inteligência artificial 00:04:29.765 --> 00:04:31.958 para este tipo de missão e outros. NOTE Paragraph 00:04:31.992 --> 00:04:34.376 A pergunta seguinte que devemos fazer é: 00:04:34.466 --> 00:04:36.170 Devemos ter medo dela? 00:04:36.232 --> 00:04:37.913 Cada nova tecnologia 00:04:37.965 --> 00:04:40.595 traz consigo uma certa trepidação. 00:04:40.800 --> 00:04:42.791 Quando viram carros pela primeira vez, 00:04:42.853 --> 00:04:46.536 as pessoas queixaram-se de que veríamos a destruição da família. 00:04:46.721 --> 00:04:49.398 Quando viram os telefones, pela primeira vez, 00:04:49.432 --> 00:04:52.537 as pessoas recearam que fossem destruir toda a conversação civil. 00:04:52.571 --> 00:04:56.221 A certa altura, vimos a palavra escrita tornar-se universal. 00:04:56.360 --> 00:04:58.979 As pessoas pensaram perder a capacidade de memorizar. 00:04:59.013 --> 00:05:01.097 Tudo isto é verdade, até certo ponto, 00:05:01.131 --> 00:05:03.404 mas acontece também que essas tecnologias 00:05:03.466 --> 00:05:06.576 trouxeram-nos coisas que ampliaram a experiência humana 00:05:06.600 --> 00:05:08.546 de formas profundas. NOTE Paragraph 00:05:09.840 --> 00:05:12.386 Então, vamos levar isso um pouco mais longe. 00:05:13.120 --> 00:05:17.579 Eu não temo a criação duma IA como esta, 00:05:17.880 --> 00:05:21.696 porque ela acabará por incorporar alguns dos nossos valores. 00:05:21.891 --> 00:05:25.444 Considerem isto: construir um sistema cognitivo é totalmente diferente 00:05:25.468 --> 00:05:29.002 de construir um sistema tradicional de software intensivo do passado. 00:05:29.055 --> 00:05:31.216 Não os programamos. Ensinamo-los. 00:05:31.287 --> 00:05:33.715 Para ensinar um sistema a reconhecer flores, 00:05:33.767 --> 00:05:36.736 mostro-lhe milhares de flores dos tipos que gosto. 00:05:36.845 --> 00:05:39.016 Para ensinar um sistema a jogar um jogo... 00:05:39.182 --> 00:05:41.790 — bem, eu ensinaria, vocês também ensinariam. 00:05:42.600 --> 00:05:44.754 Adoro flores. Vamos lá. 00:05:45.440 --> 00:05:48.296 Para ensinar um sistema a jogar um jogo como o Go, 00:05:48.339 --> 00:05:50.471 deixá-lo-ia jogar milhares de jogos do Go, 00:05:50.504 --> 00:05:52.189 mas no processo também lhe ensino 00:05:52.241 --> 00:05:54.619 como discernir um jogo bom de um jogo mau. 00:05:54.767 --> 00:05:58.330 Se eu quiser criar um assistente legal artificialmente inteligente, 00:05:58.363 --> 00:06:00.596 vou ensinar-lhe algumas noções de leis 00:06:00.625 --> 00:06:03.019 mas, ao mesmo tempo, estou a introduzir-lhe 00:06:03.062 --> 00:06:06.200 o sentido de piedade e de justiça que faz parte dessas leis. 00:06:06.560 --> 00:06:09.764 Em termos científicos, é aquilo a que chamamos verdade fundamental, 00:06:09.807 --> 00:06:11.728 e este é o ponto importante: 00:06:11.771 --> 00:06:13.275 ao produzir estas máquinas, 00:06:13.308 --> 00:06:16.286 estamos a ensinar-lhes um sentido dos nossos valores. 00:06:16.520 --> 00:06:20.294 Para esse fim, confio tanto numa inteligência artificial, 00:06:20.365 --> 00:06:23.729 — ou mesmo mais — do que num ser humano que é bem formado. NOTE Paragraph 00:06:24.080 --> 00:06:25.496 Mas podem perguntar: 00:06:25.529 --> 00:06:28.088 "E quanto a agentes desonestos, 00:06:28.150 --> 00:06:31.296 "a alguma organização não governamental bem financiada?" 00:06:31.481 --> 00:06:35.136 Eu não temo uma inteligência artificial na mão de um lobo solitário. 00:06:35.360 --> 00:06:37.424 Claramente, não conseguimos proteger-nos 00:06:37.462 --> 00:06:39.777 contra todos os atos fortuitos de violência, 00:06:39.843 --> 00:06:42.008 mas a realidade é que um sistema destes 00:06:42.060 --> 00:06:44.976 requer formação substancial e formação subtil 00:06:45.028 --> 00:06:47.410 muito para além dos recursos de um indivíduo. 00:06:47.491 --> 00:06:48.640 E além disso, 00:06:48.683 --> 00:06:51.977 é muito mais do que injetar um vírus de Internet no mundo 00:06:52.020 --> 00:06:54.936 em que apertamos um botão, e ele aparece num milhão de lugares 00:06:54.960 --> 00:06:57.663 e os portáteis começam a explodir por toda a parte. 00:06:57.706 --> 00:07:00.408 Estes tipos de substância são muito maiores, 00:07:00.460 --> 00:07:02.375 e certamente vamos vê-los chegar. NOTE Paragraph 00:07:02.653 --> 00:07:05.576 Será que receio que essa inteligência artificial 00:07:05.600 --> 00:07:07.902 possa ameaçar toda a humanidade? 00:07:08.280 --> 00:07:12.332 Se olharmos para filmes como "The Matrix", "Metropolis", 00:07:12.394 --> 00:07:15.856 "O Exterminador Implacável", séries como "Westworld", 00:07:15.880 --> 00:07:18.016 todos falam desse tipo de medo. 00:07:18.192 --> 00:07:22.336 De facto, no livro "Superintelligence" do filósofo Nick Bostrom, 00:07:22.360 --> 00:07:24.000 ele pega neste tema 00:07:24.043 --> 00:07:28.002 e nota que uma superinteligência pode não só ser perigosa, 00:07:28.083 --> 00:07:31.816 pode representar uma ameaça existencial para toda a humanidade. 00:07:31.935 --> 00:07:34.113 O argumento básico do Dr. Bostrom 00:07:34.165 --> 00:07:37.082 é que tais sistemas vão acabar por ter 00:07:37.144 --> 00:07:40.153 uma tal ânsia insaciável de informação 00:07:40.215 --> 00:07:43.016 que talvez aprendam como aprender 00:07:43.116 --> 00:07:45.703 e acabem por descobrir que podem ter metas 00:07:45.756 --> 00:07:48.071 que são contrárias às necessidades humanas. 00:07:48.123 --> 00:07:50.075 O Dr. Bostrom tem muitos seguidores. 00:07:50.137 --> 00:07:54.390 É apoiado por pessoas como Elon Musk e Stephen Hawking. 00:07:54.975 --> 00:07:57.518 Com o devido respeito 00:07:58.160 --> 00:08:00.176 a essas mentes brilhantes, 00:08:00.200 --> 00:08:02.675 acho que estão fundamentalmente errados. 00:08:02.727 --> 00:08:05.732 Há muitas peças do argumento do Dr. Bostrom para desmontar, 00:08:05.794 --> 00:08:08.092 mas não tenho tempo para desmontá-las a todas, 00:08:08.144 --> 00:08:10.536 mas muito rapidamente, considerem isto: 00:08:10.760 --> 00:08:14.257 o super conhecimento é muito diferente da super ação. 00:08:14.320 --> 00:08:16.930 O HAL só foi uma ameaça para a tripulação do Discovery 00:08:16.973 --> 00:08:20.722 na medida em que o HAL comandava todos os aspetos do Discovery. 00:08:20.803 --> 00:08:23.290 Então teria de ser com superinteligência. 00:08:23.361 --> 00:08:25.848 Teria que ter o domínio sobre todo o nosso mundo. 00:08:25.901 --> 00:08:28.697 Isto é o material do Skynet de “O Exterminador Implacável” 00:08:28.760 --> 00:08:30.606 em que tínhamos uma superinteligência 00:08:30.668 --> 00:08:32.235 que comandava a vontade humana, 00:08:32.268 --> 00:08:35.505 que dirigia todos os dispositivos que estavam pelo mundo inteiro. 00:08:35.720 --> 00:08:37.337 Em termos práticos, 00:08:37.362 --> 00:08:39.229 isso não vai acontecer. 00:08:39.320 --> 00:08:42.423 Não estamos a construir IA que controlam o tempo, 00:08:42.476 --> 00:08:44.059 que dirigem as marés, 00:08:44.093 --> 00:08:47.288 que comandam os seres humanos caprichosos e caóticos. 00:08:47.379 --> 00:08:50.970 E além disso, se existisse tal inteligência artificial, 00:08:51.041 --> 00:08:54.063 teria de competir com economias humanas, 00:08:54.116 --> 00:08:56.902 e, portanto, competir connosco pelos recursos. 00:08:57.200 --> 00:08:58.416 E, no final, 00:08:58.440 --> 00:09:00.356 — não digam isto ao Siri — 00:09:00.440 --> 00:09:02.282 podemos sempre desligá-los. NOTE Paragraph 00:09:02.349 --> 00:09:03.960 (Risos) NOTE Paragraph 00:09:05.455 --> 00:09:07.816 Estamos numa viagem incrível 00:09:07.840 --> 00:09:10.336 de coevolução com as nossas máquinas. 00:09:10.502 --> 00:09:12.979 Os seres humanos que somos hoje 00:09:13.032 --> 00:09:15.416 não são os seres humanos que seremos depois. 00:09:15.592 --> 00:09:18.776 Preocuparmo-nos agora com o aparecimento duma superinteligência 00:09:18.828 --> 00:09:21.808 é, em muitos aspetos, uma diversão perigosa. 00:09:21.870 --> 00:09:24.187 porque o aparecimento da própria informática 00:09:24.240 --> 00:09:27.198 traz-nos uma série de questões humanas e sociais 00:09:27.241 --> 00:09:29.281 às quais devemos agora dar atenção. 00:09:29.360 --> 00:09:32.176 Como é que organizo melhor a sociedade 00:09:32.200 --> 00:09:34.697 quando a necessidade de trabalho humano diminui? 00:09:34.741 --> 00:09:38.461 Como posso trazer compreensão e educação a todo o mundo 00:09:38.504 --> 00:09:40.423 sem desrespeitar as nossas diferenças? 00:09:40.457 --> 00:09:44.608 Como posso ampliar e melhorar a vida humana através da assistência médica cognitiva? 00:09:44.660 --> 00:09:47.459 Como posso usar a informática 00:09:47.512 --> 00:09:49.529 para nos levar às estrelas? NOTE Paragraph 00:09:49.760 --> 00:09:51.876 E esta é a coisa excitante. 00:09:52.400 --> 00:09:54.736 As oportunidades de usar a informática 00:09:54.760 --> 00:09:56.696 para fazer avançar a experiência humana 00:09:56.748 --> 00:09:59.250 estão ao nosso alcance, aqui e agora, 00:09:59.640 --> 00:10:01.758 e estamos apenas a começar. NOTE Paragraph 00:10:02.280 --> 00:10:03.572 Muito obrigado. NOTE Paragraph 00:10:03.605 --> 00:10:06.701 (Aplausos)