Quando criança, eu era fundamentalmente "nerd". Acho que alguns de vocês também eram. (Risos) E o senhor, que deu a risada mais alta, provavelmente ainda é. (Risos) Cresci numa cidadezinha nas planícies empoeiradas do norte do Texas, filho de um xerife que era filho de um pastor. Me meter em confusão não era uma opção. Então, comecei a ler livros de cálculo pra me distrair. (Risos) Você também! Isso me levou a criar um lêiser, um computador e protótipos de foguete, o que me levou a inventar combustível de foguete em meu quarto. Bem, em termos científicos, chamamos isso de "péssima ideia". (Risos) Mais ou menos na mesma época, "2001: Uma odisseia no espaço", de Stanley Kubrick, estreou nos cinemas e minha vida mudou para sempre. Adorei tudo naquele filme, principalmente o HAL 9000. HAL era um computador consciente, projetado para conduzir a nave Discovery da Terra até Júpiter. HAL também era um personagem imperfeito, pois, no fim, decidiu priorizar a missão em vez da vida humana. Bem, HAL era um personagem de ficção, mas, mesmo assim, traz à tona nossos medos, medo de sermos subjugados por uma inteligência artificial sem sentimentos, indiferente à nossa humanidade. Acredito que esses medos não têm fundamento. De fato, vivemos numa época incrível da história da humanidade, em que, por nos recursarmos a aceitar as limitações do nosso corpo e mente, criamos máquinas graciosas e de linda e primorosa complexidade, que vão ampliar a experiência humana de formas além do que imaginamos. Depois de trabalhar na Academia da Força Aérea americana e chegar ao Comando Espacial americano, me tornei engenheiro de sistemas, e recentemente estou ajudando num problema de engenharia relacionado à missão da NASA a Marte. Bem, nos voos espaciais à Lua, podemos contar com o apoio do controle de missão em Houston, que monitora todos os aspectos do voo. Porém, Marte fica 200 vezes mais distante de nós que a Lua e, consequentemente, leva em média 13 minutos para que um sinal de comunicação viaje da Terra a Marte. Se houver algum problema, não dá tempo de resolver. Então, uma solução razoável de engenharia é colocarmos o controle de missão dentro da nave Orion. Outra ideia fascinante no projeto da missão é colocar robôs humanoides na superfície de Marte antes de os humanos chegarem, para construírem instalações e depois atuarem como colaboradores da equipe científica. Bom, de uma perspectiva de engenharia, ficou bem claro pra mim que o que eu precisava projetar era uma inteligência artificial moderna, colaborativa e com habilidade social. Em outras palavras, eu precisava criar algo bem parecido com o HAL, mas sem suas tendências homicidas. (Risos) Mas espera um pouco: será mesmo possível criar uma inteligência artificial assim? Na verdade, é possível sim. De muitas formas, trata-se de um desafio complexo de engenharia, com alguns elementos de IA; não da ideia mirabolante de criar uma IA repulsiva. Parafraseando Alan Turing, não quero criar uma máquina consciente. Não vou criar um HAL. Só quero criar um cérebro simples, algo que cause a ilusão de inteligência. A arte e a ciência da computação evoluíram bastante desde que HAL surgiu no cinema, e imagino que, se o Dr. Chandra, seu inventor, estivesse aqui hoje, ele teria um monte de perguntas pra nós. Será que conseguimos pegar um sistema com milhões e milhões de dispositivos, entrar com os dados, prever suas falhas e nos anteciparmos a elas? Sim. Será possível criar sistemas que conversem conosco em nossa língua? Sim. Será possível criar sistemas que reconheçam objetos e emoções, que reajam emotivamente, usem de estratégia e até leitura labial? Sim. Será possível criar um sistema que estabeleça metas, faça planos e aprenda ao longo do caminho? Sim. Será possível criarmos sistemas com capacidade cognitiva? Estamos aprendendo a fazer isso. Será possível criarmos sistemas que tenham princípios éticos e morais? Precisamos aprender a fazer isso. Então, digamos, por exemplo, que seja possível criar uma inteligência artificial assim, para esse tipo de missão e para outras. A próxima pergunta que precisamos fazer é: devemos temer essa inteligência? Bom, toda nova tecnologia traz algum tipo de preocupação. Quando surgiram os carros, as pessoas acharam que veríamos a destruição da família. Quando surgiram os telefones, as pessoas temiam que ele destruiria a socialização entre as pessoas. Quando vimos a palavra escrita se espalhar, acharam que perderíamos nossa capacidade de memorizar. Tudo isso é de certa forma verdade, mas também é verdade que essas tecnologias nos possibilitaram ampliar a experiência humana de formas profundas. Vou explicar melhor. Não temo a criação de uma IA assim, porque ela vai acabar assimilando alguns dos nossos valores. Pensem só: criar um sistema cognitivo é fundamentalmente diferente de criar um sistema complexo e tradicional do passado. Não a programamos. Nós lhe ensinamos. Para ensinar um sistema a reconhecer flores, mostro a ele milhares de flores do tipo de que gosto. Para ensinar um sistema a jogar... eu faria isso, e vocês também... Eu gosto de jogos. Qual é! Para ensinar um sistema a jogar, por exemplo, o "Go", eu o faria jogá-lo várias vezes, mas, no processo, eu também o ensinaria a diferenciar um jogo bom de um jogo ruim. Se quisesse criar um assistente jurídico com inteligência artificial, eu lhe ensinaria algumas leis, mas, ao mesmo tempo, colocaria nele o senso de compaixão e de justiça que acompanham essas leis. Em termos científicos, é o que chamamos de situação fática, e eis o mais importante: ao criar essas máquinas, estamos ensinando a elas algo dos nossos valores. Sendo assim, eu confio na inteligência artificial tanto quanto num humano bem treinado; quem sabe até mais. Talvez vocês perguntem: "E quanto a agentes maliciosos, tipo, uma ONG bem financiada?" Não temo uma inteligência artificial nas mãos de um "lobo solitário". Obviamente, não podemos nos proteger contra todos os possíveis atos de violência, mas a verdade é que um sistema assim requer treinamento sólido e inteligente muito além das capacidades de um indivíduo. Além disso, a coisa vai além de simplesmente injetar um vírus virtual no mundo, pressionando um botão e, de repente, propagando-o por toda parte, fazendo notebooks explodirem por aí. Esses tipos de coisas são bem maiores, e certamente os veremos chegar. Se eu temo que uma inteligência artificial assim possa ameaçar toda a espécie humana? Ao assistir a filmes como "Matrix", "Metrópolis", "O Exterminador do Futuro", ou a séries como "Westworld", vemos que todos falam desse tipo de medo. No livro "Superintelligence", do filósofo Nick Bostrom, ele aborda esse tema e explica que uma superinteligência pode não só ser perigosa, mas também representar uma ameaça à existência da espécie humana. O argumento básico do Dr. Bostrom é o de que esses sistemas vão acabar tendo tamanha sede por informação que vão talvez aprender a aprender e vão acabar descobrindo que podem ter objetivos que são contrários às necessidades humanas. O Dr. Bostrom têm alguns seguidores. Pessoas como Elon Musk e Stephen Hawking concordam com ele. Com todo o respeito a essas mentes brilhantes, creio que estejam fundamentalmente equivocados. São muitos os aspectos do argumento do Dr. Bostrom para discutir e não tenho tenho para falar sobre todos, mas, rapidamente, pensem no seguinte: ser "super" no saber é bem diferente de ser "super" no fazer. HAL foi uma ameaça à tripulação da Discovery só porque comandava todos os aspectos da nave. Assim teria que ser com uma superinteligência. Ela teria que ter controle sobre todo o nosso mundo. Isso é coisa da Skynet, do filme "O Exterminador do Futuro", uma superinteligência que controlava a vontade humana, que controlava qualquer dispositivo em qualquer parte do mundo. Em termos práticos, isso não vai rolar. Não estamos criando IAs que controlem o clima, que controlem as marés, ou que comandem a nós, humanos inconstantes e caóticos. Além do mais, se uma inteligência artificial dessas existisse, ela teria que competir nas economias mundiais e, portanto, competir conosco por recursos. No fim... não contem isso ao Siri... sempre é possível desligá-la. (Risos) Estamos numa jornada incrível de coevolução com nossas máquinas. Não seremos no futuro os mesmos humanos que somos hoje. Preocupar-se agora com o surgimento de uma superinteligência é, de várias maneiras, uma distração perigosa porque a ascensão da própria computação nos traz diversas questões, humanas e sociais, com as quais agora devemos lidar. Como organizar a sociedade quando a demanda por trabalho humano diminuir? Como disseminar entendimento e educação por todo o planeta sem desrespeitar nossas diferenças? Como prolongar e melhorar a vida com esse tipo de inteligência na área de saúde? Como posso usar a computação para fazer com que cheguemos às estrelas? Isso é o mais empolgante. As oportunidades de usar a computação para ampliar a experiência humana estão a nosso alcance, aqui e agora, e estamos apenas começando. Muito obrigado. (Aplausos)