Quando criança, eu era
fundamentalmente "nerd".
Acho que alguns de vocês também eram.
(Risos)
E o senhor, que deu a risada mais alta,
provavelmente ainda é.
(Risos)
Cresci numa cidadezinha nas planícies
empoeiradas do norte do Texas,
filho de um xerife
que era filho de um pastor.
Me meter em confusão não era uma opção.
Então, comecei a ler livros
de cálculo pra me distrair.
(Risos)
Você também!
Isso me levou a criar um lêiser,
um computador e protótipos de foguete,
o que me levou a inventar combustível
de foguete em meu quarto.
Bem, em termos científicos,
chamamos isso de "péssima ideia".
(Risos)
Mais ou menos na mesma época,
"2001: Uma odisseia no espaço",
de Stanley Kubrick,
estreou nos cinemas
e minha vida mudou para sempre.
Adorei tudo naquele filme,
principalmente o HAL 9000.
HAL era um computador consciente,
projetado para conduzir
a nave Discovery da Terra até Júpiter.
HAL também era um personagem imperfeito,
pois, no fim, decidiu priorizar
a missão em vez da vida humana.
Bem, HAL era um personagem de ficção,
mas, mesmo assim,
traz à tona nossos medos,
medo de sermos subjugados
por uma inteligência artificial
sem sentimentos,
indiferente à nossa humanidade.
Acredito que esses medos
não têm fundamento.
De fato, vivemos numa época incrível
da história da humanidade,
em que, por nos recursarmos a aceitar
as limitações do nosso corpo e mente,
criamos máquinas graciosas
e de linda e primorosa complexidade,
que vão ampliar a experiência humana
de formas além do que imaginamos.
Depois de trabalhar na Academia
da Força Aérea americana
e chegar ao Comando Espacial americano,
me tornei engenheiro de sistemas,
e recentemente estou ajudando
num problema de engenharia
relacionado à missão da NASA a Marte.
Bem, nos voos espaciais à Lua,
podemos contar com o apoio
do controle de missão em Houston,
que monitora todos os aspectos do voo.
Porém, Marte fica 200 vezes
mais distante de nós que a Lua
e, consequentemente,
leva em média 13 minutos
para que um sinal de comunicação
viaje da Terra a Marte.
Se houver algum problema,
não dá tempo de resolver.
Então, uma solução razoável de engenharia
é colocarmos o controle de missão
dentro da nave Orion.
Outra ideia fascinante
no projeto da missão
é colocar robôs humanoides
na superfície de Marte
antes de os humanos chegarem,
para construírem instalações
e depois atuarem como colaboradores
da equipe científica.
Bom, de uma perspectiva de engenharia,
ficou bem claro pra mim
que o que eu precisava projetar
era uma inteligência artificial
moderna, colaborativa
e com habilidade social.
Em outras palavras, eu precisava criar
algo bem parecido com o HAL,
mas sem suas tendências homicidas.
(Risos)
Mas espera um pouco:
será mesmo possível criar
uma inteligência artificial assim?
Na verdade, é possível sim.
De muitas formas, trata-se de um desafio
complexo de engenharia,
com alguns elementos de IA;
não da ideia mirabolante
de criar uma IA repulsiva.
Parafraseando Alan Turing,
não quero criar uma máquina consciente.
Não vou criar um HAL.
Só quero criar um cérebro simples,
algo que cause a ilusão de inteligência.
A arte e a ciência da computação
evoluíram bastante
desde que HAL surgiu no cinema,
e imagino que, se o Dr. Chandra,
seu inventor, estivesse aqui hoje,
ele teria um monte de perguntas pra nós.
Será que conseguimos
pegar um sistema com milhões
e milhões de dispositivos,
entrar com os dados,
prever suas falhas
e nos anteciparmos a elas?
Sim.
Será possível criar sistemas que conversem
conosco em nossa língua?
Sim.
Será possível criar sistemas
que reconheçam objetos e emoções,
que reajam emotivamente,
usem de estratégia e até leitura labial?
Sim.
Será possível criar um sistema
que estabeleça metas,
faça planos e aprenda
ao longo do caminho?
Sim.
Será possível criarmos sistemas
com capacidade cognitiva?
Estamos aprendendo a fazer isso.
Será possível criarmos sistemas
que tenham princípios éticos e morais?
Precisamos aprender a fazer isso.
Então, digamos, por exemplo,
que seja possível criar
uma inteligência artificial assim,
para esse tipo de missão e para outras.
A próxima pergunta que precisamos
fazer é: devemos temer essa inteligência?
Bom, toda nova tecnologia
traz algum tipo de preocupação.
Quando surgiram os carros,
as pessoas acharam que veríamos
a destruição da família.
Quando surgiram os telefones,
as pessoas temiam que ele destruiria
a socialização entre as pessoas.
Quando vimos a palavra
escrita se espalhar,
acharam que perderíamos
nossa capacidade de memorizar.
Tudo isso é de certa forma verdade,
mas também é verdade que essas tecnologias
nos possibilitaram ampliar
a experiência humana
de formas profundas.
Vou explicar melhor.
Não temo a criação de uma IA assim,
porque ela vai acabar assimilando
alguns dos nossos valores.
Pensem só: criar um sistema cognitivo
é fundamentalmente diferente
de criar um sistema complexo
e tradicional do passado.
Não a programamos. Nós lhe ensinamos.
Para ensinar um sistema
a reconhecer flores,
mostro a ele milhares de flores
do tipo de que gosto.
Para ensinar um sistema a jogar...
eu faria isso, e vocês também...
Eu gosto de jogos. Qual é!
Para ensinar um sistema
a jogar, por exemplo, o "Go",
eu o faria jogá-lo várias vezes,
mas, no processo,
eu também o ensinaria a diferenciar
um jogo bom de um jogo ruim.
Se quisesse criar um assistente jurídico
com inteligência artificial,
eu lhe ensinaria algumas leis,
mas, ao mesmo tempo,
colocaria nele o senso de compaixão
e de justiça que acompanham essas leis.
Em termos científicos,
é o que chamamos de situação fática,
e eis o mais importante:
ao criar essas máquinas,
estamos ensinando a elas
algo dos nossos valores.
Sendo assim, eu confio
na inteligência artificial
tanto quanto num humano
bem treinado; quem sabe até mais.
Talvez vocês perguntem:
"E quanto a agentes maliciosos,
tipo, uma ONG bem financiada?"
Não temo uma inteligência artificial
nas mãos de um "lobo solitário".
Obviamente, não podemos nos proteger
contra todos os possíveis
atos de violência,
mas a verdade é que um sistema assim
requer treinamento sólido e inteligente
muito além das capacidades
de um indivíduo.
Além disso,
a coisa vai além de simplesmente
injetar um vírus virtual no mundo,
pressionando um botão e, de repente,
propagando-o por toda parte,
fazendo notebooks explodirem por aí.
Esses tipos de coisas são bem maiores,
e certamente os veremos chegar.
Se eu temo que uma
inteligência artificial assim
possa ameaçar toda a espécie humana?
Ao assistir a filmes
como "Matrix", "Metrópolis",
"O Exterminador do Futuro",
ou a séries como "Westworld",
vemos que todos falam desse tipo de medo.
No livro "Superintelligence",
do filósofo Nick Bostrom,
ele aborda esse tema
e explica que uma superinteligência
pode não só ser perigosa,
mas também representar uma ameaça
à existência da espécie humana.
O argumento básico do Dr. Bostrom
é o de que esses sistemas
vão acabar tendo tamanha
sede por informação
que vão talvez aprender a aprender
e vão acabar descobrindo
que podem ter objetivos
que são contrários
às necessidades humanas.
O Dr. Bostrom têm alguns seguidores.
Pessoas como Elon Musk
e Stephen Hawking concordam com ele.
Com todo o respeito
a essas mentes brilhantes,
creio que estejam
fundamentalmente equivocados.
São muitos os aspectos do argumento
do Dr. Bostrom para discutir
e não tenho tenho para falar sobre todos,
mas, rapidamente, pensem no seguinte:
ser "super" no saber é bem diferente
de ser "super" no fazer.
HAL foi uma ameaça
à tripulação da Discovery
só porque comandava
todos os aspectos da nave.
Assim teria que ser
com uma superinteligência.
Ela teria que ter controle
sobre todo o nosso mundo.
Isso é coisa da Skynet, do filme
"O Exterminador do Futuro",
uma superinteligência
que controlava a vontade humana,
que controlava qualquer dispositivo
em qualquer parte do mundo.
Em termos práticos, isso não vai rolar.
Não estamos criando IAs
que controlem o clima,
que controlem as marés,
ou que comandem a nós,
humanos inconstantes e caóticos.
Além do mais, se uma inteligência
artificial dessas existisse,
ela teria que competir
nas economias mundiais
e, portanto, competir
conosco por recursos.
No fim... não contem isso ao Siri...
sempre é possível desligá-la.
(Risos)
Estamos numa jornada incrível
de coevolução com nossas máquinas.
Não seremos no futuro
os mesmos humanos que somos hoje.
Preocupar-se agora com o surgimento
de uma superinteligência
é, de várias maneiras,
uma distração perigosa
porque a ascensão da própria computação
nos traz diversas questões,
humanas e sociais,
com as quais agora devemos lidar.
Como organizar a sociedade
quando a demanda
por trabalho humano diminuir?
Como disseminar entendimento
e educação por todo o planeta
sem desrespeitar nossas diferenças?
Como prolongar e melhorar a vida com esse
tipo de inteligência na área de saúde?
Como posso usar a computação
para fazer com que cheguemos às estrelas?
Isso é o mais empolgante.
As oportunidades de usar a computação
para ampliar a experiência humana
estão a nosso alcance, aqui e agora,
e estamos apenas começando.
Muito obrigado.
(Aplausos)