A inteligência artificial
é conhecida por perturbar vários setores.
Por exemplo, o sorvete.
Que tipos de novos sabores
incríveis poderíamos criar
com o poder de uma IA avançada?
Eu me uni a um grupo de programadores
da Kealing Middle School
para descobrir a resposta.
Eles coletaram mais de 1,6 mil
sabores de sorvete já existentes
e, juntos, os fornecemos a um algoritmo
para ver o que seria gerado.
Esses são alguns dos sabores
que a inteligência artificial criou:
[Recreio de Lixo de Abóbora]
(Risos)
[Gosma de Manteiga de Amendoim]
[Doença de Creme de Morango]
(Risos)
Esses sabores não são
tão deliciosos quanto esperávamos.
A pergunta é: o que aconteceu?
O que saiu errado?
A IA está tentando nos matar?
Ou está tentando fazer o que pedimos,
mas ocorreu algum problema?
Nos filmes, quando algo
dá errado com a IA,
geralmente é porque ela decidiu
que não quer mais obedecer aos humanos
e tem objetivos próprios, sim senhor.
Mas, na vida real,
a inteligência artificial que temos
não é inteligente o bastante para isso.
Ela possui aproximadamente a capacidade
de processamento de uma minhoca,
ou, talvez, no máximo
a de uma única abelha,
mas provavelmente menos que isso.
Constantemente aprendemos
coisas novas sobre o cérebro
que deixam claro como nossas IAs
não chegam aos pés de um cérebro real.
A IA de hoje pode efetuar tarefas simples,
como identificar um pedestre em uma foto,
mas não faz ideia do que seja o pedestre
para além de um conjunto
de linhas, texturas e afins.
Ela não sabe o que é um ser humano.
Então, a IA atual fará o que pedimos dela?
Sim, se ela puder,
mas talvez não faça
o que realmente queremos.
Digamos que quiséssemos que uma IA
pegasse um conjunto de peças robóticas
e as montasse como algum tipo de robô
para que fosse do ponto A ao B.
Bem, se tentássemos resolver esse problema
criando um programa
de computador tradicional,
daríamos instruções
passo a passo ao programa
sobre como pegar as peças,
juntá-las em um robô com pernas
que ele usaria para andar até o ponto B.
Mas, quando usamos a IA
para resolver o problema,
não funciona assim.
Não dizemos para ela
como resolver o problema,
só lhe damos o objetivo
e ela precisa descobrir sozinha,
por tentativa e erro,
como atingir aquele objetivo.
E parece que a IA costuma resolver
esse problema específico
fazendo o seguinte:
ela se transforma em uma torre e cai,
atingindo o ponto B.
E, tecnicamente, isso resolve o problema,
ela chega ao ponto B.
O perigo da IA não é
que ela se rebelará contra nós;
é que ela fará exatamente o que pedirmos.
Então, o segredo para trabalhar com IA é:
como configuramos o problema
para que ela faça o que queremos?
Este robozinho é controlado por uma IA,
que criou um design para as pernas dele
e depois descobriu como usá-las
para passar por esses obstáculos.
Mas quando David Ha
preparou essa experiência,
ele o fez dentro de limites
bastante rigorosos
sobre o tamanho das pernas
que a IA poderia criar,
porque, do contrário...
(Risos)
E, tecnicamente, ela chegou
ao final da pista de obstáculos.
Percebe-se como é difícil que uma IA
faça algo tão simples como andar.
Vendo a IA fazer isso,
podem dizer: "Ah, não é justo!
Não se pode simplesmente
ser uma torre e cair;
tem que usar as pernas para andar".
Mas acontece que isso também
nem sempre funciona.
A tarefa dessa IA era
se mover rapidamente.
Não lhe disseram
que deveria correr de frente
ou que não poderia usar os braços.
Esse é o resultado quando treinamos
uma IA para se mover rapidamente:
cambalhotas ou caminhadas ridículas.
Isso é muito comum.
Assim como se contorcer pelo chão.
(Risos)
Acho que mais esquisito ainda seriam
os robôs do "Exterminador do Futuro".
Hackear a "Matrix" é outra coisa
que a IA fará se tiver a oportunidade.
Então, se treinarmos
uma IA em uma simulação,
ela aprenderá a fazer coisas como hackear
os erros matemáticos da simulação
e colhê-los para conseguir energia.
Ou então descobrirá como se mover
mais rápido se arrastando pelo chão.
Trabalhar com IA
não se assemelha a trabalhar
com outro humano,
e sim a trabalhar com um tipo
de força estranha da natureza.
É muito fácil dar, acidentalmente,
o problema errado para a IA resolver
e frequentemente não percebemos
isso até que algo dê errado.
Essa é uma experiência que fiz,
na qual eu queria que a IA
copiasse cores de tinta
para inventar novas cores
com base em uma lista como a da esquerda.
E foi isso que a IA inventou.
[Cocô Sindis, Excremental,
Sofrimento, Cinza Pubiano]
(Risos)
Então, tecnicamente,
ela fez o que eu pedi dela.
Pensei que estivesse pedindo
nomes agradáveis de cores,
mas o que eu pedia, na verdade,
era que a IA imitasse
os tipos de combinações de letras
que estavam presentes nos originais.
E não falei nada à IA
sobre o significado das palavras,
nem que ela deveria evitar usar
algumas palavras nos nomes das tintas.
Portanto, a única coisa que a IA sabe
são os dados que lhe forneci.
Assim como ocorreu com os sabores
de sorvete, a IA não sabe mais nada.
Então, é pelos dados que, frequentemente,
dizemos a ela para fazer a coisa errada.
Este é um peixe chamado tenca.
Um grupo de pesquisadores
treinou uma IA
para reconhecê-lo em imagens.
Mas quando perguntaram à IA
qual parte da imagem era usada
para identificar o peixe,
foi isso que ela apontou.
Sim, esses são dedos humanos.
Por que ela procuraria dedos humanos
ao tentar identificar um peixe?
Bem, acontece que a tenca
é um peixe-troféu,
então, em várias imagens em que a IA
viu esse peixe durante o treinamento,
ele apresentava essa aparência.
(Risos)
E ela não sabia que os dedos
não faziam parte do peixe.
É por isso que é tão difícil
desenvolver uma IA
que realmente consiga entender
o que está observando.
E é por isso que desenvolver
o reconhecimento de imagem
em carros autônomos é tão difícil
e muitas falhas desses carros
ocorrem porque a IA se confundiu.
Falarei sobre um exemplo de 2016.
Houve um acidente fatal quando alguém
usou a IA do piloto automático de um Tesla
mas, em vez de usá-la em uma rodovia,
para onde elas foram programadas,
utilizaram-na em vias urbanas.
Um caminhão entrou na frente
do carro, que não conseguiu frear.
Vejam, a IA definitivamente foi treinada
para reconhecer caminhões em imagens.
Mas o que parece ter acontecido
é que a IA foi treinada
para reconhecê-los em estradas,
onde se espera ver
a traseira dos caminhões.
Caminhões vindos pela lateral
não deveriam aparecer em estradas,
então, quando a IA o viu,
parece que ela avaliou que se tratava
de uma placa de trânsito
e que, portanto,
seria seguro passar sob ela.
Agora vejamos um erro de IA
de um campo diferente.
A Amazon teve que desistir
de um algoritmo para seleção de currículos
no qual trabalhava
ao descobrir que ele aprendeu
a discriminar mulheres.
Eles o treinaram com base
em exemplos de currículos
de pessoas que haviam sido
contratadas por eles.
E, desses exemplos, a IA
aprendeu a evitar os currículos
de pessoas que frequentaram
faculdades femininas
ou que continham a palavra
"feminina" em algum lugar,
como "equipe feminina de futebol"
ou "Sociedade Feminina de Engenharia".
A IA não sabia que não deveria
copiar esse padrão específico
que havia observado nos humanos.
E, tecnicamente, fez o que lhe pediram.
Mas acidentalmente lhe pediram
para fazer a coisa errada.
E isso sempre acontece com IA.
Ela pode ser muito destrutiva sem saber.
As IAs que recomendam novos conteúdos
no Facebook ou no YouTube
estão otimizadas para aumentar
o número de cliques e visualizações.
Infelizmente, uma das formas
que elas têm de fazer isso
é recomendar conteúdo de teorias
da conspiração ou de intolerância.
A própria IA não tem ideia
do que seja aquele conteúdo
ou de quais possam ser
as consequências de recomendá-lo.
Então, ao trabalharmos com IA,
evitar problemas é função nossa.
E evitar que as coisas deem errado
pode se resumir ao velho
problema da comunicação,
e que nós, humanos, precisamos
aprender a nos comunicar com a IA.
Precisamos aprender
o que a IA é ou não capaz de fazer
e entender que, com seu
cerebrozinho de minhoca,
a IA, na verdade, não entende
o que tentamos pedir que ela faça.
Em outras palavras, precisamos
estar preparados para trabalhar com uma IA
que não é a IA supercompetente
e onisciente da ficção científica.
Precisamos estar preparados
para trabalhar com a IA
que realmente temos atualmente,
e ela é suficientemente esquisita.
Obrigada.
(Aplausos)