A Inteligência Artificial!
é conhecida por perturbar
todos os tipos de indústrias.
Por exemplo, a dos gelados.
Que tipo de estonteantes sabores
podemos criar
com o poder
da inteligência artificial avançada?
Associei-me a um grupo de programadores
da escola secundária de Kealing,
para descobrir a resposta a esta pergunta.
Eles reuniram mais de 1600 sabores
de gelados já existentes,
e fornecemos-lhes um algoritmo
para verificar o que ele poderia gerar.
Estes são alguns dos sabores
que a IA criou
[Quebra de Lixo de Abóbora]
(Risos)
[Baba de Manteiga de Amendoim]
[Doença de Creme de Morango]
(Risos)
Estes sabores não são tão deliciosos
quanto esperávamos
Logo, a pergunta é:
O que aconteceu?
O que correu mal?
A IA está a tentar matar-nos?
Ou está a tentar fazer o que pedimos
e ocorreu um problema?
Nos filmes, quando algo
corre mal com a IA,
é geralmente porque a IA decidiu
que não quer continuar
a obedecer aos seres humanos
e tem os seus próprios objetivos,
muito obrigado!
Porém, na vida real, a IA que temos
não tem inteligência suficiente para isso.
Tem uma capacidade de processamento
aproximada à de uma minhoca,
ou talvez no máximo,
a de uma simples abelha
e de facto, talvez ainda menos.
Por exemplo, estamos sempre a aprender
coisas novas sobre o cérebro
o que deixa claro o quanto a nossa IA
não se compara com o nosso cérebro.
A IA de hoje consegue identificar
um peão numa imagem,
mas não tem o conceito
do que é um peão,
para além de um conjunto de linhas,
de texturas e de elementos.
Não sabe o que é um ser humano.
Então, a IA de hoje
irá fazer o que pedimos?
Sim, fará se puder,
mas pode não fazer o que desejamos.
Digamos que estamos a tentar
que a IA pegue neste conjunto
de partes de um robô
e as monte num tipo de robô
que vá do Ponto A ao Ponto B.
Se formos tentar resolver este problema
escrevendo um programa de computador
ao estilo tradicional,
daríamos ao programa
instruções passo a passo
de como agarrar nessas partes
e como as montar num robô com pernas,
e depois como usar essas pernas
para andar até ao Ponto B.
Mas quando usamos a IA
para resolver o problema,
as coisas funcionam de outro modo.
Não lhe dizemos como resolver o problema
apenas lhe damos o objetivo,
e ela terá de descobrir por si mesma,
através de tentativas e erros,
como alcançar esse objetivo.
Acontece que a IA tem tendência
a resolver este problema específico
fazendo o seguinte:
monta uma torre que depois cai,
aterrando no Ponto B.
Tecnicamente, isso resolve o problema.
Tecnicamente, ela chega ao Ponto B.
O perigo da IA não é que
se vá revoltar contra nós,
mas que vai fazer exatamente
o que lhe pedimos para fazer.
Logo, o segredo de trabalhar
com IA passa a ser:
Como configuramos o problema para
a IA fazer exatamente o que queremos?
Vejamos, este robô aqui,
está a ser controlado por uma IA.
A IA desenvolveu um modelo
paras as pernas do robô,
e depois descobriu como usá-las
para ultrapassar todos os obstáculos.
Mas quando o David Ha realizou
esta experiência,
teve de configurá-la
com limites muito estritos
em relação à dimensão que a IA
teria para fazer as pernas,
porque senão...
(Risos)
Tecnicamente, chegou ao fim
daquela corrida de obstáculos.
Vemos como é difícil conseguir que a IA
faça algo tão simples como andar.
Ao vermos a IA fazer isto, podemos dizer:
"Ok, não é justo, não podes ser
uma torre alta e cair,
"tens de usar as pernas para andar".
Acontece que isso também
nem sempre funciona.
A tarefa desta IA era avançar depressa.
Não lhe disseram que tinha de avançar
ou que não podia usar os braços.
Logo, isto é o que acontece
quando treinamos a IA para andar depressa,
obtemos movimentos como cambalhotas
e caminhadas ridículas.
É muito comum.
Tal como contorcer-se no chão.
(Risos)
Na minha opinião, sabem o que
seria ainda mais estranho?
É o robô "Exterminador".
Invadir o "Matrix" é outra coisa que a IA
fará, se lhe dermos essa oportunidade.
Se treinarmos a IA num simulador,
ela irá aprender a copiar
os erros matemáticos do simulador
e colhê-los para obter energia.
Ou irá descobrir como andar mais depressa,
falhando repetidamente
aquela anomalia no chão.
Quando se trabalha com a IA,
é menos como trabalhar
com outro ser humano
e mais como trabalhar
com uma estranha força da natureza.
É muito fácil dar, acidentalmente,
à IA o problema errado para resolver,
e, geralmente, não damos por isso
senão quando qualquer coisa corre mal.
Esta é uma experiência que fiz
em que eu queria que a IA copiasse
as cores das tintas,
para inventar novas cores de tintas,
de acordo com uma lista como
a que se encontra aqui à esquerda.
E aqui está o que a IA sugeriu.
[Cocó Sindis , Cocó,
Sofrimento, Púbico Cinza]
(Risos)
Tecnicamente,
fez o que eu pedi que fizesse.
Eu pensei que estava a pedir
nomes simpáticos para tintas,
mas o que tinha pedido
era apenas para imitar o tipo
de combinações de letras
que ela tinha visto no original.
E eu nada disse em relação
ao significado das palavras,
ou que talvez houvesse algumas palavras
que devia evitar usar
nessas cores de tintas.
Portanto, todo o mundo dela
eram os dados que lhe fornecera.
Tal como com os sabores dos gelados,
ela não sabe mais nada.
É geralmente através dos dados
que acidentalmente dizemos à IA
que faça as coisas erradas.
Este é um peixe chamado tenca.
Houve um grupo de investigadores
que treinaram uma IA para identificar
esta tenca em imagens.
Mas quando lhe perguntaram
que parte da imagem utilizava
para identificar o peixe,
eis o que ela salientou.
Sim, são dedos humanos.
Porque é que ela procurou dedos humanos
se estava a tentar identificar um peixe?
Bem, acontece que a tenca
é um peixe-troféu,
por isso, em muitas das imagens
que a IA viu deste peixe,
durante o treino,
o peixe aparecia assim.
(Risos)
A IA não sabia que os dedos
não faziam parte do peixe.
Assim, vemos porque é tão difícil
configurar uma IA
que consiga perceber o que procura.
Isto é o motivo por que criar
o reconhecimento de imagem
num veículo autónomo é super difícil,
e o motivo do fracasso
de tantos veículos autónomos
foi porque a IA ficou confusa.
Vou falar sobre um exemplo
que aconteceu em 2016.
Houve um acidente fatal quando alguém
usou o piloto automático da Tesla IA.
Em vez de usá-lo na autoestrada,
como tinha sido desenvolvido,
usaram-no nas ruas da cidade.
Aconteceu que um camião
atravessou-se em frente do carro
e o carro não travou.
A IA fora treinada para reconhecer
o camião nas imagens.
Mas o que parece ter acontecido
foi que a IA foi treinada para reconhecer
os camiões na autoestrada
onde esperamos ver os camiões por detrás.
Na autoestrada, os camiões
não aparecem pelos lados.
Portanto, quando a IA viu o camião
parece tê-lo reconhecido
como um sinal de trânsito
e portanto, seria seguro
passar por baixo dele.
Aqui podem ver um erro da IA
num setor diferente.
A Amazon teve de desistir
de um algoritmo de seleção de currículos
em que estava a trabalhar,
quando descobriram que o algoritmo
aprendera a discriminar as mulheres.
Aconteceu que testaram a IA
com base em exemplos de currículos
de pessoas que tinham sido
contratadas no passado.
Com base nesses exemplos, a IA
aprendeu a evitar currículos de pessoas
que tinham frequentado colégios femininos
ou que tinham a palavra "feminina"
algures no currículo,
como "equipa de futebol feminina"
ou "Sociedade Feminina de Engenheiras".
A IA não sabia que não devia copiar
estes aspetos específicos
que via os seres humanos fazerem.
Tecnicamente, o programa fez
o que lhe pediram para fazer.
Só que eles pediram, sem querer,
para fazer a coisa errada.
Isto está sempre a acontecer com a IA.
A IA pode ser destrutiva sem saber.
Por isso, as IA que recomendam novos
conteúdos no Facebook e no YouTube,
estão otimizadas para aumentar
o número de cliques e visualizações.
Infelizmente, uma das formas
que encontraram para fazer isso
é recomendar os conteúdos
de teorias de conspiração ou o fanatismo.
A IA, por si só, não tem qualquer conceito
do que este conteúdo representa,
nem tem nenhum conceito
das possíveis consequências
de recomendar esses conteúdos.
Logo, quando trabalhamos com a IA,
cabe-nos a nós evitar os problemas.
Evitar que algo corra mal
pode resumir-se ao velho problema
da comunicação,
em que nós, enquanto humanos, temos
de aprender a comunicar com a IA.
Temos de aprender o que a IA
é capaz de fazer ou não
e perceber que, com o seu minúsculo
cérebro de minhoca,
a IA não percebe o que estamos
a tentar pedir-lhe para fazer.
Por outras palavras, temos de estar
preparados para trabalhar com uma IA
que não seja a super competente
ou a omnisciente IA da ficção científica.
Temos de nos preparar
para trabalhar com uma IA
que seja a que atualmente temos.
E a IA atual é suficientemente estranha.
Obrigada.
(Aplausos)