A Inteligência Artificial! é conhecida por perturbar todos os tipos de indústrias. Por exemplo, a dos gelados. Que tipo de estonteantes sabores podemos criar com o poder da inteligência artificial avançada? Associei-me a um grupo de programadores da escola secundária de Kealing, para descobrir a resposta a esta pergunta. Eles reuniram mais de 1600 sabores de gelados já existentes, e fornecemos-lhes um algoritmo para verificar o que ele poderia gerar. Estes são alguns dos sabores que a IA criou [Quebra de Lixo de Abóbora] (Risos) [Baba de Manteiga de Amendoim] [Doença de Creme de Morango] (Risos) Estes sabores não são tão deliciosos quanto esperávamos Logo, a pergunta é: O que aconteceu? O que correu mal? A IA está a tentar matar-nos? Ou está a tentar fazer o que pedimos e ocorreu um problema? Nos filmes, quando algo corre mal com a IA, é geralmente porque a IA decidiu que não quer continuar a obedecer aos seres humanos e tem os seus próprios objetivos, muito obrigado! Porém, na vida real, a IA que temos não tem inteligência suficiente para isso. Tem uma capacidade de processamento aproximada à de uma minhoca, ou talvez no máximo, a de uma simples abelha e de facto, talvez ainda menos. Por exemplo, estamos sempre a aprender coisas novas sobre o cérebro o que deixa claro o quanto a nossa IA não se compara com o nosso cérebro. A IA de hoje consegue identificar um peão numa imagem, mas não tem o conceito do que é um peão, para além de um conjunto de linhas, de texturas e de elementos. Não sabe o que é um ser humano. Então, a IA de hoje irá fazer o que pedimos? Sim, fará se puder, mas pode não fazer o que desejamos. Digamos que estamos a tentar que a IA pegue neste conjunto de partes de um robô e as monte num tipo de robô que vá do Ponto A ao Ponto B. Se formos tentar resolver este problema escrevendo um programa de computador ao estilo tradicional, daríamos ao programa instruções passo a passo de como agarrar nessas partes e como as montar num robô com pernas, e depois como usar essas pernas para andar até ao Ponto B. Mas quando usamos a IA para resolver o problema, as coisas funcionam de outro modo. Não lhe dizemos como resolver o problema apenas lhe damos o objetivo, e ela terá de descobrir por si mesma, através de tentativas e erros, como alcançar esse objetivo. Acontece que a IA tem tendência a resolver este problema específico fazendo o seguinte: monta uma torre que depois cai, aterrando no Ponto B. Tecnicamente, isso resolve o problema. Tecnicamente, ela chega ao Ponto B. O perigo da IA não é que se vá revoltar contra nós, mas que vai fazer exatamente o que lhe pedimos para fazer. Logo, o segredo de trabalhar com IA passa a ser: Como configuramos o problema para a IA fazer exatamente o que queremos? Vejamos, este robô aqui, está a ser controlado por uma IA. A IA desenvolveu um modelo paras as pernas do robô, e depois descobriu como usá-las para ultrapassar todos os obstáculos. Mas quando o David Ha realizou esta experiência, teve de configurá-la com limites muito estritos em relação à dimensão que a IA teria para fazer as pernas, porque senão... (Risos) Tecnicamente, chegou ao fim daquela corrida de obstáculos. Vemos como é difícil conseguir que a IA faça algo tão simples como andar. Ao vermos a IA fazer isto, podemos dizer: "Ok, não é justo, não podes ser uma torre alta e cair, "tens de usar as pernas para andar". Acontece que isso também nem sempre funciona. A tarefa desta IA era avançar depressa. Não lhe disseram que tinha de avançar ou que não podia usar os braços. Logo, isto é o que acontece quando treinamos a IA para andar depressa, obtemos movimentos como cambalhotas e caminhadas ridículas. É muito comum. Tal como contorcer-se no chão. (Risos) Na minha opinião, sabem o que seria ainda mais estranho? É o robô "Exterminador". Invadir o "Matrix" é outra coisa que a IA fará, se lhe dermos essa oportunidade. Se treinarmos a IA num simulador, ela irá aprender a copiar os erros matemáticos do simulador e colhê-los para obter energia. Ou irá descobrir como andar mais depressa, falhando repetidamente aquela anomalia no chão. Quando se trabalha com a IA, é menos como trabalhar com outro ser humano e mais como trabalhar com uma estranha força da natureza. É muito fácil dar, acidentalmente, à IA o problema errado para resolver, e, geralmente, não damos por isso senão quando qualquer coisa corre mal. Esta é uma experiência que fiz em que eu queria que a IA copiasse as cores das tintas, para inventar novas cores de tintas, de acordo com uma lista como a que se encontra aqui à esquerda. E aqui está o que a IA sugeriu. [Cocó Sindis , Cocó, Sofrimento, Púbico Cinza] (Risos) Tecnicamente, fez o que eu pedi que fizesse. Eu pensei que estava a pedir nomes simpáticos para tintas, mas o que tinha pedido era apenas para imitar o tipo de combinações de letras que ela tinha visto no original. E eu nada disse em relação ao significado das palavras, ou que talvez houvesse algumas palavras que devia evitar usar nessas cores de tintas. Portanto, todo o mundo dela eram os dados que lhe fornecera. Tal como com os sabores dos gelados, ela não sabe mais nada. É geralmente através dos dados que acidentalmente dizemos à IA que faça as coisas erradas. Este é um peixe chamado tenca. Houve um grupo de investigadores que treinaram uma IA para identificar esta tenca em imagens. Mas quando lhe perguntaram que parte da imagem utilizava para identificar o peixe, eis o que ela salientou. Sim, são dedos humanos. Porque é que ela procurou dedos humanos se estava a tentar identificar um peixe? Bem, acontece que a tenca é um peixe-troféu, por isso, em muitas das imagens que a IA viu deste peixe, durante o treino, o peixe aparecia assim. (Risos) A IA não sabia que os dedos não faziam parte do peixe. Assim, vemos porque é tão difícil configurar uma IA que consiga perceber o que procura. Isto é o motivo por que criar o reconhecimento de imagem num veículo autónomo é super difícil, e o motivo do fracasso de tantos veículos autónomos foi porque a IA ficou confusa. Vou falar sobre um exemplo que aconteceu em 2016. Houve um acidente fatal quando alguém usou o piloto automático da Tesla IA. Em vez de usá-lo na autoestrada, como tinha sido desenvolvido, usaram-no nas ruas da cidade. Aconteceu que um camião atravessou-se em frente do carro e o carro não travou. A IA fora treinada para reconhecer o camião nas imagens. Mas o que parece ter acontecido foi que a IA foi treinada para reconhecer os camiões na autoestrada onde esperamos ver os camiões por detrás. Na autoestrada, os camiões não aparecem pelos lados. Portanto, quando a IA viu o camião parece tê-lo reconhecido como um sinal de trânsito e portanto, seria seguro passar por baixo dele. Aqui podem ver um erro da IA num setor diferente. A Amazon teve de desistir de um algoritmo de seleção de currículos em que estava a trabalhar, quando descobriram que o algoritmo aprendera a discriminar as mulheres. Aconteceu que testaram a IA com base em exemplos de currículos de pessoas que tinham sido contratadas no passado. Com base nesses exemplos, a IA aprendeu a evitar currículos de pessoas que tinham frequentado colégios femininos ou que tinham a palavra "feminina" algures no currículo, como "equipa de futebol feminina" ou "Sociedade Feminina de Engenheiras". A IA não sabia que não devia copiar estes aspetos específicos que via os seres humanos fazerem. Tecnicamente, o programa fez o que lhe pediram para fazer. Só que eles pediram, sem querer, para fazer a coisa errada. Isto está sempre a acontecer com a IA. A IA pode ser destrutiva sem saber. Por isso, as IA que recomendam novos conteúdos no Facebook e no YouTube, estão otimizadas para aumentar o número de cliques e visualizações. Infelizmente, uma das formas que encontraram para fazer isso é recomendar os conteúdos de teorias de conspiração ou o fanatismo. A IA, por si só, não tem qualquer conceito do que este conteúdo representa, nem tem nenhum conceito das possíveis consequências de recomendar esses conteúdos. Logo, quando trabalhamos com a IA, cabe-nos a nós evitar os problemas. Evitar que algo corra mal pode resumir-se ao velho problema da comunicação, em que nós, enquanto humanos, temos de aprender a comunicar com a IA. Temos de aprender o que a IA é capaz de fazer ou não e perceber que, com o seu minúsculo cérebro de minhoca, a IA não percebe o que estamos a tentar pedir-lhe para fazer. Por outras palavras, temos de estar preparados para trabalhar com uma IA que não seja a super competente ou a omnisciente IA da ficção científica. Temos de nos preparar para trabalhar com uma IA que seja a que atualmente temos. E a IA atual é suficientemente estranha. Obrigada. (Aplausos)