0:00:00.800,0:00:04.064 Lidero uma equipa do Google[br]que trabalha com inteligência artificial. 0:00:04.064,0:00:08.598 Por outras palavras, cria[br]computadores e dispositivos 0:00:08.622,0:00:11.341 capazes de fazer coisas que o cérebro faz. 0:00:11.729,0:00:14.538 Portanto, estamos muito interessados[br]em cérebros de verdade 0:00:14.562,0:00:16.131 e também na neurociência, 0:00:16.131,0:00:20.047 e especialmente interessados nas coisas[br]que o nosso cérebro faz 0:00:20.071,0:00:24.433 com um desempenho[br]muito superior ao dos computadores. 0:00:25.209,0:00:28.818 Historicamente, uma dessas áreas[br]tem sido a perceção, 0:00:28.842,0:00:31.881 o processo pelo qual as coisas[br]lá fora, no mundo 0:00:31.905,0:00:33.489 — sons e imagens — 0:00:33.513,0:00:36.031 podem tornar-se conceitos[br]no nosso espírito. 0:00:36.235,0:00:38.752 Isto é essencial para[br]o nosso próprio cérebro 0:00:38.776,0:00:41.330 e também é muito útil num computador. 0:00:41.636,0:00:44.986 Os algoritmos de perceção das máquinas,[br]como os que a nossa equipa faz, 0:00:45.010,0:00:48.884 são os que possibilitam encontrar[br]as nossas imagens no Google Photos 0:00:48.908,0:00:51.145 com base no que contêm. 0:00:51.594,0:00:55.087 O outro lado da perceção é a criatividade 0:00:55.111,0:00:58.149 que traduz um conceito[br]numa coisa que existe no mundo. 0:00:58.173,0:01:01.728 Ao longo do ano passado, o nosso trabalho[br]sobre a perceção das máquinas 0:01:01.752,0:01:06.611 também se ligou inesperadamente[br]ao mundo da criatividade das máquinas 0:01:06.635,0:01:08.265 e da arte das máquinas. 0:01:08.556,0:01:11.840 Eu acho que Miguel Ângelo[br]teve uma visão perspicaz 0:01:11.864,0:01:15.780 quanto a esta dupla relação[br]entre perceção e criatividade. 0:01:16.023,0:01:18.399 Esta é uma sua famosa citação: 0:01:18.409,0:01:21.676 "Cada bloco de pedra[br]tem uma estátua lá dentro. 0:01:22.036,0:01:25.538 "O papel do escultor é descobri-la." 0:01:26.029,0:01:29.385 Eu acho que Miguel Ângelo[br]queria exprimir 0:01:29.385,0:01:32.449 que nós criamos através da perceção 0:01:32.473,0:01:35.496 e que essa perceção em si[br]é um ato de imaginação 0:01:35.520,0:01:38.031 e é a matéria-prima da criatividade. 0:01:38.691,0:01:42.616 O órgão que processa todo o pensamento,[br]a perceção e a imaginação, 0:01:42.640,0:01:44.228 claro, é o cérebro. 0:01:45.089,0:01:47.634 Gostaria de começar[br]com um pequeno resumo da história 0:01:47.658,0:01:50.120 sobre o que sabemos sobre o cérebro. 0:01:50.496,0:01:53.162 Porque, ao contrário[br]do coração ou dos intestinos, 0:01:53.162,0:01:56.330 não podemos dizer muito sobre o cérebro,[br]apenas olhando para ele 0:01:56.330,0:01:57.906 pelo menos, a olho nu. 0:01:57.983,0:02:00.499 Os primeiros anatomistas[br]que olharam para o cérebro 0:02:00.499,0:02:04.230 deram à sua estrutura superficial[br]todo o tipo de nomes fantasiosos 0:02:04.254,0:02:06.537 como hipocampo,[br]que significa "cavalo-marinho." 0:02:06.711,0:02:09.475 Mas com certeza, esse tipo de coisas[br]não nos diz muito 0:02:09.499,0:02:11.997 sobre o que de facto acontece dentro dele. 0:02:12.780,0:02:16.393 Acho que a primeira pessoa[br]que lançou alguma luz 0:02:16.417,0:02:18.347 sobre o que ocorria dentro do cérebro 0:02:18.371,0:02:22.291 foi o grande neuroanatomista espanhol[br]Santiago Ramón y Cajal, 0:02:22.315,0:02:23.859 no século XIX, 0:02:23.883,0:02:27.638 que usou a microscopia[br]e corantes especiais 0:02:27.662,0:02:31.832 que podiam colorir seletivamente[br]ou criar um alto contraste 0:02:31.856,0:02:33.864 as células individuais dentro do cérebro, 0:02:33.888,0:02:37.042 para começar a entender a sua morfologia. 0:02:37.972,0:02:40.507 Estes são os tipos[br]de desenhos de neurónios, 0:02:40.507,0:02:42.096 que ele fez no século XIX. 0:02:42.120,0:02:44.164 Este é de um cérebro de pássaro. 0:02:44.164,0:02:47.085 Vemos esta incrível variedade[br]de diferentes tipos de células. 0:02:47.109,0:02:50.544 Até a própria teoria celular[br]era praticamente nova nesta altura. 0:02:50.568,0:02:51.976 Estas estruturas, 0:02:51.976,0:02:54.339 estas células que têm estas ramificações, 0:02:54.339,0:02:56.761 estes ramos que podem percorrer[br]grandes distâncias, 0:02:56.785,0:02:58.541 eram uma novidade na época. 0:02:58.779,0:03:01.682 Claro que nos fazem lembrar cabos. 0:03:01.706,0:03:05.333 No século XIX, isso talvez fosse óbvio[br]para algumas pessoas, 0:03:05.333,0:03:09.501 a revolução da cablagem elétrica[br]estava apenas a começar. 0:03:09.964,0:03:11.142 Mas, de várias maneiras, 0:03:11.166,0:03:14.479 esses desenhos microanatómicos[br]de Ramón y Cajal, como este, 0:03:14.503,0:03:16.975 ainda são, de certa forma, insuperáveis. 0:03:16.975,0:03:18.603 Mais de cem anos depois, 0:03:18.603,0:03:21.792 continuamos a tentar terminar[br]o trabalho que Ramón y Cajal iniciou. 0:03:21.792,0:03:24.720 Estes são dados brutos[br]dos nossos colaboradores 0:03:24.744,0:03:27.625 do Instituto de Neurociência Max Planck. 0:03:27.649,0:03:30.489 Os nossos colaboradores têm fotografado 0:03:30.489,0:03:34.464 pequenos pedaços de tecido cerebral. 0:03:34.488,0:03:37.814 A amostra total aqui tem cerca[br]de um milímetro cúbico de tamanho 0:03:37.838,0:03:40.373 e estou a mostrar aqui[br]apenas um pequeno pedaço. 0:03:40.373,0:03:42.829 Aquela barra à esquerda tem[br]mais ou menos um mícron. 0:03:42.853,0:03:45.262 As estruturas que vemos são mitocôndrias 0:03:45.286,0:03:47.330 que têm o tamanho de uma bactéria. 0:03:47.354,0:03:49.015 E estas são cortes consecutivos 0:03:49.015,0:03:52.077 desse bloco de tecido[br]muito pequeno. 0:03:52.101,0:03:54.504 Só para efeitos de comparação, 0:03:54.528,0:03:58.244 o diâmetro médio de um cabelo[br]é de cerca de 100 mícrons. 0:03:58.244,0:04:01.978 Portanto, estamos a olhar para uma coisa[br]muito menor do que um simples cabelo. 0:04:02.064,0:04:06.095 A partir deste tipo de cortes em série[br]vistos ao microscópio eletrónico, 0:04:06.119,0:04:11.127 podemos fazer reconstruções em 3D[br]de neurónios, como estes. 0:04:11.151,0:04:14.308 Estes são do mesmo estilo[br]dos de Ramón y Cajal. 0:04:14.332,0:04:18.534 Só se iluminam alguns neurónios,[br]senão, não conseguiríamos ver nada. 0:04:18.653,0:04:20.115 Ficaria muito sobrecarregado, 0:04:20.115,0:04:22.429 cheio de estruturas de cabos, 0:04:22.429,0:04:24.667 ligando os neurónios uns aos outros. 0:04:25.293,0:04:28.097 Ramón y Cajal estava avançado[br]para a sua época 0:04:28.121,0:04:30.996 e o progresso na compreensão do cérebro 0:04:30.996,0:04:33.351 prosseguiu devagar[br]durante as décadas seguintes. 0:04:33.455,0:04:36.528 Mas nós sabíamos que os neurónios[br]usavam a eletricidade. 0:04:36.528,0:04:39.418 Com a II Guerra Mundial,[br]a nossa tecnologia avançou bastante 0:04:39.418,0:04:42.218 para iniciar experiências elétricas[br]em neurónios vivos, 0:04:42.218,0:04:44.458 para melhor entender[br]como eles funcionavam. 0:04:44.881,0:04:48.987 Foi na mesma época em que[br]foram inventados os computadores, 0:04:49.011,0:04:52.111 com base sobretudo na ideia[br]de imitar o cérebro 0:04:52.135,0:04:55.220 — uma "máquina inteligente", [br]como lhe chamou Alan Turing, 0:04:55.244,0:04:57.555 um dos pais da informática. 0:04:57.923,0:05:02.555 Warren McCulloch e Walter Pitts [br]olharam para o desenho de Ramón y Cajal 0:05:02.579,0:05:03.896 do córtex visual, 0:05:03.920,0:05:05.772 que estou a mostrar aqui. 0:05:06.326,0:05:10.088 Este é o córtex que processa as imagens[br]que provêm dos olhos. 0:05:10.424,0:05:14.082 Para eles, isto parecia[br]o diagrama de um circuito. 0:05:14.353,0:05:18.062 Há muitos detalhes no diagrama[br]no circuito de McCulloch e de Pitt 0:05:18.062,0:05:19.714 que não estão lá muito corretos. 0:05:19.714,0:05:21.093 Mas a ideia básica 0:05:21.093,0:05:24.839 de que o córtex visual funciona como[br]uma série de elementos eletrónicos 0:05:24.863,0:05:27.609 que passam informações[br]de um para outro, em cascata, 0:05:27.633,0:05:29.335 está essencialmente correta. 0:05:29.335,0:05:31.739 Vamos falar por momentos 0:05:31.739,0:05:35.865 do que um modelo de processamento[br]de informações visuais precisaria de fazer. 0:05:36.228,0:05:38.969 A tarefa básica da perceção 0:05:38.993,0:05:43.091 é pegar numa imagem como esta e dizer: 0:05:43.091,0:05:44.507 "Isto é uma ave", 0:05:44.507,0:05:47.475 o que é uma coisa muito simples[br]que fazermos com o cérebro. 0:05:47.475,0:05:50.730 Mas devem compreender que,[br]para um computador, 0:05:50.754,0:05:53.841 isso era praticamente impossível,[br]até há poucos anos. 0:05:53.865,0:05:56.081 O paradigma clássico da informática 0:05:56.081,0:05:58.732 não permite realizar[br]facilmente essa tarefa. 0:05:59.366,0:06:02.018 Então, o que acontece entre os píxeis, 0:06:02.018,0:06:05.970 entre a imagem de um pássaro[br]e a palavra "ave", 0:06:05.994,0:06:08.808 é uma série de neurónios[br]ligados uns aos outros 0:06:08.832,0:06:11.547 numa rede neural[br]como este diagrama aqui. 0:06:11.704,0:06:14.530 Esta rede neural pode ser biológica,[br]como no córtex visual, 0:06:14.554,0:06:17.226 ou, atualmente, começamos[br]a ter a capacidade de modelar 0:06:17.226,0:06:19.194 estas redes neurais no computador. 0:06:19.834,0:06:22.187 Vou mostrar o aspeto que isso tem. 0:06:22.211,0:06:25.627 Podemos considerar os píxeis[br]como uma primeira camada de neurónio 0:06:25.651,0:06:27.890 — e, de facto, é assim[br]que funciona o olho — 0:06:27.914,0:06:29.577 são os neurónios na retina. 0:06:29.601,0:06:31.631 e eles transmitem as informações 0:06:31.631,0:06:34.528 camada após camada,[br]após camada de neurónios, 0:06:34.552,0:06:37.585 todos ligados através de sinapses[br]de diferentes pesos. 0:06:37.609,0:06:39.114 O comportamento desta rede 0:06:39.114,0:06:42.352 é caracterizado pelas forças[br]de todas estas sinapses. 0:06:42.352,0:06:45.564 Elas caracterizam as propriedades[br]informáticas dessa rede. 0:06:45.588,0:06:47.058 E por fim, 0:06:47.082,0:06:49.619 temos um neurónio[br]ou um pequeno grupo de neurónios 0:06:49.619,0:06:51.570 que se iluminam, dizendo: "ave". 0:06:51.824,0:06:54.956 Agora vou representar essas três coisas 0:06:54.980,0:06:59.676 — os píxeis de entrada[br]e as sinapses na rede neural, 0:06:59.700,0:07:01.285 e a ave, o resultado — 0:07:01.309,0:07:04.576 por três variáveis: x, w e y. 0:07:04.853,0:07:06.754 Há talvez um milhão de x, 0:07:06.754,0:07:08.641 um milhão de píxeis nesta imagem. 0:07:08.665,0:07:11.111 Há milhares de milhões ou biliões de w, 0:07:11.135,0:07:14.556 que representam os pesos de todas[br]essas sinapses na rede neural. 0:07:14.580,0:07:16.455 E há um pequeno número de y, 0:07:16.479,0:07:18.337 de resultados que essa rede neural tem. 0:07:18.361,0:07:20.430 "Ave" tem apenas três letras, não é? 0:07:21.088,0:07:24.514 Então vamos supor que isso[br]é uma fórmula simples, 0:07:24.538,0:07:26.701 x "vezes" w = y. 0:07:26.725,0:07:28.891 Coloco o sinal de multiplicação entre aspas 0:07:28.891,0:07:31.065 porque o que realmente está [br]ali a acontecer, 0:07:31.089,0:07:34.285 é uma série muito complicada[br]de operações matemáticas 0:07:35.172,0:07:36.393 Isto é uma equação. 0:07:36.417,0:07:38.089 Há três variáveis. 0:07:38.113,0:07:41.079 Todos nós sabemos que,[br]se temos uma equação, 0:07:41.079,0:07:44.505 podemos encontrar uma variável[br]se conhecermos as outras duas. 0:07:45.158,0:07:48.538 Assim, o problema da inferência, 0:07:48.562,0:07:51.435 ou seja, descobrir que a figura[br]de uma ave é uma ave, 0:07:51.459,0:07:52.893 é o seguinte: 0:07:52.913,0:07:56.216 É onde y é a incógnita[br]e w e x são conhecidos. 0:07:56.240,0:07:58.699 Conhecemos a rede neural,[br]conhecemos os píxeis. 0:07:58.723,0:08:02.050 Como podemos ver, isto é de facto[br]um problema relativamente simples. 0:08:02.074,0:08:04.260 Multiplicamos duas vezes três[br]e está feito. 0:08:04.862,0:08:06.985 Vou mostrar uma rede neural artificial 0:08:07.009,0:08:09.715 que construímos há pouco tempo,[br]fazendo exatamente isso. 0:08:09.715,0:08:12.494 Isto está a correr em tempo real[br]num telemóvel 0:08:12.518,0:08:15.831 e, claro, é incrível, só por si, 0:08:15.855,0:08:18.627 que os telemóveis possam fazer[br]milhares de milhões ou 0:08:18.647,0:08:20.595 ou biliões de operações por segundo. 0:08:20.619,0:08:22.374 O que estamos a ver é um telemóvel 0:08:22.374,0:08:25.805 a olhar para figuras de aves,[br]umas atrás das outras, 0:08:25.829,0:08:28.544 a dizer: "Sim, isto é uma ave", 0:08:28.568,0:08:31.979 e também a identificar as espécies de aves[br]com uma rede deste tipo. 0:08:32.890,0:08:34.716 Assim, nesta imagem, 0:08:34.740,0:08:38.542 o x e o w são conhecidos,[br]e o y é a incógnita. 0:08:38.566,0:08:41.074 Claro, estou a encobrir[br]a parte mais difícil, 0:08:41.098,0:08:44.959 que é como podemos[br]descobrir o valor de w, 0:08:44.983,0:08:47.170 como é que o cérebro[br]pode fazer tal coisa? 0:08:47.194,0:08:49.258 Como poderemos[br]aprender esse modelo? 0:08:49.418,0:08:52.651 Este processo de aprendizagem,[br]de encontrar o w, 0:08:52.675,0:08:55.322 se estivéssemos a fazer isso[br]com uma simples equação 0:08:55.346,0:08:57.346 em que utilizamos números, 0:08:57.370,0:09:00.417 sabemos exatamente como fazer isso:[br]6 = 2 x w. 0:09:00.417,0:09:03.573 Dividimos por dois e está feito. 0:09:04.001,0:09:06.361 O problema é com este operador. 0:09:06.823,0:09:07.974 a divisão. 0:09:08.158,0:09:11.119 Usamos a divisão porque [br]é o inverso da multiplicação 0:09:11.143,0:09:12.583 mas, como acabei de dizer, 0:09:12.607,0:09:15.056 a multiplicação aqui[br]é uma pequena mentira. 0:09:15.080,0:09:18.406 Esta é uma operação muito complicada,[br]não é linear, 0:09:18.430,0:09:20.134 não tem forma inversa. 0:09:20.158,0:09:23.308 Então temos de descobrir[br]uma forma de resolver a equação 0:09:23.332,0:09:25.356 sem um operador de divisão. 0:09:25.380,0:09:27.723 A forma de fazer isso é bem simples. 0:09:27.747,0:09:30.418 Basta dizer: "Vamos brincar[br]com os truques da álgebra" 0:09:30.442,0:09:33.348 e movemos o seis[br]para o lado direito da equação. 0:09:33.372,0:09:35.558 Continuamos a usar a multiplicação. 0:09:35.675,0:09:39.255 E vamos pensar naquele zero[br]como um erro. 0:09:39.279,0:09:41.794 Por outras palavras,[br]se resolvermos da forma correta, 0:09:41.818,0:09:43.474 o erro será zero. 0:09:43.498,0:09:46.976 E se não resolvemos corretamente,[br]o erro será maior do que zero. 0:09:47.233,0:09:50.343 Então podemos apenas dar palpites[br]para minimizar o erro. 0:09:50.343,0:09:53.310 Esse é o tipo de coisas em que[br]os computadores são muito bons. 0:09:53.334,0:09:54.927 Assim, temos um palpite inicial: 0:09:54.951,0:09:56.545 E se w = 0? [br]Então o erro é seis. 0:09:56.545,0:09:58.841 E se w = 1? [br]Então o erro é 4. 0:09:58.865,0:10:01.232 Então o computador[br]pode fazer de Marco Polo, 0:10:01.256,0:10:03.623 e diminuir o erro[br]para mais próximo de zero. 0:10:03.647,0:10:07.021 Fazendo isso, vamos ter sucessivas[br]aproximações até ao w. 0:10:07.045,0:10:10.701 Normalmente, nunca lá chega,[br]mas após uma dúzia de passos, 0:10:10.725,0:10:15.729 temos w = 2,999,[br]o que é suficientemente próximo. 0:10:16.302,0:10:18.116 É este o processo de aprendizagem. 0:10:18.140,0:10:20.870 Por isso, lembrem-se[br]que o que está a acontecer aqui 0:10:20.894,0:10:25.272 é que estamos a pegar num monte[br]de x e y conhecidos 0:10:25.296,0:10:28.750 e a procurar o w[br]através de um processo repetitivo. 0:10:28.774,0:10:32.330 Isto é a mesma coisa que fazemos[br]com a nossa aprendizagem. 0:10:32.354,0:10:35.464 Temos muitas imagens,[br]enquanto bebés, e dizem-nos: 0:10:35.464,0:10:37.541 "Isto é uma ave,[br]isto não é uma ave". 0:10:37.714,0:10:40.192 Ao longo do tempo, através da repetição, 0:10:40.192,0:10:43.214 encontramos o w,[br]aquelas ligações neurais. 0:10:43.460,0:10:47.546 Então agora, temos o x e o w fixos,[br]para resolvermos o y. 0:10:47.570,0:10:49.417 É a perceção rápida, de todos os dias. 0:10:49.441,0:10:51.048 Descobrimos como encontrar o w, 0:10:51.048,0:10:53.461 isso é aprendizagem,[br]o que é um muito mais difícil 0:10:53.461,0:10:56.770 porque precisamos de minimizar o erro,[br]praticando muitos exemplos. 0:10:56.875,0:11:00.062 Há uns anos, Alex Mordvintsev,[br]da nossa equipa, 0:11:00.086,0:11:03.636 decidiu experimentar o que acontece[br]se tentarmos encontrar o x, 0:11:03.660,0:11:05.837 em que o w e o y são conhecidos. 0:11:06.124,0:11:08.515 Por outras palavras,[br]sabemos que é uma ave, 0:11:08.675,0:11:11.978 já treinámos a rede neural com as aves, 0:11:12.002,0:11:14.586 mas o que é a imagem de uma ave? 0:11:15.034,0:11:20.058 Acontece que, usando exatamente o mesmo[br]procedimento de minimização de erros, 0:11:20.082,0:11:23.512 podemos fazer isso com a rede[br]treinada para reconhecer aves 0:11:23.536,0:11:26.924 e o resultado será... 0:11:30.400,0:11:31.975 uma imagem de aves. 0:11:32.814,0:11:36.551 É uma imagem de aves[br]gerada totalmente por uma rede neural, 0:11:36.575,0:11:38.691 treinada para reconhecer aves, 0:11:38.691,0:11:41.963 simplesmente procurando x,[br]em vez de procurar o y, 0:11:41.987,0:11:43.655 e fazendo-o por repetição. 0:11:43.882,0:11:45.719 Eis outro exemplo engraçado. 0:11:45.719,0:11:49.040 Este foi um trabalho feito[br]por Mike Tyka no nosso grupo 0:11:49.064,0:11:51.372 a que ele chama "Desfile de Animais". 0:11:51.396,0:11:54.272 Recorda-me um pouco as obras[br]de William Kentridge, 0:11:54.296,0:11:56.785 em que ele faz esboços e depois os apaga, 0:11:56.809,0:11:59.629 faz esboços e os apaga[br]e cria um filme dessa forma 0:11:59.715,0:12:04.016 Neste caso, Mike vai variando y[br]no espaço de diferentes animais 0:12:04.191,0:12:06.573 numa rede concebida[br]para reconhecer e distinguir 0:12:06.597,0:12:08.517 animais diferentes uns dos outros. 0:12:08.517,0:12:12.182 Podemos achar estranho, é como ter[br]uma metamorfose de um animal para outro. 0:12:14.221,0:12:18.835 Aqui ele e Alex, em conjunto,[br]tentaram reduzir os y 0:12:18.859,0:12:21.618 num espaço de apenas duas dimensões, 0:12:21.642,0:12:25.080 criando um mapa fora do espaço[br]de todas as coisas 0:12:25.104,0:12:26.823 reconhecidas por essa rede. 0:12:26.847,0:12:28.970 Fazendo esse tipo de síntese 0:12:28.970,0:12:31.276 ou geração de imagens[br]sobre toda a superfície, 0:12:31.300,0:12:34.146 variando y na superfície,[br]fazemos uma espécie de mapa, 0:12:34.170,0:12:37.311 um mapa visual de todas as coisas[br]que a rede sabe reconhecer. 0:12:37.335,0:12:40.200 Os animais estão todos aqui:[br]o tatu está naquele local. 0:12:40.919,0:12:43.398 Também podemos fazer isso[br]com outras redes. 0:12:43.422,0:12:46.296 Esta é uma rede desenhada[br]para reconhecer rostos, 0:12:46.320,0:12:48.650 para distinguir um rosto de outro. 0:12:48.650,0:12:51.593 Aqui, estamos a colocar um Y[br]que diz "eu", 0:12:51.617,0:12:53.192 os parâmetros do meu rosto. 0:12:53.216,0:12:55.072 Quando isso é resolvido para x, 0:12:55.072,0:12:58.454 gera a minha imagem, bastante louca, 0:12:58.454,0:13:01.740 tipo cubista, surrealista, psicadélica, 0:13:01.740,0:13:03.966 de vários pontos de vista ao mesmo tempo. 0:13:03.966,0:13:06.984 A razão de se parecer com vários[br]pontos de vista ao mesmo tempo, 0:13:06.984,0:13:10.315 é porque esta rede está concebida[br]para se livrar da ambiguidade 0:13:10.339,0:13:12.815 de um rosto estar numa pose qualquer, 0:13:12.839,0:13:16.215 de ser visto com um tipo de luz,[br]com outro tipo de luz. 0:13:16.239,0:13:18.324 Quando fazemos este tipo de reconstrução, 0:13:18.348,0:13:21.812 se não usarmos qualquer tipo[br]de guia de imagem ou de estatística, 0:13:21.911,0:13:25.676 obtemos uma certa confusão[br]de diferentes pontos de vista, 0:13:25.700,0:13:27.468 porque isso é ambíguo. 0:13:27.786,0:13:32.009 É o que acontece se o Alex usar[br]o seu rosto como guia de imagem 0:13:32.033,0:13:35.464 durante o processo de otimização[br]para reconstruir o meu rosto. 0:13:36.284,0:13:38.612 Vemos que isto não é perfeito. 0:13:38.636,0:13:40.510 Ainda há muito trabalho a fazer 0:13:40.534,0:13:42.987 sobre como melhorar[br]a otimização do processo. 0:13:43.011,0:13:45.838 Mas começamos a ver alguma coisa[br]como um rosto coerente, 0:13:45.862,0:13:48.436 usando o meu rosto como guia. 0:13:48.892,0:13:51.393 Não precisamos de começar[br]com uma tela em branco 0:13:51.417,0:13:52.573 ou com interferências, 0:13:52.597,0:13:54.251 quando estamos a procurar x. 0:13:54.251,0:13:57.814 Podemos começar com um x[br]que, em si mesmo, já é uma outra imagem. 0:13:57.838,0:14:00.644 É isso que é esta pequena demonstração. 0:14:00.644,0:14:04.540 Esta é uma rede desenhada[br]para categorizar 0:14:04.564,0:14:07.683 todo o tipo de objetos — estruturas[br]feitas pelo homem, animais. 0:14:07.707,0:14:10.300 Aqui estamos a começar[br]apenas com uma imagem de nuvens. 0:14:10.324,0:14:11.995 Quando otimizamos, 0:14:12.019,0:14:16.505 essa rede está a descobrir[br]o que vê nas nuvens. 0:14:16.931,0:14:19.251 Quanto mais tempo gastarmos[br]a olhar para isto, 0:14:19.275,0:14:22.168 mais coisas veremos nas nuvens. 0:14:23.004,0:14:26.379 Também podemos usar a rede de rostos[br]para enlouquecer isto 0:14:26.403,0:14:28.215 e obtemos coisas muito loucas. 0:14:28.239,0:14:29.569 (Risos) 0:14:30.401,0:14:33.145 Mike tem feito outras experiências 0:14:33.169,0:14:37.074 em que agarra nessa imagem de nuvens, 0:14:37.098,0:14:40.605 enlouquece, aproxima, enlouquece,[br]aproxima, enlouquece, aproxima. 0:14:40.629,0:14:42.070 Dessa forma, 0:14:42.070,0:14:45.479 suponho que podemos obter[br]uma espécie de estado de fuga da rede, 0:14:45.503,0:14:49.183 ou um tipo de associação livre 0:14:49.207,0:14:51.434 em que a rede está a comer a sua cauda. 0:14:51.458,0:14:54.683 Assim cada imagem é agora a base para: 0:14:54.683,0:14:56.414 "O que é que espero ver a seguir?" 0:14:56.414,0:14:59.581 "O que é que espero ver a seguir?[br]O que é que espero ver a seguir?" 0:14:59.581,0:15:02.423 Mostrei isto em público[br]pela primeira vez 0:15:02.447,0:15:07.884 a um grupo numa palestra em Seattle[br]chamada "A mais alta educação" 0:15:07.908,0:15:10.445 — logo depois de ter sido[br]legalizada a marijuana. 0:15:10.689,0:15:12.784 (Risos) 0:15:14.627,0:15:16.731 Gostaria de terminar rapidamente 0:15:16.755,0:15:21.230 notando que esta tecnologia[br]não está limitada. 0:15:21.314,0:15:24.699 Mostrei-vos apenas exemplos visuais[br]porque eles são divertidos de ver. 0:15:24.723,0:15:27.174 Não é apenas uma tecnologia[br]puramente visual. 0:15:27.198,0:15:29.361 O nosso artista colaborador, Ross Goodwin, 0:15:29.361,0:15:32.886 tem feito experiências que envolvem[br]uma câmara que tira fotos 0:15:32.910,0:15:37.144 e depois um computador na sua mochila[br]escreve um poema, usando redes neurais, 0:15:37.168,0:15:39.112 com base no conteúdo da imagem. 0:15:39.136,0:15:42.083 Essa poesia de rede neural[br]foi treinada 0:15:42.107,0:15:44.341 num grande corpo de poesia do século XX. 0:15:44.365,0:15:47.624 Sabem uma coisa, acho que essa poesia[br]não é lá muito má. 0:15:47.826,0:15:49.210 (Risos) 0:15:49.234,0:15:50.703 Para terminar, 0:15:50.703,0:15:53.619 acho que Miguel Ângelo tinha razão. 0:15:53.831,0:15:57.267 "A perceção e a criatividades[br]estão intimamente ligadas". 0:15:57.611,0:16:00.245 O que acabamos de ver[br]são redes neurais 0:16:00.269,0:16:03.192 que estão totalmente treinadas[br]para discriminar ou reconhecer 0:16:03.192,0:16:05.058 diferentes coisas no mundo, 0:16:05.058,0:16:08.023 capazes de funcionar[br]de trás para frente, de criar. 0:16:08.047,0:16:09.830 Uma das coisas que me sugere 0:16:09.854,0:16:12.432 que não é apenas o que Miguel Ângelo viu, 0:16:12.432,0:16:14.728 a escultura nos blocos de pedra. 0:16:14.752,0:16:18.390 Mas que qualquer criatura,[br]qualquer ser, qualquer alienígena, 0:16:18.414,0:16:22.071 que seja capaz de fazer [br]ações percetivas deste tipo, 0:16:22.095,0:16:23.620 também é capaz de criar, 0:16:23.620,0:16:26.718 porque é exatamente o mesmo mecanismo[br]usado nos dois casos. 0:16:26.742,0:16:31.274 Também acho que essa perceção e[br]criatividade não são de modo algum 0:16:31.298,0:16:32.708 unicamente humanas. 0:16:32.708,0:16:36.240 Começámos com modelos de computadores[br]capazes de fazer este tipo de coisas. 0:16:36.264,0:16:39.592 Isso não devia ser surpreendente:[br]o cérebro é um modelo informático. 0:16:39.616,0:16:41.273 E finalmente, 0:16:41.297,0:16:45.965 a informática começou como um exercício[br]para a conceção de máquinas inteligentes. 0:16:45.989,0:16:48.451 Foi modelado segundo a ideia 0:16:48.475,0:16:51.488 de que podemos fazer[br]máquinas inteligentes. 0:16:51.512,0:16:53.674 E finalmente estamos agora[br]a começar a atingir 0:16:53.698,0:16:56.104 algumas das promessas dos pioneiros, 0:16:56.128,0:16:57.841 de Turing e von Neumannn, 0:16:57.865,0:17:00.130 de McCulloch e Pitts. 0:17:00.914,0:17:04.252 Acho que a informática[br]não é apenas fazer contas 0:17:04.276,0:17:06.483 ou jogar Candy Crush[br]ou qualquer outra coisa. 0:17:06.483,0:17:09.225 Desde o começo, [br]modelámo-los segundo as nossas mentes. 0:17:09.225,0:17:12.318 Eles deram-nos a capacidade[br]para compreender as nossas mentes 0:17:12.342,0:17:13.871 e para os aperfeiçoar. 0:17:14.627,0:17:16.074 Muito obrigado. 0:17:16.174,0:17:19.457 (Aplausos)