0:00:00.835,0:00:02.990 Mark Twain resumiu o que eu considero 0:00:02.990,0:00:06.110 um dos problemas fundamentais[br]da ciência cognitiva 0:00:06.110,0:00:08.010 apenas numa piada. 0:00:08.410,0:00:11.492 Ele disse: "Há algo[br]fascinante na ciência. 0:00:11.492,0:00:15.183 "Obtêm-se retornos profundos [br]da conjetura 0:00:15.210,0:00:18.187 "a partir de investigações[br]superficiais da verdade". 0:00:18.287,0:00:19.872 (Risos) 0:00:20.199,0:00:22.803 Claro que Twain disse isto a brincar,[br]mas está correto: 0:00:23.048,0:00:25.679 Há algo fascinante na ciência. 0:00:25.979,0:00:29.940 A partir de alguns ossos, inferimos[br]a existência de dinossauros. 0:00:30.910,0:00:34.608 A partir de linhas espetrais,[br]a composição de nebulosas. 0:00:35.471,0:00:37.863 A partir de moscas-da-fruta, 0:00:38.409,0:00:40.861 os mecanismos da hereditariedade, 0:00:41.661,0:00:45.601 e de imagens reconstruídas do sangue [br]que flui através do cérebro, 0:00:45.746,0:00:50.009 ou no meu caso, do comportamento[br]de crianças muito novas, 0:00:50.309,0:00:53.374 tentamos dizer algo[br]sobre os mecanismos fundamentais 0:00:53.410,0:00:55.164 da cognição humana. 0:00:55.716,0:01:00.475 No meu laboratório no Departamento[br]de Ciências Cognitivas no MIT, 0:01:00.620,0:01:04.129 passei a última década[br]a tentar perceber o mistério 0:01:04.129,0:01:08.233 de como as crianças aprendem tanto[br]a partir de tão pouco e tão rapidamente. 0:01:08.666,0:01:11.644 Porque acontece que a coisa[br]fascinante na ciência 0:01:11.644,0:01:14.836 também é uma coisa fascinante[br]nas crianças. 0:01:15.173,0:01:17.754 Mudando um pouco a frase de Mark Twain, 0:01:17.754,0:01:22.404 é exatamente a capacidade que elas têm[br]para criar inferências ricas e abstratas 0:01:22.476,0:01:27.401 com rapidez e precisão,[br]a partir de dados soltos, ruidosos. 0:01:28.355,0:01:30.753 Hoje vou dar apenas dois exemplos. 0:01:30.753,0:01:33.040 Um é sobre um problema de generalização, 0:01:33.040,0:01:35.890 e o outro é sobre um problema[br]de raciocínio causal. 0:01:35.890,0:01:38.415 Apesar de falar sobre o trabalho [br]no meu laboratório, 0:01:38.415,0:01:41.875 este trabalho é inspirado [br]e derivado de um campo. 0:01:41.938,0:01:46.158 Estou grata a mentores, colegas,[br]e colaboradores de todo o mundo. 0:01:47.308,0:01:50.282 Vou começar com o problema[br]da generalização. 0:01:50.652,0:01:54.785 Generalizar a partir de poucos dados[br]é o pão nosso de cada dia na ciência. 0:01:54.785,0:01:57.339 Sondamos uma pequena fração de eleitores 0:01:57.339,0:01:59.950 e prevemos o resultado[br]das eleições nacionais. 0:02:00.240,0:02:04.165 Vemos como alguns pacientes reagem[br]ao tratamento num ensaio clínico, 0:02:04.165,0:02:07.230 e colocamos drogas no mercado nacional. 0:02:07.293,0:02:11.495 Mas isto só funciona se a nossa amostra[br]for obtida aleatoriamente da população. 0:02:11.595,0:02:14.357 Se a nossa amostra for enviesada[br]de alguma maneira 0:02:14.357,0:02:16.774 — digamos, sondamos apenas[br]eleitores urbanos, 0:02:16.774,0:02:20.790 ou então, nos nossos ensaios clínicos[br]para tratamento de doenças do coração, 0:02:20.790,0:02:22.671 incluímos apenas homens — 0:02:22.671,0:02:25.929 os resultados podem não representar[br]a população mais ampla. 0:02:26.906,0:02:30.387 Então, os cientistas preocupam-se[br]se as amostras são aleatórias ou não, 0:02:30.387,0:02:32.465 mas o que é que tem isto a ver com bebés? 0:02:32.857,0:02:37.206 Bem, os bebés precisam de generalizar[br]pequenas amostras de dados o tempo todo. 0:02:37.306,0:02:40.364 Veem alguns patos de borracha[br]e aprendem que eles flutuam, 0:02:40.364,0:02:43.939 ou veem algumas bolas[br]e aprendem que elas saltam. 0:02:43.939,0:02:46.890 Desenvolvem expetativas[br]sobre patos e bolas 0:02:46.890,0:02:49.633 que vão alargar aos [br]patos de borracha e bolas 0:02:49.633,0:02:51.266 para o resto da vida. 0:02:51.485,0:02:55.224 O tipo de generalizações que os bebés[br]têm que fazer sobre patos e bolas, 0:02:55.224,0:02:57.503 precisam fazer sobre quase tudo o resto: 0:02:57.503,0:03:01.348 sapatos, barcos, lacre, couves e reis. 0:03:02.200,0:03:05.433 Será que os bebés reparam[br]se os pedacinhos de evidências que veem 0:03:05.433,0:03:09.043 são representantes plausíveis[br]de uma população mais ampla? 0:03:09.763,0:03:11.244 Vamos descobrir. 0:03:11.663,0:03:13.386 Vou mostrar dois filmes, 0:03:13.386,0:03:15.984 um para cada uma[br]de duas situações de uma experiência. 0:03:15.984,0:03:18.386 Como vocês vão ver apenas dois filmes, 0:03:18.386,0:03:20.422 verão apenas dois bebés, 0:03:20.422,0:03:24.287 e quaisquer dois bebés diferem entre si[br]de várias maneiras. 0:03:24.369,0:03:27.420 Mas estes bebés, claro,[br]representam grupos de bebés. 0:03:27.420,0:03:29.315 As diferenças que vão ver 0:03:29.315,0:03:33.900 representam as diferenças médias [br]de grupos de bebés em cada situação. 0:03:35.160,0:03:37.743 Em cada filme, vocês vão ver[br]um bebé a fazer, 0:03:37.743,0:03:41.203 talvez exatamente o que vocês[br]esperam que um bebé faça, 0:03:41.203,0:03:45.220 e dificilmente podemos tornar os bebés[br]mais mágicos do que já são. 0:03:46.090,0:03:48.100 Mas para mim, a coisa mágica, 0:03:48.100,0:03:50.252 na qual quero que vocês prestem atenção, 0:03:50.252,0:03:53.300 é o contraste entre estas duas situações, 0:03:53.300,0:03:56.829 porque a única coisa que difere [br]entre estes dois filmes 0:03:56.829,0:04:00.295 são as evidências estatísticas[br]que os bebés vão observar. 0:04:01.425,0:04:04.608 Vamos mostrar aos bebés[br]uma caixa de bolas azuis e amarelas. 0:04:05.135,0:04:09.228 A minha ex-aluna, que agora é minha[br]colega em Stanford, Hyowon Gweon, 0:04:09.228,0:04:12.305 vai tirar da caixa[br]três bolas azuis de seguida. 0:04:12.641,0:04:15.428 Ao tirar as bolas, ela vai apertá-las, 0:04:15.428,0:04:17.441 e as bolas vão chiar. 0:04:17.713,0:04:20.349 Para um bebé,[br]é como estar numa palestra do TED. 0:04:20.349,0:04:22.389 Não há nada melhor que isto. 0:04:22.544,0:04:24.769 (Risos) 0:04:26.968,0:04:30.627 Mas o que importa é que é fácil[br]tirar três bolas azuis de seguida 0:04:30.627,0:04:32.932 de uma caixa com uma maioria[br]de bolas azuis. 0:04:32.932,0:04:34.992 Podíamos fazer isto de olhos fechados. 0:04:34.992,0:04:37.988 É plausível que sejam evidências[br]aleatórias desta população. 0:04:37.988,0:04:41.720 Se tiramos duma caixa, ao acaso,[br]qualquer coisa que chia, 0:04:41.720,0:04:44.559 então talvez tudo dentro da caixa chie. 0:04:44.640,0:04:48.209 Talvez os bebés devessem esperar que [br]as bolas amarelas também chiassem. 0:04:48.209,0:04:50.900 Mas as bolas amarelas[br]têm bastões engraçados na ponta, 0:04:50.900,0:04:53.766 para os bebés fazerem[br]outras coisas com elas, se quiserem. 0:04:53.766,0:04:55.679 Podem amassá-las ou bater com elas. 0:04:55.679,0:04:57.548 Mas vamos ver o que o bebé faz. 0:04:57.766,0:04:59.020 (Vídeo) 0:05:00.548,0:05:02.229 Hyowon Gweon: Vês isto? 0:05:02.348,0:05:03.940 (Bola chia) 0:05:04.531,0:05:05.531 Viste? 0:05:06.140,0:05:07.608 (Bola chia) 0:05:08.163,0:05:09.520 Fixe. 0:05:12.706,0:05:14.074 Vês esta? 0:05:14.756,0:05:16.164 (Bola chia) 0:05:16.537,0:05:17.817 Uau. 0:05:21.854,0:05:23.667 Laura Schulz: Eu não disse? 0:05:23.967,0:05:25.425 HG: Estás a ver esta? 0:05:25.507,0:05:27.207 (Bola chia) 0:05:28.052,0:05:32.617 Ei, Clara, esta é para ti.[br]Podes brincar, se quiseres. 0:05:37.972,0:05:39.928 (Risos) 0:05:44.219,0:05:46.504 LS: Nem preciso dizer nada, certo? 0:05:47.214,0:05:50.113 Tudo bem, é bom que os bebés[br]generalizem as propriedades 0:05:50.113,0:05:51.768 das bolas azuis para as amarelas. 0:05:51.768,0:05:54.737 É impressionante que os bebés[br]aprendam por imitação, 0:05:54.737,0:05:57.933 mas já sabemos estas coisas [br]sobre bebés há muito tempo. 0:05:58.406,0:06:00.217 A questão mais interessante 0:06:00.217,0:06:03.169 é o que acontece quando mostramos[br]exatamente a mesma coisa, 0:06:03.169,0:06:06.743 e podemos garantir que é a mesma coisa[br]pois temos um compartimento secreto 0:06:06.743,0:06:08.790 e tiramos as bolas de lá. 0:06:08.862,0:06:12.268 Mas, desta vez, vamos mudar[br]a população aparente 0:06:12.268,0:06:15.170 a partir da qual foram obtidas as evidências . 0:06:15.251,0:06:19.041 Desta vez, vamos mostrar[br]aos bebés três bolas azuis 0:06:19.141,0:06:22.107 tiradas de uma caixa com [br]a maioria de bolas amarelas, 0:06:22.107,0:06:23.429 e adivinhem? 0:06:23.565,0:06:26.369 Não é provável tirarmos[br]três bolas azuis de seguida 0:06:26.369,0:06:28.880 de uma caixa com a maioria [br]de bolas amarelas. 0:06:28.880,0:06:32.500 Isto não é uma prova[br]de uma amostra aleatória plausível. 0:06:32.736,0:06:34.623 Estas evidências indicam 0:06:34.623,0:06:37.686 que Hyowon escolheu[br]as bolas azuis, de propósito. 0:06:37.832,0:06:40.451 Talvez haja algo especial [br]nas bolas azuis. 0:06:40.846,0:06:43.440 Talvez apenas as bolas azuis chiem. 0:06:43.822,0:06:45.717 Vamos ver o que o bebé faz. 0:06:46.007,0:06:47.487 (Vídeo) HG: Vês isto? 0:06:47.560,0:06:49.305 (Bola chia) 0:06:50.851,0:06:52.241 Vês este brinquedo? 0:06:52.305,0:06:53.677 (Bola chia) 0:06:53.914,0:06:56.403 Oh, isto foi fixe! Vês? 0:06:57.321,0:06:58.766 (Bola chia) 0:06:59.130,0:07:01.933 Agora, esta é para tu brincares.[br]Podes brincar se quiser. 0:07:06.146,0:07:07.639 (Balbucios) 0:07:15.182,0:07:17.721 LS: Pronto, acabaram de ver [br]dois bebés de 15 meses 0:07:17.721,0:07:19.800 a fazer coisas totalmente diferentes, 0:07:19.800,0:07:23.035 com base apenas na probabilidade[br]da amostra que observaram. 0:07:23.190,0:07:25.511 Vou mostrar os resultados experimentais. 0:07:25.592,0:07:28.356 No eixo vertical, temos[br]a percentagem de bebés 0:07:28.356,0:07:30.805 que apertaram a bola em cada situação. 0:07:30.959,0:07:34.656 Como podemos ver, os bebés [br]tendem a generalizar as evidências 0:07:34.656,0:07:37.773 quando há uma amostra representativa[br]plausível da população 0:07:37.773,0:07:40.902 em vez de uma amostra[br]escolhida propositadamente. 0:07:41.393,0:07:43.862 Isto leva a uma previsão divertida: 0:07:44.026,0:07:48.676 suponham que tirávamos uma bola azul[br]da caixa com maioria de bolas amarelas. 0:07:49.050,0:07:52.765 Provavelmente, não tirávamos[br]três bolas azuis de seguida, 0:07:52.765,0:07:55.220 mas podíamos tirar aleatoriamente [br]uma bola azul. 0:07:55.220,0:07:57.290 Isso não é uma amostra improvável. 0:07:57.290,0:07:59.577 Se pudéssemos mexer[br]numa caixa ao acaso 0:07:59.577,0:08:03.528 e tirar qualquer coisa que chie,[br]talvez todas as coisas da caixa chiem. 0:08:04.111,0:08:08.320 Então, mesmo que os bebés estejam[br]a ver menos evidências para o chiar, 0:08:08.320,0:08:10.689 e tenham muitas menos ações para imitar 0:08:10.689,0:08:14.232 nesta situação de uma bola[br]que acabámos de ver, 0:08:14.232,0:08:17.969 previmos que os próprios bebés[br]apertariam mais, 0:08:17.969,0:08:20.527 e foi exatamente isso que vimos. 0:08:21.245,0:08:25.392 Então, os bebés de 15 meses,[br]como se fossem cientistas, 0:08:25.392,0:08:28.299 reparam se as evidências são[br]amostras aleatórias ou não, 0:08:28.299,0:08:31.697 e usam isso para desenvolver[br]expetativas sobre o mundo: 0:08:31.697,0:08:33.879 o que chia e o que não chia, 0:08:33.879,0:08:37.024 o que explorar e o que ignorar. 0:08:38.384,0:08:40.450 Agora vou mostrar outro exemplo, 0:08:40.450,0:08:43.180 desta vez sobre um problema[br]de raciocínio causal. 0:08:43.180,0:08:45.619 Começa com um problema[br]de evidências confusas 0:08:45.619,0:08:47.291 que todos nós temos, 0:08:47.291,0:08:49.438 ou seja, que fazemos parte do mundo. 0:08:49.438,0:08:52.865 Isto pode não vos parecer um problema [br]mas, como a maioria dos problemas, 0:08:52.865,0:08:55.256 só é um problema[br]quando as coisas não correm bem. 0:08:55.464,0:08:57.275 Vejam este bebé, por exemplo. 0:08:57.347,0:08:59.016 As coisas não lhe correm bem. 0:08:59.016,0:09:01.705 Ele queria que este brinquedo tocasse, [br]mas não consegue. 0:09:01.705,0:09:03.952 Vou mostrar-vos um vídeo[br]de alguns segundos. 0:09:09.203,0:09:11.260 Há duas possibilidades: 0:09:11.260,0:09:13.894 Talvez ele esteja a fazer algo mal, 0:09:13.894,0:09:17.519 ou talvez haja algo de errado[br]com o brinquedo. 0:09:18.110,0:09:20.221 Portanto, nesta próxima experiência, 0:09:20.221,0:09:23.518 vamos dar aos bebés[br]apenas alguns dados estatísticos 0:09:23.518,0:09:26.100 apoiando uma hipótese sobre a outra. 0:09:26.100,0:09:29.555 Vamos ver se os bebés conseguem [br]tomar decisões diferentes 0:09:29.555,0:09:31.389 quanto ao que fazer. 0:09:31.479,0:09:33.411 Aqui está a experiência. 0:09:34.071,0:09:37.101 A Hyowon vai tentar fazer[br]com que o brinquedo toque e consegue. 0:09:37.101,0:09:40.421 Depois, eu vou tentar duas vezes e falhar. 0:09:40.593,0:09:43.614 A Hyowon vai tentar de novo [br]e vai conseguir, 0:09:43.614,0:09:47.005 e isto resume a minha relação[br]com os meus alunos de pós-graduação 0:09:47.005,0:09:49.094 em tecnologia. 0:09:50.030,0:09:53.322 Mas o importante aqui é fornecer[br]um pouco de evidências 0:09:53.322,0:09:56.990 de que o problema[br]não é o brinquedo, é a pessoa. 0:09:56.990,0:09:59.340 Algumas pessoas fazem o brinquedo tocar, 0:09:59.340,0:10:00.744 e outras não. 0:10:00.799,0:10:03.875 Agora, quando o bebé pega no brinquedo,[br]ele tem uma escolha. 0:10:04.212,0:10:06.145 A mãe dele está ali, 0:10:06.209,0:10:09.933 para ele poder entregar o brinquedo[br]e mudar de pessoa, 0:10:09.933,0:10:12.873 mas também haverá outro brinquedo,[br]no final daquele pano. 0:10:13.063,0:10:16.197 Ele pode puxar o pano [br]e mudar de brinquedo. 0:10:16.425,0:10:18.097 Então vamos ver o que o bebé faz. 0:10:18.206,0:10:19.414 (Vídeo) 0:10:19.568,0:10:21.268 HG: Dois, três. Vai! 0:10:21.505,0:10:22.807 (Música) 0:10:22.998,0:10:25.829 LS: Um, dois, três, vai! 0:10:27.365,0:10:29.486 Arthur, vou tentar novamente. 0:10:29.695,0:10:32.695 Um, dois, três, vai! 0:10:33.886,0:10:36.277 HG: Arthur, vou tentar de novo, está bem? 0:10:36.440,0:10:39.583 Um, dois, três, vai! 0:10:39.874,0:10:41.446 (Música) 0:10:41.583,0:10:43.602 Vê isto. [br]Lembras-te destes brinquedos? 0:10:43.711,0:10:46.902 Vês estes brinquedos? [br]Sim, vou pôr este aqui, 0:10:46.902,0:10:48.792 e vou dar-te este. 0:10:48.792,0:10:51.127 Podes brincar se quiseres.[br] 0:11:11.376,0:11:15.350 LS: Ok, Laura, mas é óbvio[br]que os bebés amam as mamãs. 0:11:15.950,0:11:18.386 É claro que os bebés vão dar[br]os brinquedos às mamãs 0:11:18.386,0:11:20.562 quando não conseguem pô-los a funcionar. 0:11:20.562,0:11:23.482 Novamente, o que importa[br]é o que acontece, 0:11:23.482,0:11:26.636 quando mudamos ligeiramente[br]os dados estatísticos. 0:11:26.909,0:11:30.996 Desta vez, os bebés vão ver o brinquedo[br]funcionar e falhar pela mesma ordem, 0:11:30.996,0:11:33.620 mas mudamos a distribuição das evidências. 0:11:33.620,0:11:37.649 Desta vez, a Hyowon vai conseguir [br]uma vez e falhar uma vez, e eu também. 0:11:38.158,0:11:43.286 Isto sugere que não importa quem tenta, [br]o brinquedo está avariado. 0:11:43.386,0:11:45.054 Ele nunca funciona. 0:11:45.154,0:11:47.310 De novo, a bebé vai poder escolher. 0:11:47.310,0:11:50.706 A mãe está mesmo ao lado dela,[br]então ela pode mudar a pessoa, 0:11:50.706,0:11:53.400 e haverá outro brinquedo no fim do pano. 0:11:53.446,0:11:55.106 Vamos ver o que ela faz. 0:11:55.197,0:11:56.308 (Vídeo) 0:11:56.381,0:11:57.881 HG: Dois, três, vai! 0:11:57.981,0:11:59.581 (Música) 0:11:59.745,0:12:04.347 Deixa-me tentar de novo. [br]Um, dois, três, vai! 0:12:06.069,0:12:07.293 Hum. 0:12:08.077,0:12:09.978 LS: Deixa-me tentar, Clara. 0:12:10.642,0:12:13.896 Um, dois, três, vai! 0:12:15.265,0:12:17.318 Hum, deixa-me tentar de novo. 0:12:17.436,0:12:20.409 Um, dois, três, vai! 0:12:20.590,0:12:22.618 (Música) 0:12:23.009,0:12:25.296 HG: Vou deixar este aqui, 0:12:25.296,0:12:27.243 e vou dar-te este. 0:12:27.315,0:12:29.521 Podes brincar, se quiseres. 0:12:49.821,0:12:51.673 (Aplausos) 0:12:52.993,0:12:55.212 LS: Vou mostrar[br]os resultados experimentais. 0:12:55.385,0:12:58.969 No eixo vertical, temos a distribuição[br]de escolhas das crianças 0:12:58.969,0:13:00.546 para cada situação. 0:13:00.700,0:13:04.988 Podemos ver que as escolhas [br]que as crianças fazem 0:13:04.988,0:13:07.775 dependem das evidências observadas. 0:13:07.775,0:13:09.632 Então, no segundo ano de vida, 0:13:09.632,0:13:12.690 os bebés podem usar alguns[br]dados estatísticos 0:13:12.690,0:13:15.912 para decidir entre duas estratégias[br]fundamentalmente diferentes 0:13:15.912,0:13:17.675 para agir no mundo: 0:13:17.675,0:13:20.200 pedir ajuda e explorar. 0:13:22.163,0:13:25.134 Eu só mostrei duas [br]experiências de laboratório 0:13:25.134,0:13:28.825 entre centenas de outras[br]que mostram resultados parecidos, 0:13:28.825,0:13:31.217 pois o ponto essencial 0:13:31.217,0:13:36.570 é mostrar que a capacidade das crianças[br]de fazerem deduções com poucos dados 0:13:36.570,0:13:41.266 está por trás de toda a aprendizagem [br]cultural específica que fazemos. 0:13:41.666,0:13:46.263 As crianças aprendem novas ferramentas[br]a partir de alguns exemplos. 0:13:46.444,0:13:51.043 Aprendem novas relações causais[br]a partir de alguns exemplos. 0:13:51.928,0:13:56.244 Até aprendem novas palavras,[br]neste caso em linguagem gestual. 0:13:57.280,0:13:59.510 Vou concluir com apenas dois pontos. 0:14:00.050,0:14:03.738 Se vocês têm estado a acompanhar[br]as ciências cognitivas e do cérebro 0:14:03.738,0:14:05.665 dos últimos anos, 0:14:05.665,0:14:08.080 terão reparado em três grandes ideias. 0:14:08.252,0:14:11.025 A primeira é que estamos[br]na era do cérebro. 0:14:11.952,0:14:15.248 De facto, houve descobertas[br]surpreendentes na neurociência: 0:14:15.248,0:14:18.693 a localização funcional[br]de regiões especializadas do córtex, 0:14:18.693,0:14:21.303 tornando transparentes cérebros de ratos, 0:14:21.303,0:14:23.770 ativando neurónios com luz. 0:14:24.998,0:14:26.994 A segunda grande ideia 0:14:26.994,0:14:31.098 é que estamos na era dos megadados[br]e da aprendizagem das máquinas, 0:14:31.098,0:14:34.939 e isto promete revolucionar[br]a nossa compreensão de tudo, 0:14:34.939,0:14:37.878 desde as redes sociais[br]até à epidemiologia. 0:14:38.906,0:14:41.599 Talvez ao enfrentar problemas[br]de compreensão contextual 0:14:41.599,0:14:43.864 e de processamento de linguagem natural, 0:14:43.864,0:14:46.561 isto nos possa dizer algo[br]sobre a cognição humana. 0:14:47.756,0:14:49.693 E a última grande ideia 0:14:49.693,0:14:53.080 é que talvez seja uma boa ideia[br]virmos a saber muito sobre o cérebro 0:14:53.080,0:14:55.060 e termos muito acesso aos megadados, 0:14:55.060,0:14:57.776 pois, se ficarmos entregues a nós próprios, 0:14:57.776,0:15:01.589 os seres humanos são falíveis,[br]usamos atalhos, 0:15:01.589,0:15:04.772 erramos, cometemos erros, 0:15:04.772,0:15:08.456 somos preconceituosos[br]e, de várias maneiras, 0:15:09.074,0:15:11.452 interpretamos mal o mundo. 0:15:12.843,0:15:15.792 Penso que estas histórias são importantes, 0:15:15.792,0:15:18.840 e elas dizem-nos muito sobre [br]o que significa ser humano, 0:15:19.577,0:15:23.106 mas quero que vocês percebam que [br]vos contei uma história muito diferente. 0:15:23.966,0:15:27.482 É uma história sobre mentes[br]e não sobre o cérebro. 0:15:27.773,0:15:30.779 Em particular, é uma história[br]sobre os tipos de cálculos 0:15:30.779,0:15:33.450 que só as mentes humanas[br]podem fazer, 0:15:33.450,0:15:35.840 o que envolve o conhecimento[br]rico e estruturado 0:15:35.840,0:15:39.682 e a capacidade de aprender a partir[br]de pequenas quantidades de dados, 0:15:40.182,0:15:42.701 das evidências de alguns exemplos. 0:15:44.164,0:15:48.763 Essencialmente, é uma história[br]sobre como as crianças 0:15:48.763,0:15:51.261 começam e continuam o seu caminho 0:15:51.261,0:15:54.604 para as maiores realizações[br]da nossa cultura. 0:15:56.623,0:15:58.929 Conseguimos assim, [br]interpretar bem o mundo. 0:16:02.005,0:16:05.781 A mente humana não aprende[br]apenas com pequenas quantidades de dados. 0:16:06.285,0:16:08.631 A mente humana pensa em novas ideias. 0:16:08.746,0:16:11.441 A mente humana gera[br]pesquisa e descoberta. 0:16:11.796,0:16:16.350 A mente humana gera[br]arte, literatura, poesia e teatro. 0:16:17.406,0:16:20.684 A mente humana cuida[br]de outros seres humanos: 0:16:21.057,0:16:24.257 dos nossos velhos, dos nossos jovens, [br]dos nossos doentes. 0:16:24.771,0:16:26.638 Nós até os curamos. 0:16:28.018,0:16:30.794 Nos próximos anos, vamos ver[br]inovações tecnológicas 0:16:30.794,0:16:33.564 para além de qualquer coisa[br]que eu possa imaginar, 0:16:34.464,0:16:36.614 mas é muito improvável 0:16:36.614,0:16:42.032 que venhamos a ver um computador com [br]o mesmo poder da mente de uma criança 0:16:42.323,0:16:45.311 durante a minha vida ou a vossa. 0:16:46.748,0:16:51.668 Se investirmos nestes poderosos [br]aprendizes e no seu desenvolvimento, 0:16:51.668,0:16:53.994 nos bebés e nas crianças, 0:16:54.285,0:16:56.411 nas mães e nos pais 0:16:56.411,0:16:59.110 nos cuidadores e nos professores, 0:16:59.110,0:17:03.280 da mesma forma que investimos[br]noutras formas mais poderosas e elegantes 0:17:03.280,0:17:06.143 de tecnologia, da engenharia e do "design", 0:17:06.498,0:17:09.437 não vamos apenas sonhar[br]com um futuro melhor, 0:17:09.437,0:17:11.564 vamos estar a planeá-lo. 0:17:11.782,0:17:13.127 Muito obrigada. 0:17:13.245,0:17:16.357 (Aplausos) 0:17:18.537,0:17:22.136 Chris Anderson: Laura, obrigado.[br]Tenho uma pergunta para si. 0:17:22.236,0:17:24.767 Em primeiro lugar,[br]esta pesquisa é uma loucura. 0:17:24.767,0:17:27.729 Quero dizer, quem iria projetar[br]uma experiência como esta? 0:17:29.150,0:17:30.940 Eu vi isto algumas vezes, 0:17:30.940,0:17:34.162 e ainda não acredito que isto [br]pode estar a acontecer, 0:17:34.162,0:17:37.320 mas outras pessoas fizeram experiências[br]semelhantes; e verifica-se. 0:17:37.320,0:17:39.016 Os bebés são realmente geniais. 0:17:39.144,0:17:42.114 LS: Eles parecem muito impressionantes[br]nas nossas experiências, 0:17:42.114,0:17:44.493 mas pense em como eles são[br]na vida real. 0:17:44.493,0:17:47.780 Nasce um bebé. Dezoito meses depois, [br]está a falar connosco. 0:17:47.780,0:17:50.582 As primeiras palavras[br]não são coisas como bolas e patos, 0:17:50.582,0:17:53.372 são coisas como "não há",[br]que se refere ao desaparecimento, 0:17:53.372,0:17:55.901 ou "uh-oh", que se refere[br]a ações não intencionais. 0:17:55.974,0:17:57.699 É preciso ser poderoso, 0:17:57.699,0:18:00.065 muito mais poderoso[br]do que tudo o que eu mostrei. 0:18:00.065,0:18:02.285 Estão a tentar descobrir [br]o mundo inteiro. 0:18:02.285,0:18:04.947 Uma criança de quatro anos[br]pode conversar sobre quase tudo. 0:18:05.429,0:18:07.030 (Aplausos) 0:18:07.130,0:18:10.234 CA: Se percebi bem,[br]o outro ponto que levanta 0:18:10.234,0:18:12.907 é que temos passado estes anos [br]com esta conversa toda 0:18:12.907,0:18:15.257 do quão peculiar e confusas [br]são as nossas mentes, 0:18:15.257,0:18:17.997 que a economia comportamental[br]e outras teorias que dizem 0:18:17.997,0:18:19.645 que não somos agentes racionais. 0:18:19.800,0:18:24.170 Acha realmente que a nossa mente[br]é extraordinária, 0:18:24.170,0:18:28.760 e que há um génio ali que é subestimado? 0:18:28.941,0:18:31.402 LS: Uma das minhas citações favoritas[br]em psicologia 0:18:31.402,0:18:33.283 é do psicólogo social Solomon Asch, 0:18:33.283,0:18:35.727 que disse que a tarefa fundamental[br]da psicologia 0:18:35.727,0:18:38.843 é remover o véu[br]da autoevidência das coisas. 0:18:38.843,0:18:42.976 Há milhões de tipos de escolhas[br]que fazemos todos os dias, 0:18:42.976,0:18:44.587 que nos fazem ver bem o mundo. 0:18:44.587,0:18:46.783 Conhecemos os objetos[br]e as suas propriedades. 0:18:46.783,0:18:49.502 Sabemos quando estão ocultos.[br]Conhecemo-los no escuro. 0:18:49.502,0:18:51.101 Podemos andar por salas, 0:18:51.101,0:18:54.370 descobrir o que as outras [br]pessoas estão a pensar e falar com elas. 0:18:54.370,0:18:56.682 Podemos navegar no espaço.[br]Conhecemos os números. 0:18:56.682,0:18:59.158 Conhecemos as relações causais[br]e o raciocínio moral. 0:18:59.158,0:19:01.460 Fazemos isto sem esforço,[br]por isso nem reparamos, 0:19:01.460,0:19:04.344 mas é assim que vemos o mundo,[br]e é uma realização notável 0:19:04.344,0:19:06.217 e muito difícil de perceber. 0:19:06.562,0:19:08.790 CA: Eu suspeito que há pessoas na plateia 0:19:08.790,0:19:11.092 que têm uma visão do poder[br]tecnológico crescente 0:19:11.092,0:19:14.223 que podem refutar a sua afirmação[br]de que, nunca na nossa vida, 0:19:14.223,0:19:17.368 haverá um computador que faça o mesmo[br]que uma criança de três anos, 0:19:17.368,0:19:21.061 mas está claro que, em qualquer cenário, 0:19:21.061,0:19:24.722 as nossas máquinas têm muito[br]a aprender com as nossas crianças. 0:19:26.575,0:19:29.827 LS: Acho que sim. Temos aqui pessoas[br]de aprendizagem de máquina. 0:19:29.827,0:19:34.058 Quero dizer, não devemos apostar[br]contra bebés ou chimpanzés 0:19:34.058,0:19:37.412 ou tecnologia, como uma questão prática, 0:19:37.412,0:19:41.822 mas não é apenas[br]uma diferença na quantidade, 0:19:41.822,0:19:43.586 é uma diferença no tipo. 0:19:43.586,0:19:45.746 Temos computadores[br]incrivelmente poderosos, 0:19:45.746,0:19:48.300 que fazem coisas[br]incrivelmente sofisticadas, 0:19:48.300,0:19:51.204 muitas vezes com grandes[br]quantidades de dados. 0:19:51.341,0:19:53.948 A mente humana faz algo[br]completamente diferente. 0:19:53.948,0:19:58.033 Acho que é a natureza hierárquica [br]e estruturada do conhecimento humano 0:19:58.033,0:20:00.220 que continua a ser um desafio real. 0:20:00.365,0:20:03.145 CA: Laura Schulz,[br]uma conversa maravilhosa. Obrigado. 0:20:03.208,0:20:04.312 LS: Obrigada. 0:20:04.330,0:20:05.858 (Aplausos)