1 00:00:00,835 --> 00:00:02,990 Mark Twain resumiu o que eu considero 2 00:00:02,990 --> 00:00:06,110 um dos problemas fundamentais da ciência cognitiva 3 00:00:06,110 --> 00:00:08,010 apenas numa piada. 4 00:00:08,410 --> 00:00:11,492 Ele disse: "Há algo fascinante na ciência. 5 00:00:11,492 --> 00:00:15,183 "Obtêm-se retornos profundos da conjetura 6 00:00:15,210 --> 00:00:18,187 "a partir de investigações superficiais da verdade". 7 00:00:18,287 --> 00:00:19,872 (Risos) 8 00:00:20,199 --> 00:00:22,803 Claro que Twain disse isto a brincar, mas está correto: 9 00:00:23,048 --> 00:00:25,679 Há algo fascinante na ciência. 10 00:00:25,979 --> 00:00:29,940 A partir de alguns ossos, inferimos a existência de dinossauros. 11 00:00:30,910 --> 00:00:34,608 A partir de linhas espetrais, a composição de nebulosas. 12 00:00:35,471 --> 00:00:37,863 A partir de moscas-da-fruta, 13 00:00:38,409 --> 00:00:40,861 os mecanismos da hereditariedade, 14 00:00:41,661 --> 00:00:45,601 e de imagens reconstruídas do sangue que flui através do cérebro, 15 00:00:45,746 --> 00:00:50,009 ou no meu caso, do comportamento de crianças muito novas, 16 00:00:50,309 --> 00:00:53,374 tentamos dizer algo sobre os mecanismos fundamentais 17 00:00:53,410 --> 00:00:55,164 da cognição humana. 18 00:00:55,716 --> 00:01:00,475 No meu laboratório no Departamento de Ciências Cognitivas no MIT, 19 00:01:00,620 --> 00:01:04,129 passei a última década a tentar perceber o mistério 20 00:01:04,129 --> 00:01:08,233 de como as crianças aprendem tanto a partir de tão pouco e tão rapidamente. 21 00:01:08,666 --> 00:01:11,644 Porque acontece que a coisa fascinante na ciência 22 00:01:11,644 --> 00:01:14,836 também é uma coisa fascinante nas crianças. 23 00:01:15,173 --> 00:01:17,754 Mudando um pouco a frase de Mark Twain, 24 00:01:17,754 --> 00:01:22,404 é exatamente a capacidade que elas têm para criar inferências ricas e abstratas 25 00:01:22,476 --> 00:01:27,401 com rapidez e precisão, a partir de dados soltos, ruidosos. 26 00:01:28,355 --> 00:01:30,753 Hoje vou dar apenas dois exemplos. 27 00:01:30,753 --> 00:01:33,040 Um é sobre um problema de generalização, 28 00:01:33,040 --> 00:01:35,890 e o outro é sobre um problema de raciocínio causal. 29 00:01:35,890 --> 00:01:38,415 Apesar de falar sobre o trabalho no meu laboratório, 30 00:01:38,415 --> 00:01:41,875 este trabalho é inspirado e derivado de um campo. 31 00:01:41,938 --> 00:01:46,158 Estou grata a mentores, colegas, e colaboradores de todo o mundo. 32 00:01:47,308 --> 00:01:50,282 Vou começar com o problema da generalização. 33 00:01:50,652 --> 00:01:54,785 Generalizar a partir de poucos dados é o pão nosso de cada dia na ciência. 34 00:01:54,785 --> 00:01:57,339 Sondamos uma pequena fração de eleitores 35 00:01:57,339 --> 00:01:59,950 e prevemos o resultado das eleições nacionais. 36 00:02:00,240 --> 00:02:04,165 Vemos como alguns pacientes reagem ao tratamento num ensaio clínico, 37 00:02:04,165 --> 00:02:07,230 e colocamos drogas no mercado nacional. 38 00:02:07,293 --> 00:02:11,495 Mas isto só funciona se a nossa amostra for obtida aleatoriamente da população. 39 00:02:11,595 --> 00:02:14,357 Se a nossa amostra for enviesada de alguma maneira 40 00:02:14,357 --> 00:02:16,774 — digamos, sondamos apenas eleitores urbanos, 41 00:02:16,774 --> 00:02:20,790 ou então, nos nossos ensaios clínicos para tratamento de doenças do coração, 42 00:02:20,790 --> 00:02:22,671 incluímos apenas homens — 43 00:02:22,671 --> 00:02:25,929 os resultados podem não representar a população mais ampla. 44 00:02:26,906 --> 00:02:30,387 Então, os cientistas preocupam-se se as amostras são aleatórias ou não, 45 00:02:30,387 --> 00:02:32,465 mas o que é que tem isto a ver com bebés? 46 00:02:32,857 --> 00:02:37,206 Bem, os bebés precisam de generalizar pequenas amostras de dados o tempo todo. 47 00:02:37,306 --> 00:02:40,364 Veem alguns patos de borracha e aprendem que eles flutuam, 48 00:02:40,364 --> 00:02:43,939 ou veem algumas bolas e aprendem que elas saltam. 49 00:02:43,939 --> 00:02:46,890 Desenvolvem expetativas sobre patos e bolas 50 00:02:46,890 --> 00:02:49,633 que vão alargar aos patos de borracha e bolas 51 00:02:49,633 --> 00:02:51,266 para o resto da vida. 52 00:02:51,485 --> 00:02:55,224 O tipo de generalizações que os bebés têm que fazer sobre patos e bolas, 53 00:02:55,224 --> 00:02:57,503 precisam fazer sobre quase tudo o resto: 54 00:02:57,503 --> 00:03:01,348 sapatos, barcos, lacre, couves e reis. 55 00:03:02,200 --> 00:03:05,433 Será que os bebés reparam se os pedacinhos de evidências que veem 56 00:03:05,433 --> 00:03:09,043 são representantes plausíveis de uma população mais ampla? 57 00:03:09,763 --> 00:03:11,244 Vamos descobrir. 58 00:03:11,663 --> 00:03:13,386 Vou mostrar dois filmes, 59 00:03:13,386 --> 00:03:15,984 um para cada uma de duas situações de uma experiência. 60 00:03:15,984 --> 00:03:18,386 Como vocês vão ver apenas dois filmes, 61 00:03:18,386 --> 00:03:20,422 verão apenas dois bebés, 62 00:03:20,422 --> 00:03:24,287 e quaisquer dois bebés diferem entre si de várias maneiras. 63 00:03:24,369 --> 00:03:27,420 Mas estes bebés, claro, representam grupos de bebés. 64 00:03:27,420 --> 00:03:29,315 As diferenças que vão ver 65 00:03:29,315 --> 00:03:33,900 representam as diferenças médias de grupos de bebés em cada situação. 66 00:03:35,160 --> 00:03:37,743 Em cada filme, vocês vão ver um bebé a fazer, 67 00:03:37,743 --> 00:03:41,203 talvez exatamente o que vocês esperam que um bebé faça, 68 00:03:41,203 --> 00:03:45,220 e dificilmente podemos tornar os bebés mais mágicos do que já são. 69 00:03:46,090 --> 00:03:48,100 Mas para mim, a coisa mágica, 70 00:03:48,100 --> 00:03:50,252 na qual quero que vocês prestem atenção, 71 00:03:50,252 --> 00:03:53,300 é o contraste entre estas duas situações, 72 00:03:53,300 --> 00:03:56,829 porque a única coisa que difere entre estes dois filmes 73 00:03:56,829 --> 00:04:00,295 são as evidências estatísticas que os bebés vão observar. 74 00:04:01,425 --> 00:04:04,608 Vamos mostrar aos bebés uma caixa de bolas azuis e amarelas. 75 00:04:05,135 --> 00:04:09,228 A minha ex-aluna, que agora é minha colega em Stanford, Hyowon Gweon, 76 00:04:09,228 --> 00:04:12,305 vai tirar da caixa três bolas azuis de seguida. 77 00:04:12,641 --> 00:04:15,428 Ao tirar as bolas, ela vai apertá-las, 78 00:04:15,428 --> 00:04:17,441 e as bolas vão chiar. 79 00:04:17,713 --> 00:04:20,349 Para um bebé, é como estar numa palestra do TED. 80 00:04:20,349 --> 00:04:22,389 Não há nada melhor que isto. 81 00:04:22,544 --> 00:04:24,769 (Risos) 82 00:04:26,968 --> 00:04:30,627 Mas o que importa é que é fácil tirar três bolas azuis de seguida 83 00:04:30,627 --> 00:04:32,932 de uma caixa com uma maioria de bolas azuis. 84 00:04:32,932 --> 00:04:34,992 Podíamos fazer isto de olhos fechados. 85 00:04:34,992 --> 00:04:37,988 É plausível que sejam evidências aleatórias desta população. 86 00:04:37,988 --> 00:04:41,720 Se tiramos duma caixa, ao acaso, qualquer coisa que chia, 87 00:04:41,720 --> 00:04:44,559 então talvez tudo dentro da caixa chie. 88 00:04:44,640 --> 00:04:48,209 Talvez os bebés devessem esperar que as bolas amarelas também chiassem. 89 00:04:48,209 --> 00:04:50,900 Mas as bolas amarelas têm bastões engraçados na ponta, 90 00:04:50,900 --> 00:04:53,766 para os bebés fazerem outras coisas com elas, se quiserem. 91 00:04:53,766 --> 00:04:55,679 Podem amassá-las ou bater com elas. 92 00:04:55,679 --> 00:04:57,548 Mas vamos ver o que o bebé faz. 93 00:04:57,766 --> 00:04:59,020 (Vídeo) 94 00:05:00,548 --> 00:05:02,229 Hyowon Gweon: Vês isto? 95 00:05:02,348 --> 00:05:03,940 (Bola chia) 96 00:05:04,531 --> 00:05:05,531 Viste? 97 00:05:06,140 --> 00:05:07,608 (Bola chia) 98 00:05:08,163 --> 00:05:09,520 Fixe. 99 00:05:12,706 --> 00:05:14,074 Vês esta? 100 00:05:14,756 --> 00:05:16,164 (Bola chia) 101 00:05:16,537 --> 00:05:17,817 Uau. 102 00:05:21,854 --> 00:05:23,667 Laura Schulz: Eu não disse? 103 00:05:23,967 --> 00:05:25,425 HG: Estás a ver esta? 104 00:05:25,507 --> 00:05:27,207 (Bola chia) 105 00:05:28,052 --> 00:05:32,617 Ei, Clara, esta é para ti. Podes brincar, se quiseres. 106 00:05:37,972 --> 00:05:39,928 (Risos) 107 00:05:44,219 --> 00:05:46,504 LS: Nem preciso dizer nada, certo? 108 00:05:47,214 --> 00:05:50,113 Tudo bem, é bom que os bebés generalizem as propriedades 109 00:05:50,113 --> 00:05:51,768 das bolas azuis para as amarelas. 110 00:05:51,768 --> 00:05:54,737 É impressionante que os bebés aprendam por imitação, 111 00:05:54,737 --> 00:05:57,933 mas já sabemos estas coisas sobre bebés há muito tempo. 112 00:05:58,406 --> 00:06:00,217 A questão mais interessante 113 00:06:00,217 --> 00:06:03,169 é o que acontece quando mostramos exatamente a mesma coisa, 114 00:06:03,169 --> 00:06:06,743 e podemos garantir que é a mesma coisa pois temos um compartimento secreto 115 00:06:06,743 --> 00:06:08,790 e tiramos as bolas de lá. 116 00:06:08,862 --> 00:06:12,268 Mas, desta vez, vamos mudar a população aparente 117 00:06:12,268 --> 00:06:15,170 a partir da qual foram obtidas as evidências . 118 00:06:15,251 --> 00:06:19,041 Desta vez, vamos mostrar aos bebés três bolas azuis 119 00:06:19,141 --> 00:06:22,107 tiradas de uma caixa com a maioria de bolas amarelas, 120 00:06:22,107 --> 00:06:23,429 e adivinhem? 121 00:06:23,565 --> 00:06:26,369 Não é provável tirarmos três bolas azuis de seguida 122 00:06:26,369 --> 00:06:28,880 de uma caixa com a maioria de bolas amarelas. 123 00:06:28,880 --> 00:06:32,500 Isto não é uma prova de uma amostra aleatória plausível. 124 00:06:32,736 --> 00:06:34,623 Estas evidências indicam 125 00:06:34,623 --> 00:06:37,686 que Hyowon escolheu as bolas azuis, de propósito. 126 00:06:37,832 --> 00:06:40,451 Talvez haja algo especial nas bolas azuis. 127 00:06:40,846 --> 00:06:43,440 Talvez apenas as bolas azuis chiem. 128 00:06:43,822 --> 00:06:45,717 Vamos ver o que o bebé faz. 129 00:06:46,007 --> 00:06:47,487 (Vídeo) HG: Vês isto? 130 00:06:47,560 --> 00:06:49,305 (Bola chia) 131 00:06:50,851 --> 00:06:52,241 Vês este brinquedo? 132 00:06:52,305 --> 00:06:53,677 (Bola chia) 133 00:06:53,914 --> 00:06:56,403 Oh, isto foi fixe! Vês? 134 00:06:57,321 --> 00:06:58,766 (Bola chia) 135 00:06:59,130 --> 00:07:01,933 Agora, esta é para tu brincares. Podes brincar se quiser. 136 00:07:06,146 --> 00:07:07,639 (Balbucios) 137 00:07:15,182 --> 00:07:17,721 LS: Pronto, acabaram de ver dois bebés de 15 meses 138 00:07:17,721 --> 00:07:19,800 a fazer coisas totalmente diferentes, 139 00:07:19,800 --> 00:07:23,035 com base apenas na probabilidade da amostra que observaram. 140 00:07:23,190 --> 00:07:25,511 Vou mostrar os resultados experimentais. 141 00:07:25,592 --> 00:07:28,356 No eixo vertical, temos a percentagem de bebés 142 00:07:28,356 --> 00:07:30,805 que apertaram a bola em cada situação. 143 00:07:30,959 --> 00:07:34,656 Como podemos ver, os bebés tendem a generalizar as evidências 144 00:07:34,656 --> 00:07:37,773 quando há uma amostra representativa plausível da população 145 00:07:37,773 --> 00:07:40,902 em vez de uma amostra escolhida propositadamente. 146 00:07:41,393 --> 00:07:43,862 Isto leva a uma previsão divertida: 147 00:07:44,026 --> 00:07:48,676 suponham que tirávamos uma bola azul da caixa com maioria de bolas amarelas. 148 00:07:49,050 --> 00:07:52,765 Provavelmente, não tirávamos três bolas azuis de seguida, 149 00:07:52,765 --> 00:07:55,220 mas podíamos tirar aleatoriamente uma bola azul. 150 00:07:55,220 --> 00:07:57,290 Isso não é uma amostra improvável. 151 00:07:57,290 --> 00:07:59,577 Se pudéssemos mexer numa caixa ao acaso 152 00:07:59,577 --> 00:08:03,528 e tirar qualquer coisa que chie, talvez todas as coisas da caixa chiem. 153 00:08:04,111 --> 00:08:08,320 Então, mesmo que os bebés estejam a ver menos evidências para o chiar, 154 00:08:08,320 --> 00:08:10,689 e tenham muitas menos ações para imitar 155 00:08:10,689 --> 00:08:14,232 nesta situação de uma bola que acabámos de ver, 156 00:08:14,232 --> 00:08:17,969 previmos que os próprios bebés apertariam mais, 157 00:08:17,969 --> 00:08:20,527 e foi exatamente isso que vimos. 158 00:08:21,245 --> 00:08:25,392 Então, os bebés de 15 meses, como se fossem cientistas, 159 00:08:25,392 --> 00:08:28,299 reparam se as evidências são amostras aleatórias ou não, 160 00:08:28,299 --> 00:08:31,697 e usam isso para desenvolver expetativas sobre o mundo: 161 00:08:31,697 --> 00:08:33,879 o que chia e o que não chia, 162 00:08:33,879 --> 00:08:37,024 o que explorar e o que ignorar. 163 00:08:38,384 --> 00:08:40,450 Agora vou mostrar outro exemplo, 164 00:08:40,450 --> 00:08:43,180 desta vez sobre um problema de raciocínio causal. 165 00:08:43,180 --> 00:08:45,619 Começa com um problema de evidências confusas 166 00:08:45,619 --> 00:08:47,291 que todos nós temos, 167 00:08:47,291 --> 00:08:49,438 ou seja, que fazemos parte do mundo. 168 00:08:49,438 --> 00:08:52,865 Isto pode não vos parecer um problema mas, como a maioria dos problemas, 169 00:08:52,865 --> 00:08:55,256 só é um problema quando as coisas não correm bem. 170 00:08:55,464 --> 00:08:57,275 Vejam este bebé, por exemplo. 171 00:08:57,347 --> 00:08:59,016 As coisas não lhe correm bem. 172 00:08:59,016 --> 00:09:01,705 Ele queria que este brinquedo tocasse, mas não consegue. 173 00:09:01,705 --> 00:09:03,952 Vou mostrar-vos um vídeo de alguns segundos. 174 00:09:09,203 --> 00:09:11,260 Há duas possibilidades: 175 00:09:11,260 --> 00:09:13,894 Talvez ele esteja a fazer algo mal, 176 00:09:13,894 --> 00:09:17,519 ou talvez haja algo de errado com o brinquedo. 177 00:09:18,110 --> 00:09:20,221 Portanto, nesta próxima experiência, 178 00:09:20,221 --> 00:09:23,518 vamos dar aos bebés apenas alguns dados estatísticos 179 00:09:23,518 --> 00:09:26,100 apoiando uma hipótese sobre a outra. 180 00:09:26,100 --> 00:09:29,555 Vamos ver se os bebés conseguem tomar decisões diferentes 181 00:09:29,555 --> 00:09:31,389 quanto ao que fazer. 182 00:09:31,479 --> 00:09:33,411 Aqui está a experiência. 183 00:09:34,071 --> 00:09:37,101 A Hyowon vai tentar fazer com que o brinquedo toque e consegue. 184 00:09:37,101 --> 00:09:40,421 Depois, eu vou tentar duas vezes e falhar. 185 00:09:40,593 --> 00:09:43,614 A Hyowon vai tentar de novo e vai conseguir, 186 00:09:43,614 --> 00:09:47,005 e isto resume a minha relação com os meus alunos de pós-graduação 187 00:09:47,005 --> 00:09:49,094 em tecnologia. 188 00:09:50,030 --> 00:09:53,322 Mas o importante aqui é fornecer um pouco de evidências 189 00:09:53,322 --> 00:09:56,990 de que o problema não é o brinquedo, é a pessoa. 190 00:09:56,990 --> 00:09:59,340 Algumas pessoas fazem o brinquedo tocar, 191 00:09:59,340 --> 00:10:00,744 e outras não. 192 00:10:00,799 --> 00:10:03,875 Agora, quando o bebé pega no brinquedo, ele tem uma escolha. 193 00:10:04,212 --> 00:10:06,145 A mãe dele está ali, 194 00:10:06,209 --> 00:10:09,933 para ele poder entregar o brinquedo e mudar de pessoa, 195 00:10:09,933 --> 00:10:12,873 mas também haverá outro brinquedo, no final daquele pano. 196 00:10:13,063 --> 00:10:16,197 Ele pode puxar o pano e mudar de brinquedo. 197 00:10:16,425 --> 00:10:18,097 Então vamos ver o que o bebé faz. 198 00:10:18,206 --> 00:10:19,414 (Vídeo) 199 00:10:19,568 --> 00:10:21,268 HG: Dois, três. Vai! 200 00:10:21,505 --> 00:10:22,807 (Música) 201 00:10:22,998 --> 00:10:25,829 LS: Um, dois, três, vai! 202 00:10:27,365 --> 00:10:29,486 Arthur, vou tentar novamente. 203 00:10:29,695 --> 00:10:32,695 Um, dois, três, vai! 204 00:10:33,886 --> 00:10:36,277 HG: Arthur, vou tentar de novo, está bem? 205 00:10:36,440 --> 00:10:39,583 Um, dois, três, vai! 206 00:10:39,874 --> 00:10:41,446 (Música) 207 00:10:41,583 --> 00:10:43,602 Vê isto. Lembras-te destes brinquedos? 208 00:10:43,711 --> 00:10:46,902 Vês estes brinquedos? Sim, vou pôr este aqui, 209 00:10:46,902 --> 00:10:48,792 e vou dar-te este. 210 00:10:48,792 --> 00:10:51,127 Podes brincar se quiseres. 211 00:11:11,376 --> 00:11:15,350 LS: Ok, Laura, mas é óbvio que os bebés amam as mamãs. 212 00:11:15,950 --> 00:11:18,386 É claro que os bebés vão dar os brinquedos às mamãs 213 00:11:18,386 --> 00:11:20,562 quando não conseguem pô-los a funcionar. 214 00:11:20,562 --> 00:11:23,482 Novamente, o que importa é o que acontece, 215 00:11:23,482 --> 00:11:26,636 quando mudamos ligeiramente os dados estatísticos. 216 00:11:26,909 --> 00:11:30,996 Desta vez, os bebés vão ver o brinquedo funcionar e falhar pela mesma ordem, 217 00:11:30,996 --> 00:11:33,620 mas mudamos a distribuição das evidências. 218 00:11:33,620 --> 00:11:37,649 Desta vez, a Hyowon vai conseguir uma vez e falhar uma vez, e eu também. 219 00:11:38,158 --> 00:11:43,286 Isto sugere que não importa quem tenta, o brinquedo está avariado. 220 00:11:43,386 --> 00:11:45,054 Ele nunca funciona. 221 00:11:45,154 --> 00:11:47,310 De novo, a bebé vai poder escolher. 222 00:11:47,310 --> 00:11:50,706 A mãe está mesmo ao lado dela, então ela pode mudar a pessoa, 223 00:11:50,706 --> 00:11:53,400 e haverá outro brinquedo no fim do pano. 224 00:11:53,446 --> 00:11:55,106 Vamos ver o que ela faz. 225 00:11:55,197 --> 00:11:56,308 (Vídeo) 226 00:11:56,381 --> 00:11:57,881 HG: Dois, três, vai! 227 00:11:57,981 --> 00:11:59,581 (Música) 228 00:11:59,745 --> 00:12:04,347 Deixa-me tentar de novo. Um, dois, três, vai! 229 00:12:06,069 --> 00:12:07,293 Hum. 230 00:12:08,077 --> 00:12:09,978 LS: Deixa-me tentar, Clara. 231 00:12:10,642 --> 00:12:13,896 Um, dois, três, vai! 232 00:12:15,265 --> 00:12:17,318 Hum, deixa-me tentar de novo. 233 00:12:17,436 --> 00:12:20,409 Um, dois, três, vai! 234 00:12:20,590 --> 00:12:22,618 (Música) 235 00:12:23,009 --> 00:12:25,296 HG: Vou deixar este aqui, 236 00:12:25,296 --> 00:12:27,243 e vou dar-te este. 237 00:12:27,315 --> 00:12:29,521 Podes brincar, se quiseres. 238 00:12:49,821 --> 00:12:51,673 (Aplausos) 239 00:12:52,993 --> 00:12:55,212 LS: Vou mostrar os resultados experimentais. 240 00:12:55,385 --> 00:12:58,969 No eixo vertical, temos a distribuição de escolhas das crianças 241 00:12:58,969 --> 00:13:00,546 para cada situação. 242 00:13:00,700 --> 00:13:04,988 Podemos ver que as escolhas que as crianças fazem 243 00:13:04,988 --> 00:13:07,775 dependem das evidências observadas. 244 00:13:07,775 --> 00:13:09,632 Então, no segundo ano de vida, 245 00:13:09,632 --> 00:13:12,690 os bebés podem usar alguns dados estatísticos 246 00:13:12,690 --> 00:13:15,912 para decidir entre duas estratégias fundamentalmente diferentes 247 00:13:15,912 --> 00:13:17,675 para agir no mundo: 248 00:13:17,675 --> 00:13:20,200 pedir ajuda e explorar. 249 00:13:22,163 --> 00:13:25,134 Eu só mostrei duas experiências de laboratório 250 00:13:25,134 --> 00:13:28,825 entre centenas de outras que mostram resultados parecidos, 251 00:13:28,825 --> 00:13:31,217 pois o ponto essencial 252 00:13:31,217 --> 00:13:36,570 é mostrar que a capacidade das crianças de fazerem deduções com poucos dados 253 00:13:36,570 --> 00:13:41,266 está por trás de toda a aprendizagem cultural específica que fazemos. 254 00:13:41,666 --> 00:13:46,263 As crianças aprendem novas ferramentas a partir de alguns exemplos. 255 00:13:46,444 --> 00:13:51,043 Aprendem novas relações causais a partir de alguns exemplos. 256 00:13:51,928 --> 00:13:56,244 Até aprendem novas palavras, neste caso em linguagem gestual. 257 00:13:57,280 --> 00:13:59,510 Vou concluir com apenas dois pontos. 258 00:14:00,050 --> 00:14:03,738 Se vocês têm estado a acompanhar as ciências cognitivas e do cérebro 259 00:14:03,738 --> 00:14:05,665 dos últimos anos, 260 00:14:05,665 --> 00:14:08,080 terão reparado em três grandes ideias. 261 00:14:08,252 --> 00:14:11,025 A primeira é que estamos na era do cérebro. 262 00:14:11,952 --> 00:14:15,248 De facto, houve descobertas surpreendentes na neurociência: 263 00:14:15,248 --> 00:14:18,693 a localização funcional de regiões especializadas do córtex, 264 00:14:18,693 --> 00:14:21,303 tornando transparentes cérebros de ratos, 265 00:14:21,303 --> 00:14:23,770 ativando neurónios com luz. 266 00:14:24,998 --> 00:14:26,994 A segunda grande ideia 267 00:14:26,994 --> 00:14:31,098 é que estamos na era dos megadados e da aprendizagem das máquinas, 268 00:14:31,098 --> 00:14:34,939 e isto promete revolucionar a nossa compreensão de tudo, 269 00:14:34,939 --> 00:14:37,878 desde as redes sociais até à epidemiologia. 270 00:14:38,906 --> 00:14:41,599 Talvez ao enfrentar problemas de compreensão contextual 271 00:14:41,599 --> 00:14:43,864 e de processamento de linguagem natural, 272 00:14:43,864 --> 00:14:46,561 isto nos possa dizer algo sobre a cognição humana. 273 00:14:47,756 --> 00:14:49,693 E a última grande ideia 274 00:14:49,693 --> 00:14:53,080 é que talvez seja uma boa ideia virmos a saber muito sobre o cérebro 275 00:14:53,080 --> 00:14:55,060 e termos muito acesso aos megadados, 276 00:14:55,060 --> 00:14:57,776 pois, se ficarmos entregues a nós próprios, 277 00:14:57,776 --> 00:15:01,589 os seres humanos são falíveis, usamos atalhos, 278 00:15:01,589 --> 00:15:04,772 erramos, cometemos erros, 279 00:15:04,772 --> 00:15:08,456 somos preconceituosos e, de várias maneiras, 280 00:15:09,074 --> 00:15:11,452 interpretamos mal o mundo. 281 00:15:12,843 --> 00:15:15,792 Penso que estas histórias são importantes, 282 00:15:15,792 --> 00:15:18,840 e elas dizem-nos muito sobre o que significa ser humano, 283 00:15:19,577 --> 00:15:23,106 mas quero que vocês percebam que vos contei uma história muito diferente. 284 00:15:23,966 --> 00:15:27,482 É uma história sobre mentes e não sobre o cérebro. 285 00:15:27,773 --> 00:15:30,779 Em particular, é uma história sobre os tipos de cálculos 286 00:15:30,779 --> 00:15:33,450 que só as mentes humanas podem fazer, 287 00:15:33,450 --> 00:15:35,840 o que envolve o conhecimento rico e estruturado 288 00:15:35,840 --> 00:15:39,682 e a capacidade de aprender a partir de pequenas quantidades de dados, 289 00:15:40,182 --> 00:15:42,701 das evidências de alguns exemplos. 290 00:15:44,164 --> 00:15:48,763 Essencialmente, é uma história sobre como as crianças 291 00:15:48,763 --> 00:15:51,261 começam e continuam o seu caminho 292 00:15:51,261 --> 00:15:54,604 para as maiores realizações da nossa cultura. 293 00:15:56,623 --> 00:15:58,929 Conseguimos assim, interpretar bem o mundo. 294 00:16:02,005 --> 00:16:05,781 A mente humana não aprende apenas com pequenas quantidades de dados. 295 00:16:06,285 --> 00:16:08,631 A mente humana pensa em novas ideias. 296 00:16:08,746 --> 00:16:11,441 A mente humana gera pesquisa e descoberta. 297 00:16:11,796 --> 00:16:16,350 A mente humana gera arte, literatura, poesia e teatro. 298 00:16:17,406 --> 00:16:20,684 A mente humana cuida de outros seres humanos: 299 00:16:21,057 --> 00:16:24,257 dos nossos velhos, dos nossos jovens, dos nossos doentes. 300 00:16:24,771 --> 00:16:26,638 Nós até os curamos. 301 00:16:28,018 --> 00:16:30,794 Nos próximos anos, vamos ver inovações tecnológicas 302 00:16:30,794 --> 00:16:33,564 para além de qualquer coisa que eu possa imaginar, 303 00:16:34,464 --> 00:16:36,614 mas é muito improvável 304 00:16:36,614 --> 00:16:42,032 que venhamos a ver um computador com o mesmo poder da mente de uma criança 305 00:16:42,323 --> 00:16:45,311 durante a minha vida ou a vossa. 306 00:16:46,748 --> 00:16:51,668 Se investirmos nestes poderosos aprendizes e no seu desenvolvimento, 307 00:16:51,668 --> 00:16:53,994 nos bebés e nas crianças, 308 00:16:54,285 --> 00:16:56,411 nas mães e nos pais 309 00:16:56,411 --> 00:16:59,110 nos cuidadores e nos professores, 310 00:16:59,110 --> 00:17:03,280 da mesma forma que investimos noutras formas mais poderosas e elegantes 311 00:17:03,280 --> 00:17:06,143 de tecnologia, da engenharia e do "design", 312 00:17:06,498 --> 00:17:09,437 não vamos apenas sonhar com um futuro melhor, 313 00:17:09,437 --> 00:17:11,564 vamos estar a planeá-lo. 314 00:17:11,782 --> 00:17:13,127 Muito obrigada. 315 00:17:13,245 --> 00:17:16,357 (Aplausos) 316 00:17:18,537 --> 00:17:22,136 Chris Anderson: Laura, obrigado. Tenho uma pergunta para si. 317 00:17:22,236 --> 00:17:24,767 Em primeiro lugar, esta pesquisa é uma loucura. 318 00:17:24,767 --> 00:17:27,729 Quero dizer, quem iria projetar uma experiência como esta? 319 00:17:29,150 --> 00:17:30,940 Eu vi isto algumas vezes, 320 00:17:30,940 --> 00:17:34,162 e ainda não acredito que isto pode estar a acontecer, 321 00:17:34,162 --> 00:17:37,320 mas outras pessoas fizeram experiências semelhantes; e verifica-se. 322 00:17:37,320 --> 00:17:39,016 Os bebés são realmente geniais. 323 00:17:39,144 --> 00:17:42,114 LS: Eles parecem muito impressionantes nas nossas experiências, 324 00:17:42,114 --> 00:17:44,493 mas pense em como eles são na vida real. 325 00:17:44,493 --> 00:17:47,780 Nasce um bebé. Dezoito meses depois, está a falar connosco. 326 00:17:47,780 --> 00:17:50,582 As primeiras palavras não são coisas como bolas e patos, 327 00:17:50,582 --> 00:17:53,372 são coisas como "não há", que se refere ao desaparecimento, 328 00:17:53,372 --> 00:17:55,901 ou "uh-oh", que se refere a ações não intencionais. 329 00:17:55,974 --> 00:17:57,699 É preciso ser poderoso, 330 00:17:57,699 --> 00:18:00,065 muito mais poderoso do que tudo o que eu mostrei. 331 00:18:00,065 --> 00:18:02,285 Estão a tentar descobrir o mundo inteiro. 332 00:18:02,285 --> 00:18:04,947 Uma criança de quatro anos pode conversar sobre quase tudo. 333 00:18:05,429 --> 00:18:07,030 (Aplausos) 334 00:18:07,130 --> 00:18:10,234 CA: Se percebi bem, o outro ponto que levanta 335 00:18:10,234 --> 00:18:12,907 é que temos passado estes anos com esta conversa toda 336 00:18:12,907 --> 00:18:15,257 do quão peculiar e confusas são as nossas mentes, 337 00:18:15,257 --> 00:18:17,997 que a economia comportamental e outras teorias que dizem 338 00:18:17,997 --> 00:18:19,645 que não somos agentes racionais. 339 00:18:19,800 --> 00:18:24,170 Acha realmente que a nossa mente é extraordinária, 340 00:18:24,170 --> 00:18:28,760 e que há um génio ali que é subestimado? 341 00:18:28,941 --> 00:18:31,402 LS: Uma das minhas citações favoritas em psicologia 342 00:18:31,402 --> 00:18:33,283 é do psicólogo social Solomon Asch, 343 00:18:33,283 --> 00:18:35,727 que disse que a tarefa fundamental da psicologia 344 00:18:35,727 --> 00:18:38,843 é remover o véu da autoevidência das coisas. 345 00:18:38,843 --> 00:18:42,976 Há milhões de tipos de escolhas que fazemos todos os dias, 346 00:18:42,976 --> 00:18:44,587 que nos fazem ver bem o mundo. 347 00:18:44,587 --> 00:18:46,783 Conhecemos os objetos e as suas propriedades. 348 00:18:46,783 --> 00:18:49,502 Sabemos quando estão ocultos. Conhecemo-los no escuro. 349 00:18:49,502 --> 00:18:51,101 Podemos andar por salas, 350 00:18:51,101 --> 00:18:54,370 descobrir o que as outras pessoas estão a pensar e falar com elas. 351 00:18:54,370 --> 00:18:56,682 Podemos navegar no espaço. Conhecemos os números. 352 00:18:56,682 --> 00:18:59,158 Conhecemos as relações causais e o raciocínio moral. 353 00:18:59,158 --> 00:19:01,460 Fazemos isto sem esforço, por isso nem reparamos, 354 00:19:01,460 --> 00:19:04,344 mas é assim que vemos o mundo, e é uma realização notável 355 00:19:04,344 --> 00:19:06,217 e muito difícil de perceber. 356 00:19:06,562 --> 00:19:08,790 CA: Eu suspeito que há pessoas na plateia 357 00:19:08,790 --> 00:19:11,092 que têm uma visão do poder tecnológico crescente 358 00:19:11,092 --> 00:19:14,223 que podem refutar a sua afirmação de que, nunca na nossa vida, 359 00:19:14,223 --> 00:19:17,368 haverá um computador que faça o mesmo que uma criança de três anos, 360 00:19:17,368 --> 00:19:21,061 mas está claro que, em qualquer cenário, 361 00:19:21,061 --> 00:19:24,722 as nossas máquinas têm muito a aprender com as nossas crianças. 362 00:19:26,575 --> 00:19:29,827 LS: Acho que sim. Temos aqui pessoas de aprendizagem de máquina. 363 00:19:29,827 --> 00:19:34,058 Quero dizer, não devemos apostar contra bebés ou chimpanzés 364 00:19:34,058 --> 00:19:37,412 ou tecnologia, como uma questão prática, 365 00:19:37,412 --> 00:19:41,822 mas não é apenas uma diferença na quantidade, 366 00:19:41,822 --> 00:19:43,586 é uma diferença no tipo. 367 00:19:43,586 --> 00:19:45,746 Temos computadores incrivelmente poderosos, 368 00:19:45,746 --> 00:19:48,300 que fazem coisas incrivelmente sofisticadas, 369 00:19:48,300 --> 00:19:51,204 muitas vezes com grandes quantidades de dados. 370 00:19:51,341 --> 00:19:53,948 A mente humana faz algo completamente diferente. 371 00:19:53,948 --> 00:19:58,033 Acho que é a natureza hierárquica e estruturada do conhecimento humano 372 00:19:58,033 --> 00:20:00,220 que continua a ser um desafio real. 373 00:20:00,365 --> 00:20:03,145 CA: Laura Schulz, uma conversa maravilhosa. Obrigado. 374 00:20:03,208 --> 00:20:04,312 LS: Obrigada. 375 00:20:04,330 --> 00:20:05,858 (Aplausos)