1 00:00:00,835 --> 00:00:02,800 Mark Twain resumiu o que eu considero 2 00:00:02,800 --> 00:00:06,110 um dos problemas fundamentais da ciência cognitiva 3 00:00:06,110 --> 00:00:07,820 com apenas um chiste. 4 00:00:08,150 --> 00:00:11,492 Ele disse: "Há algo fascinante sobre a ciência. 5 00:00:11,492 --> 00:00:14,720 Obtém-se retornos profundos de conjectura 6 00:00:14,720 --> 00:00:17,924 a partir de investigações superficiais da verdade". 7 00:00:17,924 --> 00:00:19,509 (Risos) 8 00:00:20,199 --> 00:00:22,803 Twain disse isso brincando, mas ele está certo: 9 00:00:22,803 --> 00:00:25,679 há algo fascinante sobre a ciência. 10 00:00:25,679 --> 00:00:29,940 A partir de alguns ossos, inferimos a existência de dinossauros. 11 00:00:30,910 --> 00:00:34,781 A partir de linhas espectrais, a composição de nebulosas. 12 00:00:35,471 --> 00:00:37,579 A partir de moscas-das-frutas, 13 00:00:38,409 --> 00:00:40,862 os mecanismos de hereditariedade, 14 00:00:41,352 --> 00:00:45,601 e de imagens reconstruídas do sangue que flui através do cérebro, 15 00:00:45,601 --> 00:00:50,309 ou no meu caso, do comportamento de crianças muito novas, 16 00:00:50,309 --> 00:00:53,138 nós tentamos dizer algo sobre os mecanismos fundamentais 17 00:00:53,138 --> 00:00:54,756 da cognição humana. 18 00:00:55,716 --> 00:01:00,475 No meu laboratório no Departamento de Ciências Cognitivas no MIT, 19 00:01:00,475 --> 00:01:03,509 eu passei a última década tentando entender o mistério 20 00:01:03,509 --> 00:01:08,106 de como as crianças aprendem tanto a partir de tão pouco e tão rápido. 21 00:01:08,666 --> 00:01:11,644 E acontece que essa coisa fascinante sobre ciência 22 00:01:11,644 --> 00:01:15,173 também é uma coisa fascinante sobre as crianças, 23 00:01:15,173 --> 00:01:17,754 e mudando um pouco a frase de Mark Twain, 24 00:01:17,754 --> 00:01:22,404 é exatamente a capacidade delas de criar inferências ricas e abstratas 25 00:01:22,404 --> 00:01:27,065 com rapidez e precisão a partir de poucos dados ruidosos. 26 00:01:28,355 --> 00:01:30,753 Eu vou dar a vocês apenas dois exemplos. 27 00:01:30,753 --> 00:01:33,040 O primeiro é sobre um problema de generalização, 28 00:01:33,040 --> 00:01:35,890 e o segundo é sobre um problema de raciocínio causal. 29 00:01:35,890 --> 00:01:38,415 Apesar de falar sobre o trabalho em meu laboratório, 30 00:01:38,415 --> 00:01:41,875 este trabalho é inspirado e derivado de um campo. 31 00:01:41,875 --> 00:01:46,158 Sou grata a mentores, colegas, e colaboradores em todo o mundo. 32 00:01:47,308 --> 00:01:50,282 Vou começar com o problema de generalização. 33 00:01:50,652 --> 00:01:54,785 Generalizar a partir de poucos dados é o feijão com arroz da ciência. 34 00:01:54,785 --> 00:01:57,339 Nós sondamos uma pequena fração de eleitores 35 00:01:57,339 --> 00:01:59,660 e prevemos o resultado das eleições nacionais. 36 00:02:00,240 --> 00:02:04,165 Vemos como alguns pacientes respondem ao tratamento num ensaio clínico, 37 00:02:04,165 --> 00:02:07,230 e trazemos drogas para o mercado nacional. 38 00:02:07,230 --> 00:02:11,595 Mas isso só funciona se nossa amostra for obtida aleatoriamente da população. 39 00:02:11,595 --> 00:02:14,260 Se nossa amostra for enviesada de alguma maneira, 40 00:02:14,260 --> 00:02:16,402 digamos, sondamos apenas eleitores urbanos, 41 00:02:16,402 --> 00:02:20,790 ou então, em nossos ensaios clínicos para tratamento de doenças do coração, 42 00:02:20,790 --> 00:02:22,671 incluímos apenas homens, 43 00:02:22,671 --> 00:02:25,829 os resultados podem não abranger a população em geral. 44 00:02:26,479 --> 00:02:30,060 Então, os cientistas se importam se as amostras são randomizadas, 45 00:02:30,060 --> 00:02:32,075 mas o que isso tem a ver com bebês? 46 00:02:32,585 --> 00:02:37,206 Bem, os bebês precisam generalizar pequenas amostras de dados o tempo todo. 47 00:02:37,206 --> 00:02:40,364 Eles veem alguns patos de borracha e sabem que eles flutuam, 48 00:02:40,364 --> 00:02:43,939 ou veem algumas bolas e sabem que quicam. 49 00:02:43,939 --> 00:02:46,890 E eles desenvolvem expectativas sobre patos e bolas 50 00:02:46,890 --> 00:02:49,606 que eles vão estender para os patos de borracha e bolas 51 00:02:49,606 --> 00:02:51,485 para o resto das suas vidas. 52 00:02:51,485 --> 00:02:55,224 E os tipos de generalizações que os bebês fazem sobre patos e bolas, 53 00:02:55,224 --> 00:02:57,313 eles precisam fazer sobre quase tudo: 54 00:02:57,313 --> 00:03:01,230 sapatos, barcos, cera de vela, repolhos e reis. 55 00:03:02,200 --> 00:03:05,161 Os bebês se importam se os pedacinhos de evidência que veem 56 00:03:05,161 --> 00:03:08,853 são representantes plausíveis de uma população maior? 57 00:03:09,763 --> 00:03:11,663 Vamos descobrir. 58 00:03:11,663 --> 00:03:13,386 Eu vou mostrar dois filmes a vocês, 59 00:03:13,386 --> 00:03:15,848 um filme para cada condição de um experimento, 60 00:03:15,848 --> 00:03:18,286 e porque vocês vão ver apenas dois filmes, 61 00:03:18,286 --> 00:03:20,422 vocês verão apenas dois bebês, 62 00:03:20,422 --> 00:03:24,369 e os bebês diferem entre si de várias maneiras. 63 00:03:24,369 --> 00:03:27,420 Mas estes bebês, claro, representam um grupos de bebês, 64 00:03:27,420 --> 00:03:29,315 e as diferenças que vocês vão ver 65 00:03:29,315 --> 00:03:34,050 representam as diferenças médias de grupos de bebês de cada condição. 66 00:03:35,160 --> 00:03:37,743 Em cada filme, talvez vocês vejam um bebê fazendo 67 00:03:37,743 --> 00:03:41,203 exatamente o que você espera que um bebê faça, 68 00:03:41,203 --> 00:03:45,220 e dificilmente podemos tornar os bebês mais mágicos do que já são. 69 00:03:46,090 --> 00:03:48,100 Mas para mim, a coisa mágica 70 00:03:48,100 --> 00:03:50,189 na qual quero que vocês prestem atenção 71 00:03:50,189 --> 00:03:53,300 é o contraste entre estas duas condições, 72 00:03:53,300 --> 00:03:56,829 porque a única coisa que difere entre estes dois filmes 73 00:03:56,829 --> 00:04:00,295 é a evidência estatística que os bebês vão observar. 74 00:04:01,425 --> 00:04:04,608 Vamos mostrar aos bebês uma caixa de bolas azuis e amarelas, 75 00:04:04,608 --> 00:04:09,228 e minha aluna, que agora é minha colega de Stanford, Hyowon Gweon, 76 00:04:09,228 --> 00:04:12,305 vai tirar três bolas azuis de cada vez fora desta caixa, 77 00:04:12,305 --> 00:04:15,428 e ao tirar as bolas, ela vai apertá-las, 78 00:04:15,428 --> 00:04:17,541 e as bolas vão chiar. 79 00:04:17,541 --> 00:04:20,303 E se você for um bebê, é como se fosse uma Palestra TED. 80 00:04:20,303 --> 00:04:23,608 Não tem como ficar melhor que isso. (Risos) 81 00:04:26,968 --> 00:04:30,627 Mas o que importa é que é fácil pegar três bolas azuis em sequência 82 00:04:30,627 --> 00:04:32,932 de uma caixa com maioria de bolas azuis. 83 00:04:32,932 --> 00:04:34,992 Você pode fazer isso de olhos fechados. 84 00:04:34,992 --> 00:04:37,988 É plausível que seja uma amostra aleatória desta população. 85 00:04:37,988 --> 00:04:41,720 E se você põe a mão numa caixa e pega coisas que chiam, 86 00:04:41,720 --> 00:04:44,559 então talvez tudo dentro da caixa chia. 87 00:04:44,559 --> 00:04:48,569 Talvez os bebês esperem que essas bolas amarelas chiem também. 88 00:04:48,569 --> 00:04:50,728 Essas bolas amarelas têm bastões engraçados, 89 00:04:50,728 --> 00:04:53,585 e os bebês podem fazer outras coisas com elas se quiserem. 90 00:04:53,585 --> 00:04:55,416 Eles podem amassá-las. 91 00:04:55,416 --> 00:04:57,262 Mas vamos ver o que o bebê faz. 92 00:05:00,338 --> 00:05:03,681 (Vídeo) Hyowon Gweon: Olha isso? (Bola chia) 93 00:05:04,531 --> 00:05:07,576 Você viu? (Bola chia) 94 00:05:08,036 --> 00:05:09,342 Legal! 95 00:05:12,706 --> 00:05:14,656 Olha isso? 96 00:05:14,656 --> 00:05:16,397 (Bola chia) 97 00:05:16,397 --> 00:05:17,820 Uau! 98 00:05:21,854 --> 00:05:23,967 Laura Schulz: Não disse? (Risos) 99 00:05:23,967 --> 00:05:27,058 (Vídeo) HG: Olha isso? (Bola chia) 100 00:05:27,798 --> 00:05:32,417 Clara, esta é para você. Você pode brincar se quiser. 101 00:05:37,834 --> 00:05:42,199 (Risos) 102 00:05:44,029 --> 00:05:46,204 LS: Eu não preciso nem falar. 103 00:05:47,084 --> 00:05:49,703 Tudo bem, é bom que os bebês generalizem as propriedades 104 00:05:49,703 --> 00:05:51,641 das bolas azuis para as amarelas, 105 00:05:51,641 --> 00:05:54,737 é impressionante que os bebês aprendam nos imitando, 106 00:05:54,737 --> 00:05:58,406 mas já sabemos dessas coisas sobre os bebês há muito tempo. 107 00:05:58,406 --> 00:06:00,017 A questão mais interessante 108 00:06:00,017 --> 00:06:02,949 é o que acontece quando mostramos exatamente a mesma coisa, 109 00:06:02,949 --> 00:06:06,470 e podemos garantir que é a mesma coisa pois temos um compartimento secreto 110 00:06:06,470 --> 00:06:08,790 e tiramos as bolas de lá, 111 00:06:08,790 --> 00:06:12,268 mas desta vez, vamos mudar a população aparente 112 00:06:12,268 --> 00:06:15,170 a partir da qual a evidência é obtida. 113 00:06:15,170 --> 00:06:18,723 Desta vez, vamos mostrar aos bebês três bolas azuis 114 00:06:18,723 --> 00:06:22,107 tiradas de uma caixa com maioria de bolas amarelas, 115 00:06:22,107 --> 00:06:23,429 e adivinha? 116 00:06:23,429 --> 00:06:26,269 Você provavelmente não tira três bolas azuis em sequência 117 00:06:26,269 --> 00:06:28,753 de uma caixa com maioria de bolas amarelas. 118 00:06:28,753 --> 00:06:32,500 Isso não é uma evidência amostral plausível. 119 00:06:32,500 --> 00:06:37,623 Essa evidência sugere que Hyowon estivesse escolhendo as bolas azuis. 120 00:06:37,623 --> 00:06:40,206 Talvez haja algo especial sobre as bolas azuis. 121 00:06:40,846 --> 00:06:43,822 Talvez apenas as bolas azuis chiem. 122 00:06:43,822 --> 00:06:45,717 Vamos ver o que o bebê faz. 123 00:06:45,717 --> 00:06:48,621 (Vídeo) HG: Olha isso? (Bola chia) 124 00:06:50,851 --> 00:06:53,496 Olha este brinquedo? (Bola chia) 125 00:06:53,496 --> 00:06:58,976 Isso foi legal! Olha? (Bola chia) 126 00:06:58,976 --> 00:07:01,910 Agora, esta é para você brincar. Pode brincar se quiser. 127 00:07:06,074 --> 00:07:12,421 (Mexendo) (Risos) 128 00:07:14,901 --> 00:07:17,649 LS: Você acabou de ver dois bebês de 15 meses de idade 129 00:07:17,649 --> 00:07:19,591 fazendo coisas totalmente diferentes 130 00:07:19,591 --> 00:07:23,190 com base apenas na probabilidade da amostra que observaram. 131 00:07:23,190 --> 00:07:25,511 Vou mostrar os resultados experimentais. 132 00:07:25,511 --> 00:07:28,275 No eixo vertical, temos a porcentagem de bebês 133 00:07:28,275 --> 00:07:30,805 que apertaram a bola em cada condição, 134 00:07:30,805 --> 00:07:34,520 e como podemos ver, os bebês tendem a generalizar a evidência 135 00:07:34,520 --> 00:07:37,655 quando é uma amostra representativa plausível da população 136 00:07:37,655 --> 00:07:41,393 em vez de de uma amostra escolhida de maneira enviesada. 137 00:07:41,393 --> 00:07:43,808 E isso leva a uma previsão divertida: 138 00:07:43,808 --> 00:07:48,676 suponha que você tirasse uma bola azul da caixa com maioria de bolas amarelas. 139 00:07:48,896 --> 00:07:51,985 Você provavelmente não tiraria três bolas azuis em sequência, 140 00:07:51,985 --> 00:07:55,000 mas poderia tirar aleatoriamente uma bola azul. 141 00:07:55,000 --> 00:07:57,190 Isso não é uma amostra improvável. 142 00:07:57,190 --> 00:07:59,414 E se você pudesse mexer ao acaso numa caixa 143 00:07:59,414 --> 00:08:03,441 e tirar uma bola que chia, talvez todas as bolas da caixa chiem. 144 00:08:03,875 --> 00:08:08,000 Mesmo que os bebês estejam vendo menos evidências para o chiado, 145 00:08:08,000 --> 00:08:10,562 e tenham menos ações para imitar 146 00:08:10,562 --> 00:08:13,905 nesta condição de uma bola que acabei de explicar, 147 00:08:13,905 --> 00:08:17,797 nós previmos que os próprios bebês apertariam mais, 148 00:08:17,797 --> 00:08:20,231 e isso foi exatamente o que vimos. 149 00:08:21,011 --> 00:08:25,102 Então os bebês de 15 meses de idade, como se fossem cientistas, 150 00:08:25,102 --> 00:08:28,190 se importam se as evidências são amostradas aleatoriamente ou não, 151 00:08:28,190 --> 00:08:31,697 e usam isso para desenvolver expectativas sobre o mundo: 152 00:08:31,697 --> 00:08:33,879 o que chia e o que não chia, 153 00:08:33,879 --> 00:08:37,024 o que explorar e o que ignorar. 154 00:08:38,384 --> 00:08:40,450 Vou mostrar outro exemplo agora, 155 00:08:40,450 --> 00:08:43,179 desta vez sobre um problema de raciocínio causal. 156 00:08:43,179 --> 00:08:45,619 E isso começa com um problema de evidência confusa 157 00:08:45,619 --> 00:08:47,291 que todos nós enfrentamos, 158 00:08:47,291 --> 00:08:49,311 e por isso fazemos parte do mundo. 159 00:08:49,311 --> 00:08:52,747 Pode não ser um problema para você, mas como a maioria dos problemas, 160 00:08:52,747 --> 00:08:55,084 só é um problema quando as coisas dão errado. 161 00:08:55,464 --> 00:08:57,275 Veja este bebê, por exemplo. 162 00:08:57,275 --> 00:08:58,980 As coisas estão dando errado. 163 00:08:58,980 --> 00:09:01,251 Ele quer fazer isso andar, mas não consegue. 164 00:09:01,251 --> 00:09:03,450 Vou mostrar alguns segundos. 165 00:09:08,880 --> 00:09:11,260 E há duas possibilidades: 166 00:09:11,260 --> 00:09:13,894 talvez ele esteja fazendo algo errado, 167 00:09:13,894 --> 00:09:18,110 ou talvez haja algo errado com o brinquedo. 168 00:09:18,110 --> 00:09:20,221 Neste próximo experimento, 169 00:09:20,221 --> 00:09:23,518 vamos dar alguns dados estatísticos 170 00:09:23,518 --> 00:09:26,100 apoiando uma hipótese sobre a outra, 171 00:09:26,100 --> 00:09:29,475 e vamos ver se os bebês podem tomar decisões diferentes 172 00:09:29,475 --> 00:09:31,389 sobre o que fazer. 173 00:09:31,389 --> 00:09:33,411 Aqui está o experimento. 174 00:09:34,071 --> 00:09:37,101 Hyowon vai fazer o brinquedo andar. 175 00:09:37,101 --> 00:09:40,421 Depois eu vou tentar duas vezes e falhar, 176 00:09:40,421 --> 00:09:43,533 e Hyowon tenta de novo e consegue, 177 00:09:43,533 --> 00:09:46,705 e isto resume minha relação com meus alunos de pós-graduação 178 00:09:46,705 --> 00:09:49,540 com novas tecnologias. 179 00:09:50,030 --> 00:09:53,322 Mas o importante aqui é fornecer um pouco de evidência 180 00:09:53,322 --> 00:09:56,990 de que o problema não é o brinquedo, é a pessoa. 181 00:09:56,990 --> 00:09:59,340 Algumas pessoas fazem o brinquedo andar, 182 00:09:59,340 --> 00:10:00,459 e outras não. 183 00:10:00,799 --> 00:10:04,212 Quando o bebê pega o brinquedo, ele tem uma escolha. 184 00:10:04,212 --> 00:10:06,060 Sua mãe está ali, 185 00:10:06,060 --> 00:10:09,715 para que possa entregar o brinquedo e mudar de pessoa, 186 00:10:09,715 --> 00:10:12,873 mas há também outro brinquedo, no final do pano, 187 00:10:12,873 --> 00:10:16,425 e ele pode puxar o pano e mudar de brinquedo. 188 00:10:16,425 --> 00:10:18,515 Vamos ver o que o bebê faz. 189 00:10:18,515 --> 00:10:22,698 (Vídeo) HG: Dois, três. vai! (Música) 190 00:10:22,698 --> 00:10:26,179 LS: Um, dois, três, vai! 191 00:10:26,935 --> 00:10:33,037 Arthur, vou tentar novamente. Um, dois, três, vai! 192 00:10:33,677 --> 00:10:36,277 HG: Arthur, vou tentar de novo. 193 00:10:36,277 --> 00:10:40,827 Um, dois, três, vai! (Música) 194 00:10:41,583 --> 00:10:43,466 Veja isso. Lembra destes brinquedos? 195 00:10:43,466 --> 00:10:46,730 Estes brinquedos aqui? Vou colocar este aqui, 196 00:10:46,730 --> 00:10:48,792 e eu vou dar este para você. 197 00:10:48,792 --> 00:10:51,127 Você pode brincar se quiser. 198 00:11:11,213 --> 00:11:15,950 LS: Certo, mas é óbvio que os bebês amam suas mamães. 199 00:11:15,950 --> 00:11:18,132 Os bebês vão dar brinquedos para suas mães 200 00:11:18,132 --> 00:11:20,162 quando não conseguem fazê-los funcionar. 201 00:11:20,162 --> 00:11:23,755 Novamente, o que importa é o que acontece quando mudamos 202 00:11:23,755 --> 00:11:26,909 os dados estatísticos ligeiramente. 203 00:11:26,909 --> 00:11:30,996 Desta vez, os bebês vão ver o brinquedo funcionar e falhar na mesma ordem, 204 00:11:30,996 --> 00:11:33,411 mas mudamos a distribuição das evidências. 205 00:11:33,411 --> 00:11:37,822 Hyowon vai conseguir uma vez e falhar uma vez, e eu também. 206 00:11:37,822 --> 00:11:43,149 Isso sugere que não importa quem tenta, o brinquedo está quebrado. 207 00:11:43,149 --> 00:11:44,945 Ele não funciona o tempo todo. 208 00:11:44,945 --> 00:11:46,640 De novo, o bebê terá uma escolha. 209 00:11:46,640 --> 00:11:50,706 A mãe dele está ao seu lado, então ela pode mudar a pessoa, 210 00:11:50,706 --> 00:11:52,980 e tem outro brinquedo no fim do pano. 211 00:11:52,980 --> 00:11:55,288 Vamos ver o que ela faz. 212 00:11:55,288 --> 00:11:59,636 (Vídeo) HG: Dois, três, vai! (Música) 213 00:11:59,636 --> 00:12:04,620 Vou tentar de novo. Um, dois, três, vai! 214 00:12:05,460 --> 00:12:07,157 Hmmm. 215 00:12:07,950 --> 00:12:10,642 LS: Vou tentar, Clara. 216 00:12:10,642 --> 00:12:14,587 Um, dois, três, vai! 217 00:12:15,665 --> 00:12:17,200 Vou tentar de novo. 218 00:12:17,200 --> 00:12:22,870 Um, dois, três, vai! (Música) 219 00:12:23,009 --> 00:12:25,242 HG: Eu vou deixar este aqui, 220 00:12:25,242 --> 00:12:27,243 e vou dar este para você. 221 00:12:27,243 --> 00:12:28,750 Você pode brincar se quiser. 222 00:12:48,096 --> 00:12:52,143 (Aplausos) 223 00:12:52,993 --> 00:12:55,385 LS: Vou mostrar os resultados experimentais. 224 00:12:55,385 --> 00:12:57,860 No eixo vertical, temos a distribuição 225 00:12:57,860 --> 00:13:00,437 de escolhas para cada condição, 226 00:13:00,437 --> 00:13:04,988 e podemos ver que as escolhas que as crianças fazem 227 00:13:04,988 --> 00:13:07,775 dependem da evidência observada. 228 00:13:07,775 --> 00:13:09,632 Então no segundo ano de vida, 229 00:13:09,632 --> 00:13:12,209 os bebês podem usar alguns dados estatísticos 230 00:13:12,209 --> 00:13:15,576 e decidir entre duas estratégias muito diferentes 231 00:13:15,576 --> 00:13:17,457 para agir no mundo: 232 00:13:17,457 --> 00:13:20,200 pedir ajuda e explorar. 233 00:13:21,700 --> 00:13:24,964 Eu só mostrei dois experimentos de laboratório 234 00:13:24,964 --> 00:13:28,825 entre centenas de outros que mostram resultados parecidos, 235 00:13:28,825 --> 00:13:31,217 pois o ponto essencial 236 00:13:31,217 --> 00:13:36,325 é mostrar que a capacidade das crianças fazerem inferências com poucos dados 237 00:13:36,325 --> 00:13:41,666 está por trás de toda aprendizagem cultural específica que fazemos. 238 00:13:41,666 --> 00:13:46,263 As crianças aprendem sobre coisas novas a partir de alguns exemplos. 239 00:13:46,263 --> 00:13:50,980 Elas aprendem novas relações causais a partir de alguns exemplos. 240 00:13:51,928 --> 00:13:56,799 Elas até aprendem novas palavras, neste caso em Língua de Sinais Americana. 241 00:13:56,799 --> 00:13:59,110 Quero concluir com apenas dois pontos. 242 00:14:00,050 --> 00:14:03,738 Se você estiver acompanhando as ciências cognitivas e do cérebro 243 00:14:03,738 --> 00:14:05,385 pelos últimos anos, 244 00:14:05,385 --> 00:14:08,080 três grandes ideias vão chamar sua atenção. 245 00:14:08,080 --> 00:14:11,516 A primeira é que estamos na era do cérebro. 246 00:14:11,516 --> 00:14:15,185 De fato, houve descobertas surpreendentes nas neurociências: 247 00:14:15,185 --> 00:14:18,621 a localização funcional de regiões especializadas do córtex, 248 00:14:18,621 --> 00:14:21,222 tornar transparentes cérebros de camundongos, 249 00:14:21,222 --> 00:14:24,018 ativação de neurônios com luz. 250 00:14:24,998 --> 00:14:26,994 A segunda grande ideia 251 00:14:26,994 --> 00:14:31,098 é que estamos na era dos grandes dados e do aprendizado de máquina, 252 00:14:31,098 --> 00:14:34,239 e isso promete revolucionar nossa compreensão 253 00:14:34,239 --> 00:14:38,016 de tudo, desde redes sociais até epidemiologia. 254 00:14:38,576 --> 00:14:41,599 E talvez ao enfrentar problemas de compreensão contextual 255 00:14:41,599 --> 00:14:43,592 e processamento de linguagem natural, 256 00:14:43,592 --> 00:14:46,386 isso pode nos dizer algo sobre cognição humana. 257 00:14:47,756 --> 00:14:49,693 E a terceira grande ideia 258 00:14:49,693 --> 00:14:52,640 é que talvez seja uma boa ideia sabermos muito sobre cérebros 259 00:14:52,640 --> 00:14:54,997 e termos acesso a grandes dados, 260 00:14:54,997 --> 00:14:57,504 pois se ficarmos como estamos, 261 00:14:57,504 --> 00:15:01,335 os seres humanos são falíveis, usamos atalhos, 262 00:15:01,335 --> 00:15:04,772 nós erramos, cometemos enganos, 263 00:15:04,772 --> 00:15:08,456 somos enviesados e, de várias maneiras, 264 00:15:09,176 --> 00:15:11,365 vemos o mundo errado. 265 00:15:12,843 --> 00:15:15,792 Penso que estas histórias são importantes, 266 00:15:15,792 --> 00:15:18,527 e elas nos dizem muito sobre o que significa ser humano, 267 00:15:19,577 --> 00:15:23,106 mas quero que vocês percebam que contei uma história muito diferente. 268 00:15:23,966 --> 00:15:27,773 É uma história sobre mentes e não sobre cérebros, 269 00:15:27,773 --> 00:15:30,779 é uma história sobre o tipo de computação 270 00:15:30,779 --> 00:15:33,369 que as mentes unicamente humanas podem fazer, 271 00:15:33,369 --> 00:15:37,313 que envolve o conhecimento estruturado e a capacidade de aprender 272 00:15:37,313 --> 00:15:42,581 a partir de pequenas quantidades de dados, das evidências de alguns exemplos. 273 00:15:43,881 --> 00:15:48,600 Essencialmente, é uma história sobre como as crianças começam 274 00:15:48,600 --> 00:15:53,280 e continuam seu caminho para grandes realizações 275 00:15:53,280 --> 00:15:55,233 da nossa cultura, 276 00:15:56,623 --> 00:15:58,620 e conseguem ver o mundo direito. 277 00:16:00,433 --> 00:16:05,700 As mentes humanas não aprendem apenas com pequenas quantidades de dados. 278 00:16:06,285 --> 00:16:08,386 As mentes humanas pensam novas ideias. 279 00:16:08,746 --> 00:16:11,787 As mentes humanas geram pesquisa e descoberta, 280 00:16:11,787 --> 00:16:17,060 e as mentes humanas geram arte, literatura, poesia e teatro, 281 00:16:17,070 --> 00:16:20,830 e as mentes humanas cuidam de outros seres humanos: 282 00:16:20,830 --> 00:16:24,257 de pessoas idosas, jovens ou doentes. 283 00:16:24,517 --> 00:16:26,884 Nós até mesmo as curamos. 284 00:16:27,564 --> 00:16:30,667 Nos próximos anos, veremos inovações tecnológicas 285 00:16:30,667 --> 00:16:34,464 além de qualquer coisa que eu possa imaginar, 286 00:16:34,464 --> 00:16:36,614 mas é muito improvável 287 00:16:36,614 --> 00:16:42,323 que a gente veja um computador com o mesmo poder da mente de uma criança 288 00:16:42,323 --> 00:16:45,411 na minha geração ou na sua. 289 00:16:46,621 --> 00:16:51,668 Se investirmos nestes aprendizes mais poderosos e no seu desenvolvimento, 290 00:16:51,668 --> 00:16:54,395 nos bebês, e nas crianças, 291 00:16:54,395 --> 00:16:56,411 e mães, e pais, 292 00:16:56,411 --> 00:16:59,110 e cuidadores, e professores 293 00:16:59,110 --> 00:17:03,280 da mesma maneira que investimos em outras formas poderosas e elegantes 294 00:17:03,280 --> 00:17:06,498 de tecnologia, engenharia e design, 295 00:17:06,498 --> 00:17:09,435 nós não vamos apenas sonhar por um futuro melhor, 296 00:17:09,435 --> 00:17:11,564 vamos planejar um futuro. 297 00:17:11,564 --> 00:17:13,909 Muito obrigada. 298 00:17:13,909 --> 00:17:17,329 (Aplausos) 299 00:17:17,810 --> 00:17:22,236 Chris Anderson: Laura, obrigado. Eu tenho uma pergunta para você. 300 00:17:22,236 --> 00:17:24,595 Em primeiro lugar, a pesquisa é insana. 301 00:17:24,595 --> 00:17:28,319 Quero dizer, quem iria projetar um experimento como esse? 302 00:17:29,150 --> 00:17:30,940 Eu vi isso algumas vezes, 303 00:17:30,940 --> 00:17:34,162 e eu ainda não acredito que isso pode estar acontecendo, 304 00:17:34,162 --> 00:17:36,910 mas outras pessoas fizeram experimentos semelhantes. 305 00:17:36,910 --> 00:17:38,833 Os bebês são realmente geniais. 306 00:17:38,833 --> 00:17:41,760 LS: Eles parecem muito impressionantes em nossos experimentos, 307 00:17:41,760 --> 00:17:44,092 mas pense sobre como eles se parecem na vida real. 308 00:17:44,092 --> 00:17:45,412 Nasce um bebê. 309 00:17:45,412 --> 00:17:47,369 Dezoito meses depois, ele fala com você, 310 00:17:47,369 --> 00:17:50,180 e suas primeiras palavras não são coisas como bolas e patos, 311 00:17:50,180 --> 00:17:52,971 são coisas como "sumiu", que se refere ao desaparecimento, 312 00:17:52,971 --> 00:17:55,664 ou "opa", que se refere a ações intencionais. 313 00:17:55,664 --> 00:17:57,186 Ele precisa ser poderoso. 314 00:17:57,186 --> 00:17:59,871 Precisa ser mais poderoso do que tudo que eu mostrei. 315 00:17:59,871 --> 00:18:01,735 Eles estão descobrindo o mundo inteiro. 316 00:18:01,735 --> 00:18:05,429 Uma criança de quatro anos pode conversar sobre quase tudo. 317 00:18:05,429 --> 00:18:07,030 (Aplausos) 318 00:18:07,030 --> 00:18:10,444 CA: Se eu entendi direito, o outro ponto que você levanta 319 00:18:10,444 --> 00:18:13,198 é que ultrapassamos a ideia sobre como nossa mente 320 00:18:13,198 --> 00:18:15,130 é falha e confusa, 321 00:18:15,130 --> 00:18:17,997 da economia comportamental e outras teorias que dizem 322 00:18:17,997 --> 00:18:19,600 que não somos agentes racionais. 323 00:18:19,600 --> 00:18:23,816 Você realmente acha que nossa mente é extraordinária 324 00:18:23,816 --> 00:18:28,760 e que há um gênio ali que é ignorado? 325 00:18:28,760 --> 00:18:30,830 LS: Uma das minhas citações favoritas 326 00:18:30,830 --> 00:18:33,120 é do psicólogo social Solomon Asch, 327 00:18:33,120 --> 00:18:35,927 que disse que a tarefa fundamental da psicologia é remover 328 00:18:35,927 --> 00:18:38,553 o véu da autoevidência das coisas. 329 00:18:38,553 --> 00:18:43,104 Há milhões de tipos de escolhas que fazemos todos os dias, 330 00:18:43,104 --> 00:18:44,451 que nos fazem ver o mundo. 331 00:18:44,451 --> 00:18:46,433 Sabemos dos objetos e suas propriedades. 332 00:18:46,433 --> 00:18:49,012 Sabemos quando estão ocultos. Podemos vê-los no escuro. 333 00:18:49,012 --> 00:18:50,170 Podemos andar nas salas. 334 00:18:50,170 --> 00:18:53,552 Podemos descobrir o que outras pessoas estão pensando e falar com elas. 335 00:18:53,552 --> 00:18:55,552 Podemos navegar no espaço e saber números. 336 00:18:55,552 --> 00:18:58,444 Sabemos sobre relações causais e raciocínio moral. 337 00:18:58,444 --> 00:19:01,130 Fazemos isso sem esforço, por isso não percebemos, 338 00:19:01,130 --> 00:19:03,862 mas é assim que vemos o mundo, e é uma realização notável 339 00:19:03,862 --> 00:19:05,850 e muito difícil de entender. 340 00:19:05,850 --> 00:19:08,198 CA: Eu suspeito que há pessoas na plateia que têm 341 00:19:08,198 --> 00:19:10,736 esta visão sobre o poder tecnológico crescente 342 00:19:10,736 --> 00:19:14,284 e que refutam sua afirmação de que nunca teremos um computador 343 00:19:14,284 --> 00:19:16,692 com a mesma capacidade de um criança de três anos, 344 00:19:16,692 --> 00:19:20,980 mas está claro que, em qualquer situação, 345 00:19:20,980 --> 00:19:24,750 nossas máquinas têm muito a aprender com nossas crianças. 346 00:19:26,230 --> 00:19:29,446 LS: Acho que sim. Temos pessoas do aprendizado de máquina por aqui. 347 00:19:29,446 --> 00:19:33,649 Quero dizer, a gente não deve apostar em bebês ou em chimpanzés 348 00:19:33,649 --> 00:19:37,294 ou na tecnologia como uma questão prática, 349 00:19:37,294 --> 00:19:41,822 mas não é apenas uma diferença em quantidade, 350 00:19:41,822 --> 00:19:43,586 é uma diferença de tipo. 351 00:19:43,586 --> 00:19:45,746 Temos computadores incrivelmente poderosos, 352 00:19:45,746 --> 00:19:48,137 que fazem coisas muito sofisticadas, 353 00:19:48,137 --> 00:19:51,341 muitas vezes com grandes quantidades de dados. 354 00:19:51,341 --> 00:19:53,948 As mentes humanas fazem algo completamente diferente, 355 00:19:53,948 --> 00:19:57,843 e acho que é a natureza hierárquica e estruturada do conhecimento humano 356 00:19:57,843 --> 00:19:59,875 que continua a ser um desafio real. 357 00:19:59,875 --> 00:20:02,476 CA: Laura Schulz, isso foi maravilhoso. Muito obrigado. 358 00:20:02,476 --> 00:20:05,858 LS: Obrigada. (Aplausos)