1 00:00:01,373 --> 00:00:03,077 Sou só eu 2 00:00:03,141 --> 00:00:05,473 ou há mais gente aqui 3 00:00:05,497 --> 00:00:07,911 um pouco desiludida com a democracia? 4 00:00:08,986 --> 00:00:11,322 (Aplausos) 5 00:00:12,141 --> 00:00:14,322 Vamos olhar para alguns números. 6 00:00:14,934 --> 00:00:17,307 Se olharmos para o mundo inteiro, 7 00:00:17,371 --> 00:00:21,023 a afluência média às urnas nas eleições presidenciais 8 00:00:21,047 --> 00:00:22,698 nos últimos 30 anos, 9 00:00:22,722 --> 00:00:25,494 foi de apenas 67%. 10 00:00:26,329 --> 00:00:28,262 Se passarmos para a Europa 11 00:00:28,266 --> 00:00:29,868 e olharmos para as pessoas 12 00:00:29,888 --> 00:00:32,528 que participaram nas eleições para o Parlamento Europeu, 13 00:00:32,778 --> 00:00:34,849 a afluência média para essas eleições 14 00:00:34,873 --> 00:00:37,087 foi de apenas 42%. 15 00:00:38,125 --> 00:00:39,934 Passemos para Nova Iorque 16 00:00:39,948 --> 00:00:44,269 e vejamos quantas pessoas votaram nas últimas eleições para o "mayor". 17 00:00:44,523 --> 00:00:48,540 Encontramos que só compareceram para votar 24% das pessoas. 18 00:00:49,063 --> 00:00:52,148 O que isto significa é que, se ainda estivessem a dar "Friends" 19 00:00:52,182 --> 00:00:55,450 talvez Joey e Phoebe aparecessem para votar. 20 00:00:55,554 --> 00:00:56,844 (Risos) 21 00:00:57,714 --> 00:01:01,860 Não podemos censurá-los, porque as pessoas estão fartas dos políticos. 22 00:01:01,884 --> 00:01:05,771 As pessoas estão fartas de outras pessoas que usam os dados que geramos 23 00:01:05,795 --> 00:01:07,993 para comunicarmos com os amigos e a família, 24 00:01:08,017 --> 00:01:10,431 para servirem de alvo da sua propaganda política. 25 00:01:10,519 --> 00:01:13,327 O problema é que tudo isto não tem nada de novo. 26 00:01:13,331 --> 00:01:16,496 Atualmente, as pessoas usam os "likes" que nos tornam alvos 27 00:01:16,520 --> 00:01:19,893 em vez do nosso código postal, do nosso sexo ou da nossa idade, 28 00:01:19,917 --> 00:01:23,487 porque a ideia de direcionar a propaganda com fins políticos 29 00:01:23,511 --> 00:01:25,393 é tão velha como a política. 30 00:01:25,530 --> 00:01:27,808 Essa ideia existe 31 00:01:27,832 --> 00:01:31,304 porque a democracia tem uma vulnerabilidade básica. 32 00:01:31,710 --> 00:01:33,822 É a ideia da representação. 33 00:01:34,049 --> 00:01:37,993 Em princípio, a democracia é a capacidade de o povo exercer o poder. 34 00:01:38,017 --> 00:01:41,835 Mas, na prática, temos de delegar esse poder num representante 35 00:01:41,859 --> 00:01:44,294 que pode exercer esse poder em nosso nome. 36 00:01:44,561 --> 00:01:46,386 Essa representação é um obstáculo 37 00:01:46,410 --> 00:01:47,887 ou um ponto fraco. 38 00:01:47,911 --> 00:01:51,480 É o ponto que queremos atingir se quisermos atacar a democracia 39 00:01:51,654 --> 00:01:55,313 porque podemos conquistar a democracia quer conquistando o representante 40 00:01:55,337 --> 00:01:57,765 quer conquistando a forma como o elegemos. 41 00:01:58,065 --> 00:01:59,481 O grande problema é: 42 00:01:59,505 --> 00:02:01,349 É este o final da história? 43 00:02:01,989 --> 00:02:05,092 É isto o melhor que podemos fazer 44 00:02:05,878 --> 00:02:08,645 ou há alternativas? 45 00:02:10,130 --> 00:02:12,484 Há quem tenha estado a pensar em alternativas 46 00:02:12,508 --> 00:02:16,197 e uma das ideias é que há uma ideia de democracia direta. 47 00:02:16,790 --> 00:02:19,269 É a ideia de ultrapassar totalmente os políticos 48 00:02:19,293 --> 00:02:21,816 e levar as pessoas a votar diretamente nos problemas, 49 00:02:21,840 --> 00:02:24,245 pôr as pessoas a votar diretamente nas leis. 50 00:02:24,415 --> 00:02:25,751 Mas esta ideia é ingénua, 51 00:02:25,775 --> 00:02:28,826 porque há demasiadas coisas que precisamos de escolher. 52 00:02:28,970 --> 00:02:31,752 Se olharmos para o 114.º Congresso dos EUA, 53 00:02:31,776 --> 00:02:34,283 veremos que a Câmara dos Representantes 54 00:02:34,307 --> 00:02:37,256 apreciou mais de 6000 propostas de leis. 55 00:02:37,260 --> 00:02:39,856 o Senado apreciou mais de 3000 propostas de leis 56 00:02:39,880 --> 00:02:42,408 e aprovaram mais de 300 leis. 57 00:02:42,712 --> 00:02:44,291 São mais decisões 58 00:02:44,315 --> 00:02:46,822 do que cada pessoa teria de fazer durante uma semana 59 00:02:46,836 --> 00:02:49,138 sobre tópicos que pouco dominamos. 60 00:02:49,229 --> 00:02:51,670 Assim, há um grande problema cognitivo, 61 00:02:51,694 --> 00:02:55,526 se quisermos pensar na democracia direta como uma alternativa viável. 62 00:02:56,205 --> 00:03:00,640 Há quem pense na ideia da democracia líquida, ou democracia fluida, 63 00:03:00,664 --> 00:03:04,440 que é a ideia de que podemos entregar o nosso poder político a alguém 64 00:03:04,464 --> 00:03:06,274 que pode entregá-lo a outro qualquer 65 00:03:06,318 --> 00:03:08,729 e, por fim, criamos uma grande rede de seguidores 66 00:03:08,753 --> 00:03:11,987 na qual há algumas pessoas que tomam as decisões 67 00:03:12,071 --> 00:03:15,154 em nome de todos os seus seguidores. 68 00:03:16,326 --> 00:03:20,045 Mas esta ideia também não resolve o problema da banda cognitiva 69 00:03:20,479 --> 00:03:24,356 e, para ser honesto, é muito semelhante à ideia de ter um representante. 70 00:03:25,085 --> 00:03:28,003 Hoje vou ser um bocado provocador 71 00:03:28,037 --> 00:03:29,627 e vou perguntar-vos: 72 00:03:30,601 --> 00:03:36,543 E se, em vez de tentar ultrapassar os políticos, 73 00:03:37,187 --> 00:03:40,087 tentássemos automatizá-los? 74 00:03:45,871 --> 00:03:48,697 A ideia de automatização não é nova, 75 00:03:48,821 --> 00:03:50,901 começou há mais de 300 aos, 76 00:03:50,925 --> 00:03:54,093 quando os tecelões franceses decidiram automatizar o tear. 77 00:03:54,820 --> 00:03:58,750 O vencedor desta guerra industrial foi Joseph-Marie Jacquard. 78 00:03:59,204 --> 00:04:01,055 Era um tecelão e mercador francês 79 00:04:01,089 --> 00:04:03,499 que casou o tear com a máquina a vapor 80 00:04:03,533 --> 00:04:05,673 para criar os teares automatizados. 81 00:04:05,727 --> 00:04:08,300 Nestes teares autónomos conquistou o controlo. 82 00:04:08,434 --> 00:04:12,329 Passou a poder fazer tecidos muito mais complexos e sofisticados 83 00:04:12,393 --> 00:04:14,771 do que os que eram feitos manualmente. 84 00:04:15,193 --> 00:04:18,135 Mas também, ao ganhar esta guerra industrial, 85 00:04:18,179 --> 00:04:21,373 instituiu o que se tornou o modelo da automatização. 86 00:04:22,265 --> 00:04:25,345 A forma como automatizamos as coisas durante os últimos 300 anos, 87 00:04:25,389 --> 00:04:27,051 tem sido sempre a mesma: 88 00:04:27,086 --> 00:04:29,475 primeiro, identificamos uma necessidade, 89 00:04:29,539 --> 00:04:32,663 depois criamos uma ferramenta para satisfazer essa necessidade, 90 00:04:32,747 --> 00:04:34,787 como o tear, neste exemplo. 91 00:04:34,831 --> 00:04:37,342 E depois, estudamos como utilizar essa ferramenta 92 00:04:37,366 --> 00:04:39,211 para automatizar esse utilizador. 93 00:04:39,402 --> 00:04:42,303 É como passámos do tear mecânico 94 00:04:42,327 --> 00:04:44,223 para o tear autónomo 95 00:04:44,247 --> 00:04:46,367 e isso levou-nos mil anos. 96 00:04:46,391 --> 00:04:48,562 Mas só levámos cem anos 97 00:04:48,586 --> 00:04:51,441 a usar a mesma receita para automatizar o carro. 98 00:04:53,320 --> 00:04:57,226 Mas a coisa é que, desta vez, a automação é real 99 00:04:57,906 --> 00:05:01,101 Isto é um vídeo que um colega meu da Toshiba partilhou comigo 100 00:05:01,175 --> 00:05:04,006 que mostra a fábrica que fabrica discos SSD, 101 00:05:04,516 --> 00:05:06,599 Toda a fábrica está robotizada. 102 00:05:06,643 --> 00:05:08,731 Não há seres humanos naquela fábrica. 103 00:05:08,961 --> 00:05:11,433 E os robôs em breve sairão das fábricas 104 00:05:11,447 --> 00:05:13,318 e farão parte do nosso mundo, 105 00:05:13,348 --> 00:05:15,310 farão parte da nossa força de trabalho. 106 00:05:15,360 --> 00:05:17,299 O que eu faço no meu trabalho diário 107 00:05:17,323 --> 00:05:20,716 é criar ferramentas que integram dados para países inteiros 108 00:05:20,820 --> 00:05:24,292 de modo que acabaremos por ter as bases de que precisamos 109 00:05:24,352 --> 00:05:27,912 para um futuro de que precisamos para gerir essas máquinas. 110 00:05:29,444 --> 00:05:32,215 Mas hoje, não venho aqui para vos falar dessas ferramentas 111 00:05:32,239 --> 00:05:34,285 que integram dados para países. 112 00:05:34,335 --> 00:05:37,039 Venho aqui para vos falar duma outra ideia 113 00:05:37,073 --> 00:05:38,649 que pode ajudar-nos a pensar 114 00:05:38,669 --> 00:05:41,309 como usar a inteligência artificial na democracia. 115 00:05:42,069 --> 00:05:46,694 Porque as ferramentas que eu criei são concebidas para decisões executivas. 116 00:05:46,788 --> 00:05:50,421 São decisões que podem ser tomadas com alguma objetividade 117 00:05:50,481 --> 00:05:52,476 — decisões de investimento público. 118 00:05:52,826 --> 00:05:55,456 Mas há decisões que são legislativas 119 00:05:55,509 --> 00:05:59,350 e essas decisões legislativas exigem comunicação entre as pessoas 120 00:05:59,374 --> 00:06:01,251 que têm diferentes pontos de vista, 121 00:06:01,271 --> 00:06:03,551 exigem participação, exigem debate, 122 00:06:03,620 --> 00:06:05,483 exigem deliberação. 123 00:06:06,433 --> 00:06:08,181 Já há muito tempo que pensamos 124 00:06:08,201 --> 00:06:12,065 que, para melhorar a democracia, precisamos de mais comunicação. 125 00:06:12,555 --> 00:06:15,879 Todas as tecnologias que melhorámos no contexto da democracia, 126 00:06:15,903 --> 00:06:18,792 quer sejam os jornais ou as redes sociais, 127 00:06:18,812 --> 00:06:21,594 têm tentado munir-nos de mais comunicação. 128 00:06:22,068 --> 00:06:23,760 Mas aventurámo-nos nesse caminho 129 00:06:23,793 --> 00:06:26,115 e sabemos que isso não vai resolver o problema. 130 00:06:26,139 --> 00:06:28,187 Porque não é um problema de comunicação, 131 00:06:28,221 --> 00:06:30,207 é um problema cognitivo. 132 00:06:30,459 --> 00:06:32,919 Então, se é um problema cognitivo, 133 00:06:33,049 --> 00:06:35,439 aumentar a comunicação para as pessoas 134 00:06:35,553 --> 00:06:37,830 não vai ser o que o vai resolver. 135 00:06:38,314 --> 00:06:41,368 Em vez disso, vamos precisar de ter outras tecnologias 136 00:06:41,432 --> 00:06:44,305 que nos ajudem a lidar com alguma das comunicações 137 00:06:44,489 --> 00:06:46,695 com que estamos a abarrotar. 138 00:06:46,963 --> 00:06:49,765 Pensem numa espécie de avatar, um agente de "software", 139 00:06:49,798 --> 00:06:51,867 num Grilo Falante digital 140 00:06:52,007 --> 00:06:53,329 (Risos) 141 00:06:53,359 --> 00:06:56,821 que consiga responder a coisas por nossa conta. 142 00:06:57,757 --> 00:06:59,559 Se tivéssemos essa tecnologia 143 00:06:59,569 --> 00:07:01,966 podíamos descarregar parte das comunicações 144 00:07:02,006 --> 00:07:06,078 e talvez tomar melhores decisões ou decisões a uma escala maior. 145 00:07:06,953 --> 00:07:10,490 a ideia de agentes de "software" também não é nova. 146 00:07:10,534 --> 00:07:12,793 Já estamos sempre a usá-la. 147 00:07:13,197 --> 00:07:15,076 Usamos agentes de "software" 148 00:07:15,086 --> 00:07:18,257 para escolher a forma como conduzir até determinado local, 149 00:07:18,971 --> 00:07:21,386 a música que queremos ouvir 150 00:07:21,746 --> 00:07:24,528 ou sugestões para os livros que queremos ler. 151 00:07:26,188 --> 00:07:28,579 Há uma ideia óbvia no século XXI 152 00:07:28,603 --> 00:07:31,182 que é tão óbvia como a ideia 153 00:07:31,192 --> 00:07:36,485 de juntar uma máquina a vapor a um tear, na época de Jacquard. 154 00:07:37,765 --> 00:07:41,948 Essa ideia é combinar a democracia direta com agentes de "softwarw". 155 00:07:42,888 --> 00:07:45,069 Imaginem, por instantes, um mundo 156 00:07:45,119 --> 00:07:48,120 em que, em vez de ter um representante que nos represente, 157 00:07:48,168 --> 00:07:50,074 a nós e a milhões de outras pessoas, 158 00:07:50,104 --> 00:07:53,308 podemos ter um representante que nos represente só a nós 159 00:07:53,608 --> 00:07:55,944 com as nossas opiniões políticas matizadas 160 00:07:55,978 --> 00:07:58,522 numa combinação esquisita de libertárias e liberais 161 00:07:58,532 --> 00:08:01,236 talvez um pouco conservadoras em determinadas questões 162 00:08:01,266 --> 00:08:03,422 e talvez progressistas noutras. 163 00:08:03,742 --> 00:08:06,754 Os políticos hoje são pacotes e estão cheios de compromissos. 164 00:08:06,854 --> 00:08:10,585 Mas nós podemos ter alguém que nos representa só a nós, 165 00:08:10,615 --> 00:08:13,253 se estivermos dispostos a desistir da ideia 166 00:08:13,263 --> 00:08:15,239 de que o representante é um ser humano. 167 00:08:15,249 --> 00:08:17,592 Se esse representante for um agente de "software", 168 00:08:17,632 --> 00:08:20,991 podemos ter um Senado que tenha tantos senadores quantos os cidadãos. 169 00:08:21,521 --> 00:08:24,295 Esses senadores vão poder ler cada proposta de lei 170 00:08:24,325 --> 00:08:26,697 vão poder votar em cada uma delas. 171 00:08:27,937 --> 00:08:30,698 Esta é uma ideia que vale a pena considerar. 172 00:08:30,788 --> 00:08:33,248 Eu compreendo que, hoje, nesta altura, 173 00:08:33,278 --> 00:08:35,518 esta ideia possa ser um pouco assustadora. 174 00:08:36,438 --> 00:08:39,697 Com efeito, pensar num robô que vem do futuro 175 00:08:39,737 --> 00:08:41,591 para nos ajudar a governar o país 176 00:08:41,615 --> 00:08:43,572 soa de forma aterradora. 177 00:08:44,322 --> 00:08:45,963 Mas já por lá passámos. 178 00:08:45,973 --> 00:08:47,364 (Risos) 179 00:08:47,404 --> 00:08:49,735 E, na verdade, até era um tipo simpático. 180 00:08:53,275 --> 00:08:57,427 Como se pareceria a versão do tear de Jacquard para esta ideia? 181 00:08:58,107 --> 00:09:00,141 Seria um sistema muito simples. 182 00:09:00,185 --> 00:09:03,430 Imaginem um sistema em que entramos e criamos o nosso avatar. 183 00:09:03,510 --> 00:09:05,588 Depois começamos a treinar o nosso avatar. 184 00:09:05,618 --> 00:09:08,658 Podemos fornecer ao avatar os nossos hábitos de leitura, 185 00:09:08,698 --> 00:09:10,864 ou ligá-lo às nossas redes sociais 186 00:09:10,884 --> 00:09:13,009 ou podemos ligá-lo a outras informações, 187 00:09:13,033 --> 00:09:15,341 por exemplo, fazendo testes psicológicos. 188 00:09:15,475 --> 00:09:18,267 O interessante nisto é que não há enganos. 189 00:09:18,317 --> 00:09:21,359 Não fornecemos dados para comunicar com amigos e família 190 00:09:21,389 --> 00:09:24,642 que depois são usados num sistema político. 191 00:09:24,852 --> 00:09:28,587 Fornecemos informações a um sistema que se destina a ser usado 192 00:09:28,617 --> 00:09:30,905 para tomar decisões políticas em nosso nome. 193 00:09:31,175 --> 00:09:35,124 Depois, agarramos nesses dados e escolhemos um algoritmo de treino 194 00:09:35,154 --> 00:09:36,904 porque é um mercado aberto 195 00:09:36,924 --> 00:09:39,801 em que diversas pessoas podem escolher diferentes algoritmos 196 00:09:39,821 --> 00:09:43,691 para prever como vamos votar, com base nas informações que fornecemos. 197 00:09:44,161 --> 00:09:47,209 O sistema é aberto, ninguém controla os algoritmos; 198 00:09:47,239 --> 00:09:50,726 há algoritmos que se tornam mais populares e outros menos populares. 199 00:09:50,754 --> 00:09:52,651 Por fim, podemos fiscalizar o sistema, 200 00:09:52,651 --> 00:09:54,562 ver como é que o nosso avatar funciona. 201 00:09:54,592 --> 00:09:56,941 Se gostarmos, podemos pô-lo em piloto automático. 202 00:09:56,961 --> 00:09:58,603 Se queremos ser mais controladores 203 00:09:58,633 --> 00:10:01,569 podemos optar por ele nos consultar antes de tomar uma decisão 204 00:10:01,589 --> 00:10:03,863 ou a meio caminho entre estas duas opções. 205 00:10:04,197 --> 00:10:06,622 Uma das razões por que usamos tão pouco a democracia 206 00:10:06,656 --> 00:10:10,471 talvez seja porque a democracia tem uma interface muito fraca. 207 00:10:11,231 --> 00:10:13,663 Se melhorarmos a interface da democracia 208 00:10:13,693 --> 00:10:15,970 talvez a passemos a usar mais. 209 00:10:16,361 --> 00:10:19,482 Claro que há muitas questões que gostariam de me colocar. 210 00:10:20,326 --> 00:10:22,663 Como é que treinamos esses avatares? 211 00:10:22,673 --> 00:10:24,784 Como mantemos as informações em segurança? 212 00:10:24,824 --> 00:10:27,692 Como é mantemos os sistemas distribuídos e verificáveis? 213 00:10:27,722 --> 00:10:29,954 Como é que faz a minha avó que tem 80 anos 214 00:10:29,994 --> 00:10:31,800 e não sabe usar a Internet? 215 00:10:32,280 --> 00:10:34,026 Acreditem, já as ouvi todas. 216 00:10:34,056 --> 00:10:38,373 Quando pensamos numa ideia como esta temos de ter cuidado com os pessimistas 217 00:10:39,003 --> 00:10:43,147 porque eles são conhecidos por terem um problema para cada solução. 218 00:10:43,181 --> 00:10:44,284 (Risos) 219 00:10:45,294 --> 00:10:47,559 Convido-vos a pensar nas ideias em grande. 220 00:10:48,129 --> 00:10:51,823 As perguntas que mostrei há pouco são ideias pequeninas 221 00:10:51,883 --> 00:10:54,873 porque são perguntas sobre como é que isto não funcionaria. 222 00:10:55,236 --> 00:10:57,392 As grandes ideias são: 223 00:10:57,412 --> 00:10:59,303 "Que mais podemos fazer com isso 224 00:10:59,343 --> 00:11:01,604 "se isso vier a entrar em funcionamento?" 225 00:11:01,774 --> 00:11:05,094 E uma dessas ideias é: "Quem escreve as leis?" 226 00:11:05,944 --> 00:11:09,454 No início, podemos ter os avatares que sempre temos 227 00:11:09,894 --> 00:11:13,517 a votar nas leis que são escritas pelos senadores ou pelos políticos 228 00:11:13,537 --> 00:11:15,020 que já temos. 229 00:11:15,370 --> 00:11:17,898 Mas, se isto entrar em funcionamento, 230 00:11:17,918 --> 00:11:20,172 podemos escrever um algoritmo 231 00:11:20,202 --> 00:11:22,432 que possa tentar escrever uma lei 232 00:11:22,522 --> 00:11:24,986 que obterá uma determinada percentagem de aprovações 233 00:11:25,026 --> 00:11:26,681 e podemos inverter o processo. 234 00:11:26,701 --> 00:11:29,001 Podem pensar nesta ideia como uma ideia ridícula, 235 00:11:29,031 --> 00:11:30,411 mas não devem fazê-lo, 236 00:11:30,431 --> 00:11:32,983 e não podem negar que é uma ideia que só é possível 237 00:11:32,993 --> 00:11:36,133 num mundo em que a democracia direta e os agentes de "software" 238 00:11:36,153 --> 00:11:38,987 são uma forma viável de participação. 239 00:11:40,727 --> 00:11:43,517 Então, como é que começamos a revolução? 240 00:11:44,107 --> 00:11:47,498 Não começamos esta revolução com piquetes ou manifestações 241 00:11:47,528 --> 00:11:51,298 nem exigindo que os atuais políticos se transformem em robôs. 242 00:11:51,628 --> 00:11:53,262 Isso não vai resultar. 243 00:11:53,292 --> 00:11:55,935 É muito mais simples, muito mais lento, 244 00:11:55,975 --> 00:11:57,554 e muito mais humilde. 245 00:11:57,664 --> 00:12:00,752 Começamos esta revolução criando sistemas simples como este, 246 00:12:00,767 --> 00:12:04,207 nas universidades, nas bibliotecas, nas organizações sem fins lucrativos. 247 00:12:04,237 --> 00:12:06,827 E tentamos imaginar todas essas pequenas questões 248 00:12:06,857 --> 00:12:08,425 e todos esses pequenos problemas 249 00:12:08,465 --> 00:12:11,656 que vão ter de ser imaginados para tornar esta ideia viável, 250 00:12:11,676 --> 00:12:14,351 para tornar esta ideia numa coisa em que podemos confiar. 251 00:12:14,391 --> 00:12:17,686 Quando criarmos esses sistemas cem pessoas, mil pessoas, 252 00:12:17,746 --> 00:12:21,415 cem mil pessoas a votar de uma forma que não é vinculativa politicamente, 253 00:12:21,445 --> 00:12:23,619 vamos criar confiança nesta ideia, 254 00:12:23,639 --> 00:12:25,271 e o mundo vai mudar 255 00:12:25,301 --> 00:12:27,964 e aqueles que são da idade da minha filha, hoje, 256 00:12:27,994 --> 00:12:29,677 vão crescer. 257 00:12:30,597 --> 00:12:33,080 Na altura em que a minha filha tiver a minha idade, 258 00:12:33,100 --> 00:12:36,799 talvez esta ideia, que concordo que é hoje muito louca, 259 00:12:37,259 --> 00:12:41,209 possa não ser tão louca para ela e para os seus amigos. 260 00:12:41,948 --> 00:12:43,606 Nessa altura, 261 00:12:43,646 --> 00:12:46,253 chegaremos ao fim da nossa história, 262 00:12:46,303 --> 00:12:49,110 mas eles estarão no início da deles. 263 00:12:49,661 --> 00:12:50,776 Obrigado. 264 00:12:50,846 --> 00:12:53,989 (Aplausos)