1 00:00:01,373 --> 00:00:03,117 Sou só eu 2 00:00:03,141 --> 00:00:05,473 ou há outras pessoas aqui 3 00:00:05,497 --> 00:00:07,841 que estão um pouco decepcionadas com a democracia? 4 00:00:08,986 --> 00:00:11,322 (Aplausos) 5 00:00:12,141 --> 00:00:14,212 Vamos analisar alguns números. 6 00:00:14,934 --> 00:00:17,107 Observando todo o mundo, 7 00:00:17,131 --> 00:00:21,023 o comparecimento médio em eleições presidenciais 8 00:00:21,047 --> 00:00:22,698 nos últimos 30 anos 9 00:00:22,722 --> 00:00:25,344 tem sido de apenas 67%. 10 00:00:26,329 --> 00:00:28,302 Agora, se observarmos a Europa 11 00:00:28,326 --> 00:00:32,754 e analisarmos as pessoas que participaram das eleições parlamentares da UE, 12 00:00:32,778 --> 00:00:34,849 o comparecimento médio nessas eleições 13 00:00:34,873 --> 00:00:36,977 foi de apenas 42%. 14 00:00:38,125 --> 00:00:39,794 Agora, observemos Nova Iorque 15 00:00:39,818 --> 00:00:44,499 e vejamos quantas pessoas votaram na última eleição para prefeito. 16 00:00:44,523 --> 00:00:48,340 Descobriremos que apenas 24% das pessoas foram votar. 17 00:00:49,063 --> 00:00:52,158 Isso significa que, se "Friends" ainda estivesse no ar, 18 00:00:52,182 --> 00:00:55,530 Joey, e talvez Phoebe, teriam ido votar. 19 00:00:55,554 --> 00:00:57,194 (Risos) 20 00:00:57,434 --> 00:01:01,860 E não se pode culpar as pessoas, pois estão cansadas dos políticos 21 00:01:01,884 --> 00:01:05,771 e de outras pessoas que usam as informações que elas geraram 22 00:01:05,795 --> 00:01:07,993 ao se comunicar com amigos e família 23 00:01:08,017 --> 00:01:10,111 para direcionar-lhes propaganda política. 24 00:01:10,519 --> 00:01:13,247 Mas isso não é novidade. 25 00:01:13,271 --> 00:01:16,496 Hoje, pessoas usam curtidas para direcionar propagandas a vocês; 26 00:01:16,520 --> 00:01:19,893 antes, usavam seu CEP, seu gênero ou sua idade. 27 00:01:19,917 --> 00:01:23,487 Porque a ideia de direcionar propagandas a pessoas com fins políticos 28 00:01:23,511 --> 00:01:25,523 é tão antiga quanto a política em si. 29 00:01:25,530 --> 00:01:31,228 E essa ideia existe porque a democracia tem uma vulnerabilidade básica: 30 00:01:31,710 --> 00:01:33,642 a ideia de um "representante". 31 00:01:34,049 --> 00:01:37,993 Em princípio, democracia é a capacidade de as pessoas exercerem o poder. 32 00:01:38,017 --> 00:01:41,835 Mas, na prática, temos que delegar esse poder a um representante 33 00:01:41,859 --> 00:01:44,474 que o exercerá em nosso nome. 34 00:01:44,561 --> 00:01:46,386 Esse representante é um gargalo 35 00:01:46,410 --> 00:01:47,707 ou um ponto fraco. 36 00:01:47,731 --> 00:01:51,680 É o alvo a ser atingido se quisermos atacar a democracia, 37 00:01:51,704 --> 00:01:55,193 porque podemos capturá-la capturando esse representante 38 00:01:55,217 --> 00:01:57,455 ou capturando o modo como as pessoas o escolhem. 39 00:01:58,065 --> 00:01:59,481 Então, a grande questão é: 40 00:01:59,505 --> 00:02:01,209 este é o fim da história? 41 00:02:01,989 --> 00:02:05,092 Isto é o melhor que podemos fazer 42 00:02:05,878 --> 00:02:08,945 ou há alternativas? 43 00:02:10,130 --> 00:02:12,484 Algumas pessoas têm pensado em alternativas, 44 00:02:12,508 --> 00:02:16,187 e uma das ideias que surgiu é a de democracia direta. 45 00:02:16,790 --> 00:02:19,269 É a ideia de ignorar completamente os políticos 46 00:02:19,293 --> 00:02:22,026 e permitir que votemos diretamente as questões, 47 00:02:22,076 --> 00:02:23,985 votemos diretamente os projetos de lei. 48 00:02:24,415 --> 00:02:25,751 Mas essa ideia é ingênua, 49 00:02:25,775 --> 00:02:28,946 pois há muitas questões que teríamos que decidir. 50 00:02:28,970 --> 00:02:31,752 Se observarem o 114º Congresso americano, 51 00:02:31,776 --> 00:02:34,263 verão que a Câmara dos Deputados 52 00:02:34,287 --> 00:02:37,176 analisou mais de 6 mil projetos de lei, 53 00:02:37,200 --> 00:02:39,856 e o Senado mais de 3 mil, 54 00:02:39,880 --> 00:02:42,688 e ambos aprovaram mais de 300 leis. 55 00:02:42,712 --> 00:02:44,291 Estas teriam sido muitas decisões 56 00:02:44,315 --> 00:02:46,502 que cada pessoa teria que tomar por semana 57 00:02:46,526 --> 00:02:48,668 em assuntos pouco conhecidos. 58 00:02:49,129 --> 00:02:51,700 Logo, há um grande problema de recurso cognitivo básico 59 00:02:51,750 --> 00:02:55,526 se formos pensar a democracia direta como alternativa viável. 60 00:02:56,205 --> 00:03:00,640 Algumas pessoas pensaram na ideia de democracia líquida ou fluida, 61 00:03:00,664 --> 00:03:04,440 na qual você endossaria seu poder político a alguém 62 00:03:04,464 --> 00:03:06,164 que o endossaria a outra pessoa 63 00:03:06,188 --> 00:03:08,849 e, finalmente, seria criada uma grande rede de seguidores 64 00:03:08,869 --> 00:03:12,047 que, ao final, teria poucas pessoas tomando as decisões 65 00:03:12,071 --> 00:03:15,214 em nome de seus seguidores e dos seguidores destes. 66 00:03:16,326 --> 00:03:20,455 Mas essa ideia também não soluciona o problema do recurso cognitivo básico 67 00:03:20,479 --> 00:03:24,356 e é bem similar à ideia de ter um representante. 68 00:03:24,795 --> 00:03:28,263 Então, hoje, serei um pouco provocativo 69 00:03:28,277 --> 00:03:30,577 e perguntarei a vocês: 70 00:03:30,601 --> 00:03:36,363 e se, em vez de tentar ignorar os políticos, 71 00:03:37,187 --> 00:03:39,387 nós tentássemos automatizá-los? 72 00:03:45,871 --> 00:03:48,797 A noção de automação não é nova. 73 00:03:48,821 --> 00:03:50,901 Ela se iniciou há mais de 300 anos, 74 00:03:50,925 --> 00:03:53,993 quando tecelões franceses decidiram automatizar o tear. 75 00:03:54,820 --> 00:03:59,180 O vitorioso nessa guerra industrial foi Joseph-Marie Jacquard. 76 00:03:59,204 --> 00:04:00,955 Ele era mercador e tecelão francês 77 00:04:00,979 --> 00:04:03,419 e combinou o tear com o motor a vapor 78 00:04:03,443 --> 00:04:05,633 para criar teares autônomos. 79 00:04:05,657 --> 00:04:08,410 Por meio desses teares autônomos, ele obteve controle. 80 00:04:08,434 --> 00:04:12,319 Agora, ele conseguia fazer tecidos mais complexos e mais sofisticados 81 00:04:12,343 --> 00:04:14,471 do que aqueles feitos à mão. 82 00:04:15,193 --> 00:04:17,825 Mas também, ao vencer aquela guerra industrial, 83 00:04:17,849 --> 00:04:21,373 ele definiu o que se tornaria o modelo da automação. 84 00:04:22,135 --> 00:04:25,005 A maneira como automatizamos as coisas pelos últimos 300 anos 85 00:04:25,029 --> 00:04:26,411 tem sido a mesma: 86 00:04:27,006 --> 00:04:29,515 primeiro, identificamos uma necessidade; 87 00:04:29,539 --> 00:04:32,723 depois, criamos uma ferramenta para satisfazer essa necessidade, 88 00:04:32,747 --> 00:04:34,787 como o tear, neste caso; 89 00:04:34,811 --> 00:04:37,202 e, então, estudamos como essa ferramenta é usada, 90 00:04:37,226 --> 00:04:38,711 e automatizamos o usuário. 91 00:04:39,242 --> 00:04:42,303 Foi assim que passamos do tear mecânico 92 00:04:42,327 --> 00:04:44,223 para o tear autônomo, 93 00:04:44,247 --> 00:04:46,367 e isso nos levou mil anos. 94 00:04:46,391 --> 00:04:48,462 Agora, nós levamos apenas 100 anos 95 00:04:48,486 --> 00:04:51,697 para automatizar o carro usando o mesmo roteiro. 96 00:04:53,286 --> 00:04:55,458 Mas, desta vez, 97 00:04:55,762 --> 00:04:57,891 a automatização é para valer. 98 00:04:57,915 --> 00:05:01,236 Este é um vídeo compartilhado por um colega da Toshiba 99 00:05:01,260 --> 00:05:04,519 que mostra a fábrica que produz unidades de estado sólido. 100 00:05:04,543 --> 00:05:06,561 A fábrica toda é robotizada. 101 00:05:06,585 --> 00:05:08,510 Não há humanos naquela fábrica. 102 00:05:09,033 --> 00:05:11,254 E os robôs, em breve, deixarão as fábricas 103 00:05:11,278 --> 00:05:15,170 e se tornarão parte de nosso mundo, de nossa mão de obra. 104 00:05:15,183 --> 00:05:16,956 No meu trabalho diário, 105 00:05:16,980 --> 00:05:20,972 eu crio ferramentas que integram dados para países inteiros 106 00:05:20,996 --> 00:05:24,462 para que tenhamos o alicerce que precisamos 107 00:05:24,486 --> 00:05:28,173 para um futuro em que precisemos gerenciar essas máquinas. 108 00:05:29,195 --> 00:05:32,101 Mas, hoje, não estou aqui para falar sobre essas ferramentas 109 00:05:32,125 --> 00:05:33,949 que integram dados para países. 110 00:05:34,463 --> 00:05:37,085 Estou aqui para falar sobre uma outra ideia 111 00:05:37,109 --> 00:05:41,974 que talvez nos ajude a pensar em como usar inteligência artificial na democracia. 112 00:05:41,998 --> 00:05:46,731 As ferramentas que construí são projetadas para decisões executivas. 113 00:05:46,755 --> 00:05:50,597 São decisões que podem ser tomadas de maneira objetiva, 114 00:05:50,621 --> 00:05:52,676 decisões de investimento público. 115 00:05:52,885 --> 00:05:55,516 Mas há decisões que são legislativas, 116 00:05:55,540 --> 00:05:59,327 e elas exigem comunicação entre pessoas 117 00:05:59,351 --> 00:06:01,051 que têm diferentes pontos de vista, 118 00:06:01,075 --> 00:06:05,118 exigem participação, debate, deliberação. 119 00:06:06,241 --> 00:06:09,009 Por muito tempo, pensamos 120 00:06:09,079 --> 00:06:12,529 que o que se precisava para aprimorar a democracia era mais comunicação. 121 00:06:12,553 --> 00:06:16,262 Então, todos os avanços tecnológicos que tivemos no contexto da democracia, 122 00:06:16,286 --> 00:06:19,064 sejam eles jornais ou redes sociais, 123 00:06:19,088 --> 00:06:21,470 tentaram nos proporcionar mais comunicação. 124 00:06:21,913 --> 00:06:25,915 Mas nós já seguimos por esse caminho e sabemos que não é essa a solução, 125 00:06:25,931 --> 00:06:28,307 porque não se trata de problema de comunicação, 126 00:06:28,331 --> 00:06:30,489 e sim de recursos cognitivos básicos. 127 00:06:30,513 --> 00:06:33,089 Então, se o problema é de recursos cognitivos básicos, 128 00:06:33,129 --> 00:06:35,490 prover as pessoas com mais comunicação 129 00:06:35,514 --> 00:06:38,258 não vai ser a solução. 130 00:06:38,282 --> 00:06:41,395 Precisaremos de outras tecnologias 131 00:06:41,419 --> 00:06:44,465 que nos ajudem a lidar com parte da comunicação 132 00:06:44,489 --> 00:06:46,731 que nos sobrecarrega. 133 00:06:46,755 --> 00:06:48,454 Pensem em um pequeno avatar, 134 00:06:48,478 --> 00:06:49,817 um agente de software, 135 00:06:49,841 --> 00:06:51,719 um Grilo Falante digital, 136 00:06:51,743 --> 00:06:52,981 (Risos) 137 00:06:53,005 --> 00:06:57,017 que seja capaz de responder em seu nome. 138 00:06:57,759 --> 00:06:59,546 Se tivéssemos essa tecnologia, 139 00:06:59,570 --> 00:07:02,138 poderíamos descarregar parte dessa comunicação 140 00:07:02,158 --> 00:07:06,219 e, talvez, ajudar a tomar decisões melhores ou em maior escala. 141 00:07:06,860 --> 00:07:10,579 Essa noção de agentes de software também não é nova. 142 00:07:10,603 --> 00:07:12,712 Já os utilizamos todo o tempo. 143 00:07:13,216 --> 00:07:14,737 Usamos agentes de software 144 00:07:14,761 --> 00:07:18,436 para decidir que caminho tomaremos ao dirigir para certo lugar, 145 00:07:19,070 --> 00:07:21,171 que música ouviremos 146 00:07:21,758 --> 00:07:24,779 ou o próximo livro que devemos ler. 147 00:07:25,994 --> 00:07:28,568 No século 21, há uma ideia óbvia, 148 00:07:28,592 --> 00:07:31,235 tão óbvia quanto a ideia 149 00:07:31,259 --> 00:07:36,840 de combinar o motor a vapor e o tear na época de Jacquard, 150 00:07:37,538 --> 00:07:41,994 que é a de combinar a democracia direta com agentes de software. 151 00:07:42,849 --> 00:07:44,970 Imaginem, por um segundo, um mundo 152 00:07:44,994 --> 00:07:48,160 em que, em vez de alguém representar você 153 00:07:48,184 --> 00:07:49,758 e milhões de outras pessoas, 154 00:07:49,782 --> 00:07:52,818 você tenha um representante apenas seu, 155 00:07:53,504 --> 00:07:55,758 com suas visões políticas variadas, 156 00:07:55,782 --> 00:07:59,126 aquela estranha combinação de libertário e liberal 157 00:07:59,150 --> 00:08:01,542 e talvez um pouco conservador em algumas questões 158 00:08:01,566 --> 00:08:03,674 e talvez muito progressista em outras. 159 00:08:03,698 --> 00:08:07,155 Hoje em dia, políticos são como pacotes e estão cheios de compromissos. 160 00:08:07,185 --> 00:08:10,623 Mas talvez tenhamos alguém que represente apenas "você", 161 00:08:10,647 --> 00:08:12,649 se estiver disposto a abandonar a ideia 162 00:08:12,669 --> 00:08:14,772 de que esse representante seja humano. 163 00:08:15,069 --> 00:08:17,311 Se esse representante for um agente de software, 164 00:08:17,335 --> 00:08:21,505 podemos ter um Senado que tenha tantos senadores quanto nós temos cidadãos. 165 00:08:21,529 --> 00:08:24,387 Esses senadores poderão ler cada projeto de lei 166 00:08:24,411 --> 00:08:27,158 e votar em cada um deles. 167 00:08:27,822 --> 00:08:30,778 Há uma ideia óbvia que talvez devamos analisar. 168 00:08:30,802 --> 00:08:35,514 Entendo que, nos dias de hoje, ela possa ser um tanto assustadora. 169 00:08:36,391 --> 00:08:39,831 Na verdade, pensar em um robô vindo do futuro 170 00:08:39,855 --> 00:08:43,138 para nos ajudar a governar parece assustador. 171 00:08:44,223 --> 00:08:45,874 Mas já passamos por isso. 172 00:08:45,898 --> 00:08:47,171 (Risos) 173 00:08:47,195 --> 00:08:49,690 E ele até que foi um cara legal. 174 00:08:53,087 --> 00:08:58,111 Como seria essa ideia na versão do tear de Jacquard? 175 00:08:58,135 --> 00:09:00,036 Seria um sistema bem simples. 176 00:09:00,060 --> 00:09:03,518 Imaginem um sistema em que você se conectaria e criaria seu avatar 177 00:09:03,542 --> 00:09:05,782 e começaria a treiná-lo. 178 00:09:05,802 --> 00:09:08,704 Você poderia fornecer ao seu avatar seus hábitos de leitura, 179 00:09:08,728 --> 00:09:10,589 conectá-lo a suas mídias sociais 180 00:09:10,613 --> 00:09:13,021 ou a outras informações, 181 00:09:13,045 --> 00:09:15,317 por exemplo, ao fazer testes psicológicos. 182 00:09:15,341 --> 00:09:18,309 O bom disso é que não há enganação. 183 00:09:18,333 --> 00:09:21,672 Você não está fornecendo dados para se comunicar com amigos e família 184 00:09:21,696 --> 00:09:24,847 que, então, são usados em um sistema político. 185 00:09:24,871 --> 00:09:28,575 Você está fornecendo dados a um sistema projetado para ser usado 186 00:09:28,599 --> 00:09:30,715 na tomada de decisões políticas em seu nome. 187 00:09:31,264 --> 00:09:35,244 Depois, você pega esses dados e escolhe um algoritmo de treinamento, 188 00:09:35,268 --> 00:09:36,831 porque é um mercado aberto, 189 00:09:36,855 --> 00:09:39,661 em que diferentes pessoas podem enviar diferentes algoritmos 190 00:09:39,675 --> 00:09:44,059 para prever como vocês vão votar, com base nos dados que forneceram. 191 00:09:44,083 --> 00:09:47,338 O sistema é aberto, então ninguém controla os algoritmos: 192 00:09:47,362 --> 00:09:50,598 alguns algoritmos se tornam mais populares e outros menos. 193 00:09:50,615 --> 00:09:52,472 Por fim, você pode auditar o sistema. 194 00:09:52,516 --> 00:09:54,417 Pode ver como seu avatar funciona. 195 00:09:54,441 --> 00:09:56,593 Se gostar, pode deixá-lo no automático. 196 00:09:56,607 --> 00:09:58,609 Ou, se quiser um pouco mais de controle, 197 00:09:58,633 --> 00:10:02,131 pode configurá-lo para que lhe pergunte toda vez que for tomar uma decisão 198 00:10:02,131 --> 00:10:04,222 ou qualquer outra configuração. 199 00:10:04,226 --> 00:10:06,841 Uma das razões pelas quais usamos a democracia tão pouco 200 00:10:06,855 --> 00:10:10,903 talvez seja por ela ter uma interface de usuário ruim. 201 00:10:11,077 --> 00:10:13,690 E, se melhorarmos a interface de usuário da democracia, 202 00:10:13,714 --> 00:10:15,841 talvez a usemos mais. 203 00:10:16,452 --> 00:10:19,659 Por certo, vocês devem ter muitas perguntas: 204 00:10:20,473 --> 00:10:22,634 Como treinar esses avatares? 205 00:10:22,658 --> 00:10:24,552 Como manter os dados seguros? 206 00:10:24,576 --> 00:10:27,824 Como manter os sistemas distribuídos e auditáveis? 207 00:10:27,848 --> 00:10:32,240 E quanto à minha avó, de 80 anos, que nem sabe usar a internet? 208 00:10:32,262 --> 00:10:34,483 Acreditem em mim, já ouvi todas elas. 209 00:10:34,507 --> 00:10:39,067 Ao se pensar sobre uma ideia como esta, deve-se estar atento aos pessimistas, 210 00:10:39,091 --> 00:10:43,410 porque eles são conhecidos por terem um problema para toda solução. 211 00:10:43,434 --> 00:10:45,259 (Risos) 212 00:10:45,283 --> 00:10:48,323 Gostaria de convidá-los a pensarem sobre ideias maiores. 213 00:10:48,347 --> 00:10:51,973 As perguntas que acabei de lhes mostrar são ideias menores, 214 00:10:51,997 --> 00:10:54,899 porque são perguntas sobre como isso não funcionaria. 215 00:10:55,502 --> 00:10:57,483 As grandes ideias são ideias como: 216 00:10:57,507 --> 00:11:01,264 o que mais pode ser feito se isso funcionasse? 217 00:11:01,774 --> 00:11:05,219 E uma dessas ideias é: quem faz as leis? 218 00:11:05,854 --> 00:11:10,077 No início, poderíamos fazer os avatares já existentes 219 00:11:10,101 --> 00:11:13,598 votarem em leis feitas por senadores ou políticos 220 00:11:13,622 --> 00:11:14,973 já existentes. 221 00:11:15,491 --> 00:11:17,205 Se isso funcionasse, 222 00:11:17,902 --> 00:11:20,252 poderia ser criado um algoritmo 223 00:11:20,276 --> 00:11:22,426 que tentaria fazer uma lei 224 00:11:22,450 --> 00:11:24,815 para obter uma certa porcentagem de aprovação, 225 00:11:24,835 --> 00:11:26,621 e se poderia reverter o processo. 226 00:11:26,641 --> 00:11:30,213 Vocês podem achar essa ideia absurda e que não deveríamos tentar realizá-la, 227 00:11:30,237 --> 00:11:33,023 mas não podem negar ser uma ideia que somente é possível 228 00:11:33,047 --> 00:11:36,067 em um mundo em que a democracia direta e agentes de software 229 00:11:36,091 --> 00:11:38,747 são uma forma viável de participação. 230 00:11:40,596 --> 00:11:43,349 Então, como iniciamos a revolução? 231 00:11:44,238 --> 00:11:47,548 Não iniciamos esta revolução com cercas ou protestos 232 00:11:47,572 --> 00:11:51,762 ou exigindo que nosso políticos atuais sejam transformados em robôs. 233 00:11:51,786 --> 00:11:53,335 Isso não funcionará. 234 00:11:53,359 --> 00:11:54,971 É bem mais simples, 235 00:11:54,995 --> 00:11:56,154 mais lento 236 00:11:56,178 --> 00:11:57,592 e bem mais modesto. 237 00:11:57,616 --> 00:12:01,965 Iniciamos esta revolução criando sistemas simples como esse em faculdades, 238 00:12:01,989 --> 00:12:04,083 livrarias, organizações sem fins lucrativos. 239 00:12:04,107 --> 00:12:08,161 E tentamos resolver todas aquelas pequenas questões e aqueles problemas 240 00:12:08,186 --> 00:12:11,931 que teremos que resolver para tornar esta ideia viável, 241 00:12:11,955 --> 00:12:14,306 para transformá-la em algo confiável. 242 00:12:14,330 --> 00:12:17,965 Ao criar esses sistemas, que terão centenas, milhares, 243 00:12:17,989 --> 00:12:21,759 centenas de milhares de pessoas votando de modo não politicamente vinculante, 244 00:12:21,783 --> 00:12:23,921 estaremos desenvolvendo confiança nesta ideia, 245 00:12:23,941 --> 00:12:25,344 o mundo irá mudar, 246 00:12:25,368 --> 00:12:28,243 e aqueles tão jovens quanto minha filha hoje 247 00:12:28,267 --> 00:12:29,604 irão crescer. 248 00:12:30,580 --> 00:12:32,949 E, quando minha filha tiver minha idade, 249 00:12:32,973 --> 00:12:37,409 talvez a ideia, que hoje sei ser bem maluca, 250 00:12:37,433 --> 00:12:41,567 não seja maluca para ela e os amigos dela. 251 00:12:41,956 --> 00:12:43,793 Naquele momento, 252 00:12:43,817 --> 00:12:46,420 estaremos no fim de nossa história, 253 00:12:46,444 --> 00:12:49,265 mas eles estarão no começo da deles. 254 00:12:49,646 --> 00:12:50,829 Obrigado. 255 00:12:50,853 --> 00:12:53,195 (Aplausos)