1 00:00:01,373 --> 00:00:03,117 Est-ce que c'est juste moi 2 00:00:03,141 --> 00:00:05,473 ou y a-t-il d'autres gens ici 3 00:00:05,497 --> 00:00:07,841 qui sont un peu déçus par la démocratie? 4 00:00:08,986 --> 00:00:11,322 (Applaudissements) 5 00:00:12,141 --> 00:00:14,212 Considérons quelques chiffres. 6 00:00:14,934 --> 00:00:17,107 Si nous regardons à travers le monde, 7 00:00:17,131 --> 00:00:21,023 le taux moyen de participation aux élections présidentielles 8 00:00:21,047 --> 00:00:22,698 au cours des 30 dernières années 9 00:00:22,698 --> 00:00:25,320 s'élève seulement à 67%. 10 00:00:26,329 --> 00:00:28,302 Si nous allons en Europe 11 00:00:28,326 --> 00:00:32,754 et considérons les gens ayant participé aux élections parlementaires de l'UE, 12 00:00:32,778 --> 00:00:35,019 le taux moyen de participation à ces élections 13 00:00:35,019 --> 00:00:36,977 est seulement de 42%. 14 00:00:38,125 --> 00:00:39,794 Allons à présent à New York 15 00:00:39,818 --> 00:00:44,499 et regardons combien de personnes ont voté dans les dernières élections municipales. 16 00:00:44,523 --> 00:00:48,340 Nous découvrons que seulement 24% sont allés voter. 17 00:00:49,063 --> 00:00:52,158 Cela veut dire que si la série « Friends » était encore diffusée, 18 00:00:52,182 --> 00:00:55,530 Joey et peut-être Phoebe seraient allés voter. 19 00:00:55,554 --> 00:00:56,844 (Rires) 20 00:00:57,434 --> 00:01:01,860 Vous ne pouvez pas leur en vouloir car les gens en ont marre des politiciens. 21 00:01:01,884 --> 00:01:05,771 Les gens en ont marre des autres gens utilisant les données qu'ils ont générées 22 00:01:05,795 --> 00:01:08,033 en communiquant avec leurs amis et leur famille, 23 00:01:08,033 --> 00:01:10,351 pour en faire des cibles de propagande politique. 24 00:01:10,519 --> 00:01:13,247 Le fait est que cela n'est pas nouveau. 25 00:01:13,271 --> 00:01:16,512 On utilise les « j'aime » pour vous cibler. 26 00:01:16,520 --> 00:01:19,893 Avant, c'était votre code postal, votre sexe ou votre âge, 27 00:01:19,917 --> 00:01:23,487 car l'idée de faire des gens des cibles de propagande à des fins politiques 28 00:01:23,511 --> 00:01:25,263 est aussi vieille que la politique. 29 00:01:25,530 --> 00:01:27,808 Cette idée existe bien, car 30 00:01:27,832 --> 00:01:31,304 la démocratie a une vulnérabilité fondamentale. 31 00:01:31,710 --> 00:01:33,642 Voici le schéma d'une élection. 32 00:01:34,049 --> 00:01:37,993 En principe, la démocratie est la capacité du peuple à exercer le pouvoir. 33 00:01:38,017 --> 00:01:41,835 Mais en pratique, nous devons déléguer ce pouvoir à un représentant 34 00:01:41,859 --> 00:01:44,114 qui peut exercer ce pouvoir pour nous. 35 00:01:44,561 --> 00:01:46,606 Ce représentant est le goulot d'étranglement 36 00:01:46,606 --> 00:01:47,707 ou un point faible. 37 00:01:47,731 --> 00:01:51,680 C'est lui que vous voulez cibler si vous voulez attaquer la démocratie, 38 00:01:51,704 --> 00:01:55,193 car vous pouvez vous emparer de la démocratie via ce représentant 39 00:01:55,217 --> 00:01:57,365 ou via la façon dont les gens le choisissent. 40 00:01:58,065 --> 00:01:59,481 La question est : 41 00:01:59,505 --> 00:02:01,209 Est-ce la fin de l'histoire ? 42 00:02:01,989 --> 00:02:05,092 Est-ce le mieux que nous puissions faire 43 00:02:05,878 --> 00:02:08,945 ou y a-t-il des alternatives ? 44 00:02:10,130 --> 00:02:12,484 Certains réfléchissent à des alternatives 45 00:02:12,508 --> 00:02:16,187 et l'une des idées énoncées est la démocratie directe. 46 00:02:16,790 --> 00:02:20,820 Elle consiste à shunter les politiciens et faire voter les gens directement 47 00:02:20,820 --> 00:02:23,985 sur des problèmes et des projets de loi. 48 00:02:24,415 --> 00:02:25,751 Mais cette idée est naïve, 49 00:02:25,775 --> 00:02:28,946 car nous serions obligés de choisir trop de choses. 50 00:02:28,970 --> 00:02:31,752 Si vous considérez le 114e congrès des États-Unis, 51 00:02:31,776 --> 00:02:34,263 vous verrez que la Chambre des représentants 52 00:02:34,287 --> 00:02:37,176 a examiné plus de 6 000 projets de loi, 53 00:02:37,200 --> 00:02:39,856 le Sénat a examiné plus de 3 000 projets de loi 54 00:02:39,880 --> 00:02:42,688 et ils ont approuvé plus de 300 lois. 55 00:02:42,712 --> 00:02:44,285 Cela obligerait chacun à prendre 56 00:02:44,285 --> 00:02:46,622 de nombreuses décisions chaque semaine 57 00:02:46,622 --> 00:02:49,248 sur des sujets sur lesquels il a peu de connaissances. 58 00:02:49,248 --> 00:02:51,510 Il y a un problème de bande passante cognitive 59 00:02:51,534 --> 00:02:55,526 si nous essayons de voir la démocratie directe comme une alternative viable. 60 00:02:56,205 --> 00:03:00,640 Certains imaginent une démocratie liquide ou fluide, 61 00:03:00,664 --> 00:03:04,404 dans laquelle vous donnez votre pouvoir politique à quelqu'un, 62 00:03:04,404 --> 00:03:06,214 qui peut le donner à quelqu'un d'autre 63 00:03:06,214 --> 00:03:08,749 et, finalement, vous créez un grand réseau de suiveurs 64 00:03:08,753 --> 00:03:12,047 où seulement quelques personnes prennent les décisions 65 00:03:12,071 --> 00:03:15,214 au nom de tous leurs suiveurs et des suiveurs de leurs suiveurs. 66 00:03:16,326 --> 00:03:20,455 Cette idée ne résout pas le problème de la bande passante cognitive 67 00:03:20,479 --> 00:03:24,356 et, pour être honnête, est similaire au fait d'avoir un représentant. 68 00:03:24,795 --> 00:03:28,263 Aujourd'hui, je vais être un peu provocateur 69 00:03:28,277 --> 00:03:30,577 et je vais vous demander : 70 00:03:30,601 --> 00:03:37,163 « Et si, au lieu d'essayer de shunter les politiciens, 71 00:03:37,187 --> 00:03:39,387 nous essayions de les automatiser ? » 72 00:03:45,871 --> 00:03:48,797 L'idée de l'automatisation n'est pas nouvelle. 73 00:03:48,821 --> 00:03:50,901 Elle a commencé il y a 300 ans, 74 00:03:50,925 --> 00:03:54,463 quand les tisserands français ont décidé d'automatiser le métier à tisser. 75 00:03:54,820 --> 00:03:59,180 Le vainqueur de cette guerre industrielle fut Joseph-Marie Jacquard. 76 00:03:59,204 --> 00:04:01,165 C'était un tisserand et marchand français 77 00:04:01,165 --> 00:04:03,639 qui a marié le métier à tisser et la machine à vapeur 78 00:04:03,639 --> 00:04:05,653 pour créer des métiers à tisser autonomes. 79 00:04:05,657 --> 00:04:08,410 Avec ces métiers à tisser, il a gagné en contrôle. 80 00:04:08,434 --> 00:04:12,319 Il pouvait fabriquer des tissus plus complexes et sophistiqués 81 00:04:12,343 --> 00:04:14,471 que ceux qui étaient faits à la main. 82 00:04:15,193 --> 00:04:17,825 En gagnant cette guerre industrielle, 83 00:04:17,849 --> 00:04:21,373 il a installé ce qui est devenu le schéma directeur de l'automatisation. 84 00:04:22,135 --> 00:04:25,005 Notre façon d'automatiser les choses ces 300 dernières années 85 00:04:25,029 --> 00:04:26,411 n'a jamais changé : 86 00:04:27,006 --> 00:04:29,515 nous identifions d'abord un besoin, 87 00:04:29,539 --> 00:04:32,723 puis nous créons un outil pour satisfaire ce besoin, 88 00:04:32,747 --> 00:04:34,787 comme le métier à tisser, 89 00:04:34,811 --> 00:04:37,312 puis nous étudions comment les gens utilisent l'outil 90 00:04:37,312 --> 00:04:38,911 pour automatiser cet utilisateur. 91 00:04:39,242 --> 00:04:42,303 C'est ainsi que nous sommes passés du métier à tisser mécanique 92 00:04:42,327 --> 00:04:44,223 au métier à tisser autonome 93 00:04:44,271 --> 00:04:46,391 et cela nous a pris mille ans. 94 00:04:46,391 --> 00:04:48,462 Alors qu'il ne nous a fallu que cent ans 95 00:04:48,486 --> 00:04:51,697 pour utiliser ce même schéma afin d'automatiser la voiture. 96 00:04:53,286 --> 00:04:55,738 Cependant, cette fois, 97 00:04:55,762 --> 00:04:57,891 l'automatisation est réelle. 98 00:04:57,915 --> 00:05:01,236 Voici une vidéo qu'un de mes collègues de Toshiba a partagée avec moi 99 00:05:01,260 --> 00:05:04,519 et qui montre l'usine qui produit des disques SSD. 100 00:05:04,543 --> 00:05:06,561 L'usine entière est un robot. 101 00:05:06,585 --> 00:05:08,510 Il n'y a pas d'humain dans cette usine. 102 00:05:09,033 --> 00:05:11,254 Les robots vont bientôt quitter les usines 103 00:05:11,278 --> 00:05:13,300 et faire partie de notre monde, 104 00:05:13,324 --> 00:05:15,159 faire partie de notre main d’œuvre. 105 00:05:15,183 --> 00:05:16,956 Ce que je fais au quotidien, 106 00:05:17,004 --> 00:05:20,996 c'est de créer des outils qui intègrent des données de pays entiers 107 00:05:20,996 --> 00:05:24,462 afin que nous disposions des fondations nécessaires 108 00:05:24,486 --> 00:05:28,173 pour un futur où nous aurons besoin de gérer ces machines. 109 00:05:29,195 --> 00:05:32,101 Mais je ne suis pas là pour vous parler de ces outils 110 00:05:32,101 --> 00:05:33,925 qui intègrent les données des pays. 111 00:05:34,463 --> 00:05:37,085 Je suis ici pour vous parler d'une autre idée 112 00:05:37,109 --> 00:05:39,698 qui pourrait nous aider à réfléchir à comment utiliser 113 00:05:39,698 --> 00:05:41,998 l'intelligence artificielle dans la démocratie. 114 00:05:41,998 --> 00:05:46,731 Car les outils que je développe sont conçus pour des décisions exécutives. 115 00:05:46,755 --> 00:05:50,597 Ce sont des décisions pouvant être prises avec une certaine objectivité -- 116 00:05:50,621 --> 00:05:52,506 des décisions d'investissement public. 117 00:05:52,885 --> 00:05:55,516 Mais il y a des décisions législatives 118 00:05:55,540 --> 00:05:59,327 et ces décisions nécessitent une communication entre des gens 119 00:05:59,351 --> 00:06:01,171 qui ont des points de vue différents, 120 00:06:01,171 --> 00:06:03,688 requièrent une participation, un débat, 121 00:06:03,712 --> 00:06:05,190 une délibération. 122 00:06:06,241 --> 00:06:09,045 Pendant longtemps, nous avons pensé 123 00:06:09,069 --> 00:06:12,529 que pour améliorer la démocratie, il fallait plus de communication. 124 00:06:12,553 --> 00:06:16,262 Les technologies que nous avons élaborées dans le contexte de la démocratie, 125 00:06:16,286 --> 00:06:19,064 que ce soient les journaux ou les réseaux sociaux, 126 00:06:19,088 --> 00:06:21,470 ont essayé de nous offrir plus de communication. 127 00:06:22,079 --> 00:06:24,035 Nous nous sommes aventurés sur ce terrain 128 00:06:24,035 --> 00:06:26,697 et nous savons que cela ne résoudra pas le problème. 129 00:06:26,721 --> 00:06:28,717 Ce n'est pas un problème de communication, 130 00:06:28,741 --> 00:06:30,489 mais de bande passante cognitive. 131 00:06:30,513 --> 00:06:33,049 S'il s'agit d'un problème de bande passante cognitive, 132 00:06:33,049 --> 00:06:35,490 accentuer la communication 133 00:06:35,514 --> 00:06:38,258 ne va pas le résoudre. 134 00:06:38,282 --> 00:06:41,395 Nous allons avoir besoin de technologies supplémentaires 135 00:06:41,419 --> 00:06:44,465 qui nous aident à gérer une partie de la communication 136 00:06:44,489 --> 00:06:46,731 qui nous sature. 137 00:06:46,755 --> 00:06:48,454 Pensez à un petit avatar, 138 00:06:48,478 --> 00:06:49,817 un agent logiciel, 139 00:06:49,841 --> 00:06:51,719 un Jiminy Cricket numérique -- 140 00:06:51,743 --> 00:06:52,981 (Rires) 141 00:06:53,005 --> 00:06:57,017 qui est capable de répondre à des choses en votre nom. 142 00:06:57,759 --> 00:06:59,546 Si nous avions cette technologie, 143 00:06:59,570 --> 00:07:02,108 nous pourrions nous délester d'un peu de communication 144 00:07:02,108 --> 00:07:06,219 et aider à prendre de meilleures décisions ou des décisions à plus grande échelle. 145 00:07:06,860 --> 00:07:10,579 L'idée des agents logiciels n'est pas nouvelle non plus. 146 00:07:10,603 --> 00:07:12,712 Nous les utilisons déjà constamment. 147 00:07:13,216 --> 00:07:14,737 Nous utilisons ces agents 148 00:07:14,761 --> 00:07:18,436 pour choisir comment nous rendre à un endroit donné, 149 00:07:19,070 --> 00:07:21,171 la musique que nous allons écouter 150 00:07:21,758 --> 00:07:24,979 ou pour obtenir des suggestions de livres. 151 00:07:25,994 --> 00:07:28,568 Au XXIe siècle, il y a une idée évidente, 152 00:07:28,592 --> 00:07:31,235 aussi évidente que celle 153 00:07:31,259 --> 00:07:36,538 de réunir une machine à vapeur et un métier à tisser 154 00:07:36,538 --> 00:07:37,538 au temps de Jacquard. 155 00:07:37,538 --> 00:07:41,994 Il s'agit d'associer la démocratie directe aux agents logiciels. 156 00:07:42,849 --> 00:07:44,970 Imaginez un instant un monde 157 00:07:44,994 --> 00:07:48,160 où, au lieu d'avoir un représentant pour vous représenter, 158 00:07:48,184 --> 00:07:49,758 vous et des millions d'autres, 159 00:07:49,782 --> 00:07:52,818 vous aviez un représentant qui ne représentait que vous, 160 00:07:53,504 --> 00:07:55,758 avec vos opinions politiques nuancées -- 161 00:07:55,782 --> 00:07:59,126 cette étrange combinaison de libertaire, de libéral, 162 00:07:59,150 --> 00:08:01,612 peut-être un peu de conservateur sur certains sujets 163 00:08:01,612 --> 00:08:03,674 et très progressiste sur d'autres. 164 00:08:03,698 --> 00:08:06,965 Aujourd'hui, les politiciens sont des ensembles pleins de compromis. 165 00:08:06,989 --> 00:08:10,623 Mais vous pourriez avoir quelqu'un uniquement pour vous représenter, 166 00:08:10,647 --> 00:08:12,499 si vous êtes prêts à abandonner l'idée 167 00:08:12,523 --> 00:08:14,772 que ce représentant doit être un être humain. 168 00:08:15,229 --> 00:08:17,311 Si ce représentant est un agent logiciel, 169 00:08:17,335 --> 00:08:21,505 nous pourrions avoir un sénat avec autant de sénateurs que de citoyens. 170 00:08:21,529 --> 00:08:24,387 Ces sénateurs seront capables de lire tous les projets de loi 171 00:08:24,411 --> 00:08:27,158 et de voter pour chacun de ces projets. 172 00:08:27,822 --> 00:08:30,778 C'est une idée claire que nous voulons peut-être considérer. 173 00:08:30,802 --> 00:08:33,224 Mais je comprends que de nos jours, 174 00:08:33,248 --> 00:08:35,137 cette idée puisse être effrayante. 175 00:08:36,391 --> 00:08:39,831 En effet, imaginer un robot venu du futur 176 00:08:39,855 --> 00:08:41,528 pour nous aider à diriger nos pays 177 00:08:41,552 --> 00:08:43,183 paraît terrifiant. 178 00:08:44,223 --> 00:08:45,874 Mais nous l'avons déjà fait. 179 00:08:45,898 --> 00:08:47,171 (Rires) 180 00:08:47,195 --> 00:08:49,690 Et c'était un gars plutôt sympa. 181 00:08:51,677 --> 00:08:58,111 A quoi ressemblerait le métier à tisser de Jacquard pour cette idée ? 182 00:08:58,135 --> 00:09:00,036 Ce serait un système très simple. 183 00:09:00,060 --> 00:09:03,518 Imaginez un système où vous vous connectez, créez un avatar 184 00:09:03,542 --> 00:09:05,998 puis commencez à entraîner votre avatar. 185 00:09:06,022 --> 00:09:08,834 Vous pouvez fournir à votre avatar vos habitudes de lecture, 186 00:09:08,834 --> 00:09:10,589 le connecter à vos réseaux sociaux 187 00:09:10,613 --> 00:09:13,021 ou à d'autres données, 188 00:09:13,045 --> 00:09:15,317 par exemple en passant des tests de psychologie. 189 00:09:15,341 --> 00:09:18,309 Ce qui est agréable, c'est qu'il n'y a pas de supercherie. 190 00:09:18,333 --> 00:09:19,776 Vous ne donnez pas des données 191 00:09:19,776 --> 00:09:21,996 pour communiquer avec vos amis et votre famille 192 00:09:21,996 --> 00:09:24,847 qui sont ensuite utilisées dans un système politique. 193 00:09:24,871 --> 00:09:28,575 Vous procurez des données à un système conçu pour être utilisé 194 00:09:28,599 --> 00:09:30,715 pour prendre des décisions en votre nom. 195 00:09:31,264 --> 00:09:35,244 Vous prenez ensuite ces données et choisissez un algorithme d'apprentissage, 196 00:09:35,268 --> 00:09:36,831 car c'est un marché libre 197 00:09:36,855 --> 00:09:39,901 où différentes personnes peuvent soumettre différents algorithmes 198 00:09:39,901 --> 00:09:44,059 pour prédire comment vous voterez d'après les données fournies. 199 00:09:44,083 --> 00:09:47,538 Le système est ouvert, personne ne contrôle les algorithmes ; 200 00:09:47,562 --> 00:09:49,674 certains deviennent populaires 201 00:09:49,698 --> 00:09:51,421 et d'autres le sont moins. 202 00:09:51,445 --> 00:09:53,252 Vous pouvez auditer le système, 203 00:09:53,276 --> 00:09:55,101 voir comment votre avatar fonctionne. 204 00:09:55,101 --> 00:09:57,543 Si vous l'aimez, laissez-le en pilote automatique. 205 00:09:57,543 --> 00:09:59,419 Si vous voulez un peu plus de contrôle, 206 00:09:59,467 --> 00:10:01,435 vous pouvez décider qu'il vous demande 207 00:10:01,435 --> 00:10:03,503 à chaque fois qu'il prend une décision, 208 00:10:03,527 --> 00:10:05,162 ou choisir un compromis. 209 00:10:05,186 --> 00:10:07,591 Nous utilisons si peu la démocratie 210 00:10:07,615 --> 00:10:11,183 en partie car la démocratie dispose d'une mauvaise interface utilisateur. 211 00:10:11,207 --> 00:10:14,030 Si nous améliorons l'interface utilisateur de la démocratie, 212 00:10:14,030 --> 00:10:15,841 nous pourrions l'utiliser davantage. 213 00:10:16,452 --> 00:10:19,659 Bien sûr, vous pouvez vous poser plein de questions. 214 00:10:20,473 --> 00:10:22,634 Comment entraîner ces avatars ? 215 00:10:22,658 --> 00:10:24,662 Comment préserver la sécurité des données ? 216 00:10:24,662 --> 00:10:27,824 Comment maintenir les systèmes distribués et auditables ? 217 00:10:27,848 --> 00:10:29,910 Qu'en est-il de ma grand-mère de 80 ans 218 00:10:29,946 --> 00:10:31,906 qui ne sait pas utiliser internet ? 219 00:10:32,262 --> 00:10:34,483 Croyez-moi, je les ai toutes entendues. 220 00:10:34,507 --> 00:10:39,067 Quand vous pensez à une telle idée, vous devez vous méfier des pessimistes, 221 00:10:39,091 --> 00:10:43,410 car ils sont connus pour avoir un problème à chaque solution. 222 00:10:43,434 --> 00:10:45,259 (Rires) 223 00:10:45,283 --> 00:10:48,323 Je veux vous inviter à réfléchir aux plus grandes idées. 224 00:10:48,347 --> 00:10:51,973 Les questions que j'ai évoquées ne sont que de petites idées, 225 00:10:51,997 --> 00:10:54,899 car ce sont des questions sur le non fonctionnement. 226 00:10:55,502 --> 00:10:57,483 Les grandes idées sont : 227 00:10:57,507 --> 00:10:59,314 que pouvons-nous faire d'autre 228 00:10:59,338 --> 00:11:01,227 si cela fonctionne ? 229 00:11:01,774 --> 00:11:05,219 Une de ces idées implique : qui écrit les lois ? 230 00:11:05,854 --> 00:11:10,077 Au début, nous pourrions nous servir des avatars que nous possédons déjà ; 231 00:11:10,101 --> 00:11:13,598 ils voteraient sur des lois écrites par les sénateurs ou politiciens 232 00:11:13,622 --> 00:11:14,973 déjà en place. 233 00:11:15,491 --> 00:11:17,205 Mais si cela fonctionnait, 234 00:11:17,902 --> 00:11:20,252 vous pourriez écrire un algorithme 235 00:11:20,276 --> 00:11:22,426 qui essayerait d'écrire une loi 236 00:11:22,450 --> 00:11:24,871 qui recevrait un certain pourcentage d'assentiment, 237 00:11:24,895 --> 00:11:26,601 puis vous inverseriez le processus. 238 00:11:26,601 --> 00:11:28,947 Vous pensez peut-être que cette idée est ridicule, 239 00:11:28,947 --> 00:11:30,377 nous ne devrions pas le faire, 240 00:11:30,377 --> 00:11:33,023 mais vous ne pouvez pas nier que c'est une idée possible 241 00:11:33,047 --> 00:11:36,207 que dans un monde où la démocratie directe et les agents logiciels 242 00:11:36,207 --> 00:11:38,747 sont une forme de participation viable. 243 00:11:40,596 --> 00:11:43,349 Comment initier la révolution ? 244 00:11:44,238 --> 00:11:47,758 Nous n’initierons pas cette révolution avec des grèves, des manifestations 245 00:11:47,758 --> 00:11:51,762 ou en exigeant que nos politiciens actuels soient transformés en robots. 246 00:11:51,810 --> 00:11:53,359 Cela ne fonctionnera pas. 247 00:11:53,359 --> 00:11:54,971 C'est bien plus simple, 248 00:11:54,995 --> 00:11:56,154 plus lent 249 00:11:56,178 --> 00:11:57,592 et bien plus humble. 250 00:11:57,616 --> 00:12:01,965 Nous commençons par créer de tels systèmes simples dans les universités, 251 00:12:01,989 --> 00:12:04,083 les bibliothèques, les organisations. 252 00:12:04,107 --> 00:12:06,761 Nous allons trouver une solution à ces petites questions 253 00:12:06,785 --> 00:12:08,006 et ces petits problèmes 254 00:12:08,030 --> 00:12:11,931 qu'il faudra résoudre pour rendre cette idée viable, 255 00:12:11,955 --> 00:12:14,306 pour la rendre fiable. 256 00:12:14,330 --> 00:12:17,965 En créant ces systèmes où une centaine, un millier, 257 00:12:17,989 --> 00:12:21,799 une centaine de milliers de gens votent de façon politiquement non contractuelle, 258 00:12:21,799 --> 00:12:23,881 nous développerons la confiance en l'idée, 259 00:12:23,881 --> 00:12:25,344 le monde changera 260 00:12:25,368 --> 00:12:29,233 et ceux qui sont aussi jeunes que ma fille actuellement, grandiront. 261 00:12:30,580 --> 00:12:32,949 D'ici à ce que ma fille ait mon âge, 262 00:12:32,973 --> 00:12:37,409 peut-être que cette idée qui est folle aujourd'hui, 263 00:12:37,433 --> 00:12:41,567 ne sera plus si folle pour elle et pour ses amis. 264 00:12:41,956 --> 00:12:43,793 À ce moment-là, 265 00:12:43,817 --> 00:12:46,420 ce sera la fin de notre histoire, 266 00:12:46,444 --> 00:12:49,265 mais le début de la leur. 267 00:12:49,646 --> 00:12:50,829 Merci. 268 00:12:50,853 --> 00:12:53,895 (Applaudissements)