0:00:07.235,0:00:09.767 Aujourd'hui, j'ai envie de vous parler[br]d'innovation et de vie privée, 0:00:09.777,0:00:14.526 parce que les deux ne sont pas souvent[br]des choses que l'on connecte. 0:00:14.691,0:00:16.921 Pour moi, c'est absolument essentiel. 0:00:17.116,0:00:18.856 J'ai une question à vous poser. 0:00:18.876,0:00:20.986 Y-a-t-il des gens ici[br]qui se sont déjà dit : 0:00:20.996,0:00:23.005 « Ma vie privée,[br]mes données, je m'en fous, 0:00:23.005,0:00:25.412 parce que je n'ai,[br]globalement, rien à cacher » ? 0:00:25.732,0:00:26.992 Oui. 0:00:27.012,0:00:31.092 Qui se considère être bien[br]et plutôt honnête dans sa vie ? 0:00:31.275,0:00:34.255 Voilà ! Donc évidemment,[br]on a rien à cacher, 0:00:34.265,0:00:36.325 puisqu'au final,[br]que découvriront les gens ? 0:00:36.345,0:00:37.914 Que je suis quelqu'un de normal, 0:00:37.924,0:00:40.524 et que ma vie n'a rien[br]de particulièrement intéressant. 0:00:40.534,0:00:43.195 On va faire une petite expérience,[br]si ça vous dit, OK ? 0:00:43.515,0:00:48.910 Prenez tous votre téléphone[br]et ouvrez votre dernière conversation. 0:00:48.910,0:00:51.075 Ne la choisissez pas,[br]ce n'est pas important. 0:00:51.105,0:00:53.426 N'importe quelle[br]application de messagerie, 0:00:53.446,0:00:56.286 ouvrez la dernière conversation. 0:00:56.746,0:00:58.653 C'est bon ? 0:00:59.539,0:01:02.579 Maintenant passez[br]votre téléphone à votre voisin. 0:01:07.952,0:01:09.402 OK. 0:01:10.825,0:01:12.335 Bon ! 0:01:14.087,0:01:16.337 (En riant) OK, OK ! 0:01:18.239,0:01:22.424 Combien de personnes ici, 0:01:22.464,0:01:26.094 combien de personnes[br]ont regardé la conversation 0:01:26.114,0:01:28.454 du téléphone qu'on leur a donné ? 0:01:29.114,0:01:31.950 Est-ce que je vous ai dit[br]de regarder la conversation ? 0:01:31.970,0:01:33.505 (Rires) 0:01:33.545,0:01:34.870 Et voilà ! 0:01:34.900,0:01:37.594 Combien de personnes[br]ont senti une petite anxiété 0:01:37.604,0:01:39.964 quand ils ont passé[br]le téléphone à leur voisin ? 0:01:39.974,0:01:41.204 (Rires) 0:01:41.214,0:01:42.494 Voilà. 0:01:42.514,0:01:46.416 Et encore, la personne est à côté de vous,[br]vous savez exactement qui c'est. 0:01:46.436,0:01:48.387 Vous pouvez voir si elle fait des choses 0:01:48.397,0:01:50.857 qu'elle n'est pas censée[br]faire avec vos messages. 0:01:50.867,0:01:52.605 Maintenant, dites-vous un truc. 0:01:52.615,0:01:55.134 A chaque fois que vous dites OK[br]à une entreprise 0:01:55.134,0:01:57.909 pour récupérer vos données,[br]vous êtes en train de faire ça, 0:01:57.919,0:02:00.089 mais avec des gens[br]que vous ne connaissez pas, 0:02:00.099,0:02:02.316 dont vous ne connaissez pas[br]les vrais intérêts, 0:02:02.316,0:02:04.925 et contre qui vous n'avez[br]quasiment aucun recours. 0:02:04.945,0:02:08.287 Et pour moi, ça, c'est[br]un vrai sujet aujourd'hui. 0:02:08.517,0:02:13.583 C'est qu'on a complètement[br]déconnecté l'impact réel 0:02:13.603,0:02:17.465 des abus de vie privée[br]de notre utilisation de la technologie. 0:02:18.935,0:02:23.976 Sauf qu'en fait, dans les années 1990,[br]à l’époque où on était déconnecté, 0:02:23.986,0:02:26.508 les questions de données perso[br]n'étaient pas un sujet, 0:02:26.528,0:02:28.122 car il y avait peu de données. 0:02:28.132,0:02:30.707 La majorité de notre vie,[br]on la passait offline. 0:02:30.717,0:02:33.036 Donc, personne ne savait [br]ce qui se passait. 0:02:33.046,0:02:35.840 Sauf qu'à chaque fois qu'on a[br]commencé à connecter un objet, 0:02:35.860,0:02:37.573 avec de plus en plus [br]de technologie, 0:02:37.573,0:02:40.246 on a commencé à digitaliser[br]plus d'aspects de notre vie. 0:02:40.256,0:02:43.496 Le résultat, c'est qu'aujourd’hui,[br]on arrive à ce point d'inflexion 0:02:43.516,0:02:46.567 où on produit tellement[br]de données personnelles 0:02:46.587,0:02:50.102 que tellement peu[br]d'entreprises centralisent, 0:02:50.102,0:02:55.126 qu'on commence véritablement[br]à avoir toute notre vie qui est exposée. 0:02:55.396,0:02:56.815 Et c'est ça, le vrai danger. 0:02:56.825,0:02:58.475 Il y a 20 ans, vous pouviez dire[br] 0:02:58.495,0:03:00.985 que les questions de vie privée[br]étaient secondaires, 0:03:01.005,0:03:04.455 mais aujourd'hui, le monde a changé,[br]les données sont partout. 0:03:04.859,0:03:07.644 Et ça me fait peur quand je[br]commence à regarder des choses 0:03:07.654,0:03:10.344 comme le nombre de vol de données. 0:03:11.463,0:03:16.204 Oui, et ça, ce n'est qu'une sélection,[br]ce n'est pas tout ce qui a été volé. 0:03:16.596,0:03:18.755 Alors encore une fois,[br]vous pouvez vous dire : 0:03:18.755,0:03:22.134 s'il y a eu autant de données volées[br]qu'il y a d'humains sur la planète, 0:03:22.154,0:03:24.534 comment se fait-il[br]que je n'ai pas eu de soucis ? 0:03:24.554,0:03:28.074 Eh bien, de plus en plus de gens [br]ont ce qu'on appelle des « ransomwares », 0:03:28.084,0:03:31.785 c-à-d des pirates informatiques qui,[br]avec ces données volées, 0:03:31.785,0:03:35.405 vous envoient un message disant :[br]« Vous m'envoyez des bitcoins, 0:03:35.425,0:03:37.617 ou je balance à tout le monde, 0:03:37.637,0:03:40.417 vos photos que vous n'avez pas[br]envie que les gens voient. 0:03:40.657,0:03:43.134 Donc, quand vous donnez[br]vos données à une entreprise, 0:03:43.154,0:03:46.215 vous êtes aussi en train d'en[br]donner potentiellement à un hacker, 0:03:46.225,0:03:49.526 et ça peut vous coûter beaucoup d'argent,[br]et si vous refusez de payer, 0:03:49.536,0:03:53.135 je peut vous garantir qu'ils rendront[br]publiques ces informations. 0:03:53.459,0:03:56.605 Ne pensez pas que, parce que[br]ça ne vous est pas arrivé aujourd'hui, 0:03:56.615,0:03:58.444 ça ne vous arrivera pas dans le futur. 0:03:58.454,0:04:01.693 Pour moi, les questions de vie privée[br]sont des questions de sécurité. 0:04:01.693,0:04:05.598 Il faut qu'on puisse se sentir[br]en sécurité sur internet. 0:04:05.618,0:04:10.065 Il ne faut pas qu'on ait peur[br]en permanence, du vol de nos données. 0:04:11.506,0:04:15.097 Deuxièmement, il faut comprendre[br]que ces entreprises, au fur et à mesure, 0:04:15.107,0:04:18.475 finissent par créer un profil[br]tellement précis de qui vous êtes, 0:04:18.475,0:04:22.027 qu'ils savent des choses sur vous[br]que vous n'imaginez pas. 0:04:22.307,0:04:26.262 L'autre jour, je parlais à quelqu'un[br]d'un livre que je voulais acheter. 0:04:26.262,0:04:29.780 Je ne l'avais pas encore acheté[br]et j'ai eu une pub pour ce livre-là. 0:04:30.360,0:04:32.242 Et personne ne m'a entendu le dire.[br] 0:04:32.262,0:04:36.062 En fait, ce que moi et mes amis[br]avons cherché sur internet 0:04:36.072,0:04:37.932 a permis de dresser[br]un profil si précis 0:04:37.942,0:04:41.472 qu'ils ont compris ce qui m'intéressait,[br]un peu comme un puzzle. 0:04:41.492,0:04:44.642 Quand vous commencez, [br]vous ne savez pas ce qu'il y a dedans, 0:04:44.672,0:04:47.562 et à chaque fois que vous rajoutez [br]une pièce, ça s'éclairci. 0:04:47.582,0:04:50.802 C'est ce qui se passe avec votre profil[br]et vos données personnelles. 0:04:50.822,0:04:54.776 C'est bien d'avoir de la personnalisation,[br]du targeting, dans le cadre de la santé. 0:04:54.796,0:04:57.086 C'est important d'avoir[br]une santé personnalisée. 0:04:57.096,0:05:00.526 Mais la plupart du temps, c'est utilisé[br]pour les mauvaises raisons. 0:05:00.546,0:05:04.996 C'est utilisé pour essayer de vous garder[br]captifs de ces différentes plateformes. 0:05:05.356,0:05:09.046 Vous savez cette sensation, sur Instagram,[br]quand vous scrollez en permanence, 0:05:09.056,0:05:12.996 et vous ne comprenez pas pourquoi[br]vous continuez, comme un addict. 0:05:13.166,0:05:16.076 En fait, vous êtes tellement bien profilé, 0:05:16.096,0:05:18.846 que le contenu qu'on vous montre[br]est tellement intéressant 0:05:18.866,0:05:21.996 que vous finissez, tout simplement,[br]par ne jamais en avoir marre. 0:05:22.136,0:05:23.906 Malheureusement, ça va plus loin.[br] 0:05:23.926,0:05:28.466 Ils utilisent aussi des techniques[br]de nudge pour vous pousser des pubs, 0:05:28.486,0:05:32.816 avec un seul but, pas celui de vous donner[br]quelque chose dont vous avez besoin, 0:05:32.836,0:05:35.216 mais celui de gagner[br]de l'argent de l'autre côté. 0:05:35.236,0:05:38.216 Vos données sont utilisées[br]pour faire du targeting publicitaire 0:05:38.226,0:05:39.896 qui leur permet de gagner l'argent.[br] 0:05:39.906,0:05:41.636 Sauf que dans la majorité des cas, 0:05:41.636,0:05:45.051 ce sont des produits dont[br]vous n'avez pas forcément besoin, 0:05:45.061,0:05:49.491 vendus par des entreprises avec lesquelles[br]vous n'avez pas toujours envie de traiter, 0:05:49.511,0:05:52.841 et malheureusement très souvent,[br]avec de l'argent que vous n'avez pas. 0:05:52.861,0:05:55.761 Donc aujourd'hui pour moi,[br]le problème de targeting 0:05:55.771,0:05:59.511 c'est globalement des problèmes,[br]en fait, de manipulation. 0:05:59.791,0:06:02.301 Et on l'a vu aussi au niveau[br]de Cambridge Analytica 0:06:02.311,0:06:05.141 quand ils ont utilisé ça[br]pour manipuler les avis politiques. 0:06:05.161,0:06:08.302 Si je sais ce que vous aimez, [br]je sais exactement quoi vous montrer 0:06:08.312,0:06:10.662 pour vous faire penser[br]telle ou telle chose. 0:06:10.677,0:06:12.657 Ça s'est fait sur des échelles énormes. 0:06:12.672,0:06:18.062 Donc, les questions de vie privée sont des[br]questions d'addiction, de manipulation, 0:06:18.072,0:06:22.137 et garantir sa vie privée, c'est garantir[br]une certaine forme de liberté de pensée. 0:06:22.797,0:06:25.387 Mais encore, ce n'est pas[br]le pire dans cette histoire. 0:06:25.397,0:06:28.425 Moi, ce qui me fait le plus peur,[br]c'est qu'on s'aperçoit 0:06:28.425,0:06:31.275 que plus quelqu'un utilise un réseau social, 0:06:31.295,0:06:35.466 moins, il y a de diversité[br]dans le contenu qu'il voit. 0:06:36.186,0:06:37.776 Cela veut dire qu'au fur à mesure[br] 0:06:37.786,0:06:41.006 que vous donnez de la donnée[br]à un réseau social ou à une entreprise, 0:06:41.016,0:06:43.256 elle vous connaît tellement[br]de mieux en mieux 0:06:43.266,0:06:46.416 qu'elle finit par vous enfermer[br]dans votre propre bulle. 0:06:46.560,0:06:49.263 C'est intéressant, car quand[br]vous êtes dans votre bulle, 0:06:49.263,0:06:52.193 tout est confortable, [br]vous vous sentez bien. 0:06:52.423,0:06:54.973 C'est pendant les élections [br]que ça se voit le plus. 0:06:54.983,0:06:57.443 Comme par hasard, tous[br]mes copains votent comme moi. 0:06:57.463,0:06:58.953 Ils sont où, les autres ? 0:06:58.973,0:07:01.963 En fait, l'algorithme[br]sait ce que j'ai envie de voir, 0:07:01.973,0:07:05.423 et plutôt que de risquer de me perdre[br]avec quelque chose qui ne me plait pas, 0:07:05.443,0:07:06.983 je vais être ciblé. 0:07:07.138,0:07:11.488 Et c'est très dangereux quand[br]on commence à perdre de la diversité, 0:07:11.528,0:07:14.958 parce qu'en fait, on sait aussi[br]que l'innovation vient de la diversité. 0:07:15.009,0:07:18.109 Des études ont montré[br]que les entreprises les plus innovantes 0:07:18.129,0:07:21.129 étaient celles qui étaient[br]aussi les plus diverses. 0:07:21.469,0:07:24.519 Donc, maintenant faisons[br]une petite expérience de pensée. 0:07:24.539,0:07:28.299 Imaginez que la couleur rouge[br]représente le domaine de la technologie. 0:07:28.609,0:07:32.286 Vous, vous êtes quelqu'un[br]qui est intéressé par la technologie. 0:07:32.406,0:07:37.143 Si à chaque fois, vous êtes[br]exposé à du contenu technologique, 0:07:37.153,0:07:39.563 qu'est-ce qui va se passer[br]au bout d'un moment ? 0:07:39.593,0:07:42.723 Vous allez juste finalement devenir [br]un meilleur technologiste, 0:07:42.743,0:07:45.343 ce qui n'est pas mauvais,[br]devenir un plus grand expert. 0:07:45.353,0:07:48.493 Vous avez renforcé, en fait,[br]vos connaissances existantes. 0:07:48.553,0:07:50.673 Mais, vous n'avez rien inventé de nouveau.[br] 0:07:50.693,0:07:54.250 Vous n'avez fait qu'approfondir[br]la connaissance que vous aviez déjà. 0:07:54.250,0:07:56.170 Maintenant, prenons un autre exemple. 0:07:56.190,0:07:57.980 Imaginons que, cette fois-ci,[br] 0:07:58.000,0:08:00.940 vous ayez trois morceaux de contenu[br]qui sont de la technologie,[br] 0:08:00.960,0:08:04.230 mais que vous commencez[br]à regarder les choses relatives à l'art. 0:08:04.270,0:08:07.830 Comme la pâte à modeler, mélangez[br]du rouge et du vert, ça fait du jaune. 0:08:07.860,0:08:09.400 Il y a quelque chose de nouveau,[br] 0:08:09.420,0:08:12.460 ni de l'art, ni de la technologie,[br]mais un genre d'intersection. 0:08:12.470,0:08:14.850 Rajoutez le commerce, et tout d'un coup,[br] 0:08:14.870,0:08:19.620 vous avez tant de diversité d'infos, vous[br]êtes capable de voir le spectre entier. 0:08:19.660,0:08:23.260 Vous n'êtes plus enfermé dans[br]le domaine que vous connaissez déjà, 0:08:23.280,0:08:25.990 vous avez maintenant la capacité[br]de voir ce qui se passe 0:08:26.010,0:08:28.570 à l'intersection[br]de ces différents domaines. 0:08:28.600,0:08:31.500 C'est ça véritablement[br]qu'on appelle l'innovation, finalement. 0:08:31.520,0:08:34.120 Donc, quand vous êtes enfermé[br]dans votre propre bulle, 0:08:34.130,0:08:36.080 vous perdez votre capacité d'innover, 0:08:36.090,0:08:39.748 car vous perdez cette capacité[br]de voir le spectre entier du possible, 0:08:39.768,0:08:43.018 et comment ces différentes[br]choses sont reliées entre elles. 0:08:43.686,0:08:45.736 Donc, pour moi,[br]les questions de vie privée 0:08:45.756,0:08:47.976 sont fondamentalement[br]des questions d'innovation. 0:08:48.016,0:08:49.876 Il est très, très, très important 0:08:49.896,0:08:52.736 d'arriver à conserver[br]notre capacité d'innovation. 0:08:53.101,0:08:56.241 Alors, comment faisons-nous[br]pour garantir la vie privée ? 0:08:56.511,0:08:58.881 Il y a pas mal[br]de technologies qui existent. 0:08:59.331,0:09:02.241 Déjà, il faut comprendre[br]le concept de « privacy by design ». 0:09:02.408,0:09:06.379 C'est véritablement cette idée[br]qu'on va garantir la vie privée, 0:09:06.409,0:09:09.159 non pas en demandant[br]à ce que nous fasse confiance, 0:09:09.169,0:09:13.589 mais plutôt en garantissant au niveau[br]technologique, du produit, du business, 0:09:13.599,0:09:16.399 que personne ne pourra jamais[br]abuser de ces données-là. 0:09:16.689,0:09:21.009 Donc, par exemple, le chiffrement[br]homomorphe, c'est très simple. 0:09:21.039,0:09:24.669 Je veux utiliser un service [br]sans dévoiler quoi que ce soit. 0:09:24.699,0:09:27.859 Imaginons vous vouliez récupérer[br]des recommandations de restaurant, 0:09:27.869,0:09:31.179 mais vous ne voulez pas que la personne[br]de l'autre coté vous localise. 0:09:31.199,0:09:34.467 Eh bien, vous allez chiffrer[br]sur votre téléphone, votre localisation. 0:09:34.477,0:09:37.637 Vous allez l'envoyer à celui[br]qui va vous faire les recommandations. 0:09:37.657,0:09:40.967 Il ne sait pas où vous êtes,[br]n'ayant pas la clé de la donnée chiffrée. 0:09:40.977,0:09:44.227 Il va mouliner un espèce de résultat[br]et le renvoyer lui-même chiffré, 0:09:44.237,0:09:46.447 donc sans savoir ce qu'ils[br]vous ont recommandé. 0:09:46.467,0:09:48.507 Et vous le déchiffrez sur votre téléphone. 0:09:48.527,0:09:50.627 Donc, vous avez été capable[br]d'avoir un service, 0:09:50.637,0:09:53.067 ici, de recommandation[br]de restaurant personnalisée, 0:09:53.087,0:09:55.167 sans jamais dévoiler là où vous êtes. 0:09:55.347,0:09:58.427 Ce genre de technologie, jusqu'à[br]récemment, ne marchait pas bien, 0:09:58.447,0:10:00.907 mais maintenant ça y est,[br]on est à quelques années 0:10:00.937,0:10:05.117 de faire en sorte que ça marche pour tout,[br]même l'intelligence artificielle. 0:10:05.377,0:10:07.537 Ensuite, il y les questions[br]de centralisation. 0:10:07.567,0:10:12.177 On ne veut surtout pas qu'une seule[br]entreprise ait le monopole sur nos données 0:10:12.197,0:10:15.317 car ça veut dire que[br]cette entreprise déciderait 0:10:15.327,0:10:17.957 de la façon dont les personnes[br]qui utilisent le service 0:10:17.977,0:10:19.617 devraient penser potentiellement. 0:10:19.637,0:10:22.737 Là aussi, beaucoup travaillent,[br]notamment grâce à la block-chain, 0:10:22.747,0:10:27.497 à la décentralisation du pouvoir[br]sur les données personnelles. 0:10:27.897,0:10:33.147 Et finalement il y a le GDPR, c'est 50-50.[br]Qui ici trouve que c'est bien le GDPR ? 0:10:34.047,0:10:36.147 Ah, c'est bien ! 0:10:36.317,0:10:39.177 Aux Etats-Unis, c'est zero,[br]les gens n'aiment pas. 0:10:39.227,0:10:41.467 C'est très bien pour trois choses. 0:10:41.507,0:10:44.827 Premièrement, ça permet[br]de se faire oublier. 0:10:44.847,0:10:47.677 Si on n'est pas content,[br]on peut partir et se faire oublier. 0:10:47.707,0:10:51.177 Deuxièmement, ça permet de récupérer[br]nos données et les envoyer ailleurs. 0:10:51.197,0:10:54.357 Si vous pensez qu'entreprise A[br]n'a pas vos valeurs éthiques, 0:10:54.377,0:10:56.797 et qu'une autre entreprise[br]propose le même service, 0:10:56.817,0:10:59.607 vous pouvez transférez vos données[br]sans recommencer à zéro. 0:10:59.627,0:11:02.327 Dans certains cas, il y a même[br]le droit au non-profilage 0:11:02.337,0:11:06.007 si, par exemple, les conséquence seraient[br]extrêmement lourdes sur votre vie. 0:11:06.317,0:11:08.665 Les réglementations entrant[br]en vigueur aujourd'hui 0:11:08.685,0:11:12.685 permettent de casser ce cercle vicieux [br]lié aux données personnelles, 0:11:12.715,0:11:16.190 qui fait qu'on finit[br]par renforcer notre bulle, 0:11:16.190,0:11:18.580 sans aucun recours possible derrière. 0:11:18.600,0:11:21.260 Donc, la cryptographie, la block-chain,[br] 0:11:21.290,0:11:23.290 la réglementation autour[br]des données perso, 0:11:23.310,0:11:26.700 sont des instruments nécessaires[br]pour protéger notre vie privée. 0:11:27.071,0:11:29.231 Pourquoi est-ce que[br]je vous parle de tout ça ? 0:11:29.251,0:11:33.591 Je vous parle de ça parce qu'aujourd'hui,[br]on a deux choix pour le futur. 0:11:33.625,0:11:35.455 On a celui-là. 0:11:36.795,0:11:40.969 Ça, c'est le choix de continuer comme[br]on est en train de faire maintenant. 0:11:41.109,0:11:43.058 On va dans le mur quoi. 0:11:43.988,0:11:46.648 Si on continue à s'enfermer[br]dans notre propre bulle, 0:11:46.658,0:11:49.508 comment est-ce qu'on va [br]véritablement changer les choses ? 0:11:49.538,0:11:51.378 Tout le monde voit bien, est d'accord, 0:11:51.398,0:11:54.082 que les choses n'avancent pas[br]dans la bonne direction. 0:11:54.112,0:11:57.912 Il y a un moment où il faut réaliser[br]que si on perd notre capacité d'innovation, 0:11:57.942,0:12:01.542 on ne réussira jamais à empêcher[br]ce genre de catastrophe. 0:12:01.728,0:12:05.678 Avez-vous envie d'aller vivre sur Mars ?[br]Il y en a qui proposent ça comme solution. 0:12:05.708,0:12:07.978 Non ! Personne n'a envie[br]d'aller vivre sur Mars. 0:12:08.008,0:12:09.698 Je suis content de vivre sur Terre. 0:12:09.708,0:12:12.988 C'est une belle planète, avec[br]de belles plages, et j'adore Paris. 0:12:13.141,0:12:16.220 Donc, j'essaie de proposer[br]quelque chose de différent. 0:12:16.270,0:12:22.350 Ce que je propose c'est qu'on arrive[br]à créer un futur qui soit positif, 0:12:22.360,0:12:25.200 un futur où on a réussi à résoudre[br]tous ces problèmes. 0:12:25.230,0:12:28.920 Mais, pour y arriver, il va falloir[br]décupler nos facultés d'innovation, 0:12:28.950,0:12:32.430 grâce à la technologie, plutôt que[br]de nous enfermer dans une bulle 0:12:32.460,0:12:34.960 qui va nous conduire[br]tout droit à une catastophe. 0:12:34.990,0:12:40.420 Et c'est pour ça que tout le monde devrait[br]se battre pour protéger la vie privée, 0:12:40.530,0:12:44.170 et pour casser les cercles vicieux[br]dans lesquels nous sommes depuis 30 ans. 0:12:44.270,0:12:45.640 Merci. 0:12:45.730,0:12:49.120 (Applaudissements)