Promouvoir l’innovation et protéger la vie privée, mythe ou réalité ? | Rand Hindi | TEDxSaclay
-
0:07 - 0:10Aujourd'hui, j'ai envie de vous parler
d'innovation et de vie privée, -
0:10 - 0:15parce que les deux ne sont pas souvent
des choses que l'on connecte. -
0:15 - 0:17Pour moi, c'est absolument essentiel.
-
0:17 - 0:19J'ai une question à vous poser.
-
0:19 - 0:21Y-a-t-il des gens ici
qui se sont déjà dit : -
0:21 - 0:23« Ma vie privée,
mes données, je m'en fous, -
0:23 - 0:25parce que je n'ai,
globalement, rien à cacher » ? -
0:26 - 0:27Oui.
-
0:27 - 0:31Qui se considère être bien
et plutôt honnête dans sa vie ? -
0:31 - 0:34Voilà ! Donc évidemment,
on a rien à cacher, -
0:34 - 0:36puisqu'au final,
que découvriront les gens ? -
0:36 - 0:38Que je suis quelqu'un de normal,
-
0:38 - 0:41et que ma vie n'a rien
de particulièrement intéressant. -
0:41 - 0:43On va faire une petite expérience,
si ça vous dit, OK ? -
0:44 - 0:49Prenez tous votre téléphone
et ouvrez votre dernière conversation. -
0:49 - 0:51Ne la choisissez pas,
ce n'est pas important. -
0:51 - 0:53N'importe quelle
application de messagerie, -
0:53 - 0:56ouvrez la dernière conversation.
-
0:57 - 0:59C'est bon ?
-
1:00 - 1:03Maintenant passez
votre téléphone à votre voisin. -
1:08 - 1:09OK.
-
1:11 - 1:12Bon !
-
1:14 - 1:16(En riant) OK, OK !
-
1:18 - 1:22Combien de personnes ici,
-
1:22 - 1:26combien de personnes
ont regardé la conversation -
1:26 - 1:28du téléphone qu'on leur a donné ?
-
1:29 - 1:32Est-ce que je vous ai dit
de regarder la conversation ? -
1:32 - 1:34(Rires)
-
1:34 - 1:35Et voilà !
-
1:35 - 1:38Combien de personnes
ont senti une petite anxiété -
1:38 - 1:40quand ils ont passé
le téléphone à leur voisin ? -
1:40 - 1:41(Rires)
-
1:41 - 1:42Voilà.
-
1:43 - 1:46Et encore, la personne est à côté de vous,
vous savez exactement qui c'est. -
1:46 - 1:48Vous pouvez voir si elle fait des choses
-
1:48 - 1:51qu'elle n'est pas censée
faire avec vos messages. -
1:51 - 1:53Maintenant, dites-vous un truc.
-
1:53 - 1:55A chaque fois que vous dites OK
à une entreprise -
1:55 - 1:58pour récupérer vos données,
vous êtes en train de faire ça, -
1:58 - 2:00mais avec des gens
que vous ne connaissez pas, -
2:00 - 2:02dont vous ne connaissez pas
les vrais intérêts, -
2:02 - 2:05et contre qui vous n'avez
quasiment aucun recours. -
2:05 - 2:08Et pour moi, ça, c'est
un vrai sujet aujourd'hui. -
2:09 - 2:14C'est qu'on a complètement
déconnecté l'impact réel -
2:14 - 2:17des abus de vie privée
de notre utilisation de la technologie. -
2:19 - 2:24Sauf qu'en fait, dans les années 1990,
à l’époque où on était déconnecté, -
2:24 - 2:27les questions de données perso
n'étaient pas un sujet, -
2:27 - 2:28car il y avait peu de données.
-
2:28 - 2:31La majorité de notre vie,
on la passait offline. -
2:31 - 2:33Donc, personne ne savait
ce qui se passait. -
2:33 - 2:36Sauf qu'à chaque fois qu'on a
commencé à connecter un objet, -
2:36 - 2:38avec de plus en plus
de technologie, -
2:38 - 2:40on a commencé à digitaliser
plus d'aspects de notre vie. -
2:40 - 2:43Le résultat, c'est qu'aujourd’hui,
on arrive à ce point d'inflexion -
2:44 - 2:47où on produit tellement
de données personnelles -
2:47 - 2:50que tellement peu
d'entreprises centralisent, -
2:50 - 2:55qu'on commence véritablement
à avoir toute notre vie qui est exposée. -
2:55 - 2:57Et c'est ça, le vrai danger.
-
2:57 - 2:58Il y a 20 ans, vous pouviez dire
-
2:58 - 3:01que les questions de vie privée
étaient secondaires, -
3:01 - 3:04mais aujourd'hui, le monde a changé,
les données sont partout. -
3:05 - 3:08Et ça me fait peur quand je
commence à regarder des choses -
3:08 - 3:10comme le nombre de vol de données.
-
3:11 - 3:16Oui, et ça, ce n'est qu'une sélection,
ce n'est pas tout ce qui a été volé. -
3:17 - 3:19Alors encore une fois,
vous pouvez vous dire : -
3:19 - 3:22s'il y a eu autant de données volées
qu'il y a d'humains sur la planète, -
3:22 - 3:25comment se fait-il
que je n'ai pas eu de soucis ? -
3:25 - 3:28Eh bien, de plus en plus de gens
ont ce qu'on appelle des « ransomwares », -
3:28 - 3:32c-à-d des pirates informatiques qui,
avec ces données volées, -
3:32 - 3:35vous envoient un message disant :
« Vous m'envoyez des bitcoins, -
3:35 - 3:38ou je balance à tout le monde,
-
3:38 - 3:40vos photos que vous n'avez pas
envie que les gens voient. -
3:41 - 3:43Donc, quand vous donnez
vos données à une entreprise, -
3:43 - 3:46vous êtes aussi en train d'en
donner potentiellement à un hacker, -
3:46 - 3:50et ça peut vous coûter beaucoup d'argent,
et si vous refusez de payer, -
3:50 - 3:53je peut vous garantir qu'ils rendront
publiques ces informations. -
3:53 - 3:57Ne pensez pas que, parce que
ça ne vous est pas arrivé aujourd'hui, -
3:57 - 3:58ça ne vous arrivera pas dans le futur.
-
3:58 - 4:02Pour moi, les questions de vie privée
sont des questions de sécurité. -
4:02 - 4:06Il faut qu'on puisse se sentir
en sécurité sur internet. -
4:06 - 4:10Il ne faut pas qu'on ait peur
en permanence, du vol de nos données. -
4:12 - 4:15Deuxièmement, il faut comprendre
que ces entreprises, au fur et à mesure, -
4:15 - 4:18finissent par créer un profil
tellement précis de qui vous êtes, -
4:18 - 4:22qu'ils savent des choses sur vous
que vous n'imaginez pas. -
4:22 - 4:26L'autre jour, je parlais à quelqu'un
d'un livre que je voulais acheter. -
4:26 - 4:30Je ne l'avais pas encore acheté
et j'ai eu une pub pour ce livre-là. -
4:30 - 4:32Et personne ne m'a entendu le dire.
-
4:32 - 4:36En fait, ce que moi et mes amis
avons cherché sur internet -
4:36 - 4:38a permis de dresser
un profil si précis -
4:38 - 4:41qu'ils ont compris ce qui m'intéressait,
un peu comme un puzzle. -
4:41 - 4:45Quand vous commencez,
vous ne savez pas ce qu'il y a dedans, -
4:45 - 4:48et à chaque fois que vous rajoutez
une pièce, ça s'éclairci. -
4:48 - 4:51C'est ce qui se passe avec votre profil
et vos données personnelles. -
4:51 - 4:55C'est bien d'avoir de la personnalisation,
du targeting, dans le cadre de la santé. -
4:55 - 4:57C'est important d'avoir
une santé personnalisée. -
4:57 - 5:01Mais la plupart du temps, c'est utilisé
pour les mauvaises raisons. -
5:01 - 5:05C'est utilisé pour essayer de vous garder
captifs de ces différentes plateformes. -
5:05 - 5:09Vous savez cette sensation, sur Instagram,
quand vous scrollez en permanence, -
5:09 - 5:13et vous ne comprenez pas pourquoi
vous continuez, comme un addict. -
5:13 - 5:16En fait, vous êtes tellement bien profilé,
-
5:16 - 5:19que le contenu qu'on vous montre
est tellement intéressant -
5:19 - 5:22que vous finissez, tout simplement,
par ne jamais en avoir marre. -
5:22 - 5:24Malheureusement, ça va plus loin.
-
5:24 - 5:28Ils utilisent aussi des techniques
de nudge pour vous pousser des pubs, -
5:28 - 5:33avec un seul but, pas celui de vous donner
quelque chose dont vous avez besoin, -
5:33 - 5:35mais celui de gagner
de l'argent de l'autre côté. -
5:35 - 5:38Vos données sont utilisées
pour faire du targeting publicitaire -
5:38 - 5:40qui leur permet de gagner l'argent.
-
5:40 - 5:42Sauf que dans la majorité des cas,
-
5:42 - 5:45ce sont des produits dont
vous n'avez pas forcément besoin, -
5:45 - 5:49vendus par des entreprises avec lesquelles
vous n'avez pas toujours envie de traiter, -
5:50 - 5:53et malheureusement très souvent,
avec de l'argent que vous n'avez pas. -
5:53 - 5:56Donc aujourd'hui pour moi,
le problème de targeting -
5:56 - 6:00c'est globalement des problèmes,
en fait, de manipulation. -
6:00 - 6:02Et on l'a vu aussi au niveau
de Cambridge Analytica -
6:02 - 6:05quand ils ont utilisé ça
pour manipuler les avis politiques. -
6:05 - 6:08Si je sais ce que vous aimez,
je sais exactement quoi vous montrer -
6:08 - 6:11pour vous faire penser
telle ou telle chose. -
6:11 - 6:13Ça s'est fait sur des échelles énormes.
-
6:13 - 6:18Donc, les questions de vie privée sont des
questions d'addiction, de manipulation, -
6:18 - 6:22et garantir sa vie privée, c'est garantir
une certaine forme de liberté de pensée. -
6:23 - 6:25Mais encore, ce n'est pas
le pire dans cette histoire. -
6:25 - 6:28Moi, ce qui me fait le plus peur,
c'est qu'on s'aperçoit -
6:28 - 6:31que plus quelqu'un utilise un réseau social,
-
6:31 - 6:35moins, il y a de diversité
dans le contenu qu'il voit. -
6:36 - 6:38Cela veut dire qu'au fur à mesure
-
6:38 - 6:41que vous donnez de la donnée
à un réseau social ou à une entreprise, -
6:41 - 6:43elle vous connaît tellement
de mieux en mieux -
6:43 - 6:46qu'elle finit par vous enfermer
dans votre propre bulle. -
6:47 - 6:49C'est intéressant, car quand
vous êtes dans votre bulle, -
6:49 - 6:52tout est confortable,
vous vous sentez bien. -
6:52 - 6:55C'est pendant les élections
que ça se voit le plus. -
6:55 - 6:57Comme par hasard, tous
mes copains votent comme moi. -
6:57 - 6:59Ils sont où, les autres ?
-
6:59 - 7:02En fait, l'algorithme
sait ce que j'ai envie de voir, -
7:02 - 7:05et plutôt que de risquer de me perdre
avec quelque chose qui ne me plait pas, -
7:05 - 7:07je vais être ciblé.
-
7:07 - 7:11Et c'est très dangereux quand
on commence à perdre de la diversité, -
7:12 - 7:15parce qu'en fait, on sait aussi
que l'innovation vient de la diversité. -
7:15 - 7:18Des études ont montré
que les entreprises les plus innovantes -
7:18 - 7:21étaient celles qui étaient
aussi les plus diverses. -
7:21 - 7:25Donc, maintenant faisons
une petite expérience de pensée. -
7:25 - 7:28Imaginez que la couleur rouge
représente le domaine de la technologie. -
7:29 - 7:32Vous, vous êtes quelqu'un
qui est intéressé par la technologie. -
7:32 - 7:37Si à chaque fois, vous êtes
exposé à du contenu technologique, -
7:37 - 7:40qu'est-ce qui va se passer
au bout d'un moment ? -
7:40 - 7:43Vous allez juste finalement devenir
un meilleur technologiste, -
7:43 - 7:45ce qui n'est pas mauvais,
devenir un plus grand expert. -
7:45 - 7:48Vous avez renforcé, en fait,
vos connaissances existantes. -
7:49 - 7:51Mais, vous n'avez rien inventé de nouveau.
-
7:51 - 7:54Vous n'avez fait qu'approfondir
la connaissance que vous aviez déjà. -
7:54 - 7:56Maintenant, prenons un autre exemple.
-
7:56 - 7:58Imaginons que, cette fois-ci,
-
7:58 - 8:01vous ayez trois morceaux de contenu
qui sont de la technologie, -
8:01 - 8:04mais que vous commencez
à regarder les choses relatives à l'art. -
8:04 - 8:08Comme la pâte à modeler, mélangez
du rouge et du vert, ça fait du jaune. -
8:08 - 8:09Il y a quelque chose de nouveau,
-
8:09 - 8:12ni de l'art, ni de la technologie,
mais un genre d'intersection. -
8:12 - 8:15Rajoutez le commerce, et tout d'un coup,
-
8:15 - 8:20vous avez tant de diversité d'infos, vous
êtes capable de voir le spectre entier. -
8:20 - 8:23Vous n'êtes plus enfermé dans
le domaine que vous connaissez déjà, -
8:23 - 8:26vous avez maintenant la capacité
de voir ce qui se passe -
8:26 - 8:29à l'intersection
de ces différents domaines. -
8:29 - 8:32C'est ça véritablement
qu'on appelle l'innovation, finalement. -
8:32 - 8:34Donc, quand vous êtes enfermé
dans votre propre bulle, -
8:34 - 8:36vous perdez votre capacité d'innover,
-
8:36 - 8:40car vous perdez cette capacité
de voir le spectre entier du possible, -
8:40 - 8:43et comment ces différentes
choses sont reliées entre elles. -
8:44 - 8:46Donc, pour moi,
les questions de vie privée -
8:46 - 8:48sont fondamentalement
des questions d'innovation. -
8:48 - 8:50Il est très, très, très important
-
8:50 - 8:53d'arriver à conserver
notre capacité d'innovation. -
8:53 - 8:56Alors, comment faisons-nous
pour garantir la vie privée ? -
8:57 - 8:59Il y a pas mal
de technologies qui existent. -
8:59 - 9:02Déjà, il faut comprendre
le concept de « privacy by design ». -
9:02 - 9:06C'est véritablement cette idée
qu'on va garantir la vie privée, -
9:06 - 9:09non pas en demandant
à ce que nous fasse confiance, -
9:09 - 9:14mais plutôt en garantissant au niveau
technologique, du produit, du business, -
9:14 - 9:16que personne ne pourra jamais
abuser de ces données-là. -
9:17 - 9:21Donc, par exemple, le chiffrement
homomorphe, c'est très simple. -
9:21 - 9:25Je veux utiliser un service
sans dévoiler quoi que ce soit. -
9:25 - 9:28Imaginons vous vouliez récupérer
des recommandations de restaurant, -
9:28 - 9:31mais vous ne voulez pas que la personne
de l'autre coté vous localise. -
9:31 - 9:34Eh bien, vous allez chiffrer
sur votre téléphone, votre localisation. -
9:34 - 9:38Vous allez l'envoyer à celui
qui va vous faire les recommandations. -
9:38 - 9:41Il ne sait pas où vous êtes,
n'ayant pas la clé de la donnée chiffrée. -
9:41 - 9:44Il va mouliner un espèce de résultat
et le renvoyer lui-même chiffré, -
9:44 - 9:46donc sans savoir ce qu'ils
vous ont recommandé. -
9:46 - 9:49Et vous le déchiffrez sur votre téléphone.
-
9:49 - 9:51Donc, vous avez été capable
d'avoir un service, -
9:51 - 9:53ici, de recommandation
de restaurant personnalisée, -
9:53 - 9:55sans jamais dévoiler là où vous êtes.
-
9:55 - 9:58Ce genre de technologie, jusqu'à
récemment, ne marchait pas bien, -
9:58 - 10:01mais maintenant ça y est,
on est à quelques années -
10:01 - 10:05de faire en sorte que ça marche pour tout,
même l'intelligence artificielle. -
10:05 - 10:08Ensuite, il y les questions
de centralisation. -
10:08 - 10:12On ne veut surtout pas qu'une seule
entreprise ait le monopole sur nos données -
10:12 - 10:15car ça veut dire que
cette entreprise déciderait -
10:15 - 10:18de la façon dont les personnes
qui utilisent le service -
10:18 - 10:20devraient penser potentiellement.
-
10:20 - 10:23Là aussi, beaucoup travaillent,
notamment grâce à la block-chain, -
10:23 - 10:27à la décentralisation du pouvoir
sur les données personnelles. -
10:28 - 10:33Et finalement il y a le GDPR, c'est 50-50.
Qui ici trouve que c'est bien le GDPR ? -
10:34 - 10:36Ah, c'est bien !
-
10:36 - 10:39Aux Etats-Unis, c'est zero,
les gens n'aiment pas. -
10:39 - 10:41C'est très bien pour trois choses.
-
10:42 - 10:45Premièrement, ça permet
de se faire oublier. -
10:45 - 10:48Si on n'est pas content,
on peut partir et se faire oublier. -
10:48 - 10:51Deuxièmement, ça permet de récupérer
nos données et les envoyer ailleurs. -
10:51 - 10:54Si vous pensez qu'entreprise A
n'a pas vos valeurs éthiques, -
10:54 - 10:57et qu'une autre entreprise
propose le même service, -
10:57 - 11:00vous pouvez transférez vos données
sans recommencer à zéro. -
11:00 - 11:02Dans certains cas, il y a même
le droit au non-profilage -
11:02 - 11:06si, par exemple, les conséquence seraient
extrêmement lourdes sur votre vie. -
11:06 - 11:09Les réglementations entrant
en vigueur aujourd'hui -
11:09 - 11:13permettent de casser ce cercle vicieux
lié aux données personnelles, -
11:13 - 11:16qui fait qu'on finit
par renforcer notre bulle, -
11:16 - 11:19sans aucun recours possible derrière.
-
11:19 - 11:21Donc, la cryptographie, la block-chain,
-
11:21 - 11:23la réglementation autour
des données perso, -
11:23 - 11:27sont des instruments nécessaires
pour protéger notre vie privée. -
11:27 - 11:29Pourquoi est-ce que
je vous parle de tout ça ? -
11:29 - 11:34Je vous parle de ça parce qu'aujourd'hui,
on a deux choix pour le futur. -
11:34 - 11:35On a celui-là.
-
11:37 - 11:41Ça, c'est le choix de continuer comme
on est en train de faire maintenant. -
11:41 - 11:43On va dans le mur quoi.
-
11:44 - 11:47Si on continue à s'enfermer
dans notre propre bulle, -
11:47 - 11:50comment est-ce qu'on va
véritablement changer les choses ? -
11:50 - 11:51Tout le monde voit bien, est d'accord,
-
11:51 - 11:54que les choses n'avancent pas
dans la bonne direction. -
11:54 - 11:58Il y a un moment où il faut réaliser
que si on perd notre capacité d'innovation, -
11:58 - 12:02on ne réussira jamais à empêcher
ce genre de catastrophe. -
12:02 - 12:06Avez-vous envie d'aller vivre sur Mars ?
Il y en a qui proposent ça comme solution. -
12:06 - 12:08Non ! Personne n'a envie
d'aller vivre sur Mars. -
12:08 - 12:10Je suis content de vivre sur Terre.
-
12:10 - 12:13C'est une belle planète, avec
de belles plages, et j'adore Paris. -
12:13 - 12:16Donc, j'essaie de proposer
quelque chose de différent. -
12:16 - 12:22Ce que je propose c'est qu'on arrive
à créer un futur qui soit positif, -
12:22 - 12:25un futur où on a réussi à résoudre
tous ces problèmes. -
12:25 - 12:29Mais, pour y arriver, il va falloir
décupler nos facultés d'innovation, -
12:29 - 12:32grâce à la technologie, plutôt que
de nous enfermer dans une bulle -
12:32 - 12:35qui va nous conduire
tout droit à une catastophe. -
12:35 - 12:40Et c'est pour ça que tout le monde devrait
se battre pour protéger la vie privée, -
12:41 - 12:44et pour casser les cercles vicieux
dans lesquels nous sommes depuis 30 ans. -
12:44 - 12:46Merci.
-
12:46 - 12:49(Applaudissements)
- Title:
- Promouvoir l’innovation et protéger la vie privée, mythe ou réalité ? | Rand Hindi | TEDxSaclay
- Description:
-
Lorsque nous pensons à nos données personnelles, nous pensons surtout à qui peut y avoir accès. Que ce soit les réseaux sociaux ou les objets connectés, la multitude de données que nous laissons derrière nous, en ce moment, est énorme et pas forcément protégée. Mais, le vrai danger, c'est la perte de notre capacité d'innover, car plus les entreprises en savent sur nous, plus elles nous enferment dans notre propre bulle...
Rand Hindi est un data scientist et un entrepreneur. Il est CEO de Snips, une start-up spécialisée dans l’intelligence artificielle. Il a commencé à coder à l’âge de dix ans, fondé un réseau social à quatorze, une agence de développement web à quinze, avant de se lancer dans le machine-learning à dix-huit, et finalement démarrer un Doctorat à vingt-et-un. Il a obtenu un Master en science informatique et un doctorat en bioinformatique à l’University College of London (UCL). Il est également diplômé de la Singularity University à la Silicon Valley et de THNK à Amsterdam. Le MIT Technology Review l’a élu Innovateur de l’année de moins de 35 ans, et Forbes l’a nommé comme l’un des trente innovateurs de moins de trente ans. Membre du Conseil National du Numérique, il a été choisi par le gouvernement français pour diriger la partie « impact de l’I.A. sur l‘économie et l’emploi » de la stratégie globale de la France sur l’intelligence artificielle. Il donne des cours de commerce de l’I.A. au Master de Sciences Po Paris.
Cette présentation a été donnée lors d'un évènement TEDx local utilisant le format des conférences TED mais organisé indépendamment. Pour en savoir plus : http://ted.com/tedx
- Video Language:
- French
- Team:
- closed TED
- Project:
- TEDxTalks
- Duration:
- 12:57