Return to Video

Promouvoir l’innovation et protéger la vie privée, mythe ou réalité ? | Rand Hindi | TEDxSaclay

  • 0:07 - 0:10
    Aujourd'hui, j'ai envie de vous parler
    d'innovation et de vie privée,
  • 0:10 - 0:15
    parce que les deux ne sont pas souvent
    des choses que l'on connecte.
  • 0:15 - 0:17
    Pour moi, c'est absolument essentiel.
  • 0:17 - 0:19
    J'ai une question à vous poser.
  • 0:19 - 0:21
    Y-a-t-il des gens ici
    qui se sont déjà dit :
  • 0:21 - 0:23
    « Ma vie privée,
    mes données, je m'en fous,
  • 0:23 - 0:25
    parce que je n'ai,
    globalement, rien à cacher » ?
  • 0:26 - 0:27
    Oui.
  • 0:27 - 0:31
    Qui se considère être bien
    et plutôt honnête dans sa vie ?
  • 0:31 - 0:34
    Voilà ! Donc évidemment,
    on a rien à cacher,
  • 0:34 - 0:36
    puisqu'au final,
    que découvriront les gens ?
  • 0:36 - 0:38
    Que je suis quelqu'un de normal,
  • 0:38 - 0:41
    et que ma vie n'a rien
    de particulièrement intéressant.
  • 0:41 - 0:43
    On va faire une petite expérience,
    si ça vous dit, OK ?
  • 0:44 - 0:49
    Prenez tous votre téléphone
    et ouvrez votre dernière conversation.
  • 0:49 - 0:51
    Ne la choisissez pas,
    ce n'est pas important.
  • 0:51 - 0:53
    N'importe quelle
    application de messagerie,
  • 0:53 - 0:56
    ouvrez la dernière conversation.
  • 0:57 - 0:59
    C'est bon ?
  • 1:00 - 1:03
    Maintenant passez
    votre téléphone à votre voisin.
  • 1:08 - 1:09
    OK.
  • 1:11 - 1:12
    Bon !
  • 1:14 - 1:16
    (En riant) OK, OK !
  • 1:18 - 1:22
    Combien de personnes ici,
  • 1:22 - 1:26
    combien de personnes
    ont regardé la conversation
  • 1:26 - 1:28
    du téléphone qu'on leur a donné ?
  • 1:29 - 1:32
    Est-ce que je vous ai dit
    de regarder la conversation ?
  • 1:32 - 1:34
    (Rires)
  • 1:34 - 1:35
    Et voilà !
  • 1:35 - 1:38
    Combien de personnes
    ont senti une petite anxiété
  • 1:38 - 1:40
    quand ils ont passé
    le téléphone à leur voisin ?
  • 1:40 - 1:41
    (Rires)
  • 1:41 - 1:42
    Voilà.
  • 1:43 - 1:46
    Et encore, la personne est à côté de vous,
    vous savez exactement qui c'est.
  • 1:46 - 1:48
    Vous pouvez voir si elle fait des choses
  • 1:48 - 1:51
    qu'elle n'est pas censée
    faire avec vos messages.
  • 1:51 - 1:53
    Maintenant, dites-vous un truc.
  • 1:53 - 1:55
    A chaque fois que vous dites OK
    à une entreprise
  • 1:55 - 1:58
    pour récupérer vos données,
    vous êtes en train de faire ça,
  • 1:58 - 2:00
    mais avec des gens
    que vous ne connaissez pas,
  • 2:00 - 2:02
    dont vous ne connaissez pas
    les vrais intérêts,
  • 2:02 - 2:05
    et contre qui vous n'avez
    quasiment aucun recours.
  • 2:05 - 2:08
    Et pour moi, ça, c'est
    un vrai sujet aujourd'hui.
  • 2:09 - 2:14
    C'est qu'on a complètement
    déconnecté l'impact réel
  • 2:14 - 2:17
    des abus de vie privée
    de notre utilisation de la technologie.
  • 2:19 - 2:24
    Sauf qu'en fait, dans les années 1990,
    à l’époque où on était déconnecté,
  • 2:24 - 2:27
    les questions de données perso
    n'étaient pas un sujet,
  • 2:27 - 2:28
    car il y avait peu de données.
  • 2:28 - 2:31
    La majorité de notre vie,
    on la passait offline.
  • 2:31 - 2:33
    Donc, personne ne savait
    ce qui se passait.
  • 2:33 - 2:36
    Sauf qu'à chaque fois qu'on a
    commencé à connecter un objet,
  • 2:36 - 2:38
    avec de plus en plus
    de technologie,
  • 2:38 - 2:40
    on a commencé à digitaliser
    plus d'aspects de notre vie.
  • 2:40 - 2:43
    Le résultat, c'est qu'aujourd’hui,
    on arrive à ce point d'inflexion
  • 2:44 - 2:47
    où on produit tellement
    de données personnelles
  • 2:47 - 2:50
    que tellement peu
    d'entreprises centralisent,
  • 2:50 - 2:55
    qu'on commence véritablement
    à avoir toute notre vie qui est exposée.
  • 2:55 - 2:57
    Et c'est ça, le vrai danger.
  • 2:57 - 2:58
    Il y a 20 ans, vous pouviez dire
  • 2:58 - 3:01
    que les questions de vie privée
    étaient secondaires,
  • 3:01 - 3:04
    mais aujourd'hui, le monde a changé,
    les données sont partout.
  • 3:05 - 3:08
    Et ça me fait peur quand je
    commence à regarder des choses
  • 3:08 - 3:10
    comme le nombre de vol de données.
  • 3:11 - 3:16
    Oui, et ça, ce n'est qu'une sélection,
    ce n'est pas tout ce qui a été volé.
  • 3:17 - 3:19
    Alors encore une fois,
    vous pouvez vous dire :
  • 3:19 - 3:22
    s'il y a eu autant de données volées
    qu'il y a d'humains sur la planète,
  • 3:22 - 3:25
    comment se fait-il
    que je n'ai pas eu de soucis ?
  • 3:25 - 3:28
    Eh bien, de plus en plus de gens
    ont ce qu'on appelle des « ransomwares »,
  • 3:28 - 3:32
    c-à-d des pirates informatiques qui,
    avec ces données volées,
  • 3:32 - 3:35
    vous envoient un message disant :
    « Vous m'envoyez des bitcoins,
  • 3:35 - 3:38
    ou je balance à tout le monde,
  • 3:38 - 3:40
    vos photos que vous n'avez pas
    envie que les gens voient.
  • 3:41 - 3:43
    Donc, quand vous donnez
    vos données à une entreprise,
  • 3:43 - 3:46
    vous êtes aussi en train d'en
    donner potentiellement à un hacker,
  • 3:46 - 3:50
    et ça peut vous coûter beaucoup d'argent,
    et si vous refusez de payer,
  • 3:50 - 3:53
    je peut vous garantir qu'ils rendront
    publiques ces informations.
  • 3:53 - 3:57
    Ne pensez pas que, parce que
    ça ne vous est pas arrivé aujourd'hui,
  • 3:57 - 3:58
    ça ne vous arrivera pas dans le futur.
  • 3:58 - 4:02
    Pour moi, les questions de vie privée
    sont des questions de sécurité.
  • 4:02 - 4:06
    Il faut qu'on puisse se sentir
    en sécurité sur internet.
  • 4:06 - 4:10
    Il ne faut pas qu'on ait peur
    en permanence, du vol de nos données.
  • 4:12 - 4:15
    Deuxièmement, il faut comprendre
    que ces entreprises, au fur et à mesure,
  • 4:15 - 4:18
    finissent par créer un profil
    tellement précis de qui vous êtes,
  • 4:18 - 4:22
    qu'ils savent des choses sur vous
    que vous n'imaginez pas.
  • 4:22 - 4:26
    L'autre jour, je parlais à quelqu'un
    d'un livre que je voulais acheter.
  • 4:26 - 4:30
    Je ne l'avais pas encore acheté
    et j'ai eu une pub pour ce livre-là.
  • 4:30 - 4:32
    Et personne ne m'a entendu le dire.
  • 4:32 - 4:36
    En fait, ce que moi et mes amis
    avons cherché sur internet
  • 4:36 - 4:38
    a permis de dresser
    un profil si précis
  • 4:38 - 4:41
    qu'ils ont compris ce qui m'intéressait,
    un peu comme un puzzle.
  • 4:41 - 4:45
    Quand vous commencez,
    vous ne savez pas ce qu'il y a dedans,
  • 4:45 - 4:48
    et à chaque fois que vous rajoutez
    une pièce, ça s'éclairci.
  • 4:48 - 4:51
    C'est ce qui se passe avec votre profil
    et vos données personnelles.
  • 4:51 - 4:55
    C'est bien d'avoir de la personnalisation,
    du targeting, dans le cadre de la santé.
  • 4:55 - 4:57
    C'est important d'avoir
    une santé personnalisée.
  • 4:57 - 5:01
    Mais la plupart du temps, c'est utilisé
    pour les mauvaises raisons.
  • 5:01 - 5:05
    C'est utilisé pour essayer de vous garder
    captifs de ces différentes plateformes.
  • 5:05 - 5:09
    Vous savez cette sensation, sur Instagram,
    quand vous scrollez en permanence,
  • 5:09 - 5:13
    et vous ne comprenez pas pourquoi
    vous continuez, comme un addict.
  • 5:13 - 5:16
    En fait, vous êtes tellement bien profilé,
  • 5:16 - 5:19
    que le contenu qu'on vous montre
    est tellement intéressant
  • 5:19 - 5:22
    que vous finissez, tout simplement,
    par ne jamais en avoir marre.
  • 5:22 - 5:24
    Malheureusement, ça va plus loin.
  • 5:24 - 5:28
    Ils utilisent aussi des techniques
    de nudge pour vous pousser des pubs,
  • 5:28 - 5:33
    avec un seul but, pas celui de vous donner
    quelque chose dont vous avez besoin,
  • 5:33 - 5:35
    mais celui de gagner
    de l'argent de l'autre côté.
  • 5:35 - 5:38
    Vos données sont utilisées
    pour faire du targeting publicitaire
  • 5:38 - 5:40
    qui leur permet de gagner l'argent.
  • 5:40 - 5:42
    Sauf que dans la majorité des cas,
  • 5:42 - 5:45
    ce sont des produits dont
    vous n'avez pas forcément besoin,
  • 5:45 - 5:49
    vendus par des entreprises avec lesquelles
    vous n'avez pas toujours envie de traiter,
  • 5:50 - 5:53
    et malheureusement très souvent,
    avec de l'argent que vous n'avez pas.
  • 5:53 - 5:56
    Donc aujourd'hui pour moi,
    le problème de targeting
  • 5:56 - 6:00
    c'est globalement des problèmes,
    en fait, de manipulation.
  • 6:00 - 6:02
    Et on l'a vu aussi au niveau
    de Cambridge Analytica
  • 6:02 - 6:05
    quand ils ont utilisé ça
    pour manipuler les avis politiques.
  • 6:05 - 6:08
    Si je sais ce que vous aimez,
    je sais exactement quoi vous montrer
  • 6:08 - 6:11
    pour vous faire penser
    telle ou telle chose.
  • 6:11 - 6:13
    Ça s'est fait sur des échelles énormes.
  • 6:13 - 6:18
    Donc, les questions de vie privée sont des
    questions d'addiction, de manipulation,
  • 6:18 - 6:22
    et garantir sa vie privée, c'est garantir
    une certaine forme de liberté de pensée.
  • 6:23 - 6:25
    Mais encore, ce n'est pas
    le pire dans cette histoire.
  • 6:25 - 6:28
    Moi, ce qui me fait le plus peur,
    c'est qu'on s'aperçoit
  • 6:28 - 6:31
    que plus quelqu'un utilise un réseau social,
  • 6:31 - 6:35
    moins, il y a de diversité
    dans le contenu qu'il voit.
  • 6:36 - 6:38
    Cela veut dire qu'au fur à mesure
  • 6:38 - 6:41
    que vous donnez de la donnée
    à un réseau social ou à une entreprise,
  • 6:41 - 6:43
    elle vous connaît tellement
    de mieux en mieux
  • 6:43 - 6:46
    qu'elle finit par vous enfermer
    dans votre propre bulle.
  • 6:47 - 6:49
    C'est intéressant, car quand
    vous êtes dans votre bulle,
  • 6:49 - 6:52
    tout est confortable,
    vous vous sentez bien.
  • 6:52 - 6:55
    C'est pendant les élections
    que ça se voit le plus.
  • 6:55 - 6:57
    Comme par hasard, tous
    mes copains votent comme moi.
  • 6:57 - 6:59
    Ils sont où, les autres ?
  • 6:59 - 7:02
    En fait, l'algorithme
    sait ce que j'ai envie de voir,
  • 7:02 - 7:05
    et plutôt que de risquer de me perdre
    avec quelque chose qui ne me plait pas,
  • 7:05 - 7:07
    je vais être ciblé.
  • 7:07 - 7:11
    Et c'est très dangereux quand
    on commence à perdre de la diversité,
  • 7:12 - 7:15
    parce qu'en fait, on sait aussi
    que l'innovation vient de la diversité.
  • 7:15 - 7:18
    Des études ont montré
    que les entreprises les plus innovantes
  • 7:18 - 7:21
    étaient celles qui étaient
    aussi les plus diverses.
  • 7:21 - 7:25
    Donc, maintenant faisons
    une petite expérience de pensée.
  • 7:25 - 7:28
    Imaginez que la couleur rouge
    représente le domaine de la technologie.
  • 7:29 - 7:32
    Vous, vous êtes quelqu'un
    qui est intéressé par la technologie.
  • 7:32 - 7:37
    Si à chaque fois, vous êtes
    exposé à du contenu technologique,
  • 7:37 - 7:40
    qu'est-ce qui va se passer
    au bout d'un moment ?
  • 7:40 - 7:43
    Vous allez juste finalement devenir
    un meilleur technologiste,
  • 7:43 - 7:45
    ce qui n'est pas mauvais,
    devenir un plus grand expert.
  • 7:45 - 7:48
    Vous avez renforcé, en fait,
    vos connaissances existantes.
  • 7:49 - 7:51
    Mais, vous n'avez rien inventé de nouveau.
  • 7:51 - 7:54
    Vous n'avez fait qu'approfondir
    la connaissance que vous aviez déjà.
  • 7:54 - 7:56
    Maintenant, prenons un autre exemple.
  • 7:56 - 7:58
    Imaginons que, cette fois-ci,
  • 7:58 - 8:01
    vous ayez trois morceaux de contenu
    qui sont de la technologie,
  • 8:01 - 8:04
    mais que vous commencez
    à regarder les choses relatives à l'art.
  • 8:04 - 8:08
    Comme la pâte à modeler, mélangez
    du rouge et du vert, ça fait du jaune.
  • 8:08 - 8:09
    Il y a quelque chose de nouveau,
  • 8:09 - 8:12
    ni de l'art, ni de la technologie,
    mais un genre d'intersection.
  • 8:12 - 8:15
    Rajoutez le commerce, et tout d'un coup,
  • 8:15 - 8:20
    vous avez tant de diversité d'infos, vous
    êtes capable de voir le spectre entier.
  • 8:20 - 8:23
    Vous n'êtes plus enfermé dans
    le domaine que vous connaissez déjà,
  • 8:23 - 8:26
    vous avez maintenant la capacité
    de voir ce qui se passe
  • 8:26 - 8:29
    à l'intersection
    de ces différents domaines.
  • 8:29 - 8:32
    C'est ça véritablement
    qu'on appelle l'innovation, finalement.
  • 8:32 - 8:34
    Donc, quand vous êtes enfermé
    dans votre propre bulle,
  • 8:34 - 8:36
    vous perdez votre capacité d'innover,
  • 8:36 - 8:40
    car vous perdez cette capacité
    de voir le spectre entier du possible,
  • 8:40 - 8:43
    et comment ces différentes
    choses sont reliées entre elles.
  • 8:44 - 8:46
    Donc, pour moi,
    les questions de vie privée
  • 8:46 - 8:48
    sont fondamentalement
    des questions d'innovation.
  • 8:48 - 8:50
    Il est très, très, très important
  • 8:50 - 8:53
    d'arriver à conserver
    notre capacité d'innovation.
  • 8:53 - 8:56
    Alors, comment faisons-nous
    pour garantir la vie privée ?
  • 8:57 - 8:59
    Il y a pas mal
    de technologies qui existent.
  • 8:59 - 9:02
    Déjà, il faut comprendre
    le concept de « privacy by design ».
  • 9:02 - 9:06
    C'est véritablement cette idée
    qu'on va garantir la vie privée,
  • 9:06 - 9:09
    non pas en demandant
    à ce que nous fasse confiance,
  • 9:09 - 9:14
    mais plutôt en garantissant au niveau
    technologique, du produit, du business,
  • 9:14 - 9:16
    que personne ne pourra jamais
    abuser de ces données-là.
  • 9:17 - 9:21
    Donc, par exemple, le chiffrement
    homomorphe, c'est très simple.
  • 9:21 - 9:25
    Je veux utiliser un service
    sans dévoiler quoi que ce soit.
  • 9:25 - 9:28
    Imaginons vous vouliez récupérer
    des recommandations de restaurant,
  • 9:28 - 9:31
    mais vous ne voulez pas que la personne
    de l'autre coté vous localise.
  • 9:31 - 9:34
    Eh bien, vous allez chiffrer
    sur votre téléphone, votre localisation.
  • 9:34 - 9:38
    Vous allez l'envoyer à celui
    qui va vous faire les recommandations.
  • 9:38 - 9:41
    Il ne sait pas où vous êtes,
    n'ayant pas la clé de la donnée chiffrée.
  • 9:41 - 9:44
    Il va mouliner un espèce de résultat
    et le renvoyer lui-même chiffré,
  • 9:44 - 9:46
    donc sans savoir ce qu'ils
    vous ont recommandé.
  • 9:46 - 9:49
    Et vous le déchiffrez sur votre téléphone.
  • 9:49 - 9:51
    Donc, vous avez été capable
    d'avoir un service,
  • 9:51 - 9:53
    ici, de recommandation
    de restaurant personnalisée,
  • 9:53 - 9:55
    sans jamais dévoiler là où vous êtes.
  • 9:55 - 9:58
    Ce genre de technologie, jusqu'à
    récemment, ne marchait pas bien,
  • 9:58 - 10:01
    mais maintenant ça y est,
    on est à quelques années
  • 10:01 - 10:05
    de faire en sorte que ça marche pour tout,
    même l'intelligence artificielle.
  • 10:05 - 10:08
    Ensuite, il y les questions
    de centralisation.
  • 10:08 - 10:12
    On ne veut surtout pas qu'une seule
    entreprise ait le monopole sur nos données
  • 10:12 - 10:15
    car ça veut dire que
    cette entreprise déciderait
  • 10:15 - 10:18
    de la façon dont les personnes
    qui utilisent le service
  • 10:18 - 10:20
    devraient penser potentiellement.
  • 10:20 - 10:23
    Là aussi, beaucoup travaillent,
    notamment grâce à la block-chain,
  • 10:23 - 10:27
    à la décentralisation du pouvoir
    sur les données personnelles.
  • 10:28 - 10:33
    Et finalement il y a le GDPR, c'est 50-50.
    Qui ici trouve que c'est bien le GDPR ?
  • 10:34 - 10:36
    Ah, c'est bien !
  • 10:36 - 10:39
    Aux Etats-Unis, c'est zero,
    les gens n'aiment pas.
  • 10:39 - 10:41
    C'est très bien pour trois choses.
  • 10:42 - 10:45
    Premièrement, ça permet
    de se faire oublier.
  • 10:45 - 10:48
    Si on n'est pas content,
    on peut partir et se faire oublier.
  • 10:48 - 10:51
    Deuxièmement, ça permet de récupérer
    nos données et les envoyer ailleurs.
  • 10:51 - 10:54
    Si vous pensez qu'entreprise A
    n'a pas vos valeurs éthiques,
  • 10:54 - 10:57
    et qu'une autre entreprise
    propose le même service,
  • 10:57 - 11:00
    vous pouvez transférez vos données
    sans recommencer à zéro.
  • 11:00 - 11:02
    Dans certains cas, il y a même
    le droit au non-profilage
  • 11:02 - 11:06
    si, par exemple, les conséquence seraient
    extrêmement lourdes sur votre vie.
  • 11:06 - 11:09
    Les réglementations entrant
    en vigueur aujourd'hui
  • 11:09 - 11:13
    permettent de casser ce cercle vicieux
    lié aux données personnelles,
  • 11:13 - 11:16
    qui fait qu'on finit
    par renforcer notre bulle,
  • 11:16 - 11:19
    sans aucun recours possible derrière.
  • 11:19 - 11:21
    Donc, la cryptographie, la block-chain,
  • 11:21 - 11:23
    la réglementation autour
    des données perso,
  • 11:23 - 11:27
    sont des instruments nécessaires
    pour protéger notre vie privée.
  • 11:27 - 11:29
    Pourquoi est-ce que
    je vous parle de tout ça ?
  • 11:29 - 11:34
    Je vous parle de ça parce qu'aujourd'hui,
    on a deux choix pour le futur.
  • 11:34 - 11:35
    On a celui-là.
  • 11:37 - 11:41
    Ça, c'est le choix de continuer comme
    on est en train de faire maintenant.
  • 11:41 - 11:43
    On va dans le mur quoi.
  • 11:44 - 11:47
    Si on continue à s'enfermer
    dans notre propre bulle,
  • 11:47 - 11:50
    comment est-ce qu'on va
    véritablement changer les choses ?
  • 11:50 - 11:51
    Tout le monde voit bien, est d'accord,
  • 11:51 - 11:54
    que les choses n'avancent pas
    dans la bonne direction.
  • 11:54 - 11:58
    Il y a un moment où il faut réaliser
    que si on perd notre capacité d'innovation,
  • 11:58 - 12:02
    on ne réussira jamais à empêcher
    ce genre de catastrophe.
  • 12:02 - 12:06
    Avez-vous envie d'aller vivre sur Mars ?
    Il y en a qui proposent ça comme solution.
  • 12:06 - 12:08
    Non ! Personne n'a envie
    d'aller vivre sur Mars.
  • 12:08 - 12:10
    Je suis content de vivre sur Terre.
  • 12:10 - 12:13
    C'est une belle planète, avec
    de belles plages, et j'adore Paris.
  • 12:13 - 12:16
    Donc, j'essaie de proposer
    quelque chose de différent.
  • 12:16 - 12:22
    Ce que je propose c'est qu'on arrive
    à créer un futur qui soit positif,
  • 12:22 - 12:25
    un futur où on a réussi à résoudre
    tous ces problèmes.
  • 12:25 - 12:29
    Mais, pour y arriver, il va falloir
    décupler nos facultés d'innovation,
  • 12:29 - 12:32
    grâce à la technologie, plutôt que
    de nous enfermer dans une bulle
  • 12:32 - 12:35
    qui va nous conduire
    tout droit à une catastophe.
  • 12:35 - 12:40
    Et c'est pour ça que tout le monde devrait
    se battre pour protéger la vie privée,
  • 12:41 - 12:44
    et pour casser les cercles vicieux
    dans lesquels nous sommes depuis 30 ans.
  • 12:44 - 12:46
    Merci.
  • 12:46 - 12:49
    (Applaudissements)
Title:
Promouvoir l’innovation et protéger la vie privée, mythe ou réalité ? | Rand Hindi | TEDxSaclay
Description:

Lorsque nous pensons à nos données personnelles, nous pensons surtout à qui peut y avoir accès. Que ce soit les réseaux sociaux ou les objets connectés, la multitude de données que nous laissons derrière nous, en ce moment, est énorme et pas forcément protégée. Mais, le vrai danger, c'est la perte de notre capacité d'innover, car plus les entreprises en savent sur nous, plus elles nous enferment dans notre propre bulle...

Rand Hindi est un data scientist et un entrepreneur. Il est CEO de Snips, une start-up spécialisée dans l’intelligence artificielle. Il a commencé à coder à l’âge de dix ans, fondé un réseau social à quatorze, une agence de développement web à quinze, avant de se lancer dans le machine-learning à dix-huit, et finalement démarrer un Doctorat à vingt-et-un. Il a obtenu un Master en science informatique et un doctorat en bioinformatique à l’University College of London (UCL). Il est également diplômé de la Singularity University à la Silicon Valley et de THNK à Amsterdam. Le MIT Technology Review l’a élu Innovateur de l’année de moins de 35 ans, et Forbes l’a nommé comme l’un des trente innovateurs de moins de trente ans. Membre du Conseil National du Numérique, il a été choisi par le gouvernement français pour diriger la partie « impact de l’I.A. sur l‘économie et l’emploi » de la stratégie globale de la France sur l’intelligence artificielle. Il donne des cours de commerce de l’I.A. au Master de Sciences Po Paris.

Cette présentation a été donnée lors d'un évènement TEDx local utilisant le format des conférences TED mais organisé indépendamment. Pour en savoir plus : http://ted.com/tedx

more » « less
Video Language:
French
Team:
closed TED
Project:
TEDxTalks
Duration:
12:57

French subtitles

Revisions