< Return to Video

Comment nous pouvons protéger la vérité à l'ère de la désinformation

  • 0:01 - 0:07
    Le 23 avril 2013,
  • 0:07 - 0:12
    l'Associated Press a publié
    le tweet suivant sur Twitter.
  • 0:12 - 0:15
    Il disait : « Flash info :
  • 0:15 - 0:17
    deux explosions à la Maison-Blanche
  • 0:17 - 0:20
    et Barack Obama a été blessé. »
  • 0:20 - 0:26
    Ce tweet a été retweeté 4 000 fois
    en moins de cinq minutes
  • 0:26 - 0:28
    et est ensuite devenu viral.
  • 0:29 - 0:33
    Ce tweet n'était pas une vraie info
    publiée par l'Associated Press.
  • 0:33 - 0:36
    C'était une fausse info, ou une infox,
  • 0:36 - 0:39
    qui a été propagée par des pirates syriens
  • 0:39 - 0:44
    qui avaient piraté le compte
    de l'Associated Press sur Twitter.
  • 0:44 - 0:46
    Leur objectif était
    de perturber la société,
  • 0:46 - 0:48
    mais ils ont perturbé bien plus que cela.
  • 0:48 - 0:51
    Car les algorithmes automatisés de trading
  • 0:51 - 0:54
    ont immédiatement saisi
    le sentiment de ce tweet
  • 0:54 - 0:57
    et ont commencé à faire des opérations
    basées sur la possibilité
  • 0:57 - 1:01
    que le président des États-Unis
    ait été blessé ou tué
  • 1:01 - 1:02
    dans une explosion.
  • 1:02 - 1:04
    Alors qu'ils ont commencé à tweeter,
  • 1:04 - 1:08
    ils ont immédiatement causé
    l’écroulement du cours de la bourse,
  • 1:08 - 1:13
    anéantissant 140 milliards de dollars
    de valeur de fonds propres en un jour.
  • 1:13 - 1:18
    Robert Mueller,
    procureur spécial aux États-Unis,
  • 1:18 - 1:21
    a prononcé des chefs d'accusation
    contre trois entreprises russes
  • 1:21 - 1:24
    et 13 ressortissants russes
  • 1:24 - 1:27
    au sujet d'un complot
    pour escroquer les États-Unis
  • 1:27 - 1:31
    via une ingérence durant les élections
    présidentielles de 2016.
  • 1:32 - 1:35
    L'histoire que raconte
    ce chef d'accusation
  • 1:35 - 1:39
    est celle de l'Internet Research Agency,
  • 1:39 - 1:42
    le bras armé du Kremlin
    sur les réseaux sociaux.
  • 1:43 - 1:46
    Durant les élections
    présidentielles uniquement,
  • 1:46 - 1:48
    les efforts de l'Internet Agency
  • 1:48 - 1:53
    ont touché 126 millions de personnes
    sur Facebook aux États-Unis,
  • 1:53 - 1:56
    ont publié trois millions de tweets
  • 1:56 - 2:00
    et 43 heures de contenu sur YouTube.
  • 2:00 - 2:02
    Tout cela était faux --
  • 2:02 - 2:05
    de la désinformation
    conçue pour semer la discorde
  • 2:05 - 2:08
    au sein des élections
    présidentielles américaines.
  • 2:09 - 2:12
    Une étude récente de l'université d'Oxford
  • 2:12 - 2:15
    a montré que durant
    les récentes élections suédoises,
  • 2:15 - 2:19
    un tiers de toutes les informations
    se propageant sur les réseaux sociaux
  • 2:19 - 2:21
    au sujet des élections
  • 2:21 - 2:23
    étaient fausses ou de la désinformation.
  • 2:23 - 2:28
    De plus, ce genre de campagne
    de désinformation sur les réseaux sociaux
  • 2:28 - 2:32
    peut propager ce qu’on en est venu à
    appeler de la « propagande génocidaire »,
  • 2:32 - 2:35
    par exemple contre
    les Rohingyas en Birmanie,
  • 2:35 - 2:38
    ou entraînant des massacres
    collectifs en Inde.
  • 2:38 - 2:39
    Nous avons étudié l'infox
  • 2:39 - 2:43
    et avons commencé à l'étudier
    avant que ce ne soit un terme populaire.
  • 2:43 - 2:48
    Nous avons récemment publié la plus longue
    étude longitudinale qui soit
  • 2:48 - 2:50
    sur la propagation de l'infox en ligne
  • 2:50 - 2:54
    en couverture de « Science »
    en mars cette année.
  • 2:55 - 2:59
    Nous avons étudié toutes les infos
    confirmées comme étant vraies ou fausses
  • 2:59 - 3:00
    qui se sont propagées sur Twitter,
  • 3:00 - 3:04
    depuis son lancement en 2006 jusqu'à 2017.
  • 3:05 - 3:07
    Quand nous avons étudié ces informations,
  • 3:07 - 3:10
    nous avons étudié des informations
  • 3:10 - 3:11
    qui avaient été vérifiées
  • 3:11 - 3:14
    par six organisations
    de vérification indépendantes.
  • 3:14 - 3:17
    Nous savions donc
    quelles informations étaient vraies
  • 3:17 - 3:19
    et quelles informations étaient fausses.
  • 3:19 - 3:21
    Nous pouvons mesurer leur diffusion,
  • 3:21 - 3:22
    la vitesse de leur diffusion,
  • 3:22 - 3:24
    la portée et l'ampleur de leur diffusion,
  • 3:24 - 3:29
    combien de gens se sont empêtrés
    dans cette cascade d'informations, etc.
  • 3:29 - 3:30
    Dans cette publication,
  • 3:30 - 3:34
    nous avons comparé la propagation
    d'informations vraies et d'infox.
  • 3:34 - 3:36
    Voici ce que nous avons découvert.
  • 3:36 - 3:37
    Nous avons découvert
  • 3:37 - 3:40
    que l'infox se diffusait plus loin,
    plus vite, plus profondément
  • 3:40 - 3:42
    et plus largement que la vérité
  • 3:42 - 3:45
    dans chacune des catégories d'informations
    que nous avons étudiées,
  • 3:45 - 3:47
    la différence étant parfois
    d'un ordre de grandeur.
  • 3:48 - 3:51
    Les infox politiques
    étaient les plus virales.
  • 3:51 - 3:55
    Elles se diffusaient plus loin, vite,
    profondément et largement
  • 3:55 - 3:57
    que n'importe quel autre type d'infox.
  • 3:57 - 3:59
    Quand nous avons vu cela,
  • 3:59 - 4:02
    nous étions à la fois inquiets
    mais aussi curieux.
  • 4:02 - 4:03
    Pourquoi ?
  • 4:03 - 4:06
    Pourquoi est-ce que l'infox circule
    tellement plus loin, vite, profondément
  • 4:06 - 4:08
    et largement que la vérité ?
  • 4:08 - 4:11
    Notre première hypothèse était :
  • 4:11 - 4:14
    « Peut-être que les gens
    diffusant de l'infox
  • 4:14 - 4:16
    ont plus de suiveurs
    ou suivent plus de monde,
  • 4:16 - 4:18
    tweetent plus souvent,
  • 4:18 - 4:21
    peut-être sont-ils plus souvent
    des utilisateurs « vérifiés » de Twitter,
  • 4:21 - 4:22
    avec plus de crédibilité,
  • 4:22 - 4:24
    ou sont-ils là depuis plus longtemps. »
  • 4:24 - 4:26
    Nous avons vérifié
    chacune de ces hypothèses.
  • 4:27 - 4:30
    Nous avons découvert
    exactement le contraire.
  • 4:30 - 4:32
    Les diffuseurs d'infox
    avaient moins de suiveurs,
  • 4:32 - 4:34
    suivaient moins de gens,
    étaient moins actifs,
  • 4:34 - 4:36
    moins souvent « vérifiés »
  • 4:36 - 4:39
    et étaient sur Twitter
    depuis moins longtemps.
  • 4:39 - 4:40
    Et pourtant,
  • 4:40 - 4:43
    les infox avaient
    70% de probabilités de plus
  • 4:43 - 4:45
    d'être retweetées par rapport à la vérité,
  • 4:45 - 4:48
    en contrôlant ces facteurs
    et de nombreux autres.
  • 4:48 - 4:51
    Nous devions trouver
    d'autres explications.
  • 4:51 - 4:52
    Nous avons formulé
  • 4:52 - 4:55
    ce que nous avons appelé
    « l'hypothèse de la nouveauté ».
  • 4:55 - 4:57
    Si vous lisez la littérature,
  • 4:57 - 5:01
    il est bien connu que l'attention humaine
    est attirée par la nouveauté,
  • 5:01 - 5:03
    les choses nouvelles dans l'environnement.
  • 5:03 - 5:05
    Si vous lisez la littérature sociologique,
  • 5:05 - 5:10
    vous savez que nous aimons partager
    des informations nouvelles.
  • 5:10 - 5:14
    Cela nous donne l'impression d'avoir
    un accès privilégié à des informations
  • 5:14 - 5:17
    et nous gagnons en statut
    en diffusant ce genre d'informations.
  • 5:18 - 5:24
    Nous avons alors mesuré la nouveauté
    d'un tweet, qu'il soit vrai ou faux,
  • 5:24 - 5:28
    l'avons comparé au corpus
    de ce que l'individu avait vu
  • 5:28 - 5:31
    sur Twitter les 60 derniers jours.
  • 5:31 - 5:34
    Mais cela ne suffisait pas
    car nous avons pensé :
  • 5:34 - 5:37
    « Peut-être que l'infox
    représente plus de nouveauté
  • 5:37 - 5:38
    dans un sens théorique,
  • 5:38 - 5:41
    mais peut-être que les gens
    n'y perçoivent pas plus de nouveauté. »
  • 5:42 - 5:46
    Pour comprendre la perception
    que les gens avaient des infox,
  • 5:46 - 5:49
    nous avons considéré
    l'information et le sentiment
  • 5:50 - 5:54
    que les réponses des tweets
    vrais et faux incluaient.
  • 5:54 - 5:55
    Nous avons découvert
  • 5:55 - 5:59
    que parmi tout un tas
    de mesures différentes des sentiments --
  • 5:59 - 6:03
    la surprise, le dégoût,
    la peur, la tristesse,
  • 6:03 - 6:05
    l'anticipation, la joie et la confiance --
  • 6:05 - 6:11
    les infox présentaient notablement
    plus de surprise et de dégoût
  • 6:11 - 6:14
    dans les réponses aux tweets.
  • 6:14 - 6:18
    Les informations avérées présentaient
    notablement plus d'anticipation,
  • 6:18 - 6:20
    de joie et de confiance
  • 6:20 - 6:22
    dans les réponses aux tweets.
  • 6:22 - 6:26
    La surprise corrobore
    notre hypothèse de la nouveauté.
  • 6:26 - 6:28
    C'est nouveau et surprenant,
  • 6:28 - 6:31
    nous allons donc
    plus probablement le partager.
  • 6:31 - 6:34
    En même temps, il y avait
    un témoignage au Congrès,
  • 6:34 - 6:37
    devant les deux chambres
    du Congrès des États-Unis,
  • 6:37 - 6:41
    considérant le rôle des robots
    dans la diffusion de la désinformation.
  • 6:41 - 6:42
    Nous l'avons envisagé --
  • 6:42 - 6:43
    nous avons utilisé
  • 6:43 - 6:46
    de multiples algorithmes sophistiqués
    de détection de robots
  • 6:46 - 6:49
    pour trouver les robots
    dans nos données et les en extraire.
  • 6:49 - 6:52
    Nous les en avons extraits,
    les avons inclus à nouveau
  • 6:52 - 6:55
    et avons comparé
    ce qu'il arrivait à nos mesures.
  • 6:55 - 6:57
    Nous avons découvert que oui, en effet,
  • 6:57 - 7:01
    les robots accéléraient
    la diffusion d'infox en ligne,
  • 7:01 - 7:04
    mais ils accéléraient
    la diffusion d'informations avérées
  • 7:04 - 7:06
    approximativement au même rythme.
  • 7:06 - 7:09
    Ce que signifie que les robots
    ne sont pas responsables
  • 7:09 - 7:14
    pour l'écart dans la diffusion
    de la vérité et de la fausseté en ligne.
  • 7:14 - 7:17
    Nous ne pouvons pas
    refuser cette responsabilité
  • 7:17 - 7:21
    car nous, êtres humains,
    sommes responsables de cette diffusion.
  • 7:22 - 7:26
    Tout ce que je vous ai dit jusqu'ici,
  • 7:26 - 7:28
    malheureusement pour nous tous,
  • 7:28 - 7:29
    ce sont les bonnes nouvelles.
  • 7:31 - 7:35
    La raison en est que cela
    va bientôt devenir bien pire.
  • 7:36 - 7:40
    Deux technologies en particulier
    vont rendre cela bien pire.
  • 7:40 - 7:45
    Nous allons voir la montée
    d'une énorme vague de média synthétiques :
  • 7:45 - 7:51
    de fausses vidéos, de faux enregistrements
    très convaincants pour l’œil humain.
  • 7:51 - 7:54
    Cela sera propulsé par deux technologies.
  • 7:54 - 7:58
    La première est connue sous le nom
    de « réseaux adverses génératifs ».
  • 7:58 - 8:01
    C'est un modèle d'apprentissage
    automatique avec deux réseaux :
  • 8:01 - 8:02
    un discriminateur,
  • 8:02 - 8:06
    dont le rôle est de déterminer
    si quelque chose est vrai ou faux,
  • 8:06 - 8:08
    et un générateur,
  • 8:08 - 8:11
    dont le rôle est de générer
    des médias synthétiques.
  • 8:11 - 8:16
    Le générateur synthétique génère une vidéo
    ou un enregistrement audio synthétique
  • 8:16 - 8:21
    et le discriminateur essaye de dire
    s'il est réel ou falsifié.
  • 8:21 - 8:24
    La tâche du générateur
  • 8:24 - 8:28
    consiste à maximiser la probabilité
    de faire croire au discriminateur
  • 8:28 - 8:33
    que la vidéo et l'enregistrement audio
    qu'il crée sont réels.
  • 8:33 - 8:36
    Imaginez une machine
    dans une boucle infinie
  • 8:36 - 8:39
    et essayant d'améliorer
    sa capacité à nous tromper.
  • 8:39 - 8:42
    Cela, en combinaison
    avec la deuxième technologie,
  • 8:42 - 8:47
    qui est essentiellement la démocratisation
    de l'intelligence artificielle,
  • 8:47 - 8:50
    la capacité offerte à tous,
  • 8:50 - 8:52
    sans aucune formation
    en intelligence artificielle
  • 8:52 - 8:54
    ou en apprentissage automatique,
  • 8:54 - 8:58
    de déployer ce genre d'algorithmes
    pour générer des médias synthétiques
  • 8:58 - 9:02
    rendant cela tellement plus simple
    de créer des vidéos.
  • 9:02 - 9:07
    La Maison-Blanche a publié
    une vidéo falsifiée, truquée
  • 9:07 - 9:10
    d'un journaliste interagissant
    avec une stagiaire
  • 9:10 - 9:11
    et essayant de prendre son micro.
  • 9:11 - 9:13
    Ils ont enlevé des images de cette vidéo
  • 9:13 - 9:17
    afin que ces actes
    paraissent plus percutants.
  • 9:17 - 9:21
    Quand des vidéastes,
    des cascadeurs et des cascadeuses
  • 9:21 - 9:23
    ont été interrogés
    sur ce genre de technique,
  • 9:23 - 9:27
    ils ont dit : « Oui, nous utilisons
    constamment cela dans les films
  • 9:27 - 9:32
    pour que nos coups de poing et de pied
    paraissent plus musclés et agressifs. »
  • 9:32 - 9:34
    Ils ont ensuite publié cette vidéo
  • 9:34 - 9:37
    l'ont utilisée
    comme justification partielle
  • 9:37 - 9:41
    pour révoquer la carte de presse
    de Jim Acosta, le journaliste,
  • 9:41 - 9:42
    pour la Maison-Blanche.
  • 9:42 - 9:47
    CNN a dû aller en justice pour faire
    rétablir cette carte de presse.
  • 9:49 - 9:51
    Il y a environ cinq chemins différents
  • 9:51 - 9:54
    que je peux imaginer
    et que nous pourrions suivre
  • 9:54 - 9:58
    pour essayer de remédier
    à ces problèmes très difficiles.
  • 9:58 - 10:00
    Chacun est prometteur
  • 10:00 - 10:03
    mais chacun a des défis
    qui lui sont propres.
  • 10:03 - 10:05
    Le premier est l'étiquetage.
  • 10:05 - 10:07
    Réfléchissez-y :
  • 10:07 - 10:10
    quand vous allez au supermarché
    pour acheter de la nourriture,
  • 10:10 - 10:12
    elle est amplement étiquetée.
  • 10:12 - 10:14
    Vous savez combien
    de calories elle contient,
  • 10:14 - 10:16
    combien de graisses --
  • 10:16 - 10:19
    et pourtant, quand
    nous consommons des informations,
  • 10:19 - 10:20
    nous n'avons pas d'étiquettes.
  • 10:20 - 10:22
    Que contient cette information ?
  • 10:22 - 10:24
    La source est-elle crédible ?
  • 10:24 - 10:26
    Où cette information
    a-t-elle été recueillie ?
  • 10:26 - 10:28
    Nous n'avons aucune de ces informations
  • 10:28 - 10:30
    quand nous consommons des informations.
  • 10:30 - 10:33
    C'est une solution potentielle,
    mais elle a ses défis.
  • 10:33 - 10:40
    Par exemple, qui décide, dans la société,
    ce qui est vrai et ce qui est faux ?
  • 10:40 - 10:42
    Est-ce que ce sont les gouvernements ?
  • 10:42 - 10:43
    Est-ce Facebook ?
  • 10:44 - 10:47
    Est-ce un consortium indépendant
    de vérificateurs d'informations ?
  • 10:47 - 10:50
    Et qui contrôle ceux
    qui vérifient les informations ?
  • 10:50 - 10:54
    Une autre option possible,
    ce sont les incitations.
  • 10:54 - 10:57
    Nous savons que durant les élections
    présidentielles américaines,
  • 10:57 - 11:00
    il y a eu une vague de désinformation
    venue de Macédoine du Nord
  • 11:00 - 11:02
    qui n'avait aucun mobile politique
  • 11:02 - 11:05
    mais avait un mobile économique.
  • 11:05 - 11:07
    Ce mobile économique existait
  • 11:07 - 11:10
    car l'infox circule
    tellement plus loin, plus vite
  • 11:10 - 11:12
    et plus profondément que la vérité
  • 11:13 - 11:15
    et vous pouvez gagner de l'argent
    dans la publicité
  • 11:15 - 11:17
    alors que vous recueillez
    les regards et l'attention
  • 11:17 - 11:19
    avec ce genre d'informations.
  • 11:19 - 11:23
    Mais si nous pouvons réduire
    la diffusion de ces informations,
  • 11:23 - 11:29
    peut-être cela réduirait-il
    l'incitation économique à les produire.
  • 11:29 - 11:32
    Troisièmement, nous pouvons
    réfléchir à une réglementation
  • 11:32 - 11:34
    et nous devrions réfléchir à cette option.
  • 11:34 - 11:35
    Actuellement aux États-Unis,
  • 11:35 - 11:38
    nous explorons ce qu'il pourrait se passer
  • 11:38 - 11:40
    si Facebook et les autres
    étaient réglementés.
  • 11:40 - 11:44
    Si nous devrions considérer des choses
    comme réglementer le discours politique,
  • 11:44 - 11:47
    l'étiqueter comme étant
    du discours politique,
  • 11:47 - 11:49
    nous assurer que les acteurs étrangers
  • 11:49 - 11:51
    ne puissent pas financer
    un discours politique,
  • 11:51 - 11:53
    cela a aussi ses dangers.
  • 11:54 - 11:58
    Par exemple, la Malaisie vient d'instituer
    une peine de prison de six ans
  • 11:58 - 12:01
    pour quiconque diffusant
    de la désinformation.
  • 12:02 - 12:04
    Dans les régimes autoritaires,
  • 12:04 - 12:06
    ce genre de politiques
    peuvent être utilisées
  • 12:06 - 12:08
    pour étouffer les opinions minoritaires
  • 12:08 - 12:12
    et continuer à accroître la répression.
  • 12:13 - 12:16
    La quatrième option possible
    est la transparence.
  • 12:17 - 12:21
    Nous voulons savoir comment fonctionnent
    les algorithmes de Facebook.
  • 12:21 - 12:23
    Comment les données
    se combinent-elles aux algorithmes
  • 12:23 - 12:26
    pour générer les résultats
    que nous observons ?
  • 12:26 - 12:29
    Nous voulons qu'ils ouvrent le kimono
  • 12:29 - 12:33
    et nous montrent les rouages internes
    du fonctionnement de Facebook.
  • 12:33 - 12:36
    Pour connaître les effets
    des réseaux sociaux sur la société,
  • 12:36 - 12:38
    il faut que les scientifiques,
    les chercheurs
  • 12:38 - 12:41
    et les autres aient accès
    à ce genre d'informations.
  • 12:41 - 12:43
    Mais en même temps,
  • 12:43 - 12:46
    nous demandons à Facebook
    de tout verrouiller
  • 12:46 - 12:49
    pour assurer la sécurité des données.
  • 12:49 - 12:52
    Facebook et les autres plateformes
    de réseaux sociaux
  • 12:52 - 12:55
    font face à ce que j'appelle
    un paradoxe de la transparence.
  • 12:55 - 12:58
    Nous leur demandons à la fois
  • 12:58 - 13:03
    d'être ouverts et transparents
    et, simultanément, d'être sécurisés.
  • 13:03 - 13:05
    Cela est difficile à accomplir,
  • 13:06 - 13:07
    mais ils devront le faire
  • 13:07 - 13:09
    si nous voulons
  • 13:09 - 13:11
    que les technologies sociales
    tiennent leurs promesses
  • 13:11 - 13:13
    tout en évitant les risques.
  • 13:13 - 13:15
    Pour finir, nous pourrions réfléchir
  • 13:15 - 13:18
    aux algorithmes
    et à l'apprentissage automatique.
  • 13:18 - 13:23
    Une technologie conçue pour éradiquer
    et comprendre l'infox, sa diffusion,
  • 13:23 - 13:25
    et essayer d'atténuer sa circulation.
  • 13:26 - 13:29
    Les êtres humains doivent
    jouer un rôle dans cette technologie
  • 13:29 - 13:31
    car nous ne pourrons jamais
    échapper au fait
  • 13:31 - 13:35
    que pour toute solution
    ou approche technologie,
  • 13:35 - 13:39
    il y a une question éthique
    et philosophique fondamentale
  • 13:39 - 13:42
    quant à notre définition
    du vrai et du faux,
  • 13:42 - 13:46
    à qui nous donnons le pouvoir
    de définir le vrai et le faux
  • 13:46 - 13:48
    et quelles opinions sont légitimes,
  • 13:48 - 13:52
    une rapidité de quel ordre de grandeur
    devrait être autorisée et ainsi de suite.
  • 13:52 - 13:54
    La technologie n'est pas la solution.
  • 13:54 - 13:58
    L'éthique et la philosophie le sont.
  • 13:59 - 14:02
    Presque toutes les théories
    sur la prise de décision humaine,
  • 14:02 - 14:05
    la coopération humaine
    et la coordination humaine
  • 14:05 - 14:09
    ont une part de vérité en elles.
  • 14:09 - 14:11
    Mais avec l'essor des infox,
  • 14:11 - 14:13
    l'essor des vidéos truquées,
  • 14:13 - 14:15
    l'essor des enregistrements
    audios truqués,
  • 14:15 - 14:19
    nous vacillons au bord
    de la fin de la réalité,
  • 14:19 - 14:23
    où nous ne pouvons pas discerner
    ce qui est réel et ce qui est faux.
  • 14:23 - 14:26
    Cela est potentiellement
    incroyablement dangereux.
  • 14:27 - 14:31
    Nous devons être vigilants
    dans la défense de la vérité
  • 14:31 - 14:32
    face à la désinformation.
  • 14:33 - 14:36
    Avec nos technologies, avec nos politiques
  • 14:36 - 14:38
    et, peut-être surtout, individuellement,
  • 14:38 - 14:42
    avec nos responsabilités, nos décisions,
  • 14:42 - 14:45
    nos comportements
    et nos actions.
  • 14:46 - 14:47
    Merci beaucoup.
  • 14:47 - 14:51
    (Applaudissements)
Title:
Comment nous pouvons protéger la vérité à l'ère de la désinformation
Speaker:
Sinan Aral
Description:

L'infox peut influencer des élections, faire couler des économies et semer la discorde dans la vie quotidienne. Le scientifique des données Sinan Aral démystifie comment et pourquoi elle se propage si rapidement -- citant l'une des plus grandes études sur la désinformation -- et identifie cinq stratégies pour nous aider à démêler l'enchevêtrement entre la vérité et le mensonge.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:03

French subtitles

Revisions