Return to Video

Les ruses manipulatrices que les entreprises de technologie utilisent pour obtenir votre attention

  • 0:01 - 0:02
    Imaginez
  • 0:03 - 0:04
    entrer dans une salle,
  • 0:05 - 0:08
    une salle de contrôle avec des personnes,
  • 0:08 - 0:11
    une centaine de personnes
    autour d'un bureau avec des boutons
  • 0:11 - 0:13
    et que cette salle de contrôle
  • 0:14 - 0:17
    façonnera les pensées et émotions
  • 0:17 - 0:19
    d'un milliard de personnes.
  • 0:21 - 0:22
    Cela semble être de la science-fiction
  • 0:23 - 0:26
    mais cela existe
  • 0:26 - 0:27
    actuellement, aujourd'hui.
  • 0:28 - 0:31
    Je le sais car j'étais
    dans une de ces salles de contrôle.
  • 0:32 - 0:34
    J'étais déontologue
    en conception chez Google,
  • 0:34 - 0:38
    où j'ai étudié comment orienter
    les pensées des gens de façon éthique.
  • 0:39 - 0:41
    Nous ne parlons pas de comment
    les quelques personnes
  • 0:41 - 0:44
    travaillant dans les quelques
    entreprises en technologie
  • 0:44 - 0:49
    orienteront, à travers leurs choix,
    les pensées d'un milliard de personnes.
  • 0:50 - 0:52
    Quand vous sortez votre téléphone
  • 0:52 - 0:55
    et qu'ils conçoivent son fonctionnement
    et le fil d'actualités,
  • 0:55 - 0:58
    cela organise de petits blocs
    de temps dans notre esprit.
  • 0:59 - 1:02
    Si vous voyez une notification,
    cela vous programme des pensées
  • 1:02 - 1:04
    que vous n'aviez peut-être pas prévues.
  • 1:04 - 1:07
    Si vous cliquez sur cette notification,
  • 1:07 - 1:09
    cela vous programme
    à passer un peu de temps
  • 1:09 - 1:11
    à être aspiré par quelque chose
  • 1:11 - 1:14
    que vous n'aviez pas prévu.
  • 1:15 - 1:17
    En parlant de technologie,
  • 1:18 - 1:21
    nous en parlons comme
    d'une opportunité ouverte
  • 1:21 - 1:22
    pouvant aller n'importe où.
  • 1:23 - 1:25
    Je vais être sérieux un instant
  • 1:25 - 1:28
    et vous dire pourquoi cela va
    dans une direction spécifique.
  • 1:29 - 1:31
    Cela n'évolue pas aléatoirement.
  • 1:32 - 1:34
    Il y a un but caché donnant la direction
  • 1:34 - 1:36
    de toutes les technologies créées
  • 1:36 - 1:39
    et ce but est la course
    pour notre attention.
  • 1:41 - 1:44
    Tout nouveau site --
  • 1:44 - 1:46
    TED, les élections, les politiques,
  • 1:46 - 1:48
    les jeux, même les applis de méditation --
  • 1:48 - 1:50
    doivent se battre pour une chose :
  • 1:51 - 1:53
    notre attention,
  • 1:53 - 1:55
    et elle est limitée.
  • 1:56 - 1:59
    La meilleure façon
    d'obtenir l'attention des gens
  • 1:59 - 2:01
    est de connaître
    le fonctionnement de leur cerveau.
  • 2:02 - 2:04
    Il y a des techniques de persuasion
  • 2:04 - 2:08
    que j'ai apprises dans un labo,
    le Labo de la Technologie Persuasive,
  • 2:08 - 2:09
    afin d'obtenir l'attention des gens.
  • 2:10 - 2:11
    Un exemple simple est YouTube.
  • 2:12 - 2:15
    YouTube veut maximiser
    le temps que vous y passez.
  • 2:15 - 2:16
    Que font-ils ?
  • 2:17 - 2:19
    Ils lancent automatiquement
    la vidéo suivante.
  • 2:20 - 2:22
    Disons que cela fonctionne très bien.
  • 2:22 - 2:24
    Ils obtiennent un peu plus
    du temps des gens.
  • 2:24 - 2:26
    Si vous êtes Netflix,
    vous voyez cela et pensez
  • 2:26 - 2:28
    que cela réduit votre part de marché,
  • 2:28 - 2:31
    alors vous lancez automatiquement
    l'épisode suivant.
  • 2:31 - 2:33
    Mais si vous êtes Facebook,
  • 2:33 - 2:35
    vous pensez que cela réduit
    votre part de marché,
  • 2:35 - 2:38
    alors vous lancez automatiquement
    toutes les vidéos
  • 2:38 - 2:40
    au lieu d'attendre que l'on clique.
  • 2:40 - 2:43
    Internet n'évolue pas aléatoirement.
  • 2:44 - 2:49
    La raison pour laquelle on a l'impression
    qu'il nous aspire ainsi
  • 2:49 - 2:51
    est à cause de cette course à l'attention.
  • 2:51 - 2:53
    Nous savons où cela va.
  • 2:53 - 2:54
    La technologie n'est pas neutre
  • 2:55 - 2:59
    et cela devient cette course
    à la base du tronc cérébral
  • 2:59 - 3:01
    de qui s'abaissera le plus pour l'obtenir.
  • 3:02 - 3:04
    Laissez-moi vous présenter
    un exemple de Snapchat.
  • 3:04 - 3:08
    Si vous l'ignorez, Snapchat
    est le moyen de communication principal
  • 3:08 - 3:10
    des adolescents aux Etats-Unis.
  • 3:10 - 3:14
    Si vous êtes comme moi et utilisez
    les SMS pour communiquer,
  • 3:14 - 3:16
    Snapchat est l'équivalent pour ados
  • 3:16 - 3:19
    et un million d'entre eux l'utilisent.
  • 3:19 - 3:21
    Ils ont inventé
    une fonctionnalité, Snapstreak,
  • 3:21 - 3:23
    qui montre le nombre de jours d'affilée
  • 3:23 - 3:26
    où deux personnes
    ont communiqué l'une avec l'autre.
  • 3:26 - 3:28
    En d'autres mots, ce qu'ils ont fait
  • 3:28 - 3:31
    c'est donner à deux personnes
    une chose à ne pas perdre.
  • 3:32 - 3:35
    Si vous êtes un adolescent
    et avez 150 jours d'affilée,
  • 3:35 - 3:37
    vous ne voulez pas les perdre.
  • 3:37 - 3:42
    Pensez aux petits blocs de temps
    prévus dans l'esprit des enfants.
  • 3:42 - 3:44
    Ce n'est pas théorique : en vacances,
  • 3:45 - 3:48
    ils donnent leur mot de passe
    à des amis, jusqu'à cinq d'entre eux,
  • 3:48 - 3:50
    pour préserver leurs Snapstreaks,
  • 3:50 - 3:52
    même s'ils ne le peuvent pas.
  • 3:52 - 3:54
    Et ils en ont une trentaine,
  • 3:54 - 3:57
    ils doivent donc prendre des photos
    de photos ou de murs
  • 3:57 - 4:00
    ou de plafonds pour passer la journée.
  • 4:01 - 4:04
    Ils n'ont même pas
    de réelles conversations.
  • 4:04 - 4:06
    Nous avons la tentation de dire
  • 4:06 - 4:09
    qu'ils utilisent Snapchat
  • 4:09 - 4:11
    comme nous utilisions le téléphone.
  • 4:11 - 4:12
    C'est probablement normal.
  • 4:12 - 4:15
    Ce que nous oublions
    c'est que dans les années 70,
  • 4:15 - 4:17
    quand vous papotiez au téléphone,
  • 4:17 - 4:20
    il n'y avait pas 100 ingénieurs
    de l'autre côté de l'écran
  • 4:20 - 4:22
    connaissant exactement votre psychologie
  • 4:23 - 4:25
    et orchestrant de vous confiner
    ensemble à une contrainte.
  • 4:26 - 4:30
    Si cela vous scandalise un peu,
  • 4:31 - 4:33
    remarquez que cette pensée vous envahit.
  • 4:33 - 4:37
    L'indignation est une très bonne façon
    d'obtenir votre attention
  • 4:38 - 4:40
    car on ne choisit pas de s'indigner.
  • 4:40 - 4:41
    Cela nous arrive.
  • 4:41 - 4:43
    Le fil d'actualités de Facebook,
  • 4:43 - 4:44
    qu'il le veuille ou non,
  • 4:44 - 4:47
    tire profit de l'indignation.
  • 4:47 - 4:50
    Car l'indignation ne prévoit pas
    simplement une réaction
  • 4:50 - 4:53
    à un moment et dans un espace
    émotionnels pour vous.
  • 4:53 - 4:56
    Nous voulons partager
    cette indignation avec d'autres.
  • 4:56 - 4:57
    Nous voulons partager et dire :
  • 4:57 - 5:00
    « Tu crois à ce qu'ils ont dit ? »
  • 5:01 - 5:04
    L'indignation fonctionne très bien
    pour attirer l'attention,
  • 5:04 - 5:08
    si bien que si Facebook devait choisir
    entre un fil d'actualités scandaleuses
  • 5:08 - 5:09
    et un fil d'actualités calmes,
  • 5:10 - 5:12
    ils choisiraient
    les actualités scandaleuses
  • 5:12 - 5:14
    non pas consciemment
  • 5:14 - 5:17
    mais parce que cela
    attire plus votre attention.
  • 5:19 - 5:25
    La salle de contrôle du fil d'actualités
    n'a pas de comptes à nous rendre.
  • 5:25 - 5:27
    Elle doit simplement
    maximiser l'attention.
  • 5:27 - 5:29
    Elle est aussi responsable,
  • 5:29 - 5:31
    à cause du modèle de publicité,
  • 5:31 - 5:34
    envers quiconque payant le plus
    et entrant dans la salle de contrôle
  • 5:34 - 5:36
    en disant : « Ce groupe-là,
  • 5:36 - 5:39
    je veux établir ces pensées
    dans leur esprit. »
  • 5:40 - 5:41
    Vous pouvez cibler,
  • 5:42 - 5:44
    vous pouvez cibler précisément un mensonge
  • 5:44 - 5:47
    directement vers les gens
    les plus susceptibles.
  • 5:48 - 5:51
    Puisque c'est rentable,
    cela ne va qu'empirer.
  • 5:53 - 5:55
    Je suis ici aujourd'hui
  • 5:56 - 5:58
    car les coûts sont évidents.
  • 6:00 - 6:02
    Je ne connais aucun problème plus urgent
  • 6:02 - 6:06
    car ce problème est sous-jacent
    à tous les autres problèmes.
  • 6:07 - 6:10
    Non seulement il compromet nos efforts
  • 6:10 - 6:13
    pour concentrer notre attention,
    vivre notre vie désirée,
  • 6:14 - 6:17
    il change aussi la façon
    dont nous tenons nos conversations,
  • 6:17 - 6:19
    il change notre démocratie
  • 6:19 - 6:22
    et il change notre capacité
    à avoir ces conversations
  • 6:22 - 6:24
    et ces relations que nous voulons avoir.
  • 6:25 - 6:27
    Il affecte tout le monde
  • 6:27 - 6:30
    car un milliard de personnes
    ont ceci dans leur poche.
  • 6:33 - 6:35
    Comment arranger cela ?
  • 6:37 - 6:40
    Nous devons effectuer
    trois changements radicaux
  • 6:40 - 6:42
    en termes de technologie et de société.
  • 6:44 - 6:48
    Premièrement, nous devons reconnaître
    que nous sommes influençables.
  • 6:49 - 6:50
    Une fois que nous comprenons
  • 6:50 - 6:53
    que l'on peut programmer
    des petites pensées
  • 6:53 - 6:56
    ou des blocs de temps non désirés
    dans notre esprit,
  • 6:56 - 6:58
    n'utiliserions-nous pas cette connaissance
  • 6:58 - 7:00
    et ne nous protégerions-nous pas ?
  • 7:01 - 7:04
    Nous devons avoir une vision
    fondamentalement nouvelle de nous-mêmes.
  • 7:04 - 7:06
    Comme une nouvelle période de l'histoire,
  • 7:06 - 7:07
    comme le Siècle des Lumières
  • 7:07 - 7:10
    et aussi comme une prise
    de conscience de soi,
  • 7:10 - 7:12
    nous sommes influençables
  • 7:12 - 7:15
    et il y a peut-être
    quelque chose à protéger.
  • 7:15 - 7:18
    Deuxièmement, il nous faut
    de nouveaux modèles
  • 7:18 - 7:20
    et systèmes de responsabilisation
  • 7:20 - 7:24
    pour que, alors que le monde s'améliore,
    devient de plus en plus persuasif --
  • 7:24 - 7:26
    il ne peut que devenir
    de plus en plus persuasif --
  • 7:26 - 7:28
    les gens dans ces salles de contrôle
  • 7:28 - 7:30
    soient responsables,
    transparents quant à nos désirs.
  • 7:30 - 7:33
    La seule forme de persuasion
    éthique qui existe
  • 7:33 - 7:35
    c'est si les objectifs
    de celui qui persuade
  • 7:35 - 7:37
    sont alignés avec ceux
    de celui qui est persuadé.
  • 7:38 - 7:40
    Il faut remettre en question des choses
  • 7:40 - 7:43
    comme le modèle commercial
    de la publicité.
  • 7:43 - 7:44
    Finalement,
  • 7:44 - 7:46
    il faut un renouvellement de la conception
  • 7:47 - 7:50
    car une fois que vous avez
    cette vision de la nature humaine,
  • 7:50 - 7:53
    vous pouvez contrôler les calendriers
    d'un milliard de personnes.
  • 7:53 - 7:56
    Imaginez, il y a des gens
    qui ont des désirs
  • 7:56 - 7:59
    quant à ce qu'ils veulent faire
    et ce qu'ils veulent penser
  • 7:59 - 8:02
    et ce qu'ils veulent ressentir
    et comment ils veulent être informés
  • 8:02 - 8:04
    et ils sont traînés
    dans d'autres directions.
  • 8:05 - 8:08
    Un milliard de personnes sont traînées
    dans d'autres directions.
  • 8:08 - 8:10
    Imaginez une renaissance de la conception
  • 8:10 - 8:13
    qui essayait d'orchestrer
    la façon exacte
  • 8:13 - 8:17
    et la plus stimulante
    de bien passer son temps.
  • 8:17 - 8:18
    Cela impliquerait deux choses :
  • 8:18 - 8:20
    nous protéger de ces calendriers
  • 8:20 - 8:22
    selon lesquels nous ne voulons pas vivre,
  • 8:22 - 8:25
    ces pensées que nous ne voulons pas avoir
  • 8:25 - 8:28
    pour que lorsque la sonnerie retentit,
    cela ne nous accapare pas ;
  • 8:28 - 8:32
    deuxièmement, nous pousser à vivre
    à notre propre rythme.
  • 8:32 - 8:34
    Voici un exemple concret.
  • 8:34 - 8:37
    Aujourd'hui, votre ami
    annule votre dîner ensemble
  • 8:37 - 8:41
    et vous vous sentez un peu seul.
  • 8:41 - 8:42
    Que faites-vous ?
  • 8:42 - 8:44
    Vous ouvrez Facebook.
  • 8:45 - 8:47
    A ce moment-là,
  • 8:47 - 8:50
    les concepteurs dans la salle de contrôle
    veulent une chose :
  • 8:50 - 8:53
    maximiser le temps
    passé devant votre écran.
  • 8:55 - 8:59
    Imaginez plutôt si ces concepteurs
    avaient un autre objectif :
  • 8:59 - 9:02
    la façon la plus simple,
    grâce à toutes leurs données,
  • 9:02 - 9:05
    de vous aider à sortir
    avec les gens que vous aimez.
  • 9:05 - 9:11
    Pensez-y, alléger la solitude
    dans notre société,
  • 9:11 - 9:14
    si c'était le programme que Facebook
    voulait permettre aux gens.
  • 9:14 - 9:16
    Ou imaginez une autre conversation.
  • 9:16 - 9:19
    Disons que vous vouliez poster
    quelque chose de controversé sur Facebook,
  • 9:19 - 9:22
    il est très important
    de pouvoir faire cela,
  • 9:22 - 9:23
    parler de sujets controversés.
  • 9:23 - 9:26
    Actuellement, quand il y a
    cet espace commentaire,
  • 9:26 - 9:29
    il vous incite presque à écrire.
  • 9:29 - 9:32
    En d'autres mots, cela prévoit
    un petit programme de choses
  • 9:32 - 9:34
    que vous allez
    continuer à faire sur l'écran.
  • 9:34 - 9:37
    Imaginez plutôt qu'il y ait
    un autre bouton demandant :
  • 9:37 - 9:39
    « Comment utiliser
    au mieux votre temps ? »
  • 9:39 - 9:41
    « Organiser un dîner »
  • 9:41 - 9:43
    Juste en dessous, cela dit :
  • 9:43 - 9:45
    « Qui veut réserver pour le dîner ? »
  • 9:45 - 9:48
    Vous auriez toujours une conversation
    sur un sujet controversé,
  • 9:48 - 9:52
    mais vous l'auriez à l'endroit
    le plus stimulant :
  • 9:52 - 9:56
    chez vous, ce soir-là,
    avec des amis, pour en discuter.
  • 9:57 - 10:00
    Imaginez que nous faisions
    un « chercher et remplacer »
  • 10:01 - 10:04
    sur tous les programmes
    qui nous traînent actuellement
  • 10:04 - 10:06
    vers de plus en plus
    de temps devant l'écran
  • 10:07 - 10:10
    et que nous remplacions ces programmes
  • 10:10 - 10:12
    par ce que nous voulons
    faire de notre vie.
  • 10:15 - 10:16
    Cela n'a pas à être ainsi.
  • 10:18 - 10:21
    Au lieu d'handicaper notre attention,
  • 10:21 - 10:24
    imaginez si nous utilisions
    toutes ces données, tout ce pouvoir,
  • 10:24 - 10:25
    cette nouvelle vision de l'Homme
  • 10:25 - 10:28
    pour nous donner une capacité
    de concentration surhumaine,
  • 10:28 - 10:32
    une capacité surhumaine
    à prêter attention à ce qui nous importe,
  • 10:32 - 10:35
    une capacité surhumaine
    à avoir les conversations
  • 10:35 - 10:37
    que nous devons avoir pour la démocratie.
  • 10:40 - 10:42
    Les défis les plus complexes au monde
  • 10:44 - 10:47
    ne nécessitent pas seulement
    notre attention individuelle.
  • 10:48 - 10:52
    Ils nécessitent notre attention
    et une coordination collectives.
  • 10:52 - 10:55
    Le changement climatique
    va nécessiter que beaucoup de gens
  • 10:55 - 10:57
    puissent coordonner leur attention
  • 10:57 - 10:59
    de la façon la plus stimulante, ensemble.
  • 10:59 - 11:02
    Imaginez créer une capacité
    surhumaine pour faire cela.
  • 11:07 - 11:11
    Parfois, les problèmes
    les plus importants et urgents du monde
  • 11:12 - 11:16
    ne sont pas ces choses hypothétiques
    que nous pourrions créer à l'avenir.
  • 11:17 - 11:18
    Parfois, les problèmes les plus urgents
  • 11:18 - 11:21
    sont ceux juste sous notre nez,
  • 11:21 - 11:24
    les choses qui dirigent déjà
    les pensées d'un milliard de personnes.
  • 11:25 - 11:28
    Peut-être qu'au lieu d'être enthousiastes
    pour la réalité augmentée
  • 11:28 - 11:31
    et la réalité virtuelle
    et ces choses cool pouvant arriver
  • 11:31 - 11:35
    qui vont être sujettes
    à la même course à l'attention,
  • 11:35 - 11:37
    si nous pouvions orienter
    la course à l'attention
  • 11:37 - 11:40
    ce qui est déjà dans les poches
    d'un milliard de personnes.
  • 11:40 - 11:42
    Au lieu d'être enthousiastes
  • 11:42 - 11:46
    pour les nouvelles applications éducatives
    excitantes, cool et sophistiquées,
  • 11:46 - 11:49
    nous pourrions corriger comment
    les enfants sont manipulés
  • 11:49 - 11:51
    et poussés à s'échanger
    des messages vides.
  • 11:52 - 11:56
    (Applaudissements)
  • 11:56 - 11:58
    Au lieu de s'inquiéter
  • 11:58 - 12:01
    d'hypothétiques et futures
    intelligences artificielles folles
  • 12:01 - 12:03
    qui n'ont qu'un objectif,
  • 12:05 - 12:07
    nous pourrions réparer
    l'intelligence artificielle folle
  • 12:07 - 12:09
    qui existe actuellement
  • 12:09 - 12:12
    et qui sont ces fils d'actualités
    qui n'ont qu'un objectif.
  • 12:14 - 12:18
    C'est presque comme si au lieu
    d'aller coloniser d'autres planètes,
  • 12:18 - 12:20
    nous pouvions réparer
    celle sur laquelle nous sommes.
  • 12:20 - 12:24
    (Applaudissements)
  • 12:28 - 12:30
    Résoudre ce problème
  • 12:30 - 12:34
    offrirait l'infrastructure essentielle
    à la résolution de tous les autres.
  • 12:35 - 12:39
    Il n'y a rien dans notre vie
    ou nos problèmes collectifs
  • 12:39 - 12:42
    ne nécessitant pas notre capacité
    à nous concentrer sur ce qui nous importe.
  • 12:44 - 12:45
    A la fin de notre vie,
  • 12:46 - 12:49
    il ne nous reste
    que notre attention et notre temps.
  • 12:50 - 12:52
    Comment bien utiliser notre temps ?
  • 12:52 - 12:53
    Merci.
  • 12:53 - 12:56
    (Applaudissements)
  • 13:06 - 13:09
    Chirs Anderson : Tristan, merci.
    Restez ici un instant.
  • 13:09 - 13:10
    Tout d'abord, merci.
  • 13:10 - 13:13
    Cette présentation a été demandée
    il y a peu de temps
  • 13:13 - 13:15
    et votre semaine a été stressante,
  • 13:15 - 13:18
    travaillant à cela, alors merci.
  • 13:19 - 13:23
    Certains qui écoutent pourraient dire
    que vous vous plaignez d'addiction
  • 13:23 - 13:26
    et que pour les gens faisant cela,
    c'est vraiment intéressant.
  • 13:26 - 13:28
    Les décisions de conception
  • 13:28 - 13:31
    ont créé un contenu utilisation
    incroyablement intéressant.
  • 13:31 - 13:33
    Le monde est plus intéressant que jamais.
  • 13:33 - 13:34
    Qu'y a-t-il de mal à cela ?
  • 13:34 - 13:37
    Tristan Harris :
    Je pense que c'est intéressant.
  • 13:37 - 13:41
    Une façon de le voir est
    si vous êtes YouTube, par exemple,
  • 13:41 - 13:43
    vous voulez toujours montrer
    la vidéo la plus intéressante.
  • 13:43 - 13:46
    Vous voulez améliorer
    la suggestion de la prochaine vidéo,
  • 13:46 - 13:49
    mais même si vous pouviez
    proposer la vidéo parfaite
  • 13:49 - 13:50
    que tout le monde voudrait voir,
  • 13:51 - 13:54
    vous n'améliorerez que votre capacité
    à garder les gens devant l'écran.
  • 13:54 - 13:56
    Ce qu'il manque dans l'équation
  • 13:56 - 13:58
    est de trouver où sont les limites.
  • 13:58 - 14:01
    Il faudrait que YouTube
    connaisse la notion de sommeil.
  • 14:01 - 14:03
    Le PDG de Netflix a dit récemment :
  • 14:03 - 14:05
    « Nos compétiteurs sont Facebook,
    YouTube et le sommeil. »
  • 14:05 - 14:10
    Nous devons reconnaître
    que l'architecture humaine est limitée
  • 14:10 - 14:13
    et qu'il y a des limites
    ou des dimensions de notre vie
  • 14:13 - 14:15
    que nous voulons voir
    honorées et respectées
  • 14:15 - 14:17
    et la technologie pourrait aider.
  • 14:17 - 14:19
    (Applaudissements)
  • 14:19 - 14:21
    CA : Pourriez-vous dire
  • 14:21 - 14:27
    qu'une part du problème est que nous avons
    un modèle naïf de la nature humaine ?
  • 14:27 - 14:30
    Tant de choses sont justifiées
    par la préférence humaine,
  • 14:30 - 14:32
    nous avons ces algorithmes
    faisant un super boulot,
  • 14:33 - 14:34
    optimisant pour la préférence humaine,
  • 14:34 - 14:36
    mais quelle préférence ?
  • 14:36 - 14:39
    Il y a les préférences des choses
    qui nous importent
  • 14:39 - 14:40
    quand nous y pensons
  • 14:41 - 14:44
    versus celles de ce sur quoi
    nous avons instinctivement cliqué.
  • 14:44 - 14:47
    Si nous pouvions implanter une vue
    plus nuancée de la nature humaine
  • 14:47 - 14:48
    dans la conception,
  • 14:48 - 14:50
    cela serait-il du progrès ?
  • 14:50 - 14:52
    TH : Absolument. Actuellement,
  • 14:52 - 14:55
    c'est comme si notre technologie
    demandait à notre cerveau reptilien
  • 14:55 - 15:00
    comment, impulsivement, nous faire faire
    de notre temps la prochaine petite chose
  • 15:00 - 15:02
    au lieu de demander
  • 15:02 - 15:04
    comment vous utiliseriez
    au mieux votre temps.
  • 15:04 - 15:07
    Quel serait le programme parfait
    pouvant inclure des prévisions,
  • 15:07 - 15:10
    comment bien utiliser votre temps
    durant votre dernier jour à TED ?
  • 15:10 - 15:13
    CA : Donc si Facebook et Google
    et tous les autres disaient :
  • 15:13 - 15:16
    « Aimeriez-vous optimiser
    votre cerveau réflectif
  • 15:16 - 15:18
    ou votre cerveau reptilien ? Choisissez. »
  • 15:18 - 15:20
    TH : Ce serait une façon de faire, oui.
  • 15:22 - 15:25
    CA : Vous avez parlé d'influence,
    c'est un mot intéressant
  • 15:25 - 15:28
    car, à mon avis, il y a
    deux types d'influence.
  • 15:28 - 15:31
    Il y a celle que nous essayons,
  • 15:31 - 15:33
    celle de la raison, la réflexion,
    l'argumentation,
  • 15:33 - 15:36
    mais vous parlez presque
    d'une influence différente,
  • 15:36 - 15:37
    plus viscérale,
  • 15:38 - 15:40
    celle d'être convaincu
    sans savoir ce que l'on pense.
  • 15:40 - 15:43
    TH : Exactement.
    Ce problème me tient à cœur
  • 15:43 - 15:46
    car j'ai étudié au labo
    de la Technologie Persuasive à Stanford
  • 15:47 - 15:49
    qui enseigne ces techniques aux gens.
  • 15:49 - 15:52
    Il y a des conférences, des ateliers
    qui enseignent ces façons dissimulées
  • 15:52 - 15:55
    d'obtenir l'attention des gens
    et d'orchestrer leur vie.
  • 15:55 - 15:58
    Le fait que la plupart des gens
    en ignorent l'existence
  • 15:58 - 16:00
    rend cette conversation si importante.
  • 16:00 - 16:03
    CA : Tristan, vous et moi connaissons
    tant de monde dans ces entreprises.
  • 16:04 - 16:05
    Il y en a plein dans la pièce
  • 16:06 - 16:08
    et, je ne sais pas pour vous,
    mais mon expérience
  • 16:08 - 16:10
    est qu'ils ne manquent pas
    de bonnes intentions.
  • 16:10 - 16:12
    Les gens veulent un monde meilleur.
  • 16:12 - 16:16
    Ils sont -- ils le veulent vraiment.
  • 16:16 - 16:20
    Je ne crois pas que vous disiez
    que ces gens sont maléfiques.
  • 16:21 - 16:24
    C'est un système où il y a
    des conséquences inattendues
  • 16:24 - 16:26
    qui est hors de contrôle --
  • 16:26 - 16:28
    TH : La course à l'attention.
  • 16:28 - 16:31
    La course classique vers les bas-fonds
    pour obtenir l'attention,
  • 16:31 - 16:32
    c'est très tendu.
  • 16:32 - 16:35
    Pour en obtenir plus,
    il faut descendre le tronc cérébral,
  • 16:35 - 16:37
    descendre dans l'outrage,
    descendre dans l'émotion,
  • 16:37 - 16:39
    descendre dans le cerveau lézard.
  • 16:39 - 16:43
    CA : Merci de nous avoir aidés
    à devenir plus éclairés à ce propos.
  • 16:43 - 16:45
    Tristan Harris, merci.
    TH : Merci beaucoup.
  • 16:45 - 16:48
    (Applaudissements)
Title:
Les ruses manipulatrices que les entreprises de technologie utilisent pour obtenir votre attention
Speaker:
Tristan Harris
Description:

Quelques personnes travaillant dans quelques entreprises de technologie dirigent les pensées de milliards de personnes chaque jour, d'après le penseur en conception Tristan Harris. Des notifications Facebook aux Snapstreaks en passant par la lecture automatique de YouTube, elles sont en compétition pour une chose : votre attention. Harris partage comment ces entreprises jouent de notre psychologie pour leur propre profit et appelle à un renouvellement de la conception au cours duquel notre technologie nous encouragerait plutôt à vivre à notre propre rythme et selon le programme que nous voulons.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:00

French subtitles

Revisions