Depuis que les ordinateurs
ont été inventés,
on a essayé de les rendre
plus intelligents et puissants.
Du boulier aux machines
de la taille d'une pièce,
aux ordinateurs de bureau,
aux ordinateurs de poche.
Et maintenant, on conçoit
l'intelligence artificielle
pour automatiser des tâches qui
nécessiteraient l'intelligence humaine.
Dans l'histoire de l'informatique,
on a toujours traité les ordinateurs
comme des appareils externes
qui calculent et agissent en notre nom.
Ce que je veux faire, c'est que
l'informatique, l'IA et Internet
fassent partie intégrante de nous,
fassent partie de la cognition humaine,
nous permettant d'interagir
avec le monde qui nous entoure.
Il s'agit de combiner intelligence
humaine et machine
à l'intérieur de nos propres corps
pour nous augmenter,
au lieu de nous diminuer
ou nous remplacer.
Pourrions-nous combiner
le meilleur chez l'Homme,
la pensée créative et intuitive,
avec ce que les ordinateurs
font de mieux :
traiter et enregistrer l'information ?
Cet ensemble pourrait-il être mieux
que la somme de ses parties ?
Nous avons un appareil
qui pourrait rendre cela possible.
Ça s'appelle AlterEgo.
C'est un appareil portable qui vous donne
l'expérience d'une IA conversationnelle
qui habite dans votre tête,
à qui vous pouvez parler
comme à vous-même.
En voici un prototype
que nous présentons, ici,
pour la première fois à TED.
Voici comment il marche.
Normalement, quand nous parlons,
le cerveau envoie des signaux nerveux
à travers les nerfs
aux systèmes de parole interne
pour les activer, ainsi que les cordes
vocales, pour produire des sons.
C'est l'une tâches cognitives et motrices
les plus complexes que l'humain fasse.
Imaginez parler à vous-même,
sans un bruit, sans bouger votre bouche,
sans bouger votre mâchoire,
mais simplement en articulant
ces mots intérieurement,
engageant ainsi très subtilement
vos systèmes de parole interne,
comme votre langue
et l'arrière de votre palais.
Si vous faites cela,
le cerveau envoie des signaux très faibles
à ces systèmes de parole interne.
AlterEgo a des capteurs,
enveloppés dans un appareil
en plastique fin, flexible et transparent
placé sur votre cou, comme un autocollant.
Ces capteurs recueillent
ces signaux internes
puisés profondément
dans la cavité buccale,
depuis la surface de la peau.
Un programme d'IA en arrière-plan
tente ensuite de comprendre
ce que l'utilisateur veut dire.
Il répond ensuite à l'utilisateur
en passant par la conduction osseuse,
le son étant amené par le crâne
dans l'oreille interne de l'utilisateur,
que l'utilisateur entend,
en plus de ce qu'il entend
naturellement de son environnement,
sans le bloquer.
La combinaison de toutes ces parties -
ce qui entre, ce qui sort et l'IA -
permet une expérience subjective
d'une interface dans votre tête
à qui vous pouvez parler comme
si vous vous parliez à vous-même.
Pour être très clair, l'appareil
n'enregistre ni ne lit vos pensées.
Il enregistre des informations
que vous voulez communiquer
par l'engagement volontaire
de vos systèmes internes de parole.
Les gens ne veulent pas être lus,
ils veulent écrire.
Aussi, nous avons conçu le système
pour qu'il enregistre délibérément
du système nerveux périphérique.
C'est pourquoi, l'utilisateur garde
le contrôle dans toutes les situations.
Je veux m'arrêter là un instant
et vous faire une démonstration.
Ce que je vais faire,
c'est poser une question à Eric.
Et il va chercher cette information
sans articuler, sans taper,
sans bouger ses doigts,
sans bouger sa bouche.
Simplement en posant
la question intérieurement.
L'IA va ensuite trouver la réponse
et la faire passer à Eric
par l'audio à travers l'appareil.
Certes, vous voyez un portable
devant lui, mais il ne l'utilise pas.
Tout passe par l'appareil.
Seul l'appareil autocollant est nécessaire
comme interface entre l'IA et internet.
Alors, Eric, quel temps fait-il
à Vancouver en ce moment ?
Ce que vous voyez à l'écran,
ce sont les mots qu'Eric se dit à lui-même
à l'instant présent.
Ça se passe en temps réel.
Eric : Il fait 10°C
et il pleut, ici, à Vancouver.
Arnav Kapur : L'IA a envoyé la réponse
en audio en passant
par l'appareil, à Eric.
Quelles conséquences cela peut-il avoir ?
Imaginez mémoriser
parfaitement des choses,
en enregistrant des
informations que vous pensez
et les écouter plus tard
quand vous voulez,
chercher intérieurement des informations,
calculer des nombres
à la vitesse d'un ordinateur,
envoyer des messages en silence,
devenir polyglotte d'un coup,
parler intérieurement dans une langue
et entendre la traduction dans votre tête.
Le potentiel est énorme.
Il y a des millions de gens
à travers le monde
qui ont des difficultés à parler.
Des gens qui ont une SLA -
la maladie de Charcot -
un AVC ou un cancer de la bouche,
entre autres maladies.
Pour eux, communiquer est
un processus laborieux et fatigant.
Voici Doug.
Doug souffre de SLA depuis 12 ans
et depuis il a perdu
la capacité de parler.
Aujourd'hui, il tape sur un clavier visuel
les lettres une à une
en utilisant des mouvements de tête.
Il lui faut plusieurs minutes
pour communiquer une seule phrase.
Donc, nous avons demandé à Doug
quels étaient les premiers mots
qu'il aimerait utiliser ou dire
en utilisant notre système.
Peut-être quelque chose comme :
« Salut, ça va ? »
ou demander de l'aide.
Doug a dit qu'il voulait
utiliser notre système
pour redémarrer son ancien système parce
que ce dernier ne faisait que s'arrêter.
(Rires)
Nous n'aurions jamais pu prévoir cela.
Je vais vous montrer une vidéo de Doug
utilisant notre système
pour la première fois.
(Voix) Redémarrer l'ordinateur.
Ce que vous venez d'entendre,
c'était Doug communiquant ou parlant
en temps réel pour la première fois
depuis qu'il a perdu la parole.
Il y a des millions de gens
qui pourraient communiquer
en temps réel comme Doug
avec d'autres personnes,
leurs amis et leur famille.
J'espère pouvoir les aider à
exprimer leurs pensées et leurs idées.
Je crois que les ordinateurs,
l'IA et internet
disparaîtront en nous comme
des extensions de notre cognition,
au lieu d'être des entités externes
ou des adversaires
afin d'amplifier l'ingéniosité humaine,
nous donnant des capacités inimaginables
et libérant notre vrai potentiel.
Et peut-être même nous permettant
de devenir de meilleurs êtres humains.
Merci beaucoup.
(Applaudissements)
Shoham Arad : Venez ici.
OK.
J'ai quelques questions pour vous
pendant qu'ils rangent la scène.
Je trouve ça incroyable, c'est innovant,
c'est effrayant, c'est terrifiant.
Pouvez-nous nous dire ce que...
Je pense que ça génère
des sentiments inconfortables.
Dites-nous,
est-ce que ça lit nos pensées ?
Et dans cinq ans ?
Y a-t-il une version militaire ?
A quoi ça ressemble ?
AK : Notre premier principe
avant de travailler là-dessus
était de ne pas faire de l'éthique
une réflexion après-coup.
Nous voulions intégrer l'éthique
dès la conception.
Du coup,
au lieu de lire dans le cerveau,
il lit le système nerveux somatique
qui doit être délibérément activé
pour utiliser l'appareil,
tout en apportant les bénéfices
d'un appareil pensant.
Le meilleur des deux, en quelque sorte.
SA : Je crois que les gens vont avoir
encore plus de questions pour vous.
Vous disiez que c'est un autocollant.
Donc, pour l'instant, on le met là ?
Est-ce la dernière version,
ce à quoi le produit fini va ressembler ?
AK : Notre but est que la technologie
disparaisse complètement.
SA : C'est-à-dire ?
AK : Si vous le portez,
on ne devrait pas le voir.
Vous ne voulez pas l'avoir
sur votre visage, mais en arrière-plan
pour vous augmenter en arrière-plan.
Nous avons une version autocollante
qui s'adapte à la peau,
qui ressemble à la peau,
mais nous essayons de faire
une version plus petite
qui se mettrait juste là.
SA : D'accord.
Je crois que si quelqu'un
veut poser des questions à Arnav,
il sera là toute la semaine.
Merci beaucoup, Arnav.
AK : Merci, Shoham.