Da quando i computer sono stati inventati, abbiamo cercato di renderli più intelligenti e potenti. Dall'abaco, a macchine grandi quanto una stanza, ai desktop, ai computer tascabili. E ora stiamo progettando l'Intelligenza Artificiale per automatizzare compiti che richiederebbero l'intelligenza umana. Analizzando la storia del computer, li abbiamo sempre trattati come dispositivi esterni che calcolano e agiscono al posto nostro. Voglio ora considerare l'uso del computer, l'IA e Internet come parte di noi. Come parte della cognizione umana, lasciandoci liberi di interagire con il mondo attorno a noi. Integrare l'intelligenza umana e artificiale nei nostri corpi per massimizzarci, invece di diminuirci o rimpiazzarci. Potremmo combinare ciò che facciamo meglio - il pensiero creativo e intuitivo - con ciò che i computer fanno meglio, ovvero processare informazioni e memorizzare perfettamente le cose? Questo potrebbe essere meglio che la somma delle due parti? Abbiamo un dispositivo che potrebbe rendere questo possibile. Si chiama AlterEgo, ed è un dispositivo indossabile che permette di provare una IA conversazionale che vive nella tua testa, e a cui puoi parlare come se parlassi a te stesso internamente. Abbiamo un nuovo prototipo che vi mostriamo qui, per la prima volta a TED, ed ecco come funziona. Normalmente, quando parliamo, il cervello manda dei neurosegnali attraverso i nervi al nostro sistema interno di linguaggio, per attivarli e alle corde vocali per produrre suoni. Uno dei compiti motori e cognitivi più complessi che facciamo come esseri umani. Ora, immaginate di parlare a voi stessi senza vocalizzare, senza muovere la bocca, senza muovere la mandibola, semplicemente articolando quelle parole internamente. Impegnando così solo leggermente il sistema interno di linguaggio, come la lingua e il retro del palato. Quando questo succede, il cervello manda dei segnali estremamente deboli al sistema interno di linguaggio. AlterEgo ha dei sensori, inseriti in un dispositivo in plastica sottile, flessibile e trasparente che si applica al collo come uno sticker. Questi sensori captano questi segnali interni che si originano all'interno della cavità orale, fino alla superficie della pelle. Poi un programma IA in background cerca di capire cosa sta cercando di dire l'utente. Poi invia la risposta all'utente tramite conduzione ossea, ovvero suoni condotti tramite il cranio nell'orecchio interno dell'utente, che l'utente ascolta, in combinazione con i suoni dell'ambiente circostante senza bloccarli. La combinazione di queste parti, l'input, l'output e l'intelligenza artificiale, danno un'esperienza soggettiva di un'interfaccia nella tua testa a cui puoi parlare come se parlassi a te stesso. Per essere chiari, il dispositivo non registra o legge i vostri pensieri. Registra informazioni volontarie che volete comunicare attraverso il coinvolgimento volontario del sistema interno di linguaggio. Le persone non vogliono essere lette, vogliono scrivere. Ecco perché abbiamo progettato il sistema per registrare deliberatamente dal sistema nervoso periferico. Ragione per cui il controllo in tutte le situazioni resta all'utente. Voglio fermarmi per un momento e darvi una dimostrazione. Ora farò una domanda a Eric. E lui cercherà quell'informazione senza vocalizzare, senza scrivere, senza muovere le dita, senza muovere la bocca. Semplicemente ponendosi quella domanda internamente. L'IA carpirà la risposta e la manderà ad Eric, in forma audio, attraverso il dispositivo. Voi vedete un computer di fronte a lui, ma non lo sta usando. Tutto sta nel dispositivo. Ciò che gli serve è un dispositivo sticker per interagire con l'IA e Internet. Allora, Eric, com'è il tempo a Vancouver ora? Ciò che vedete sullo schermo sono le parole che Eric sta pensando proprio ora. Sta succedendo in tempo reale. Eric: Ci sono 50 gradi e piove qui a Vancouver. Arnav Kapur: è successo che l'IA ha mandato la risposta in formato audio, tramite il dispositivo, ad Eric. Quali potrebbero essere le ripercussioni di tutto ciò? Immaginate di memorizzare perfettamente le cose, di registrare perfettamente informazioni che dite in silenzio, e ascoltarle quando volete, cercando le informazioni internamente, calcolando numeri alla velocità di un computer, mandando messaggi ad altre persone. Diventare di colpo multilingue, in modo da parlare internamente in un'altra lingua, e ascoltare la traduzione nella tua testa in un'altra. Il potenziale potrebbe essere di vasta portata. Ci sono milioni di persone nel mondo che non riescono a parlare. Persone che soffrono di SLA, o malattia di Lou Gehrig, infarto e cancro orale, tra le varie patologie. Per loro, comunicare è un processo stancante e faticosamente lento. Questo è Doug. A Doug è stata diagnosticata la SLA circa 12 anni fa e da allora ha perso l'abilità di parlare. Oggi, usa una tastiera sullo schermo in cui digita in lettere singole facendo dei movimenti con la testa. E comunicare un singola frase richiede molti minuti. Così siamo andati da Doug e gli abbiamo chiesto quali fossero le prime parole che avrebbe voluto dire, usando il nostro sistema. Magari una forma di saluto, come "Ciao, come stai?" O dire che aveva bisogno di aiuto con qualcosa. Doug disse che voleva usare il nostro sistema per riavviare il suo vecchio sistema, perché continuava a bloccarsi. (Risate) Non l'avremmo mai detto. Ora vi mostrerò una breve clip di Doug che usa il nostro sistema per la prima volta. (Voice) Riavvia il computer. AK: Ciò che avete appena visto è Doug che comunicava in tempo reale per la prima volta da quando ha perso la parola. Ci sono milioni di persone che potrebbero comunicare in tempo reale come Doug, con altre persone, con i loro amici e le loro famiglie. Spero di riuscire ad aiutarli a esprimere i loro pensieri e le loro idee. Credo che i computer, l'IA e Internet potrebbero integrarsi dentro di noi come estensioni della nostra cognizione, invece di essere entità o avversari esterni, amplificando l'ingegnosità umana, dandoci abilità inimmaginabili e sbloccando il nostro vero potenziale. E magari permettendoci di migliorarci come esseri umani. Grazie mille. (Applausi) Shoham Arad: Vieni qui. OK. Voglio farti un paio di domande, stanno per sgombrare il palco. Penso che ciò sia meraviglioso, innovativo, allucinante, terrificante. Puoi dirci quali sono ... Penso che ci sia un sentimento negativo riguardo a ciò. Dicci, se questo leggesse le nostre menti tra 5 anni e ci sarà una versione armata, quale sarà il suo aspetto? Il nostro primo principio, prima che cominciassimo a lavorarci su, era di non mettere l'etica al secondo posto. Quindi volevamo integrare l'etica nel progetto. Così l'abbiamo invertito. Invece di leggere dal cervello, leggiamo dal sistema nervoso volontario che bisogna impegnare per comunicare col dispositivo, mantenendo comunque i benefici di un dispostivo fatto per pensare. Il meglio dei due mondi. OK, penso che le persone avranno molte altre domande per te. Hai detto anche che è uno sticker. Quindi ora è attaccato proprio lì? Questa è l'iterazione finale, l'aspetto finale che speri? AK:Il nostro obiettivo è che la tecnologia scompaia completamente. SA: Cosa significa? Se lo indossi, non dovresti riuscire a vederlo. Non vuoi la tecnologia sulla tua faccia, la vuoi in background, per massimizzarti in background. Quindi abbiamo una versione sticker che si adatta alla pelle, che sembra pelle, ma stiamo cercando di creare una versione ancora più piccola che andrebbe proprio lì. SA: OK. Penso che se qualcuno abbia altre domande da fare ad Arnav, lui sarà qui tutta la settimana. OK, grazie mille, Arnav. AK: Grazie, Shoham.