Dopo 13,8 miliardi di anni di storia cosmica, il nostro universo si è risvegliato e ha preso coscienza di se stesso. Da un piccolo pianeta blu, minuscole parti coscienti del nostro universo hanno iniziato a osservare il cosmo con telescopi, scoprendo umiltà. Abbiamo scoperto che il nostro universo è molto più grande di quanto abbiano immaginato i nostri antenati e che la vita sembra essere una perturbazione quasi impercettibile in un universo altrimenti morto. Ma abbiamo anche scoperto qualcosa di stimolante, ossia che la tecnologia che stiamo sviluppando può potenzialmente aiutare la vita a fiorire come mai prima d'ora, non solo per secoli, ma per miliardi di anni, e non solo sulla terra ma in gran parte dell'universo. Vedo la vita precedente come una "Vita 1.0" perché era davvero stupida, come i batteri, incapaci di imparare alcunché. Vedo gli esseri umani come una "Vita 2.0" perché possiamo imparare, che in linguaggio nerd o geek, significa installare nuovi software nel cervello, come le lingue e le capacità lavorative. La "Vita 3.0", che può progettare l'hardware oltre che il software ovviamente non esiste ancora. Ma forse la nostra tecnologia ci ha già resi "Vita 2.1", con le ginocchia artificiali, i pacemaker e gli apparecchi acustici. Diamo uno sguardo più da vicino alla nostra relazione con la tecnologia. Ad esempio, la missione lunare Apollo 11 è riuscita ed è stata stimolante, mostrando che quando gli esseri umani usano la tecnologia con saggezza, possiamo compiere cose che i nostri antenati si sognavano. Ma c'è un percorso ancora più stimolante spinto da qualcosa di ancora più forte dei motori dei razzi, in cui i passeggeri non sono solo tre astronauti ma tutta l'umanità. Parliamo del nostro viaggio collettivo nel futuro con l'intelligenza artificiale. Il mio amico Jaan Tallinn ama sottolineare che proprio come i razzi, non basta rendere potente la tecnologia. Dobbiamo anche capire se saremo davvero ambiziosi, dove indirizzarla e dove vogliamo andarci. Parliamo di tutti e tre per l'intelligenza artificiale: la potenza, la direzione e la destinazione. Iniziamo con la potenza. Definisco l'intelligenza in modo molto inclusivo -- semplicemente la nostra capacità di realizzare obiettivi complessi, perché voglio includere sia l'intelligenza biologica che quella artificiale. E voglio evitare quella stupida idea carbonio-sciovinistica che si può essere intelligenti solo se fatti di carne. È incredibile quanto sia migliorata l'IA ultimamente. Pensateci un po'. Non molto tempo fa, i robot non potevano camminare. Ora possono fare capriole. Poco tempo fa, non avevamo le auto a guida autonoma. Ora abbiamo razzi a volo autonomo. Poco tempo fa, l'IA non era capace di riconoscimento facciale. Ora l'IA può generare falsi visi e similare la vostra faccia che dice cose che non avete mai detto. Poco tempo fa, l'IA non poteva batterci a Go. Poi, l'IA AlphaZero di Google DeepMind ha preso 3000 anni di giochi di Go e saggezza Go, li ha ignorati tutti ed è diventato il miglior giocatore al mondo giocando contro se stesso. E l'aspetto più impressionante non è che ha stracciato gli umani, ma che ha stracciato i ricercatori di IA che avevano passato decenni a creare il software di gioco. E AlphaZero ha stracciato i ricercatori di IA non solo a Go, ma anche a scacchi, su cui lavoriamo dal 1950. Questi straordinari progressi recenti in IA sollevano la questione: fin dove ci spingeremo? Mi piace pensare a questa domanda in termini di astratto panorama di compiti in cui l'elevazione rappresenta la difficoltà di ogni compito per l'IA a livello umano, e il livello del mare rappresenta quello che l'IA può fare oggi. Il livello del mare si innalza quando l'IA migliora, c'è una specie di riscaldamento globale nel panorama dei compiti. Il risultato ovvio è evitare carriere lungo la costa -- (Risate) che saranno presto scombussolate e automatizzate. Ma la questione è molto più ampia. Quanto si innalzerà l'acqua? Si innalzerà per inondare tutto, arriverà a livello di tutti i compiti umani. Questa è la definizione di intelligenza artificiale generale -- AGI, che è stato il santo graal dell'IA fin dalla sua nascita. Con questa definizione, la gente che dice, "Ci saranno sempre lavori che gli esseri umani possono fare meglio delle macchine, sta semplicemente dicendo che non arriveremo mai all'AGI. Certo, potremo anche scegliere di avere lavori umani o di dare agli esseri umani reddito e scopo con i nostri lavori, ma l'AGI trasformerà comunque la vita come la conosciamo e gli esseri umani non saranno più i più intelligenti. Se il livello dell'acqua raggiunge l'AGI, gli ulteriori progressi dell'IA non saranno più guidati dagli esseri umani, ma dalla IA, che significa che c'è la possibilità che un'ulteriore progresso dell'IA sia ancora più veloce della tipica scala temporale di ricerca e sviluppo umani di anni, sollevando la possibile controversia di un'esplosione di intelligenza in cui una IA che auto-migliora in modo ricorrente lascia rapidamente molto indietro l'intelligenza umana, creando quello che chiamiamo una superintelligenza. Controllo della realtà: avremo a breve l'AGI? Alcuni famosi ricercatori di IA, come Rodney Brooks, pensano che non succederà per centinaia di anni. Ma altri, come il fondatore di Google DeepMind Demis Hassabis, sono più ottimisti e stanno lavorando per farlo accadere molto prima. Ricerche recenti hanno dimostrato che molti ricercatori di IA condividono l'ottimismo di Demis, e si aspettano di vedere l'AGI in qualche decennio, quindi durante le vita di molti di noi, il che solleva la domanda: e poi? Quale vogliamo che sia il ruolo degli esseri umani se le macchina possono fare tutto meglio e a minor costo? La vedo così: abbiamo di fronte una scelta. Un'opzione è esserne soddisfatti. Possiamo dire, "Dai, costruiamo macchine che possano fare tutto quel che facciamo noi e non ci preoccupiamo delle conseguenze. Dai, se costruiamo tecnologie che rendono gli umani obsoleti, cosa potrebbe andare storto?" (Risate) Ma credo che sarebbe davvero poco convincente. Credo che dovremmo essere più ambiziosi, nello spirito di TED. Immaginiamo un futuro high-tech davvero stimolante e cerchiamo di andare in quella direzione. Questo ci porta alla seconda parte della metafora del razzo: la direzione. Facciamo l'IA più potente, ma come possiamo indirizzarci verso un futuro in cui l'IA aiuti l'umanità a progredire invece di annaspare? Per aiutare, ho cofondato il Future of Life Institute. È una piccola no profit che promuove l'uso benefico della tecnologia, e il nostro obiettivo è il futuro della vita e essere più stimolanti possibile. Sapete che adoro la tecnologia. La tecnologia è il motivo per cui oggi stiamo meglio che nell'età della pietra. E sono ottimista, possiamo creare un futuro high-tech davvero stimolante... se, ed è un grande se, se vinciamo la gara della saggezza, la gara tra il potere crescente della tecnologia e la saggezza crescente con cui la gestiamo. Ma sarà necessario un cambio di strategia perché la nostra vecchia strategia prevedeva di imparare dagli errori. Abbiamo inventato il fuoco, abbiamo fatto qualche casino -- abbiamo inventato l'estintore. (Risate) Abbiamo inventato la macchina, fatto qualche casino -- abbiamo inventato i semafori, le cinture e gli airbag, ma con una tecnologia più potente come le armi nucleari e l'AGI, imparare dagli errori è una strategia che fa schifo, siete d'accordo? (Risate) È molto meglio essere proattivi invece che reattivi; pianificare in anticipo e fare le cose bene la prima volta perché potrebbe essere la nostra unica occasione. Ma è divertente perché talvolta la gente mi dice, "Max, shhh, non dire così. È allarmismo luddista." Ma non è allarmismo. È quello che noi all'MIT chiamiamo ingegneria di sicurezza. Pensateci: prima del lancio della missione Apollo 11, la NASA ha pensato sistematicamente a tutto quello che poteva andare storto a mettere persone su serbatoi carburante esplosivi e lanciarle dove nessuno avrebbe potuto aiutarle. E molte cose potevano andare storte. Era allarmismo? No. Era esattamente l'ingegneria di sicurezza che assicurava il successo della missione, ed è esattamente la strategia che credo dovremmo adottare per l'AGI. Pensare a quello che potrebbe andare storto per fare le cose giuste. Con questo spirito, abbiamo organizzato conferenze, riunito grandi ricercatori di IA e altri esperti per discutere di come coltivare la saggezza utile perché l'IA sia vantaggiosa. La nostra ultima conferenza è stata a Asilomar, California, l'anno scorso e ha prodotto una lista di 23 principi che da allora sono stati sottoscritti da più di 1000 ricercatori di IA e importanti leader industriali. Voglio raccontarvi tre di questi principi. Uno è che dovremmo evitare una corsa agli armamenti e armi autonome letali. L'idea è che qualunque scienza può essere usata per aiutare la gente o per armare la gente. Per esempio, è più probabile che la biologia e la chimica vengano usate per nuovi medicinali o nuove cure che per uccidere le persone, perché biologi e chimici fanno pressione, in modo efficace, per proibire armi chimiche e biologiche. Con lo stesso spirito, molti ricercatori vogliono stigmatizzare e proibire le armi letali autonome. Un altro principio Asilomar dell'IA è che dovremmo mitigare le disparità di reddito alimentate dall'IA. Credo che se possiamo far crescere significativamente l'economia con l'IA senza capire come dividerci questa torta in modo che tutti stiano meglio, è una vergogna. (Applausi) Bene, ora alzate la mano se vi si è mai impallato il computer. (Risate) Wow, sono tante mani. Allora vi piacerà questo principio per cui dovremmo investire molto di più nella sicurezza dell'IA, perché se cediamo il controllo all'IA in sempre più decisioni e infrastrutture, dobbiamo capire come trasformare i bug e i computer attaccabili di oggi in sistemi di IA solidi in cui avere fiducia, perché altrimenti, questa meravigliosa nuova tecnologia, può funzionare male e danneggiarci, o essere attaccata e rivoltarsi contro di noi. Questo lavoro di sicurezza sull'IA deve includere un allineamento dei valori, perché la vera minaccia dell'AGI non è la malizia, come negli stupidi film hollywoodiani, ma la competenza -- l'AGI realizza obiettivi che non sono allineati ai nostri. Per esempio, quando noi umani abbiamo portato il rinoceronte all'estinzione, non l'abbiamo fatto perché eravamo nemici dei rinoceronti, no? L'abbiamo fatto perché eravamo più intelligenti di loro e i nostri obiettivi non erano allineati con i loro. Ma l'AGI per definizione è più intelligente di noi, quindi per essere sicuri di non metterci nella posizione di quei rinoceronti se creiamo l'AGI, dobbiamo capire come fare macchine che capiscano i nostri obiettivi, li adottino e li memorizzino. E comunque di chi dovrebbero essere questi obiettivi? Quali obiettivi dovrebbero essere? Questo ci porta alla terza parte della nostra metafora del razzo: la destinazione. Facciamo IA più potente, per capire come indirizzarla, ma dove vogliamo andarci? È l'elefante nella stanza di cui quasi nessuno parla, nemmeno qui a TED, perché siamo così fissati sulle sfide a breve termine dell'IA. La nostra specie sta cercando di costruire l'AGI, motivata da curiosità e interessi economici, ma in che tipo di società futura speriamo se abbiamo successo? Di recente, abbiamo fatto un sondaggio, sono stato colpito del fatto che in realtà molti vogliono che si costruisca una superintelligenza: IA che sia molto più intelligente di noi in tutti i sensi. Il più grande accordo è stato sull'ambizione e sull'aiutare la vita a diffondersi nel cosmo, ma c'è stato molto meno accordo su chi o cosa fosse responsabile. E mi sono quasi divertito a vedere che qualcuno vorrebbe solo le macchine. (Risate) C'era totale disaccordo su quale debba essere il ruolo degli esseri umani, anche a livello più basilare, allora guardiamo più da vicino i futuri possibili verso i quali potremmo andare. Non fraintendetemi. Non sto parlando di viaggio nello spazio, semplicemente di un metaforico viaggio dell'umanità nel futuro. Un'opzione che piace ai miei colleghi IA è costruire una superintelligenza e tenerla sotto controllo umano, come un Dio schiavizzato, sconnesso da Internet e usato per creare tecnologia e ricchezza inimmaginabili per chiunque la controlli. Ma Lord Acton ci ha avvisati che il potere corrompe, e il potere assoluto corrompe assolutamente, penserete che forse gli esseri umani non sono abbastanza intelligenti, o piuttosto abbastanza saggi, per gestire un tale potere. Inoltre, fatta eccezione per gli scrupoli morali che potreste avere sulla sottomissione di menti superiori, potreste preoccuparvi di un'intelligenza più furba di noi, che scappa e prende il controllo. Ma ho anche colleghi a cui sta bene una IA che prende il controllo che causa addirittura l'estinzione dell'uomo, purché sentiamo che l'IA è un nostro degno discendente, come i nostri figli. Ma come sapremo che l'IA ha adottato i nostri migliori valori e non è solo fatta di zombie inconsapevoli che ci ingannano a antropomorfizzarli? E quelli che non vogliono l'estinzione della razza umana non dovrebbero dire qualcosa anche loro? Se non vi piace nessuna di queste opzioni high-tech, è importante ricordare che low-tech equivale a suicidio da un punto di vista cosmico, perché se non andiamo molto oltre la tecnologia di oggi, la questione non è se l'umanità si estinguerà, ma se verremo spazzati via dal prossimo asteroide killer, supervulcano o qualche altro problema che una migliore tecnologia avrebbe potuto risolvere. Allora perché non mangiarci la nostra torta... con AGI non sottomessa ma ci tratta bene perché i suoi valori sono allineati ai nostri? Questo è il concetto di quello che Eliezer Yudowsky chiama "IA amica," e se potessimo farlo, sarebbe meraviglioso. Potrebbe non solo eliminare le esperienze negative come malattie, povertà, crimini e altre sofferenze, ma potrebbe darci anche la libertà di scelta tra un fantastica nuova varietà di esperienze positive -- in sostanza rendendoci padroni del nostro destino. Per riassumere, la nostra situazione con la tecnologia è complicata, ma il quadro generale è piuttosto semplice. Molti ricercatori di IA si aspettano l'AGI entro qualche decennio, e se ci arriviamo impreparati, sarà probabilmente il più grande errore della storia -- accettiamolo. Potrebbe permettere una dittatura globale brutale con ineguaglianze, sorveglianza e sofferenza senza precedenti, e forse addirittura l'estinzione del genere umano. Ma se la indirizziamo attentamente, potremmo finire in un futuro fantastico in cui tutti stanno meglio: i poveri sono più ricchi, i ricchi sono più ricchi, tutti sono più in salute e liberi di vivere i loro sogni. Ora, tenetevi forte. Volete un futuro politicamente di destra o di sinistra? Volete la devota società con regole morali rigide, o ne volete una edonistica gratis per tutti, un po' come Burning Man H24? Volete belle spiagge, foreste e laghi, o preferite risistemare un po' di atomi con il computer, che apra a esperienze di realtà virtuale? Con una IA amichevole, potremmo costruire tutte queste società e dare alla gente la libertà di scegliere in quale vivere perché non saremmo più limitati dalla nostra intelligenza, solamente dalla leggi della fisica. Quindi le risorse e lo spazio diventerebbero astronomiche -- letteralmente. Ecco la scelta. Possiamo essere soddisfatti del nostro futuro, prendere come dato con fede cieca che qualunque nuova tecnologia è garantita vantaggiosa, e ripetercelo come un mantra in continuazione e andare alla deriva come una nave senza timone verso l'obsolescenza. O possiamo essere ambiziosi -- pensare bene a come indirizzare la tecnologia e dove vogliamo andarci per creare l'era della meraviglia. Siamo qui tutti per festeggiare l'era della meraviglia, e sento che la sua essenza non dovrebbe stare nella sopraffazione ma nella responsabilizzazione da parte della nostra tecnologia. Grazie. (Applausi)