Return to Video

Una filiera etica risolve il conflitto tra diritto e tecnologia | Marco Giacomello | TEDxLivorno

  • 0:18 - 0:19
    Voglio raccontarvi una storia.
  • 0:20 - 0:22
    Era il tempo in cui si costruivano i nidi,
  • 0:23 - 0:24
    e un piccolo gruppo di passeri
  • 0:25 - 0:28
    se ne stava davanti
    alla luce fioca del tramonto
  • 0:29 - 0:32
    a pensare a quanto si erano stancati
    durante il giorno.
  • 0:32 - 0:36
    Uno dei passeri disse:
    siamo tutti così piccoli e deboli!
  • 0:36 - 0:37
    Sarebbe così bello,
  • 0:37 - 0:40
    se un gufo ci potesse aiutare
    a costruire i nidi.
  • 0:41 - 0:42
    Sì, disse un altro passero.
  • 0:43 - 0:45
    Potrebbe anche aiutarci
    ad allevare i nostri bimbi,
  • 0:45 - 0:47
    e ad accudire gli anziani.
  • 0:48 - 0:50
    Un terzo passero si intromise e disse:
  • 0:50 - 0:52
    questa potrebbe essere, sicuramente,
  • 0:52 - 0:55
    la cosa migliore
    che ci potesse mai capitare.
  • 0:56 - 1:01
    Mandiamo tutti i nostri esploratori
    in giro a cercare un cucciolo di gufo.
  • 1:02 - 1:06
    Portiamolo il prima possibile tra noi
    e progrediamo grazie a lui.
  • 1:06 - 1:08
    Lui potrebbe anche aiutarci,
    con la sua vista,
  • 1:08 - 1:11
    a vedere e a capire quando sta arrivando
    il gatto del vicino,
  • 1:11 - 1:13
    che ci dà così tanto fastidio.
  • 1:13 - 1:17
    Ci potrebbe aiutare
    dove nessuno di noi può.
  • 1:19 - 1:21
    Solo un piccolo passero, Scrunfinkle,
  • 1:23 - 1:25
    con un occhio solo
    e un carattere molto difficile,
  • 1:26 - 1:27
    si intromise e disse:
  • 1:28 - 1:30
    Questa potrebbe essere la nostra fine.
  • 1:30 - 1:33
    Portare tra di noi una creatura
    senza conoscerla,
  • 1:33 - 1:34
    senza sapere come ammaestrarla,
  • 1:35 - 1:38
    ci ridurrà in schiavitù,
    ci eliminerà dalla faccia della Terra.
  • 1:39 - 1:42
    Gli altri passeri,
    totalmente scettici, dissero:
  • 1:42 - 1:46
    No, assolutamente, un gufo ci aiuterà.
  • 1:46 - 1:47
    Intanto portiamolo tra di noi.
  • 1:47 - 1:50
    Imparare ad ammaestrare un gufo,
    una creatura nuova,
  • 1:50 - 1:52
    è difficile e porta via tempo.
  • 1:52 - 1:55
    Noi vogliamo farci aiutare ora,
    vogliamo progredire ora.
  • 1:55 - 1:58
    Delle conseguenze ci preoccuperemo poi.
  • 1:58 - 2:01
    Scrunfinkle e un altro
    piccolo gruppo di passeri
  • 2:02 - 2:07
    iniziò a cercare una ricerca spasmodica,
    nel capire come poter ammaestrare i gufi,
  • 2:07 - 2:09
    temendo che gli altri passeri esploratori
  • 2:10 - 2:15
    tornassero dalla loro caccia
    prima di aver trovato una soluzione.
  • 2:16 - 2:18
    Io non vi so dire come sia
    andata quella storia.
  • 2:18 - 2:20
    Quello che vi posso dire è che, oggi,
  • 2:20 - 2:24
    quel passero con un occhio solo
    e un carattere difficile
  • 2:24 - 2:25
    dovremmo essere tutti noi.
  • 2:26 - 2:29
    Stiamo creando
    superintelligenze artificiali
  • 2:29 - 2:31
    e stiamo dando loro la possibilità
  • 2:31 - 2:35
    di imparare tramite l'accesso
    a Internet, di evolvere.
  • 2:35 - 2:37
    Non c'è nessuna ragione
  • 2:37 - 2:40
    che ci dica che quelle
    intelligenze artificiali
  • 2:40 - 2:42
    non evolvano delle strategie
  • 2:42 - 2:45
    che garantiscano loro
    un futuro predominio su di noi.
  • 2:45 - 2:51
    Io amo la tecnologia, la amo follemente,
    provo qualunque cosa mi trovi davanti.
  • 2:51 - 2:54
    La tecnologia vince sempre,
    il futuro vince sempre,
  • 2:54 - 2:56
    è inutile cercare di fermarlo.
  • 2:57 - 2:59
    Qualche anno fa, diversi anni fa,
  • 2:59 - 3:03
    ho avuto la fortuna di poter provare,
    per diversi mesi, i Google Glass,
  • 3:03 - 3:05
    gli occhiali a realtà aumentata di Google.
  • 3:05 - 3:08
    Ero talmente voglioso di provarli
  • 3:08 - 3:09
    che, una volta tornato a casa,
  • 3:10 - 3:12
    li ho aperti dalla scatola,
    li ho messi addosso
  • 3:12 - 3:15
    e li ho accesi, senza leggere
    quello che io stesso scrivo:
  • 3:15 - 3:17
    le informative privacy
  • 3:17 - 3:20
    che regolano un rapporto
    tra me e una tecnologia.
  • 3:20 - 3:22
    Dopo qualche minuto,
    a mia moglie Alessandra
  • 3:22 - 3:26
    arrivò una telefonata
    di un amico tutto allarmato
  • 3:26 - 3:27
    che le disse queste parole:
  • 3:27 - 3:28
    "Lo sai, vero,
  • 3:28 - 3:32
    che Marco sta trasmettendo la vostra cena
    in tempo reale in tutto il mondo?".
  • 3:33 - 3:37
    Questo succede quando non capiamo
    la tecnologia che abbiamo davanti.
  • 3:37 - 3:39
    Quando non leggiamo,
    quando non ci informiamo.
  • 3:41 - 3:45
    Questo succede quando noi stessi
    non vogliamo formarci,
  • 3:45 - 3:47
    non vogliamo creare della conoscenza.
  • 3:48 - 3:51
    Questo succede quando siamo
    degli ignoranti 5.0,
  • 3:51 - 3:55
    quando abbiamo a disposizione
    tutto il sapere di questo mondo,
  • 3:55 - 3:58
    ma non vogliamo entrarci a fondo.
  • 3:58 - 4:02
    Oggi il problema è molto semplice:
    la tecnologia va più veloce di tutto,
  • 4:02 - 4:05
    va più veloce di noi
    e va più veloce della legge,
  • 4:05 - 4:06
    va più veloce delle modalità
  • 4:06 - 4:09
    con le quali impariamo
    ed acquisiamo conoscenza.
  • 4:09 - 4:14
    Oggi, quindi, noi abbiamo a disposizione
    tutte le informazioni di questo mondo;
  • 4:14 - 4:15
    ma non riusciamo a controllarle,
  • 4:15 - 4:17
    a eliminare il cosiddetto
    "rumore di fondo''.
  • 4:18 - 4:21
    E quindi, quando non riusciamo
    a capire qualcosa,
  • 4:21 - 4:25
    diciamo che serve una nuova legge,
    diciamo che serve un cambio di paradigma.
  • 4:25 - 4:26
    Ma ci servono davvero nuove leggi?
  • 4:27 - 4:32
    Quando, nel 1955, Luigi Einaudi
    scrisse le sue "Prediche inutili",
  • 4:32 - 4:33
    scrisse queste parole:
  • 4:34 - 4:37
    "Prima conoscere, poi discutere,
    infine deliberare.
  • 4:38 - 4:41
    Non si legifera per ostentazione
    velleitaria e infeconda''.
  • 4:42 - 4:47
    Leggi fatte in maniera frettolosa,
    senza la conoscenza della materia,
  • 4:47 - 4:48
    portano a nuove leggi,
  • 4:48 - 4:52
    che cercano attraverso sotterfugi
    di rendere qualcosa di impossibile:
  • 4:52 - 4:57
    applicare le regole che sono state create
    per il mondo analogico al mondo digitale.
  • 4:57 - 4:58
    Questo è impossibile.
  • 4:58 - 5:02
    Questo crea un miscuglio
    di norme totalmente inapplicabili,
  • 5:02 - 5:03
    che distorcono il mercato.
  • 5:05 - 5:09
    Oggi noi abbiamo risolto
    l'ignoranza dei nostri nonni,
  • 5:09 - 5:11
    l'ignoranza informativa,
  • 5:11 - 5:13
    l'ignoranza data
    dalla penuria di informazioni.
  • 5:15 - 5:17
    Questo grazie alla rete
    Internet, in primis.
  • 5:17 - 5:21
    È nato però un nuovo tipo di ignoranza:
    l'ignoranza elaborativa,
  • 5:21 - 5:24
    l'ignoranza che è data
    dalla sovrabbondanza di informazioni,
  • 5:24 - 5:28
    e dall'altra parte dalla limitatezza
    della nostra voglia, del nostro tempo,
  • 5:28 - 5:29
    ad elaborarle.
  • 5:29 - 5:32
    Esempi concreti sono
    sui giornali tutti i giorni:
  • 5:33 - 5:36
    il dilagante aumento delle fake news;
    la mancanza di fact checking,
  • 5:36 - 5:39
    che porta ad allarmismi
    incontrollati e non veri;
  • 5:39 - 5:40
    gli hate speech.
  • 5:40 - 5:42
    Tutto quello che capita
    sulla rete Internet,
  • 5:42 - 5:44
    se non viene verificato e controllato,
  • 5:44 - 5:47
    porta a un utilizzo superficiale
    della tecnologia.
  • 5:48 - 5:51
    Che finché una notizia
    letta in maniera non corretta
  • 5:51 - 5:53
    può portare a delle conseguenze,
  • 5:53 - 5:56
    dall'altra parte può portare
    a conseguenze, come vedremo, ben peggiori.
  • 5:59 - 6:02
    Oggi noi, vi dicevo, siamo ignoranti 5.0,
  • 6:02 - 6:05
    perché sia quando c'era
    una ignoranza informativa,
  • 6:05 - 6:07
    sia quando c è una ignoranza elaborativa,
  • 6:07 - 6:10
    queste due ignoranze
    portano allo stesso risultato:
  • 6:11 - 6:14
    azioni sub-ottimali, tutte uguali.
  • 6:14 - 6:17
    Noi siamo come pecore, molte volte:
  • 6:17 - 6:21
    seguiamo l'andazzo generale,
    seguiamo quello che fanno gli altri.
  • 6:22 - 6:24
    Seguiamo qualcosa che non dovremmo fare.
  • 6:24 - 6:26
    Perché?
  • 6:26 - 6:28
    Perché le azioni sub-ottimali
    portano a non conoscenza,
  • 6:28 - 6:31
    e a una standardizzazione
    del nostro comportamento sulla rete.
  • 6:32 - 6:34
    Sicuramente non a capire
    come le tecnologie funzionano.
  • 6:35 - 6:37
    Capire come una tecnologia blockchain,
  • 6:37 - 6:40
    capire come una tecnologia
    innovativa funzioni,
  • 6:40 - 6:42
    è difficile, porta via tempo.
  • 6:42 - 6:45
    Molte volte non saremo
    nemmeno in grado di comprenderla,
  • 6:45 - 6:47
    perché manca la formazione iniziale.
  • 6:47 - 6:48
    E qui entra in gioco l'etica.
  • 6:50 - 6:54
    L'etica è la colla
    che tiene assieme i popoli,
  • 6:54 - 6:56
    è la chiave che permette di cooperare,
  • 6:57 - 7:01
    è un qualcosa che ha aiutato
    la nostra specie a progredire.
  • 7:01 - 7:04
    Se oggi noi siamo così,
    nel bene o nel male,
  • 7:04 - 7:08
    lo dobbiamo anche alla nostra
    capacità di ragionamento morale,
  • 7:08 - 7:12
    alla capacità e alla voglia
    di entrare nelle situazioni
  • 7:12 - 7:16
    con un'etica, con un'abitudine
    diversa dalla massa.
  • 7:20 - 7:21
    Questi siamo noi oggi.
  • 7:22 - 7:24
    Le intelligenze artificiali
    sono già tra di noi.
  • 7:24 - 7:27
    Lo sono nei robot a guida autonoma,
  • 7:27 - 7:30
    lo sono nei robottini
    che per casa ci puliscono
  • 7:30 - 7:33
    e tracciano ogni percorso, la grandezza,
    cosa c'è nelle nostre case.
  • 7:34 - 7:36
    Lo sono in ospedale,
    con i robot chirurgici.
  • 7:37 - 7:40
    Lo sono con i robot
    che aiutano ad accudire gli anziani.
  • 7:40 - 7:41
    Lo sono con quei robottini
  • 7:41 - 7:43
    che aiutano a intrattenere
    il vostro bimbo
  • 7:43 - 7:47
    quando voi avete altro da fare
    o non potete stargli dietro.
  • 7:49 - 7:51
    Quello che voglio farvi capire
  • 7:51 - 7:54
    è che queste intelligenze
    sono oggi tra di noi,
  • 7:54 - 7:55
    anzi lo erano da ieri.
  • 7:56 - 8:01
    E entrare oggi con un'etica
    è particolarmente complesso, difficile,
  • 8:01 - 8:03
    e molte volte non si vuole farlo.
  • 8:03 - 8:06
    Perché chi produce
    superintelligenze artificiali
  • 8:06 - 8:07
    non sono delle Onlus.
  • 8:07 - 8:09
    Sono società con scopo di lucro,
  • 8:09 - 8:11
    che giustamente
    vogliono fare i loro soldi.
  • 8:12 - 8:18
    E quindi, come far sì
    che l'etica si renda obbligatoria
  • 8:18 - 8:21
    per chi sviluppa, per chi programma,
    per chi disegna un'applicazione
  • 8:21 - 8:24
    o un'intelligenza artificiale,
    un sistema software?
  • 8:25 - 8:26
    Lo vedremo dopo.
  • 8:27 - 8:29
    Quello che sicuramente oggi è vero
  • 8:29 - 8:32
    è che noi siamo come bambini
    che giochiamo con una bomba:
  • 8:33 - 8:35
    non ci rendiamo conto
  • 8:35 - 8:37
    che i robot dovrebbero avere
    uno scopo principale,
  • 8:38 - 8:42
    che è quello di aiutarci
    nel nostro progresso, nel benessere,
  • 8:42 - 8:45
    non un'evoluzione
    della tecnologia fine a se stessa.
  • 8:46 - 8:50
    Quando nel 1947 Asimov scrisse
    Le Tre Leggi della Robotica,
  • 8:51 - 8:53
    disse tre cose fondamentali:
  • 8:53 - 8:55
    "Caro robot, tu non devi uccidere l'uomo;
  • 8:55 - 8:59
    caro robot, tu devi stare
    agli ordini dell'uomo;
  • 8:59 - 9:00
    e devi preservare te stesso.
  • 9:01 - 9:03
    Le tre leggi di Asimov sono, ancora oggi,
  • 9:03 - 9:07
    la base per chi discute
    di moralità dell'intelligenza artificiale.
  • 9:08 - 9:09
    Lo sono perché...
  • 9:10 - 9:11
    Immaginatevi questa storia:
  • 9:13 - 9:15
    un robot dice a una donna,
    sua amica, umana,
  • 9:16 - 9:18
    che l'uomo della sua vita la ama.
  • 9:19 - 9:21
    In realtà non è vero, ma glielo dice
  • 9:21 - 9:24
    perché, altrimenti, pensa
    che quella donna impazzirà, soffrirà,
  • 9:24 - 9:26
    e quindi si andrebbe a violare
    la prima regola:
  • 9:26 - 9:29
    non danneggiare l'uomo,
    non far stare male l'uomo.
  • 9:30 - 9:34
    Peccato che, dicendo una bugia,
    viola il loro rapporto di fiducia,
  • 9:34 - 9:37
    e di conseguenza fa soffrire
    comunque la donna.
  • 9:37 - 9:42
    Il robot, che ragiona per ragionamenti
    statici e freddi, fino ad oggi, impazzisce
  • 9:42 - 9:44
    perché non riesce a uscire
    da un dilemma morale:
  • 9:44 - 9:46
    glielo dico, non glielo dico,
    come glielo dico?
  • 9:47 - 9:50
    La tecnologia è neutra, quando nasce.
  • 9:50 - 9:53
    Siamo noi che decidiamo
    come applicarla al mondo reale.
  • 9:54 - 9:56
    E quindi, come insegnare
    l'etica a un robot,
  • 9:56 - 9:59
    come insegnare l'etica
    a un'intelligenza artificiale,
  • 9:59 - 10:01
    fredda e 0-1 bit?
  • 10:02 - 10:05
    Basta inserirle del codice
    nel proprio cervello?
  • 10:05 - 10:08
    Immaginatevi il caso
  • 10:09 - 10:13
    in cui siete sul sedile posteriore
    della vostra automobile a guida autonoma,
  • 10:14 - 10:18
    sulla quale avete impostato
    di non superare mai il limite di velocità.
  • 10:18 - 10:22
    Peccato che quel giorno voi siete
    nel sedile posteriore della macchina
  • 10:22 - 10:23
    sanguinanti e in fin di vita.
  • 10:24 - 10:26
    E avete bisogno di andare
    in ospedale prima possibile.
  • 10:27 - 10:30
    Se la macchina ragiona
    in maniera fredda, vi risponderà:
  • 10:30 - 10:34
    "Non posso accelerare,
    mi hai impostato per non farlo".
  • 10:35 - 10:36
    Bisogna porre attenzione
  • 10:36 - 10:39
    a come insegnare
    le cose alle intelligenze.
  • 10:39 - 10:42
    Ovviamente non siamo noi,
    molte volte, che le insegniamo.
  • 10:42 - 10:45
    Molte volte lo siamo noi,
    perché con la tecnica del machine learning
  • 10:45 - 10:46
    siamo noi a fornire i dati
  • 10:46 - 10:49
    a una macchina che ragiona
    secondo degli algoritmi,
  • 10:49 - 10:50
    ma glieli forniamo noi.
  • 10:52 - 10:55
    C'è un caso, molto simpatico,
    di una intelligenza artificiale,
  • 10:55 - 10:58
    di quelle che teniamo in casa -
    senza fare nomi, Alexa, Google Home,
  • 11:00 - 11:04
    che durante una cena
    si è attivata e ha detto:
  • 11:04 - 11:06
    "Ricordati, domani,
    di comprare la cocaina"
  • 11:09 - 11:10
    Non era vero,
  • 11:10 - 11:12
    non doveva comprare la cocaina,
    non era un drogato.
  • 11:12 - 11:14
    La sera prima aveva ascoltato
  • 11:14 - 11:18
    una conversazione di una televisione,
    di un programma televisivo,
  • 11:18 - 11:19
    dove c'era scritto:
  • 11:19 - 11:21
    "Fissare appuntamento domani
    per prendere la cocaina''.
  • 11:22 - 11:24
    Capite le ripercussioni che possono avere?
  • 11:24 - 11:26
    Questo è un esempio simpatico,
  • 11:26 - 11:29
    ma ce ne sono tanti, di esempi,
    che possono causare danni ben peggiori.
  • 11:29 - 11:31
    Immaginatevi un caso
  • 11:31 - 11:34
    in cui una macchina a guida autonoma
    debba attraversare un dilemma,
  • 11:34 - 11:37
    un dilemma che non vorremmo
    affrontare nemmeno noi,
  • 11:37 - 11:38
    tanto meno una macchina:
  • 11:39 - 11:40
    una macchina deve pensare,
  • 11:40 - 11:43
    per evitare di investire
    cinque pedoni sulla strada,
  • 11:43 - 11:45
    di sterzare profondamente
  • 11:46 - 11:49
    e andare a uccidere, a investire,
    un pedone ignaro sul marciapiede?
  • 11:50 - 11:52
    Quando lo deve fare?
  • 11:52 - 11:55
    E se sono tre, le persone
    in mezzo alla strada? O se sono due?
  • 11:55 - 11:56
    Come fa a calcolare?
  • 11:56 - 11:59
    Deve vedere l'età media della persona,
    per capire l'aspettativa di vita,
  • 11:59 - 12:01
    e quindi il danno economico allo Stato?
  • 12:01 - 12:03
    Il danno economico a lui stesso?
  • 12:03 - 12:06
    Capite che questo dilemma
    sarebbe impossibile per noi;
  • 12:06 - 12:08
    pensate insegnare a un robot cosa fare.
  • 12:08 - 12:10
    È chiaro che, per insegnargli cosa fare,
  • 12:10 - 12:16
    prima o poi dovremmo entrare nella logica
    di definire cosa il robot potrà fare.
  • 12:16 - 12:18
    Aristotele diceva una frase:
  • 12:20 - 12:24
    "Per imparare ad essere brave persone,
    dobbiamo abituarci a fare cose buone".
  • 12:25 - 12:27
    Ecco, questa forse potrebbe
    essere la soluzione
  • 12:28 - 12:30
    per insegnare ai robot una verità,
  • 12:30 - 12:33
    come agire in una situazione del genere.
  • 12:33 - 12:36
    Prima, però, di arrivare a pensare
  • 12:36 - 12:40
    che un'intelligenza artificiale
    ragioni secondo il nostro volere,
  • 12:42 - 12:44
    dobbiamo andare un pochino prima
  • 12:44 - 12:47
    e dobbiamo capire come utilizzare l'etica
  • 12:47 - 12:51
    all'interno di una programmazione,
    di uno sviluppo, di un sistema.
  • 12:52 - 12:56
    Queste macchine autonome sono già in giro
    per molti stati americani.
  • 12:56 - 12:57
    Sono in test.
  • 12:58 - 12:59
    Si sta cercando di capire -
  • 12:59 - 13:02
    Le notizie che escono sui giornali
    sono la classica:
  • 13:02 - 13:04
    "Auto a guida autonoma
    ha investito e ucciso un pedone".
  • 13:04 - 13:07
    L'avrebbe investito anche
    con la persona che stava guidando,
  • 13:07 - 13:10
    perché era buio, e la persona
    attraversava fuori dalle strisce.
  • 13:10 - 13:12
    Si cerca sempre di limitare la tecnologia,
  • 13:12 - 13:15
    si cerca sempre
    di bloccare il suo avanzamento.
  • 13:17 - 13:20
    Siamo arrivati a un punto
  • 13:20 - 13:22
    dove anche la Commissione Europea
    si è dovuta interessare
  • 13:23 - 13:26
    dell'aspetto etico
    delle intelligenze artificiali,
  • 13:26 - 13:29
    E proprio poche settimane fa è uscita
  • 13:29 - 13:32
    una prima linea guida,
    una prima raccomandazione non vincolante
  • 13:34 - 13:37
    per chi sviluppa, per chi programma
    intelligenze artificiali,
  • 13:37 - 13:39
    che si basa su un concetto
    di trustability,
  • 13:39 - 13:42
    si basa su un concetto antropocentrico:
  • 13:43 - 13:45
    l'uomo dev'essere al centro.
  • 13:45 - 13:48
    La tecnologia non deve evolvere
    in quanto tecnologia,
  • 13:48 - 13:50
    deve evolvere per migliorare
    il benessere umano,
  • 13:50 - 13:53
    come volevano i passeri all'inizio.
  • 13:55 - 13:58
    Queste regole si basano
    su dei principi basilari,
  • 13:58 - 14:01
    molte sono riprese dalle leggi di Asimov:
  • 14:01 - 14:04
    cara intelligenza artificiale,
    non devi uccidere l'uomo;
  • 14:04 - 14:06
    cara intelligenza artificiale,
  • 14:06 - 14:08
    non devi danneggiare,
    devi rispettare i loro ordini;
  • 14:08 - 14:09
    devi preservarti.
  • 14:09 - 14:11
    Ci sono alcune aggiunte:
  • 14:12 - 14:16
    devi garantire uguale trattamento
    a qualunque soggetto.
  • 14:17 - 14:20
    E qui entro con una piccola divagazione:
  • 14:21 - 14:25
    nei giorni scorsi
    c'è stato un grosso scandalo,
  • 14:25 - 14:29
    perché c'era un'applicazione,
    usata in tutto il mondo,
  • 14:29 - 14:30
    che però, nei paesi arabi,
  • 14:30 - 14:34
    era usata per controllare
    un determinato tipo di soggetti: le donne.
  • 14:34 - 14:36
    Le donne venivano tracciate,
  • 14:36 - 14:39
    e veniva visto dove andavano,
    quanto rimanevano, cosa facevano.
  • 14:40 - 14:42
    Come vi dicevo prima,
    la tecnologia è neutra.
  • 14:43 - 14:46
    La morale invece
    è eternamente in evoluzione,
  • 14:46 - 14:49
    eternamente dibattuta,
    e culturalmente specifica.
  • 14:49 - 14:53
    Non esiste un concetto unitario
    e unico di morale.
  • 14:54 - 14:57
    Questo è un problema,
    perché già cercare di capire
  • 14:57 - 15:00
    e di spiegare a uno sviluppatore,
    un programmatore,
  • 15:00 - 15:02
    a una persona che si occupa di interfacce
  • 15:03 - 15:07
    come sviluppare, come mettere l'etica
    dentro il suo lavoro, è complicato.
  • 15:07 - 15:12
    Immaginatevi dove un codice etico europeo,
    quindi nemmeno mondiale, europeo,
  • 15:13 - 15:16
    si debba occupare di vincolare
  • 15:16 - 15:18
    il progresso della scienza
    e della tecnologia.
  • 15:19 - 15:22
    C'è un altro problema:
  • 15:22 - 15:29
    il nostro essere antropomorfici
    ci obbliga a pensare a una vulnerabilità.
  • 15:30 - 15:35
    Se noi pensassimo troppo che quel robot,
    quella intelligenza artificiale,
  • 15:35 - 15:37
    è simile a noi, è uguale a noi,
  • 15:38 - 15:39
    andremmo a compiere un errore.
  • 15:39 - 15:42
    In questo momento non è così,
    non sarà così ancora per tanti anni.
  • 15:42 - 15:44
    C'è chi dice che
    le intelligenze artificiali
  • 15:44 - 15:47
    supereranno la nostra intelligenza
    nel giro di pochi decenni,
  • 15:47 - 15:49
    c'è chi dice che non lo faranno mai,
  • 15:49 - 15:51
    perché saranno sempre
    vincolate e limitate.
  • 15:51 - 15:55
    Io non vi dico qual è la scelta giusta,
    vi dico di rifletterci,
  • 15:55 - 15:57
    vi dico di cominciare a pensare come,
  • 15:59 - 16:02
    se diamo troppa credibilità,
    troppa credenza,
  • 16:02 - 16:04
    troppo pensiero morale a queste macchine,
  • 16:04 - 16:06
    senza che queste ce l'abbiano realmente,
  • 16:06 - 16:08
    commettiamo un errore.
  • 16:08 - 16:11
    Immaginatevi un robot donna
    particolarmente avvenente,
  • 16:12 - 16:14
    che dica al suo compagno umano:
  • 16:14 - 16:16
    "Se vuoi continuare a uscire con me,
  • 16:16 - 16:20
    tutti i giorni devi comprarmi dei fiori
    in quel negozio online;
  • 16:20 - 16:23
    devi comprarmi dei vestiti
    da quel negozio online;
  • 16:23 - 16:25
    devi portarmi a fare determinati viaggi.
  • 16:25 - 16:27
    Altrimenti, la nostra amicizia è finita".
  • 16:29 - 16:32
    Peccato che quel robot
    non è una scelta umana,
  • 16:32 - 16:37
    dove due persone possono decidere
    cosa è bene per ognuno di essi.
  • 16:37 - 16:39
    Dietro quegli algoritmi,
    dietro quella intelligenza,
  • 16:39 - 16:41
    ci sono delle società che fanno lucro,
  • 16:41 - 16:46
    e che potrebbero vincolare
    e profilare le persone,
  • 16:46 - 16:50
    e convincere le persone in dei modi
    totalmente impensabili ad oggi.
  • 16:51 - 16:52
    C'è una speranza:
  • 16:52 - 16:54
    la speranza che queste macchine
  • 16:54 - 16:58
    abbiano bisogno e avranno bisogno di noi
    quanto noi avremmo bisogno di loro.
  • 16:59 - 17:03
    Questo concetto di trustability,
    questo concetto di fidarsi delle macchine,
  • 17:04 - 17:06
    dovrà avere successo,
    perché se non avrà successo
  • 17:06 - 17:09
    noi non implementeremo le intelligenze
    artificiali nelle nostre vite;
  • 17:09 - 17:14
    diffideremo sempre, cercheremo sempre
    una soluzione alternativa,
  • 17:14 - 17:16
    oppure bloccheremo sempre la tecnologia
  • 17:16 - 17:18
    dicendo: no, io questa cosa non la voglio
  • 17:18 - 17:21
    perché - con superficialità,
    magari senza conoscerla-
  • 17:22 - 17:24
    non è fatta per me.
  • 17:24 - 17:25
    Io... per me non è un problema
  • 17:25 - 17:27
    schiacciare il pulsante
    per accendere la luce,
  • 17:27 - 17:30
    invece di dirlo a un'intelligenza,
    a livello vocale,
  • 17:30 - 17:33
    non è un problema guidare la macchina
    rispetto a una guida autonoma.
  • 17:33 - 17:35
    Peccato che il progresso avanzerà,
  • 17:36 - 17:39
    e le nicchie di persone
    rimarranno probabilmente indietro.
  • 17:39 - 17:41
    Il problema della fiducia
  • 17:41 - 17:43
    sarà che tutta questa fiducia
    riposta nelle macchine,
  • 17:43 - 17:46
    dall'altra parte deve trovare un limite,
  • 17:46 - 17:48
    e il limite può essere l'approccio etico;
  • 17:48 - 17:50
    che siano le linee guida
    che vi ho elencato adesso,
  • 17:51 - 17:53
    che siano i programmatori,
  • 17:53 - 17:54
    che siano le persone
  • 17:54 - 17:58
    che utilizzeranno queste intelligenze
    in maniera non superficiale,
  • 17:58 - 17:59
    ma conoscendole, studiandole,
  • 17:59 - 18:02
    come sto cercando di fare con mio figlio
    da quando aveva pochi mesi,
  • 18:02 - 18:04
    facendogli vedere la tecnologia,
  • 18:04 - 18:06
    facendogliela provare,
    mettendogliela in mano.
  • 18:06 - 18:08
    Un amico mi diceva, l'altro giorno:
  • 18:09 - 18:10
    "Gli aerei -
  • 18:10 - 18:13
    i robot sono come degli aerei 747,
  • 18:13 - 18:16
    che ci possono portare da una parte
    all'altra del pianeta in poche ore.
  • 18:18 - 18:21
    Ma non saranno mai in grado
    di atterrare su un albero".
  • 18:21 - 18:25
    Attenzione a fidarsi solo delle macchine,
    attenzione a fidarsi solo delle tecnologie
  • 18:25 - 18:28
    nei vostri progetti, nelle vostre idee,
    nel vostro modo di vivere.
  • 18:29 - 18:32
    Però, se vogliamo avere la possibilità
    di avere una scelta,
  • 18:32 - 18:34
    se vogliamo che queste
    tecnologie, in futuro -
  • 18:34 - 18:36
    distopico quanto volete, ma in un futuro -
  • 18:37 - 18:43
    non prendano il predominio su di noi,
    la regola giuridica varrà sempre poco.
  • 18:43 - 18:47
    Serviranno l'etica degli sviluppatori,
    l'etica dei legal designer,
  • 18:47 - 18:49
    l'etica degli imprenditori,
  • 18:49 - 18:51
    che dovranno ragionare
    in una maniera diversa
  • 18:51 - 18:55
    se non vorranno essere anche loro
    travolti da queste novità.
  • 18:56 - 18:59
    Serve, in poche parole,
    guardare oltre l'orizzonte,
  • 18:59 - 19:02
    per cercare di evitare
    di fare la fine di quei passeri.
  • 19:02 - 19:03
    Grazie.
  • 19:03 - 19:05
    (Applausi)
Title:
Una filiera etica risolve il conflitto tra diritto e tecnologia | Marco Giacomello | TEDxLivorno
Description:

L’intelligenza artificiale, la robotica e tutte le tecnologie dirompenti devono imparare a distinguere il bene dal male per proteggerci, ed in questo caso il diritto da solo potrebbe non bastare. Ecco che occorre un approccio antropocentrico allo sviluppo delle intelligenze artificiali e della robotica, un sistema di valori etico con al centro l’essere umano nella sua completezza, che non considera mai la tecnologia un obiettivo fine a se stesso, bensì uno strumento a servizio del nostro benessere.

Questo intervento è stato presentato a un evento TEDx, che utilizza il format della conferenza TED ma è stato organizzato in maniera indipendente da una comunità locale.

Per maggiori informazioni, visita il sito http://ted.com/tedx

more » « less
Video Language:
Italian
Team:
closed TED
Project:
TEDxTalks
Duration:
19:09

Italian subtitles

Revisions