Return to Video

Per uno Stato di diritto umano nell’era dell’Intelligenza Artificiale | Luca Bolognini | TEDxUdine

  • 0:25 - 0:30
    "Le parole sono pietre"
    diceva Carlo Levi dalla Sicilia.
  • 0:30 - 0:32
    E sempre in Sicilia,
  • 0:32 - 0:38
    la cosiddetta "Ala Cinese"
    della Scuola di Palermo del Gruppo 63
  • 0:38 - 0:40
    considerava le parole delle cose,
  • 0:41 - 0:46
    delle cose proprio per la loro forma,
    per il loro colore, per il loro suono.
  • 0:47 - 0:50
    Composero anche dei testi narrativi
  • 0:50 - 0:53
    fatti con le parole
    a prescindere dal loro significato,
  • 0:53 - 0:56
    a dire il vero abbastanza incomprensibili.
  • 0:58 - 1:02
    Le parole, però, sono anche informazioni.
  • 1:02 - 1:05
    Le informazioni sono dati.
  • 1:08 - 1:10
    Il nostro mondo sta cambiando moltissimo.
  • 1:11 - 1:14
    Voi vedete che ho una pietra,
    appunto, in mano.
  • 1:14 - 1:18
    Il nostro mondo sta cambiando
    perché si sta "IoTizzando":
  • 1:18 - 1:22
    questo è un brutto
    neologismo, un anglicismo,
  • 1:22 - 1:23
    che però ci dice
  • 1:23 - 1:29
    che ci stiamo riempiendo di cose
    in grado di interconnettersi alla rete.
  • 1:30 - 1:34
    L'"Internet delle Cose",
    l'Internet di tutte le cose:
  • 1:34 - 1:37
    IoT, Internet of Things.
  • 1:37 - 1:40
    L'Internet delle Cose oggi è il presente,
  • 1:40 - 1:44
    è qualcosa che tutti conosciamo,
    leggiamo da tanto tempo;
  • 1:44 - 1:46
    però sta per esplodere.
  • 1:46 - 1:52
    Il 5G farà sì che in pochi anni
    arriveremo a - si dice, si prevede -
  • 1:52 - 1:56
    50 miliardi di oggetti interconnessi.
  • 1:56 - 2:01
    E questo che cosa significa,
    almeno da un punto di vista giuridico?
  • 2:01 - 2:05
    Significa che inevitabilmente
  • 2:05 - 2:09
    ci trasformeremo in dati, in informazioni,
  • 2:09 - 2:12
    anche quando saremo, semplicemente,
  • 2:12 - 2:16
    presenti fisicamente,
    materialmente nel mondo.
  • 2:16 - 2:19
    Il nostro essere
    nel mondo fisico, materiale,
  • 2:20 - 2:24
    sarà subito anche, e sempre di più,
  • 2:24 - 2:27
    un essere "datificati",
    trasformati in dati.
  • 2:28 - 2:30
    È come se evaporassimo:
  • 2:30 - 2:35
    come se, da acqua,
    evaporando diventassimo nuvole.
  • 2:37 - 2:39
    Nessuno può più dire:
  • 2:39 - 2:43
    "Io non mi registro,
    io non fornisco i miei dati
  • 2:43 - 2:46
    a quest'app, questo sito, questo servizio
  • 2:46 - 2:47
    e quindi sono sicuro
  • 2:47 - 2:51
    di non essere catturato
    e trasformato in dati".
  • 2:51 - 2:52
    No.
  • 2:53 - 2:55
    Evaporeremo, sempre di più.
  • 2:55 - 3:00
    Ci saranno sensori, sentinelle,
    a trasformarci in dati
  • 3:00 - 3:02
    per il nostro essere presenti fisicamente:
  • 3:02 - 3:04
    e ce ne saranno sempre di più.
  • 3:05 - 3:08
    Alcune sentinelle le vedremo,
    io alcune le vedo adesso:
  • 3:08 - 3:13
    vedo le telecamere, vedo il microfono,
    lo sento addosso a me.
  • 3:13 - 3:17
    Ma quante sentinelle potrebbero esserci
  • 3:17 - 3:21
    in oggetti, in tessuti di ogni tipo?
  • 3:23 - 3:24
    Sulle poltrone?
  • 3:25 - 3:26
    Nei cuscini?
  • 3:26 - 3:31
    Non pensate al frigorifero,
    che è la cosa più banale ormai.
  • 3:31 - 3:32
    Non pensate alla Smart Tv.
  • 3:33 - 3:37
    Pensate a oggetti ancora
    più piccoli, più insignificanti,
  • 3:37 - 3:40
    in grado di catturarci
    e trasformarci in dati.
  • 3:41 - 3:46
    Poi, in realtà, tutto ciò che "micro",
    tutto ciò che è "nano",
  • 3:46 - 3:50
    potrà sposarsi con l'interconnessione.
  • 3:50 - 3:54
    E quindi dobbiamo abituarci a pensare
    anche a un cosiddetto "BIoT":
  • 3:55 - 3:58
    l'Internet delle Cose,
    delle Biotecnologie,
  • 3:58 - 4:00
    dei tessuti umani, perché no:
  • 4:00 - 4:04
    anche un "Internet of Blood",
    un Internet del sangue, delle cellule.
  • 4:05 - 4:08
    Noi stessi saremo, potenzialmente,
  • 4:08 - 4:12
    pervasi di sentinelle
    che ci trasformeranno in dati.
  • 4:13 - 4:17
    Questo succederà in maniera
    abbastanza inconsapevole.
  • 4:19 - 4:20
    E sarà inconsapevole
  • 4:20 - 4:24
    proprio perché non sarà facile
    accorgersi di questi sensori,
  • 4:24 - 4:29
    di questi trasformatori,
    di questi datificatori.
  • 4:29 - 4:34
    Ora, catturata questa miriade
    di dati che ci riguardano,
  • 4:36 - 4:38
    catturate le nostre informazioni,
  • 4:38 - 4:43
    trasformata la nostra presenza in dati
  • 4:44 - 4:49
    da innumerevoli fonti
    estremamente varie, variabili,
  • 4:49 - 4:53
    questi dati verranno - vengono già,
    ma verranno sempre più -
  • 4:53 - 4:56
    elaborati, processati velocissimamente
  • 4:57 - 5:02
    con capacità di elaborazione
    per volumi straordinari.
  • 5:02 - 5:04
    È il cosiddetto Big Data.
  • 5:06 - 5:10
    Naturalmente il Big Data
    serve a qualcosa - non solo il Big Data -
  • 5:10 - 5:14
    ma serve a elaborare, a ragionare,
    a essere sempre più intelligenti.
  • 5:16 - 5:18
    Ma intelligenti chi, cosa?
  • 5:19 - 5:20
    Gli oggetti.
  • 5:22 - 5:25
    Comunque, algoritmi non umani.
  • 5:27 - 5:31
    Immaginate che tutti questi oggetti,
    di cui vi parlavo poco fa,
  • 5:31 - 5:33
    se la facciano e se la dicano,
  • 5:35 - 5:37
    si scambino informazioni su di noi
  • 5:37 - 5:40
    e, come è normale
    per ogni "Big Data Processing",
  • 5:41 - 5:43
    ne creano di nuove.
  • 5:44 - 5:47
    Possono nascere
    nuove informazioni altrove,
  • 5:47 - 5:51
    in oggetti che stanno lontano
  • 5:52 - 5:54
    e che noi non sospettiamo nemmeno
  • 5:54 - 5:57
    che stiano elaborando
    le nostre informazioni.
  • 5:58 - 6:03
    Ci sarà sempre di più
    qualcuno o qualcosa -
  • 6:04 - 6:07
    ma anche tanti qualcuno o qualcosa -
  • 6:07 - 6:13
    che sapranno molte più cose di noi
    di quante noi stessi sappiamo.
  • 6:14 - 6:16
    Questa è una forma di subconscio digitale,
  • 6:16 - 6:22
    che arriva ad avere
    degli effetti sulle nostre vite:
  • 6:22 - 6:23
    su quello che noi riceviamo,
  • 6:24 - 6:28
    su quello che riceviamo personalizzato
    o comunque come targeting,
  • 6:28 - 6:33
    perché siamo obiettivi
    verso cui presentare dei contenuti.
  • 6:33 - 6:36
    Allora io vi ho detto
    che volenti o nolenti,
  • 6:36 - 6:41
    inconsapevolmente, come non utenti,
    veniamo trasformati:
  • 6:41 - 6:46
    da acqua che siamo evaporiamo, saliamo
    e ci ritroviamo a uno stato gassoso.
  • 6:49 - 6:55
    Allo stato "gassoso" succedono molte cose,
    e ci sono elaborazioni di dati:
  • 6:56 - 6:59
    dati che ci riguardano,
    creazione di nuovi dati.
  • 6:59 - 7:01
    Ma poi viene a piovere!
  • 7:02 - 7:04
    Magari non piovono pietre:
  • 7:04 - 7:07
    però piove acqua,
  • 7:13 - 7:17
    viene a nevicare, piove grandine.
  • 7:19 - 7:21
    Cioè si ritrasforma:
  • 7:21 - 7:26
    quello che per noi è stata
    semplicemente una evaporazione,
  • 7:26 - 7:30
    una trasformazione del nostro essere
    nel mondo fisico in dato,
  • 7:30 - 7:32
    si trasforma in qualcosa di materiale.
  • 7:32 - 7:36
    Esattamente come un chicco di grandine
    che ci arriva in testa.
  • 7:38 - 7:39
    E questo come può accadere?
  • 7:39 - 7:44
    Accade perché l'Internet delle Cose
    non sarà solo in andata.
  • 7:44 - 7:47
    Non saranno semplicemente -
    e non sono, già oggi -
  • 7:47 - 7:51
    sensori che ci catturano e ci trasformano.
  • 7:52 - 7:56
    Ma saranno anche attori, agenti.
  • 7:57 - 8:01
    Attori, oggetti, cose che interverranno
  • 8:01 - 8:05
    con azioni materiali,
    con effetti materiali
  • 8:05 - 8:08
    che sono derivati, che sono conseguenza,
  • 8:08 - 8:12
    di tutto quello che è stato
    pensato artificialmente,
  • 8:12 - 8:17
    con i nostri dati e con altri dati ancora,
    lassù, tra le nuvole.
  • 8:18 - 8:19
    Quindi stiamo attenti.
  • 8:20 - 8:22
    Non si tratta solo di un'andata:
  • 8:22 - 8:25
    si tratta del ritorno
    dell'effetto materiale.
  • 8:25 - 8:26
    Una porta che non si apre:
  • 8:27 - 8:31
    un frigorifero -
    per tornare all'esempio banale -
  • 8:31 - 8:34
    che non si apre, o che si spegne.
  • 8:35 - 8:38
    Un pacemaker, che funziona o non funziona.
  • 8:39 - 8:41
    Comunque ha effetti fisici.
  • 8:42 - 8:43
    Un proiettile che parte
  • 8:43 - 8:48
    e che magari è stato sparato
    a 10.000 km di distanza.
  • 8:50 - 8:53
    Tutto questo ci deve fare riflettere,
  • 8:53 - 8:56
    perché la Protezione dei Dati Personali -
  • 8:56 - 9:00
    che è qualcosa di immateriale:
    il dato che cos'è?
  • 9:00 - 9:05
    È la nostra rappresentazione di sé
    verso l'esterno, verso il mondo esterno -
  • 9:06 - 9:07
    si deve trasformare,
  • 9:07 - 9:13
    si sta trasformando sempre di più
    in Protezione degli Effetti Personali.
  • 9:13 - 9:14
    In futuro,
  • 9:14 - 9:20
    anche questa disciplina giuridica
    si trasformerà in quella direzione.
  • 9:20 - 9:23
    Nella Carta dei Diritti Fondamentali
    dell'Unione Europea
  • 9:23 - 9:25
    abbiamo due diversi articoli.
  • 9:25 - 9:27
    Uno è l'Articolo Sette,
  • 9:27 - 9:31
    che tutela la sfera privata
    e la sfera personale degli individui;
  • 9:32 - 9:34
    l'altro è l'Articolo Otto,
  • 9:34 - 9:37
    proprio sulla tutela
    dei dati personali, più immateriale.
  • 9:38 - 9:43
    Dobbiamo ripensare quei due articoli,
    quei due macrodiritti,
  • 9:43 - 9:45
    e rifonderli insieme.
  • 9:45 - 9:48
    Probabilmente questa è la strada
  • 9:49 - 9:53
    per riuscire a tutelare veramente
    gli effetti personali
  • 9:53 - 9:56
    in un mondo fortemente IoTizzato.
  • 9:59 - 10:04
    E probabilmente le tutele previste oggi,
    che sembrano guardare al futuro -
  • 10:04 - 10:08
    tutti voi avrete sentito parlare
    mille volte, negli ultimi anni,
  • 10:08 - 10:11
    di GDPR, di Regolamento Privacy Europeo -
  • 10:11 - 10:15
    ecco, norme come quelle probabilmente
  • 10:15 - 10:20
    già mostrano una inadeguatezza,
    un'insufficienza per questi scenari.
  • 10:20 - 10:21
    Pensate solo
  • 10:21 - 10:24
    che il regolamento europeo, il GDPR,
  • 10:25 - 10:29
    pensa moltissimo e guarda moltissimo
    alle tutele informative:
  • 10:29 - 10:33
    cioè l'informativa che viene data
    prima di iniziare i trattamenti di dati.
  • 10:33 - 10:36
    Ma, come ci siamo detti,
  • 10:36 - 10:39
    noi verremo "catturati"
    e trasformati in dati,
  • 10:39 - 10:41
    senza accorgercene.
  • 10:42 - 10:45
    Gli oggetti non avranno
    e non hanno faccia, interfaccia.
  • 10:45 - 10:47
    Non hanno occhi, bocca, naso
  • 10:47 - 10:51
    per poter interloquire con noi,
    darci l'informativa.
  • 10:52 - 10:54
    Nove su dieci non funzionano così.
  • 10:55 - 10:59
    Vedete che già anche quel solo istituto
    dell'Informativa Privacy -
  • 10:59 - 11:01
    che tra l'altro pochissimi leggono -
  • 11:01 - 11:03
    fa acqua da tutte le parti.
  • 11:03 - 11:05
    Acqua che potrebbe venire a piovere.
  • 11:07 - 11:09
    E poi c'è un principio,
    nel regolamento europeo,
  • 11:09 - 11:11
    su cui voglio farvi riflettere:
  • 11:11 - 11:14
    il principio di "Accountability",
    di responsabilizzazione.
  • 11:15 - 11:18
    Ne hanno parlato tutti i giuristi
    che si occupano di queste materie.
  • 11:19 - 11:21
    Il principio di responsabilizzazione
  • 11:21 - 11:27
    deve rendere individuabile,
    "accountable", responsabilizzato,
  • 11:27 - 11:32
    ciascun soggetto che decide
    determinati trattamenti di dati.
  • 11:33 - 11:35
    Ma è disegnato
    per i soggetti esseri umani.
  • 11:36 - 11:40
    È disegnato per rendere
    accountable, responsabilizzato
  • 11:40 - 11:42
    l'essere umano, la persona;
  • 11:42 - 11:44
    o la società, l'organizzazione
  • 11:44 - 11:47
    che ha comunque un consiglio
    d'amministrazione fatto di persone.
  • 11:49 - 11:56
    Ma se dobbiamo responsabilizzare
    gli oggetti, gli oggetti non umani,
  • 11:56 - 11:57
    come si fa?
  • 11:58 - 12:02
    Con il GDPR, con la norma europea attuale,
  • 12:02 - 12:03
    non si fa.
  • 12:05 - 12:08
    Potrebbero servire tutele
    addirittura fisiche
  • 12:08 - 12:11
    per proteggersi nel futuro IoTizzato,
  • 12:13 - 12:14
    tutele tridimensionali:
  • 12:15 - 12:21
    occhiali per non essere riconosciuti
    in forma biometrica dalle telecamere,
  • 12:23 - 12:26
    tecniche di anti radar
    portatile personale.
  • 12:28 - 12:31
    Ora però vi voglio fare riflettere
    su un'ulteriore cosa.
  • 12:31 - 12:34
    Ho una pietra in mano;
  • 12:34 - 12:39
    ma immaginate che i dati
    non siano semplicemente pietre,
  • 12:39 - 12:43
    che ciò che ne deriva
    non sia semplicemente pioggia, neve -
  • 12:44 - 12:46
    nella metafora che facevo prima -
  • 12:46 - 12:48
    ma immaginate che siano anche
  • 12:48 - 12:53
    armi, regole, leggi:
  • 12:54 - 12:57
    leggi restrittive della libertà personale,
  • 12:57 - 12:58
    per esempio.
  • 12:59 - 13:02
    Immaginate che tutto quel mondo di dati,
  • 13:03 - 13:06
    che verranno sempre più
    catturati e creati,
  • 13:07 - 13:09
    che sarà un mondo di dati
  • 13:09 - 13:12
    al servizio dell'Intelligenza
    Artificiale non umana,
  • 13:12 - 13:16
    venga utilizzato non semplicemente
  • 13:16 - 13:20
    per causare effetti nelle piccole cose -
  • 13:20 - 13:23
    micro regole nelle piccole cose
    della vita quotidiana,
  • 13:23 - 13:25
    che comunque sono importantissime -
  • 13:25 - 13:27
    ma venga utilizzato
    per fare qualcosa di più.
  • 13:28 - 13:31
    In tutti i Parlamenti,
    in quasi tutto il mondo,
  • 13:31 - 13:37
    per entrare nelle aree legislative
    c'è una barriera fisica,
  • 13:37 - 13:38
    una barriera fisica simbolica.
  • 13:38 - 13:43
    Se andate anche nel Parlamento Italiano
    c'è una riga, alla Camera dei Deputati,
  • 13:44 - 13:48
    che non può essere superata fisicamente
    se non siete gli eletti.
  • 13:50 - 13:54
    C'è una tutela fisica
    del potere legislativo.
  • 13:54 - 13:58
    Ora immaginate che si consenta,
    per regolamento di un Parlamento,
  • 13:59 - 14:00
    un bel giorno,
  • 14:00 - 14:02
    la partecipazione da remoto.
  • 14:03 - 14:05
    I parlamentari sono spesso via,
  • 14:05 - 14:08
    chiedono di poter partecipare
    da remoto alle sedute,
  • 14:08 - 14:12
    di poter iniziare a votare
    anche da remoto.
  • 14:12 - 14:17
    Chi ci garantisce
    che in poco tempo quei voti,
  • 14:17 - 14:20
    espressi attraverso
    quell'identità digitale
  • 14:20 - 14:22
    di un parlamentare,
  • 14:22 - 14:25
    o di tanti parlamentari,
    perfino della maggioranza,
  • 14:26 - 14:31
    non si possano in realtà gestire
    attraverso l'Intelligenza Artificiale:
  • 14:32 - 14:36
    attraverso bot, parlamentari bot.
  • 14:38 - 14:39
    Il primo passo potrebbe essere
  • 14:39 - 14:43
    proprio quello di farli partecipare
    da remoto, i parlamentari veri.
  • 14:43 - 14:45
    Il secondo o il terzo passo
  • 14:45 - 14:49
    potrebbe essere quello di avere
    una maggioranza di parlamentari -
  • 14:49 - 14:51
    i voti espressi -
  • 14:52 - 14:55
    per volontà di un algoritmo,
    sempre più esperto,
  • 14:55 - 14:56
    o di più algoritmi.
  • 14:57 - 14:59
    Questo è un rischio da scongiurare.
  • 15:00 - 15:07
    Dal mio punto di vista, è un rischio
    di disumanizzazione del potere:
  • 15:08 - 15:11
    del potere legislativo,
    ma naturalmente a tutti i livelli vale.
  • 15:12 - 15:16
    Nessuna regola dovrebbe essere,
    in ultima istanza,
  • 15:16 - 15:18
    stabilita da un algoritmo.
  • 15:18 - 15:25
    Se non altro, perché l'IA
    tende alla perfezione del calcolo.
  • 15:27 - 15:30
    L'intelligenza artificiale è una forma -
  • 15:30 - 15:34
    e sarà sempre più - di iper-razionalità.
  • 15:36 - 15:41
    Se io voglio un calcolo perfetto,
    e devo raggiungere i miei obiettivi,
  • 15:41 - 15:43
    devo tendere alla iper-razionalità.
  • 15:43 - 15:45
    Ma l'iper razionalità
  • 15:45 - 15:50
    è quanto di meno umano,
    e quanto di più disumano ci possa essere.
  • 15:50 - 15:53
    Il nazismo era iper-razionale.
  • 15:55 - 15:59
    Il compromesso, il perdono,
    l'amore, la pace,
  • 15:59 - 16:02
    sono errori di calcolo.
  • 16:03 - 16:05
    Noi abbiamo bisogno,
    di questi errori di calcolo.
  • 16:05 - 16:12
    Abbiamo bisogno di conservare
    l'elemento umano, nel legislatore,
  • 16:12 - 16:14
    in tutti i livelli di regolazione.
  • 16:14 - 16:20
    Il "Super Admin", il comandante in capo,
    dovrebbe essere sempre un essere umano;
  • 16:20 - 16:23
    e questo vale a maggior ragione
    per i Parlamenti.
  • 16:24 - 16:28
    Per questo avrebbe senso inserire,
    nelle Costituzioni di singoli Paesi,
  • 16:28 - 16:31
    o anche a livello
    di trattato internazionale,
  • 16:31 - 16:32
    delle regole nuove.
  • 16:33 - 16:34
    Lo stato di diritto,
  • 16:34 - 16:38
    per cui nessuno - neppure un re -
    può sentirsi al di sopra della Legge:
  • 16:39 - 16:42
    è una regola importantissima
    che abbiamo in democrazia.
  • 16:43 - 16:44
    Forse è il caso di aggiornarla:
  • 16:45 - 16:50
    perché a quel punto potrebbe esserci
    la possibilità, per un algoritmo,
  • 16:50 - 16:52
    di decidere la Legge.
  • 16:53 - 16:56
    Allora dovremmo aggiornare
    lo Stato di Diritto, la Rule of Law.
  • 16:56 - 17:00
    E parlare non più di Stato di Diritto,
    ma di Stato di Diritto Umano:
  • 17:01 - 17:02
    Rule of Human Law.
  • 17:03 - 17:04
    L'ultima parola
  • 17:05 - 17:10
    non dovrebbe mai essere di pietra,
    non dovrebbe mai essere di bit:
  • 17:11 - 17:14
    dovrebbe essere di carne ed ossa,
  • 17:14 - 17:18
    dovrebbe essere di emozioni
    e sentimenti, anche di errori, umani.
  • 17:18 - 17:20
    Grazie.
  • 17:20 - 17:23
    (Applausi)
Title:
Per uno Stato di diritto umano nell’era dell’Intelligenza Artificiale | Luca Bolognini | TEDxUdine
Description:

Ci aspetta una realtà aumentata, ma umanamente diminuita? Volenti o nolenti, l’ambiente fisico in cui ci immergeremo sarà sempre più interconnesso, artificiale e intelligente, o forse folle: oggetti “dotati d’anima e sensi”, superfici di immobili, mobili e perfino tessuti del corpo cattureranno il nostro essere-nel-mondo fisico per trasformarci in elementi virtuali. I nostri dati saranno raccolti, scambiati, arricchiti, generati in un gioco istantaneo e impercettibile tra algoritmi invisibili e auto-evolutivi, per poi tornare a tramutarsi, come pioggia dalle nuvole, in fenomeni materiali, in “effetti personali” frutto di calcoli infallibili sul nostro sé digitale conscio e inconscio. A nostra insaputa, a prescindere da noi. Potremmo finire per rinunciare, volontariamente, alla nostra volontà? Come salvare l’incalcolabile, l’irrazionale ma ragionevole mistero che tiene insieme le relazioni, anche quelle legali, tra esseri umani?

Questo intervento è stato presentato a un evento TEDx, che utilizza il format della conferenza TED ma è stato organizzato in maniera indipendente da una comunità locale.

Per maggiori informazioni, visita il sito http://ted.com/tedx

more » « less
Video Language:
Italian
Team:
closed TED
Project:
TEDxTalks
Duration:
17:26

Italian subtitles

Revisions