Una filiera etica risolve il conflitto tra diritto e tecnologia | Marco Giacomello | TEDxLivorno
-
0:18 - 0:19Voglio raccontarvi una storia.
-
0:20 - 0:22Era il tempo in cui si costruivano i nidi,
-
0:23 - 0:24e un piccolo gruppo di passeri
-
0:25 - 0:28se ne stava davanti
alla luce fioca del tramonto -
0:29 - 0:32a pensare a quanto si erano stancati
durante il giorno. -
0:32 - 0:36Uno dei passeri disse:
siamo tutti così piccoli e deboli! -
0:36 - 0:37Sarebbe così bello,
-
0:37 - 0:40se un gufo ci potesse aiutare
a costruire i nidi. -
0:41 - 0:42Sì, disse un altro passero.
-
0:43 - 0:45Potrebbe anche aiutarci
ad allevare i nostri bimbi, -
0:45 - 0:47e ad accudire gli anziani.
-
0:48 - 0:50Un terzo passero si intromise e disse:
-
0:50 - 0:52questa potrebbe essere, sicuramente,
-
0:52 - 0:55la cosa migliore
che ci potesse mai capitare. -
0:56 - 1:01Mandiamo tutti i nostri esploratori
in giro a cercare un cucciolo di gufo. -
1:02 - 1:06Portiamolo il prima possibile tra noi
e progrediamo grazie a lui. -
1:06 - 1:08Lui potrebbe anche aiutarci,
con la sua vista, -
1:08 - 1:11a vedere e a capire quando sta arrivando
il gatto del vicino, -
1:11 - 1:13che ci dà così tanto fastidio.
-
1:13 - 1:17Ci potrebbe aiutare
dove nessuno di noi può. -
1:19 - 1:21Solo un piccolo passero, Scrunfinkle,
-
1:23 - 1:25con un occhio solo
e un carattere molto difficile, -
1:26 - 1:27si intromise e disse:
-
1:28 - 1:30Questa potrebbe essere la nostra fine.
-
1:30 - 1:33Portare tra di noi una creatura
senza conoscerla, -
1:33 - 1:34senza sapere come ammaestrarla,
-
1:35 - 1:38ci ridurrà in schiavitù,
ci eliminerà dalla faccia della Terra. -
1:39 - 1:42Gli altri passeri,
totalmente scettici, dissero: -
1:42 - 1:46No, assolutamente, un gufo ci aiuterà.
-
1:46 - 1:47Intanto portiamolo tra di noi.
-
1:47 - 1:50Imparare ad ammaestrare un gufo,
una creatura nuova, -
1:50 - 1:52è difficile e porta via tempo.
-
1:52 - 1:55Noi vogliamo farci aiutare ora,
vogliamo progredire ora. -
1:55 - 1:58Delle conseguenze ci preoccuperemo poi.
-
1:58 - 2:01Scrunfinkle e un altro
piccolo gruppo di passeri -
2:02 - 2:07iniziò a cercare una ricerca spasmodica,
nel capire come poter ammaestrare i gufi, -
2:07 - 2:09temendo che gli altri passeri esploratori
-
2:10 - 2:15tornassero dalla loro caccia
prima di aver trovato una soluzione. -
2:16 - 2:18Io non vi so dire come sia
andata quella storia. -
2:18 - 2:20Quello che vi posso dire è che, oggi,
-
2:20 - 2:24quel passero con un occhio solo
e un carattere difficile -
2:24 - 2:25dovremmo essere tutti noi.
-
2:26 - 2:29Stiamo creando
superintelligenze artificiali -
2:29 - 2:31e stiamo dando loro la possibilità
-
2:31 - 2:35di imparare tramite l'accesso
a Internet, di evolvere. -
2:35 - 2:37Non c'è nessuna ragione
-
2:37 - 2:40che ci dica che quelle
intelligenze artificiali -
2:40 - 2:42non evolvano delle strategie
-
2:42 - 2:45che garantiscano loro
un futuro predominio su di noi. -
2:45 - 2:51Io amo la tecnologia, la amo follemente,
provo qualunque cosa mi trovi davanti. -
2:51 - 2:54La tecnologia vince sempre,
il futuro vince sempre, -
2:54 - 2:56è inutile cercare di fermarlo.
-
2:57 - 2:59Qualche anno fa, diversi anni fa,
-
2:59 - 3:03ho avuto la fortuna di poter provare,
per diversi mesi, i Google Glass, -
3:03 - 3:05gli occhiali a realtà aumentata di Google.
-
3:05 - 3:08Ero talmente voglioso di provarli
-
3:08 - 3:09che, una volta tornato a casa,
-
3:10 - 3:12li ho aperti dalla scatola,
li ho messi addosso -
3:12 - 3:15e li ho accesi, senza leggere
quello che io stesso scrivo: -
3:15 - 3:17le informative privacy
-
3:17 - 3:20che regolano un rapporto
tra me e una tecnologia. -
3:20 - 3:22Dopo qualche minuto,
a mia moglie Alessandra -
3:22 - 3:26arrivò una telefonata
di un amico tutto allarmato -
3:26 - 3:27che le disse queste parole:
-
3:27 - 3:28"Lo sai, vero,
-
3:28 - 3:32che Marco sta trasmettendo la vostra cena
in tempo reale in tutto il mondo?". -
3:33 - 3:37Questo succede quando non capiamo
la tecnologia che abbiamo davanti. -
3:37 - 3:39Quando non leggiamo,
quando non ci informiamo. -
3:41 - 3:45Questo succede quando noi stessi
non vogliamo formarci, -
3:45 - 3:47non vogliamo creare della conoscenza.
-
3:48 - 3:51Questo succede quando siamo
degli ignoranti 5.0, -
3:51 - 3:55quando abbiamo a disposizione
tutto il sapere di questo mondo, -
3:55 - 3:58ma non vogliamo entrarci a fondo.
-
3:58 - 4:02Oggi il problema è molto semplice:
la tecnologia va più veloce di tutto, -
4:02 - 4:05va più veloce di noi
e va più veloce della legge, -
4:05 - 4:06va più veloce delle modalità
-
4:06 - 4:09con le quali impariamo
ed acquisiamo conoscenza. -
4:09 - 4:14Oggi, quindi, noi abbiamo a disposizione
tutte le informazioni di questo mondo; -
4:14 - 4:15ma non riusciamo a controllarle,
-
4:15 - 4:17a eliminare il cosiddetto
"rumore di fondo''. -
4:18 - 4:21E quindi, quando non riusciamo
a capire qualcosa, -
4:21 - 4:25diciamo che serve una nuova legge,
diciamo che serve un cambio di paradigma. -
4:25 - 4:26Ma ci servono davvero nuove leggi?
-
4:27 - 4:32Quando, nel 1955, Luigi Einaudi
scrisse le sue "Prediche inutili", -
4:32 - 4:33scrisse queste parole:
-
4:34 - 4:37"Prima conoscere, poi discutere,
infine deliberare. -
4:38 - 4:41Non si legifera per ostentazione
velleitaria e infeconda''. -
4:42 - 4:47Leggi fatte in maniera frettolosa,
senza la conoscenza della materia, -
4:47 - 4:48portano a nuove leggi,
-
4:48 - 4:52che cercano attraverso sotterfugi
di rendere qualcosa di impossibile: -
4:52 - 4:57applicare le regole che sono state create
per il mondo analogico al mondo digitale. -
4:57 - 4:58Questo è impossibile.
-
4:58 - 5:02Questo crea un miscuglio
di norme totalmente inapplicabili, -
5:02 - 5:03che distorcono il mercato.
-
5:05 - 5:09Oggi noi abbiamo risolto
l'ignoranza dei nostri nonni, -
5:09 - 5:11l'ignoranza informativa,
-
5:11 - 5:13l'ignoranza data
dalla penuria di informazioni. -
5:15 - 5:17Questo grazie alla rete
Internet, in primis. -
5:17 - 5:21È nato però un nuovo tipo di ignoranza:
l'ignoranza elaborativa, -
5:21 - 5:24l'ignoranza che è data
dalla sovrabbondanza di informazioni, -
5:24 - 5:28e dall'altra parte dalla limitatezza
della nostra voglia, del nostro tempo, -
5:28 - 5:29ad elaborarle.
-
5:29 - 5:32Esempi concreti sono
sui giornali tutti i giorni: -
5:33 - 5:36il dilagante aumento delle fake news;
la mancanza di fact checking, -
5:36 - 5:39che porta ad allarmismi
incontrollati e non veri; -
5:39 - 5:40gli hate speech.
-
5:40 - 5:42Tutto quello che capita
sulla rete Internet, -
5:42 - 5:44se non viene verificato e controllato,
-
5:44 - 5:47porta a un utilizzo superficiale
della tecnologia. -
5:48 - 5:51Che finché una notizia
letta in maniera non corretta -
5:51 - 5:53può portare a delle conseguenze,
-
5:53 - 5:56dall'altra parte può portare
a conseguenze, come vedremo, ben peggiori. -
5:59 - 6:02Oggi noi, vi dicevo, siamo ignoranti 5.0,
-
6:02 - 6:05perché sia quando c'era
una ignoranza informativa, -
6:05 - 6:07sia quando c è una ignoranza elaborativa,
-
6:07 - 6:10queste due ignoranze
portano allo stesso risultato: -
6:11 - 6:14azioni sub-ottimali, tutte uguali.
-
6:14 - 6:17Noi siamo come pecore, molte volte:
-
6:17 - 6:21seguiamo l'andazzo generale,
seguiamo quello che fanno gli altri. -
6:22 - 6:24Seguiamo qualcosa che non dovremmo fare.
-
6:24 - 6:26Perché?
-
6:26 - 6:28Perché le azioni sub-ottimali
portano a non conoscenza, -
6:28 - 6:31e a una standardizzazione
del nostro comportamento sulla rete. -
6:32 - 6:34Sicuramente non a capire
come le tecnologie funzionano. -
6:35 - 6:37Capire come una tecnologia blockchain,
-
6:37 - 6:40capire come una tecnologia
innovativa funzioni, -
6:40 - 6:42è difficile, porta via tempo.
-
6:42 - 6:45Molte volte non saremo
nemmeno in grado di comprenderla, -
6:45 - 6:47perché manca la formazione iniziale.
-
6:47 - 6:48E qui entra in gioco l'etica.
-
6:50 - 6:54L'etica è la colla
che tiene assieme i popoli, -
6:54 - 6:56è la chiave che permette di cooperare,
-
6:57 - 7:01è un qualcosa che ha aiutato
la nostra specie a progredire. -
7:01 - 7:04Se oggi noi siamo così,
nel bene o nel male, -
7:04 - 7:08lo dobbiamo anche alla nostra
capacità di ragionamento morale, -
7:08 - 7:12alla capacità e alla voglia
di entrare nelle situazioni -
7:12 - 7:16con un'etica, con un'abitudine
diversa dalla massa. -
7:20 - 7:21Questi siamo noi oggi.
-
7:22 - 7:24Le intelligenze artificiali
sono già tra di noi. -
7:24 - 7:27Lo sono nei robot a guida autonoma,
-
7:27 - 7:30lo sono nei robottini
che per casa ci puliscono -
7:30 - 7:33e tracciano ogni percorso, la grandezza,
cosa c'è nelle nostre case. -
7:34 - 7:36Lo sono in ospedale,
con i robot chirurgici. -
7:37 - 7:40Lo sono con i robot
che aiutano ad accudire gli anziani. -
7:40 - 7:41Lo sono con quei robottini
-
7:41 - 7:43che aiutano a intrattenere
il vostro bimbo -
7:43 - 7:47quando voi avete altro da fare
o non potete stargli dietro. -
7:49 - 7:51Quello che voglio farvi capire
-
7:51 - 7:54è che queste intelligenze
sono oggi tra di noi, -
7:54 - 7:55anzi lo erano da ieri.
-
7:56 - 8:01E entrare oggi con un'etica
è particolarmente complesso, difficile, -
8:01 - 8:03e molte volte non si vuole farlo.
-
8:03 - 8:06Perché chi produce
superintelligenze artificiali -
8:06 - 8:07non sono delle Onlus.
-
8:07 - 8:09Sono società con scopo di lucro,
-
8:09 - 8:11che giustamente
vogliono fare i loro soldi. -
8:12 - 8:18E quindi, come far sì
che l'etica si renda obbligatoria -
8:18 - 8:21per chi sviluppa, per chi programma,
per chi disegna un'applicazione -
8:21 - 8:24o un'intelligenza artificiale,
un sistema software? -
8:25 - 8:26Lo vedremo dopo.
-
8:27 - 8:29Quello che sicuramente oggi è vero
-
8:29 - 8:32è che noi siamo come bambini
che giochiamo con una bomba: -
8:33 - 8:35non ci rendiamo conto
-
8:35 - 8:37che i robot dovrebbero avere
uno scopo principale, -
8:38 - 8:42che è quello di aiutarci
nel nostro progresso, nel benessere, -
8:42 - 8:45non un'evoluzione
della tecnologia fine a se stessa. -
8:46 - 8:50Quando nel 1947 Asimov scrisse
Le Tre Leggi della Robotica, -
8:51 - 8:53disse tre cose fondamentali:
-
8:53 - 8:55"Caro robot, tu non devi uccidere l'uomo;
-
8:55 - 8:59caro robot, tu devi stare
agli ordini dell'uomo; -
8:59 - 9:00e devi preservare te stesso.
-
9:01 - 9:03Le tre leggi di Asimov sono, ancora oggi,
-
9:03 - 9:07la base per chi discute
di moralità dell'intelligenza artificiale. -
9:08 - 9:09Lo sono perché...
-
9:10 - 9:11Immaginatevi questa storia:
-
9:13 - 9:15un robot dice a una donna,
sua amica, umana, -
9:16 - 9:18che l'uomo della sua vita la ama.
-
9:19 - 9:21In realtà non è vero, ma glielo dice
-
9:21 - 9:24perché, altrimenti, pensa
che quella donna impazzirà, soffrirà, -
9:24 - 9:26e quindi si andrebbe a violare
la prima regola: -
9:26 - 9:29non danneggiare l'uomo,
non far stare male l'uomo. -
9:30 - 9:34Peccato che, dicendo una bugia,
viola il loro rapporto di fiducia, -
9:34 - 9:37e di conseguenza fa soffrire
comunque la donna. -
9:37 - 9:42Il robot, che ragiona per ragionamenti
statici e freddi, fino ad oggi, impazzisce -
9:42 - 9:44perché non riesce a uscire
da un dilemma morale: -
9:44 - 9:46glielo dico, non glielo dico,
come glielo dico? -
9:47 - 9:50La tecnologia è neutra, quando nasce.
-
9:50 - 9:53Siamo noi che decidiamo
come applicarla al mondo reale. -
9:54 - 9:56E quindi, come insegnare
l'etica a un robot, -
9:56 - 9:59come insegnare l'etica
a un'intelligenza artificiale, -
9:59 - 10:01fredda e 0-1 bit?
-
10:02 - 10:05Basta inserirle del codice
nel proprio cervello? -
10:05 - 10:08Immaginatevi il caso
-
10:09 - 10:13in cui siete sul sedile posteriore
della vostra automobile a guida autonoma, -
10:14 - 10:18sulla quale avete impostato
di non superare mai il limite di velocità. -
10:18 - 10:22Peccato che quel giorno voi siete
nel sedile posteriore della macchina -
10:22 - 10:23sanguinanti e in fin di vita.
-
10:24 - 10:26E avete bisogno di andare
in ospedale prima possibile. -
10:27 - 10:30Se la macchina ragiona
in maniera fredda, vi risponderà: -
10:30 - 10:34"Non posso accelerare,
mi hai impostato per non farlo". -
10:35 - 10:36Bisogna porre attenzione
-
10:36 - 10:39a come insegnare
le cose alle intelligenze. -
10:39 - 10:42Ovviamente non siamo noi,
molte volte, che le insegniamo. -
10:42 - 10:45Molte volte lo siamo noi,
perché con la tecnica del machine learning -
10:45 - 10:46siamo noi a fornire i dati
-
10:46 - 10:49a una macchina che ragiona
secondo degli algoritmi, -
10:49 - 10:50ma glieli forniamo noi.
-
10:52 - 10:55C'è un caso, molto simpatico,
di una intelligenza artificiale, -
10:55 - 10:58di quelle che teniamo in casa -
senza fare nomi, Alexa, Google Home, -
11:00 - 11:04che durante una cena
si è attivata e ha detto: -
11:04 - 11:06"Ricordati, domani,
di comprare la cocaina" -
11:09 - 11:10Non era vero,
-
11:10 - 11:12non doveva comprare la cocaina,
non era un drogato. -
11:12 - 11:14La sera prima aveva ascoltato
-
11:14 - 11:18una conversazione di una televisione,
di un programma televisivo, -
11:18 - 11:19dove c'era scritto:
-
11:19 - 11:21"Fissare appuntamento domani
per prendere la cocaina''. -
11:22 - 11:24Capite le ripercussioni che possono avere?
-
11:24 - 11:26Questo è un esempio simpatico,
-
11:26 - 11:29ma ce ne sono tanti, di esempi,
che possono causare danni ben peggiori. -
11:29 - 11:31Immaginatevi un caso
-
11:31 - 11:34in cui una macchina a guida autonoma
debba attraversare un dilemma, -
11:34 - 11:37un dilemma che non vorremmo
affrontare nemmeno noi, -
11:37 - 11:38tanto meno una macchina:
-
11:39 - 11:40una macchina deve pensare,
-
11:40 - 11:43per evitare di investire
cinque pedoni sulla strada, -
11:43 - 11:45di sterzare profondamente
-
11:46 - 11:49e andare a uccidere, a investire,
un pedone ignaro sul marciapiede? -
11:50 - 11:52Quando lo deve fare?
-
11:52 - 11:55E se sono tre, le persone
in mezzo alla strada? O se sono due? -
11:55 - 11:56Come fa a calcolare?
-
11:56 - 11:59Deve vedere l'età media della persona,
per capire l'aspettativa di vita, -
11:59 - 12:01e quindi il danno economico allo Stato?
-
12:01 - 12:03Il danno economico a lui stesso?
-
12:03 - 12:06Capite che questo dilemma
sarebbe impossibile per noi; -
12:06 - 12:08pensate insegnare a un robot cosa fare.
-
12:08 - 12:10È chiaro che, per insegnargli cosa fare,
-
12:10 - 12:16prima o poi dovremmo entrare nella logica
di definire cosa il robot potrà fare. -
12:16 - 12:18Aristotele diceva una frase:
-
12:20 - 12:24"Per imparare ad essere brave persone,
dobbiamo abituarci a fare cose buone". -
12:25 - 12:27Ecco, questa forse potrebbe
essere la soluzione -
12:28 - 12:30per insegnare ai robot una verità,
-
12:30 - 12:33come agire in una situazione del genere.
-
12:33 - 12:36Prima, però, di arrivare a pensare
-
12:36 - 12:40che un'intelligenza artificiale
ragioni secondo il nostro volere, -
12:42 - 12:44dobbiamo andare un pochino prima
-
12:44 - 12:47e dobbiamo capire come utilizzare l'etica
-
12:47 - 12:51all'interno di una programmazione,
di uno sviluppo, di un sistema. -
12:52 - 12:56Queste macchine autonome sono già in giro
per molti stati americani. -
12:56 - 12:57Sono in test.
-
12:58 - 12:59Si sta cercando di capire -
-
12:59 - 13:02Le notizie che escono sui giornali
sono la classica: -
13:02 - 13:04"Auto a guida autonoma
ha investito e ucciso un pedone". -
13:04 - 13:07L'avrebbe investito anche
con la persona che stava guidando, -
13:07 - 13:10perché era buio, e la persona
attraversava fuori dalle strisce. -
13:10 - 13:12Si cerca sempre di limitare la tecnologia,
-
13:12 - 13:15si cerca sempre
di bloccare il suo avanzamento. -
13:17 - 13:20Siamo arrivati a un punto
-
13:20 - 13:22dove anche la Commissione Europea
si è dovuta interessare -
13:23 - 13:26dell'aspetto etico
delle intelligenze artificiali, -
13:26 - 13:29E proprio poche settimane fa è uscita
-
13:29 - 13:32una prima linea guida,
una prima raccomandazione non vincolante -
13:34 - 13:37per chi sviluppa, per chi programma
intelligenze artificiali, -
13:37 - 13:39che si basa su un concetto
di trustability, -
13:39 - 13:42si basa su un concetto antropocentrico:
-
13:43 - 13:45l'uomo dev'essere al centro.
-
13:45 - 13:48La tecnologia non deve evolvere
in quanto tecnologia, -
13:48 - 13:50deve evolvere per migliorare
il benessere umano, -
13:50 - 13:53come volevano i passeri all'inizio.
-
13:55 - 13:58Queste regole si basano
su dei principi basilari, -
13:58 - 14:01molte sono riprese dalle leggi di Asimov:
-
14:01 - 14:04cara intelligenza artificiale,
non devi uccidere l'uomo; -
14:04 - 14:06cara intelligenza artificiale,
-
14:06 - 14:08non devi danneggiare,
devi rispettare i loro ordini; -
14:08 - 14:09devi preservarti.
-
14:09 - 14:11Ci sono alcune aggiunte:
-
14:12 - 14:16devi garantire uguale trattamento
a qualunque soggetto. -
14:17 - 14:20E qui entro con una piccola divagazione:
-
14:21 - 14:25nei giorni scorsi
c'è stato un grosso scandalo, -
14:25 - 14:29perché c'era un'applicazione,
usata in tutto il mondo, -
14:29 - 14:30che però, nei paesi arabi,
-
14:30 - 14:34era usata per controllare
un determinato tipo di soggetti: le donne. -
14:34 - 14:36Le donne venivano tracciate,
-
14:36 - 14:39e veniva visto dove andavano,
quanto rimanevano, cosa facevano. -
14:40 - 14:42Come vi dicevo prima,
la tecnologia è neutra. -
14:43 - 14:46La morale invece
è eternamente in evoluzione, -
14:46 - 14:49eternamente dibattuta,
e culturalmente specifica. -
14:49 - 14:53Non esiste un concetto unitario
e unico di morale. -
14:54 - 14:57Questo è un problema,
perché già cercare di capire -
14:57 - 15:00e di spiegare a uno sviluppatore,
un programmatore, -
15:00 - 15:02a una persona che si occupa di interfacce
-
15:03 - 15:07come sviluppare, come mettere l'etica
dentro il suo lavoro, è complicato. -
15:07 - 15:12Immaginatevi dove un codice etico europeo,
quindi nemmeno mondiale, europeo, -
15:13 - 15:16si debba occupare di vincolare
-
15:16 - 15:18il progresso della scienza
e della tecnologia. -
15:19 - 15:22C'è un altro problema:
-
15:22 - 15:29il nostro essere antropomorfici
ci obbliga a pensare a una vulnerabilità. -
15:30 - 15:35Se noi pensassimo troppo che quel robot,
quella intelligenza artificiale, -
15:35 - 15:37è simile a noi, è uguale a noi,
-
15:38 - 15:39andremmo a compiere un errore.
-
15:39 - 15:42In questo momento non è così,
non sarà così ancora per tanti anni. -
15:42 - 15:44C'è chi dice che
le intelligenze artificiali -
15:44 - 15:47supereranno la nostra intelligenza
nel giro di pochi decenni, -
15:47 - 15:49c'è chi dice che non lo faranno mai,
-
15:49 - 15:51perché saranno sempre
vincolate e limitate. -
15:51 - 15:55Io non vi dico qual è la scelta giusta,
vi dico di rifletterci, -
15:55 - 15:57vi dico di cominciare a pensare come,
-
15:59 - 16:02se diamo troppa credibilità,
troppa credenza, -
16:02 - 16:04troppo pensiero morale a queste macchine,
-
16:04 - 16:06senza che queste ce l'abbiano realmente,
-
16:06 - 16:08commettiamo un errore.
-
16:08 - 16:11Immaginatevi un robot donna
particolarmente avvenente, -
16:12 - 16:14che dica al suo compagno umano:
-
16:14 - 16:16"Se vuoi continuare a uscire con me,
-
16:16 - 16:20tutti i giorni devi comprarmi dei fiori
in quel negozio online; -
16:20 - 16:23devi comprarmi dei vestiti
da quel negozio online; -
16:23 - 16:25devi portarmi a fare determinati viaggi.
-
16:25 - 16:27Altrimenti, la nostra amicizia è finita".
-
16:29 - 16:32Peccato che quel robot
non è una scelta umana, -
16:32 - 16:37dove due persone possono decidere
cosa è bene per ognuno di essi. -
16:37 - 16:39Dietro quegli algoritmi,
dietro quella intelligenza, -
16:39 - 16:41ci sono delle società che fanno lucro,
-
16:41 - 16:46e che potrebbero vincolare
e profilare le persone, -
16:46 - 16:50e convincere le persone in dei modi
totalmente impensabili ad oggi. -
16:51 - 16:52C'è una speranza:
-
16:52 - 16:54la speranza che queste macchine
-
16:54 - 16:58abbiano bisogno e avranno bisogno di noi
quanto noi avremmo bisogno di loro. -
16:59 - 17:03Questo concetto di trustability,
questo concetto di fidarsi delle macchine, -
17:04 - 17:06dovrà avere successo,
perché se non avrà successo -
17:06 - 17:09noi non implementeremo le intelligenze
artificiali nelle nostre vite; -
17:09 - 17:14diffideremo sempre, cercheremo sempre
una soluzione alternativa, -
17:14 - 17:16oppure bloccheremo sempre la tecnologia
-
17:16 - 17:18dicendo: no, io questa cosa non la voglio
-
17:18 - 17:21perché - con superficialità,
magari senza conoscerla- -
17:22 - 17:24non è fatta per me.
-
17:24 - 17:25Io... per me non è un problema
-
17:25 - 17:27schiacciare il pulsante
per accendere la luce, -
17:27 - 17:30invece di dirlo a un'intelligenza,
a livello vocale, -
17:30 - 17:33non è un problema guidare la macchina
rispetto a una guida autonoma. -
17:33 - 17:35Peccato che il progresso avanzerà,
-
17:36 - 17:39e le nicchie di persone
rimarranno probabilmente indietro. -
17:39 - 17:41Il problema della fiducia
-
17:41 - 17:43sarà che tutta questa fiducia
riposta nelle macchine, -
17:43 - 17:46dall'altra parte deve trovare un limite,
-
17:46 - 17:48e il limite può essere l'approccio etico;
-
17:48 - 17:50che siano le linee guida
che vi ho elencato adesso, -
17:51 - 17:53che siano i programmatori,
-
17:53 - 17:54che siano le persone
-
17:54 - 17:58che utilizzeranno queste intelligenze
in maniera non superficiale, -
17:58 - 17:59ma conoscendole, studiandole,
-
17:59 - 18:02come sto cercando di fare con mio figlio
da quando aveva pochi mesi, -
18:02 - 18:04facendogli vedere la tecnologia,
-
18:04 - 18:06facendogliela provare,
mettendogliela in mano. -
18:06 - 18:08Un amico mi diceva, l'altro giorno:
-
18:09 - 18:10"Gli aerei -
-
18:10 - 18:13i robot sono come degli aerei 747,
-
18:13 - 18:16che ci possono portare da una parte
all'altra del pianeta in poche ore. -
18:18 - 18:21Ma non saranno mai in grado
di atterrare su un albero". -
18:21 - 18:25Attenzione a fidarsi solo delle macchine,
attenzione a fidarsi solo delle tecnologie -
18:25 - 18:28nei vostri progetti, nelle vostre idee,
nel vostro modo di vivere. -
18:29 - 18:32Però, se vogliamo avere la possibilità
di avere una scelta, -
18:32 - 18:34se vogliamo che queste
tecnologie, in futuro - -
18:34 - 18:36distopico quanto volete, ma in un futuro -
-
18:37 - 18:43non prendano il predominio su di noi,
la regola giuridica varrà sempre poco. -
18:43 - 18:47Serviranno l'etica degli sviluppatori,
l'etica dei legal designer, -
18:47 - 18:49l'etica degli imprenditori,
-
18:49 - 18:51che dovranno ragionare
in una maniera diversa -
18:51 - 18:55se non vorranno essere anche loro
travolti da queste novità. -
18:56 - 18:59Serve, in poche parole,
guardare oltre l'orizzonte, -
18:59 - 19:02per cercare di evitare
di fare la fine di quei passeri. -
19:02 - 19:03Grazie.
-
19:03 - 19:05(Applausi)
- Title:
- Una filiera etica risolve il conflitto tra diritto e tecnologia | Marco Giacomello | TEDxLivorno
- Description:
-
L’intelligenza artificiale, la robotica e tutte le tecnologie dirompenti devono imparare a distinguere il bene dal male per proteggerci, ed in questo caso il diritto da solo potrebbe non bastare. Ecco che occorre un approccio antropocentrico allo sviluppo delle intelligenze artificiali e della robotica, un sistema di valori etico con al centro l’essere umano nella sua completezza, che non considera mai la tecnologia un obiettivo fine a se stesso, bensì uno strumento a servizio del nostro benessere.
Questo intervento è stato presentato a un evento TEDx, che utilizza il format della conferenza TED ma è stato organizzato in maniera indipendente da una comunità locale.
Per maggiori informazioni, visita il sito http://ted.com/tedx
- Video Language:
- Italian
- Team:
- closed TED
- Project:
- TEDxTalks
- Duration:
- 19:09