< Return to Video

Kevin Slavin: Come gli algoritmi danno forma al nostro mondo

  • 0:00 - 0:02
    Questa è una fotografia
  • 0:02 - 0:04
    scattata dall'artista Michael Najjar,
  • 0:04 - 0:06
    ed è reale,
  • 0:06 - 0:08
    nel senso che Najjar è andato veramente in Argentina
  • 0:08 - 0:10
    a scattare la fotografia.
  • 0:10 - 0:13
    Ma è anche finzione. C'è voluto un sacco di lavoro per farla.
  • 0:13 - 0:15
    Quello che lui ha fatto
  • 0:15 - 0:17
    è stato ridare forma, digitalmente,
  • 0:17 - 0:19
    a tutti i contorni delle montagne
  • 0:19 - 0:22
    per seguire le vicissitudini dell'indice Dow Jones.
  • 0:22 - 0:24
    Quindi quello che vedete,
  • 0:24 - 0:26
    quel precipizio, quel precipizio con quella vallata,
  • 0:26 - 0:28
    è la crisi finanziaria del 2008.
  • 0:28 - 0:30
    La foto è stata fatta
  • 0:30 - 0:32
    quand'eravamo nel più profondo di quella valle.
  • 0:32 - 0:34
    Non so dove siamo oggi.
  • 0:34 - 0:36
    Questo è l'indice Hang Seng
  • 0:36 - 0:38
    alla borsa di Hong Kong.
  • 0:38 - 0:40
    E topografie simili.
  • 0:40 - 0:42
    Mi chiedo perché.
  • 0:42 - 0:45
    E questa è arte. È una metafora.
  • 0:45 - 0:47
    Ma credo che il punto sia
  • 0:47 - 0:49
    che è una metafora convincente.
  • 0:49 - 0:52
    Ed è con questa convinzione che voglio proporre oggi
  • 0:52 - 0:54
    di ripensare un pochino
  • 0:54 - 0:57
    il ruolo della matematica contemporanea --
  • 0:57 - 1:00
    non solo la matematica finanziaria, ma la matematica in generale.
  • 1:00 - 1:02
    E che la sua transizione,
  • 1:02 - 1:05
    dall'essere qualcosa che estraiamo e deriviamo dal mondo
  • 1:05 - 1:08
    a qualcosa che di fatto comincia a dare forma al mondo,
  • 1:08 - 1:11
    il mondo intorno a noi e il mondo dentro di noi.
  • 1:11 - 1:13
    E sono in particolare gli algoritmi,
  • 1:13 - 1:15
    che sostanzialmente sono la matematica
  • 1:15 - 1:18
    che i computer utilizzano per decidere.
  • 1:18 - 1:20
    Acquisiscono sensibilità nei confronti della verità,
  • 1:20 - 1:22
    perché la ripetono continuamente.
  • 1:22 - 1:25
    Si induriscono, si calcificano,
  • 1:25 - 1:27
    e diventano realtà.
  • 1:27 - 1:30
    E ci stavo riflettendo in un luogo improbabile,
  • 1:30 - 1:33
    su un volo transtlantico un paio di anni fa,
  • 1:33 - 1:35
    perché mi è capitato di sedermi
  • 1:35 - 1:37
    vicino a un fisico ungherese che aveva più o meno la mia età
  • 1:37 - 1:39
    e abbiamo parlato
  • 1:39 - 1:41
    di com'era la vita durante la guerra fredda
  • 1:41 - 1:43
    per i fisici in Ungheria.
  • 1:43 - 1:45
    Gli ho chiesto: "Allora cosa faceva?"
  • 1:45 - 1:47
    E mi ha risposto: "La maggior parte del tempo distruggevamo gli stealth.
  • 1:47 - 1:49
    E ho detto, "Bel lavoro. Interessante.
  • 1:49 - 1:51
    Come funziona?"
  • 1:51 - 1:53
    E per capirlo,
  • 1:53 - 1:56
    dovete capire come funziona lo stealth.
  • 1:56 - 1:59
    E così -- sto semplificando molto --
  • 1:59 - 2:01
    ma sostanzialmente, non è come
  • 2:01 - 2:03
    far passare un segnale radar
  • 2:03 - 2:06
    attraverso 156 tonnellate di acciaio nel cielo.
  • 2:06 - 2:09
    Non sparisce.
  • 2:09 - 2:12
    Ma se riuscite a prendere questa cosa enorme
  • 2:12 - 2:15
    e trasformarla
  • 2:15 - 2:17
    in un milione di cose più piccole --
  • 2:17 - 2:19
    qualcosa come uno stormo di uccelli --
  • 2:19 - 2:21
    allora quando un radar lo cerca
  • 2:21 - 2:23
    è in grado di vedere
  • 2:23 - 2:25
    ogni stormo di uccello nel cielo.
  • 2:25 - 2:29
    E se siete un radar, è un lavoro pesante.
  • 2:29 - 2:32
    E mi ha detto: "Certo. Ma questo vale se sei un radar.
  • 2:32 - 2:34
    Noi non utilizzavamo i radar;
  • 2:34 - 2:37
    abbiamo costruito una scatola nera che cercava segnali elettrici,
  • 2:37 - 2:40
    comunicazioni elettroniche.
  • 2:40 - 2:43
    E ogni volta che vedevamo uno stormo di uccelli con comunicazioni elettroniche,
  • 2:43 - 2:46
    pensavamo che probabilmente aveva a che fare con gli Americani."
  • 2:46 - 2:48
    E ho detto, "Certo.
  • 2:48 - 2:50
    Ottimo.
  • 2:50 - 2:52
    Quindi avete efficacemente cancellato
  • 2:52 - 2:54
    60 anni di ricerche aeronautiche.
  • 2:54 - 2:56
    Qual è il secondo atto?
  • 2:56 - 2:58
    Cosa farete da grandi?"
  • 2:58 - 3:00
    E mi ha detto:
  • 3:00 - 3:02
    "Beh, servizi finanziari,"
  • 3:02 - 3:04
    E io: "Oh."
  • 3:04 - 3:07
    Perché se ne era parlato nei notiziari di recente.
  • 3:07 - 3:09
    E ho detto: "Come funziona?"
  • 3:09 - 3:11
    E mi ha detto: "Beh, oggi ci sono 2000 fisici a Wall Street,
  • 3:11 - 3:13
    e io sono uno di loro."
  • 3:13 - 3:16
    E ho detto: "Qual è la scatola nera per Wall Street?"
  • 3:16 - 3:18
    E mi dice: "È strano che tu lo chieda,
  • 3:18 - 3:21
    perché di fatto si chiama scatola nera delle transazioni.
  • 3:21 - 3:23
    Qualche volta lo chiamiamo algo trading,
  • 3:23 - 3:26
    trading algoritmico."
  • 3:26 - 3:29
    E il trading algoritmico si è evoluto in parte
  • 3:29 - 3:32
    perché gli operatori istituzionali hanno gli stessi problemi
  • 3:32 - 3:35
    che aveva l'aviazione degli Stati Uniti:
  • 3:35 - 3:38
    spostano le loro posizioni --
  • 3:38 - 3:40
    che sia Procter & Gamble o Accenture, o chiunque altro --
  • 3:40 - 3:42
    spostano milioni di azioni di qualcosa
  • 3:42 - 3:44
    all'interno del mercato.
  • 3:44 - 3:46
    E se lo fanno tutto d'un tratto,
  • 3:46 - 3:48
    è come giocare a poker e puntare tutto subito.
  • 3:48 - 3:50
    È come scoprire le carte.
  • 3:50 - 3:52
    Devono quindi trovare un altro modo --
  • 3:52 - 3:54
    e usano gli algoritmi per farlo --
  • 3:54 - 3:56
    per spezzare quella cosa enorme
  • 3:56 - 3:58
    in milioni di piccole transazioni.
  • 3:58 - 4:00
    E la magia e l'orrore di tutto questo
  • 4:00 - 4:02
    è che la stessa matematica
  • 4:02 - 4:04
    che si utilizza per spezzare questa cosa
  • 4:04 - 4:06
    in un milione di cose più piccole
  • 4:06 - 4:08
    può essere utilizzata per trovare un milione di piccole cose
  • 4:08 - 4:10
    e rimetterle tutte insieme
  • 4:10 - 4:12
    e rendersi conto di quello che sta succedendo sul mercato.
  • 4:12 - 4:14
    Quindi se volete farvi un'idea
  • 4:14 - 4:17
    di quello che sta succedendo sul mercato azionario proprio adesso,
  • 4:17 - 4:19
    quello che potete visualizzare è una serie di algoritmi
  • 4:19 - 4:22
    che sostanzialmente sono programmati per nascondersi,
  • 4:22 - 4:25
    e una serie di algoritmi che sono programmati per trovarli e agire.
  • 4:25 - 4:28
    Tutto questo è fantastico, e va bene.
  • 4:28 - 4:30
    E rappresenta il 70%
  • 4:30 - 4:32
    del mercato azionario degli Stati Uniti,
  • 4:32 - 4:34
    il 70% del sistema operativo
  • 4:34 - 4:37
    che prima rappresentava la vostra pensione,
  • 4:37 - 4:40
    la vostra ipoteca.
  • 4:40 - 4:42
    E cosa potrebbe andare storto?
  • 4:42 - 4:44
    Quello che potrebbe andare storto
  • 4:44 - 4:46
    è che un anno fa,
  • 4:46 - 4:49
    il 9% del mercato è scomparso in cinque minuti,
  • 4:49 - 4:52
    e l'hanno chiamato il crash lampo delle 2:45.
  • 4:52 - 4:55
    Improvvisamente, il 9% sparisce,
  • 4:55 - 4:57
    e nessuno, ancora oggi,
  • 4:57 - 4:59
    riesce a mettersi d'accordo su quello che è successo,
  • 4:59 - 5:02
    perché nessuno ha dato l'ordine, nessuno l'ha chiesto.
  • 5:02 - 5:05
    Nessuno aveva il controllo di quello che stava succedendo.
  • 5:05 - 5:07
    Tutto quello che avevano
  • 5:07 - 5:09
    era uno schermo davanti a se'
  • 5:09 - 5:11
    con tutti i numeri
  • 5:11 - 5:13
    e un bottone rosso
  • 5:13 - 5:15
    con scritto: "Stop."
  • 5:15 - 5:17
    Ed è questo il punto,
  • 5:17 - 5:19
    che stiamo scrivendo cose,
  • 5:19 - 5:22
    stiamo scrivendo cose che non riusciamo più a leggere.
  • 5:22 - 5:24
    Abbiamo reso questa cosa
  • 5:24 - 5:26
    indecifrabile.
  • 5:26 - 5:29
    E abbiamo perso il senso
  • 5:29 - 5:31
    di quello che sta realmente accadendo
  • 5:31 - 5:33
    in questo mondo che abbiamo costruito.
  • 5:33 - 5:35
    E stiamo cominciando a farci strada.
  • 5:35 - 5:38
    C'è un'azienda a Boston, la Nanex,
  • 5:38 - 5:40
    che utilizza la matematica e la magia
  • 5:40 - 5:42
    e non so cos'altro,
  • 5:42 - 5:44
    e raccoglie tutti i dati di mercato
  • 5:44 - 5:47
    e trova, almeno qualche volta, qualcuno di questi algoritmi.
  • 5:47 - 5:50
    E quando li trova, li tira fuori
  • 5:50 - 5:53
    e li appunta sul muro come farfalle.
  • 5:53 - 5:55
    E fan quello che abbiamo sempre fatto
  • 5:55 - 5:58
    quando siamo davanti a enormi quantità di dati che non capiamo:
  • 5:58 - 6:00
    gli da' un nome
  • 6:00 - 6:02
    e una storia.
  • 6:02 - 6:04
    Questo è uno di quelli che hanno trovato,
  • 6:04 - 6:08
    l'hanno chiamato il Coltello,
  • 6:08 - 6:10
    il Carnevale,
  • 6:10 - 6:14
    il miscelatore di Boston,
  • 6:14 - 6:16
    Crepuscolo
  • 6:16 - 6:18
    E la cosa divertente è che,
  • 6:18 - 6:21
    ovviamente, non percorrono solo il mercato.
  • 6:21 - 6:24
    Potete trovare questo tipo di cose ovunque guardiate,
  • 6:24 - 6:26
    una volta che sapete dove cercare.
  • 6:26 - 6:29
    Le potete trovare qui: questo libro sulle mosche
  • 6:29 - 6:31
    che potreste aver cercato su Amazon.
  • 6:31 - 6:33
    Potreste averlo notato
  • 6:33 - 6:35
    quando il suo prezzo era a 1,7 milioni di dollari.
  • 6:35 - 6:37
    È fuori catalogo -- nonostante questo ...
  • 6:37 - 6:39
    (Risate)
  • 6:39 - 6:42
    Se lo aveste comprato a 1,7 milioni, avreste fatto un affare.
  • 6:42 - 6:44
    Qualche ora dopo, era salito
  • 6:44 - 6:46
    a 23,6 milioni di dollari,
  • 6:46 - 6:48
    più imballo e consegna.
  • 6:48 - 6:50
    E la domanda è:
  • 6:50 - 6:52
    Nessuno comprava o vendeva niente; cosa stava succedendo?
  • 6:52 - 6:54
    E vedete questo comportamento su Amazon
  • 6:54 - 6:56
    così come lo vedete a Wall Street.
  • 6:56 - 6:58
    E quando vedete questo genere di comportamento,
  • 6:58 - 7:00
    quello che vedete è la prova
  • 7:00 - 7:02
    di algoritmi che entrano in conflitto,
  • 7:02 - 7:04
    algoritmi racchiusi tra di loro in un ciclo senza fine,
  • 7:04 - 7:06
    senza nessuna svista umana,
  • 7:06 - 7:09
    senza nessuna supervisione di un adulto
  • 7:09 - 7:12
    che dica: "1,7 milioni sono già tanti."
  • 7:12 - 7:15
    (Risate)
  • 7:15 - 7:18
    E come con Amazon, per Netflix è uguale.
  • 7:18 - 7:20
    Netflix ha utilizzato
  • 7:20 - 7:22
    diversi algoritmi negli anni.
  • 7:22 - 7:25
    Hanno cominciato con Cinematch, e ne hanno provata tutta una serie.
  • 7:25 - 7:27
    C'è Dinosaur Planet, c'è Gravity.
  • 7:27 - 7:29
    Ora usano Pragmatic Chaos.
  • 7:29 - 7:31
    Pragmatic Chaos, come tutti gli algoritmi Netflix,
  • 7:31 - 7:33
    sta cercando di fare la stessa cosa.
  • 7:33 - 7:35
    Sta cercando di acchiapparvi,
  • 7:35 - 7:37
    o di prendere il firmware all'interno del vostro cranio,
  • 7:37 - 7:39
    così da suggerirvi che film
  • 7:39 - 7:41
    potreste voler guardare --
  • 7:41 - 7:44
    ed è un problema molto, molto difficile.
  • 7:44 - 7:46
    Ma la difficoltà del problema
  • 7:46 - 7:49
    e il fatto che ancora non ne siamo venuti a capo,
  • 7:49 - 7:51
    è che non toglie niente
  • 7:51 - 7:53
    agli effetti che ha Caos Pragmatico.
  • 7:53 - 7:56
    Caos Pragmatico, come tutti gli algoritmi Netflix,
  • 7:56 - 7:58
    determina, in fin dei conti,
  • 7:58 - 8:00
    il 60%
  • 8:00 - 8:02
    dei film che verranno effettivamente noleggiati.
  • 8:02 - 8:04
    Quindi un singolo codice
  • 8:04 - 8:07
    con un'idea su di voi
  • 8:07 - 8:10
    è responsabile del 60% di tutti quei film.
  • 8:10 - 8:12
    E se invece poteste dare un voto a quei film
  • 8:12 - 8:14
    ancora prima che vengano girati?
  • 8:14 - 8:16
    Non sarebbe utile?
  • 8:16 - 8:19
    Beh, un paio di Inglesi specialisti dei dati sono a Hollywood,
  • 8:19 - 8:21
    e hanno algoritmi per le storie --
  • 8:21 - 8:23
    un'azienda di nome Epagogix.
  • 8:23 - 8:26
    Voi sottoponete la vostra sceneggiatura,
  • 8:26 - 8:28
    e sono in grado di dirvi, quantitativamente,
  • 8:28 - 8:30
    se è un film da 30 milioni di dollari
  • 8:30 - 8:32
    o un film da 200 milioni di dollari.
  • 8:32 - 8:34
    E il fatto è che non si tratta di Google.
  • 8:34 - 8:36
    Non è un'informazione.
  • 8:36 - 8:38
    Non sono statistiche informatiche; è cultura.
  • 8:38 - 8:40
    E quello che vedete qui,
  • 8:40 - 8:42
    o quello che normalmente non vedete,
  • 8:42 - 8:46
    è che questa è la fisica della cultura.
  • 8:46 - 8:48
    E se questi algoritmi,
  • 8:48 - 8:50
    come gli algoritmi di Wall Street,
  • 8:50 - 8:53
    si schiantassero un giorno e qualcosa andasse storto,
  • 8:53 - 8:55
    come potremmo saperlo,
  • 8:55 - 8:57
    cosa verrebbe fuori?
  • 8:57 - 9:00
    E sono nelle vostre case. Sono nelle vostre case.
  • 9:00 - 9:02
    Questi sono due algoritmi che competono nel vostro salotto.
  • 9:02 - 9:04
    Questi sono due aspirapolvere robot
  • 9:04 - 9:07
    che hanno due idee diverse su cosa vuol dire pulire.
  • 9:07 - 9:09
    E potete vederlo
  • 9:09 - 9:12
    se li rallentate e gli applicate delle luci.
  • 9:12 - 9:15
    Sono delle specie di architetti segreti nella vostra camera da letto.
  • 9:15 - 9:18
    E l'idea che l'architettura stessa
  • 9:18 - 9:20
    sia soggetta in qualche modo a un'ottimizzazione algoritmica
  • 9:20 - 9:22
    non è poi così inverosimile.
  • 9:22 - 9:25
    È reale e succede intorno a voi.
  • 9:25 - 9:27
    Lo sentite di più
  • 9:27 - 9:29
    quando siete in una scatola di metallo sigillata,
  • 9:29 - 9:31
    un nuovo stile di ascensore,
  • 9:31 - 9:33
    che si chiama ascensore a destinazione controllata.
  • 9:33 - 9:36
    Sono quelli in cui premete il tasto del piano dove volete andare
  • 9:36 - 9:38
    prima di entrare nell'ascensore.
  • 9:38 - 9:40
    E utilizza quello che si chiama algoritmo di raggruppamento delle cabine.
  • 9:40 - 9:42
    Quindi niente di insensato,
  • 9:42 - 9:44
    tipo lasciare che tutti vadano nella cabina che vogliono.
  • 9:44 - 9:46
    Tutti quelli che vogliono andare al 10° piano vanno nella cabina numero 2,
  • 9:46 - 9:49
    e tutti quelli che vogliono andare al 3°piano vanno nella cabina 5.
  • 9:49 - 9:51
    E il problema
  • 9:51 - 9:53
    è che la gente si spaventa.
  • 9:53 - 9:55
    La gente va in panico.
  • 9:55 - 9:57
    Ed è chiaro il perché. È chiaro.
  • 9:57 - 9:59
    È perché l'ascensore
  • 9:59 - 10:02
    è priva di strumenti importanti, come i pulsanti.
  • 10:02 - 10:04
    (Risate)
  • 10:04 - 10:06
    Cioè le cose che la gente usa.
  • 10:06 - 10:08
    Tutto quello che ha
  • 10:08 - 10:11
    è il numero che va su e giù
  • 10:11 - 10:14
    e il bottone rosso con la scritta, "Stop."
  • 10:14 - 10:17
    Ed è questo che stiamo progettando.
  • 10:17 - 10:19
    Stiamo progettando
  • 10:19 - 10:21
    questo dialetto da macchina.
  • 10:21 - 10:24
    Fin dove possiamo andare? Fin dove possiamo spingerci?
  • 10:24 - 10:26
    Si può andare molto, molto lontano.
  • 10:26 - 10:29
    Torniamo ora a Wall Street.
  • 10:30 - 10:32
    Perché gli algoritmi di Wall Street
  • 10:32 - 10:35
    dipendono da una capacità fondamentale
  • 10:35 - 10:37
    che è la velocità.
  • 10:37 - 10:40
    Lavorano su millisecondi e microsecondi.
  • 10:40 - 10:42
    Solo per darvi l'idea di quanto sia un microsecondo,
  • 10:42 - 10:44
    ci vogliono 500.000 microsecondi
  • 10:44 - 10:46
    per cliccare con il mouse.
  • 10:46 - 10:48
    Ma se siete un algoritmo di Wall Street
  • 10:48 - 10:50
    e siete cinque microsecondi in ritardo,
  • 10:50 - 10:52
    siete dei perdenti.
  • 10:52 - 10:54
    Se foste quindi un algoritmo,
  • 10:54 - 10:57
    cerchereste un architetto come quello che ho incontrato a Francoforte
  • 10:57 - 10:59
    che stava svuotando un grattacielo --
  • 10:59 - 11:02
    buttava fuori tutti i mobili, tutte le infrastrutture ad uso umano,
  • 11:02 - 11:05
    e metteva solo acciaio ai piani
  • 11:05 - 11:08
    per prepararlo ad accogliere la pila di server da installare --
  • 11:08 - 11:10
    tutto perché un algoritmo
  • 11:10 - 11:13
    possa avvicinarsi a Internet.
  • 11:13 - 11:16
    E pensate a Internet come a un sistema distribuito.
  • 11:16 - 11:19
    E ovviamente, lo è, ma è decentralizzato in luoghi precisi.
  • 11:19 - 11:21
    A New York, è decentralizzato
  • 11:21 - 11:23
    al Carrier Hotel
  • 11:23 - 11:25
    in Hudson Street.
  • 11:25 - 11:28
    E questo è da dove partono realmente i cavi per la città.
  • 11:28 - 11:32
    E la realtà è che più lontani siete,
  • 11:32 - 11:34
    più accumulate microsecondi di ritardo.
  • 11:34 - 11:36
    Questi ragazzi a Wall Street,
  • 11:36 - 11:38
    Marco Polo e Cherokee Nation,
  • 11:38 - 11:40
    hanno 8 microsecondi di ritardo
  • 11:40 - 11:42
    rispetto a questi altri
  • 11:42 - 11:46
    che vanno in edifici che si svuotano
  • 11:46 - 11:48
    intorno al Carrier Hotel.
  • 11:48 - 11:51
    E continuerà così.
  • 11:51 - 11:53
    Continueremo a svuotarli,
  • 11:53 - 11:56
    perché voi, centimetro per centrimetro
  • 11:56 - 11:59
    sterlina per sterlina, dollaro per dollaro,
  • 11:59 - 12:02
    nessuno di voi può tirare fuori un profitto da quello spazio
  • 12:02 - 12:05
    come il miscelatore di Boston.
  • 12:05 - 12:07
    Ma se guardate da lontano,
  • 12:07 - 12:09
    guardate da lontano,
  • 12:09 - 12:13
    vedrete un fossato lungo 1300 chilometri
  • 12:13 - 12:15
    tra New York City e Chicago
  • 12:15 - 12:17
    che è stato costruito negli ultimi anni
  • 12:17 - 12:20
    da una società di nome Spread Networks.
  • 12:20 - 12:22
    È un cavo in fibra ottica
  • 12:22 - 12:24
    posato tra le due città
  • 12:24 - 12:27
    solo per far passare un segnale
  • 12:27 - 12:30
    37 volte più veloce di un clic del mouse,
  • 12:30 - 12:33
    solo per questi algoritmi,
  • 12:33 - 12:36
    solo per il Carnival o per il Knife.
  • 12:36 - 12:38
    E se ci pensate,
  • 12:38 - 12:40
    che stiamo percorrendo gli Stati Uniti
  • 12:40 - 12:43
    con la dinamite e i bulldozer
  • 12:43 - 12:45
    così che un algoritmo possa concludere l'affare
  • 12:45 - 12:48
    tre microsecondi più velocemente.
  • 12:48 - 12:50
    tutto per una infrastruttura delle comunicazioni
  • 12:50 - 12:54
    di cui nessun essere umano sarà mai a conoscenza,
  • 12:54 - 12:57
    è una specie di destino evidente
  • 12:57 - 13:00
    sempre alla ricerca di nuove frontiere.
  • 13:00 - 13:03
    Sfortunatamente, c'è da lavorare.
  • 13:03 - 13:05
    Tutto questo è solo teorico.
  • 13:05 - 13:07
    Questi sono alcuni matematici al MIT.
  • 13:07 - 13:09
    E la verità è che gran parte di quello che dicono
  • 13:09 - 13:11
    è per me incomprensibile.
  • 13:11 - 13:14
    Ha a che fare con coni di luce e entanglement quantistico,
  • 13:14 - 13:16
    e io non ci capisco niente.
  • 13:16 - 13:18
    Ma so leggere questa mappa.
  • 13:18 - 13:20
    E quello che dice questa mappa
  • 13:20 - 13:23
    è che, se state cercando di fare soldi sui mercati dove ci sono i puntini rossi,
  • 13:23 - 13:25
    dove ci sono le persone, dove ci sono le città,
  • 13:25 - 13:28
    dovete mettere i server dove ci sono i puntini blu
  • 13:28 - 13:30
    per farlo in maniera efficace.
  • 13:30 - 13:33
    E quello che avrete potuto notare sui puntini blu
  • 13:33 - 13:36
    è che molti sono nel bel mezzo dell'oceano.
  • 13:36 - 13:39
    Quindi questo è quello che faremo, costruiremo bolle o cose simili,
  • 13:39 - 13:41
    o piattaforme.
  • 13:41 - 13:43
    Di fatto divideremo le acque
  • 13:43 - 13:45
    per fare soldi dall'aria,
  • 13:45 - 13:47
    perché è un futuro brillante
  • 13:47 - 13:49
    se siete un algoritmo.
  • 13:49 - 13:51
    (Risate)
  • 13:51 - 13:54
    E non sono i soldi che sono così interessanti.
  • 13:54 - 13:56
    È la motivazione che danno i soldi.
  • 13:56 - 13:58
    Stiamo di fatto terraformando
  • 13:58 - 14:00
    la terra stessa
  • 14:00 - 14:02
    con questa specie di efficacia algoritmica.
  • 14:02 - 14:04
    E sotto questa luce,
  • 14:04 - 14:06
    tornate indietro
  • 14:06 - 14:08
    alle fotografie di Michael Najjar,
  • 14:08 - 14:11
    e vi rendete conto che non sono metafore, sono profezia.
  • 14:11 - 14:13
    Sono la profezia
  • 14:13 - 14:17
    di quegli effetti sismici
  • 14:17 - 14:19
    della matematica che stiamo facendo.
  • 14:19 - 14:22
    E il panorama è sempre stato modellato
  • 14:22 - 14:25
    da questa strana, scomoda collaborazione
  • 14:25 - 14:28
    tra la natura e l'uomo.
  • 14:28 - 14:31
    Ma ora c'è questa terza forza di evoluzione: gli algoritmi --
  • 14:31 - 14:34
    il miscelatore di Boston, il Carnival.
  • 14:34 - 14:37
    E dovremo capire queste cose come fosse la natura.
  • 14:37 - 14:39
    E in un certo modo, lo sono.
  • 14:39 - 14:41
    Grazie.
  • 14:41 - 15:01
    (Applausi)
Title:
Kevin Slavin: Come gli algoritmi danno forma al nostro mondo
Speaker:
Kevin Slavin
Description:

Kevin Slavin sostiene che viviamo in un mondo progettato -- e sempre più controllato -- da algoritmi. In questo avvincente discorso a TEDGlobal, egli mostra come questi complessi programmi determinino le tattiche di spionaggio, il corso delle azioni, i dialoghi dei film e l'architettura. E ci fa notare come stiamo scrivendo codici che non riusciamo a capire, con implicazioni che non riusciamo a controllare.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
15:02
Anna Cristiana Minoli added a translation

Italian subtitles

Revisions