Return to Video

Le proprietà nascoste degli oggetti rivelate dalle nuove videotecnologie

  • 0:01 - 0:06
    In genere pensiamo al movimento
    come un fatto prevalentemente visivo.
  • 0:06 - 0:11
    Se io attraverso questo palcoscenico
    o faccio dei gesti mentre parlo,
  • 0:11 - 0:14
    i miei movimenti
    sono qualcosa che si può vedere.
  • 0:14 - 0:20
    Ma esiste tutta una serie di movimenti
    impercettibili all'occhio umano
  • 0:20 - 0:22
    e, nel corso degli ultimi anni,
  • 0:22 - 0:24
    abbiamo osservato che le telecamere
  • 0:24 - 0:27
    riescono a vedere questi movimenti
    che sono invisibili all'occhio umano.
  • 0:28 - 0:30
    Passo ora a mostrarvi cosa intendo.
  • 0:31 - 0:34
    Sulla sinistra, vedete un video
    che riprende il polso di una persona
  • 0:34 - 0:37
    mentre, sulla destra, vedete il video
    di un bambino che dorme.
  • 0:37 - 0:41
    Se non vi avessi detto
    che si trattava di filmati,
  • 0:41 - 0:44
    si potrebbe supporre che si tratti
    di normali fotografie
  • 0:44 - 0:46
    perché, in entrambi i casi,
  • 0:46 - 0:50
    questi video appaiono
    quasi completamente fermi.
  • 0:50 - 0:54
    Ma in realtà ci sono tantissimi
    movimenti sottili in atto.
  • 0:54 - 0:56
    Infatti, se toccassimo il polso
    sulla sinistra,
  • 0:56 - 0:58
    potremmo avvertire il battito del polso
  • 0:58 - 1:01
    e se prendessimo in braccio
    il bambino sulla destra,
  • 1:01 - 1:03
    avvertiremmo il suo petto
    sollevarsi e abbassarsi
  • 1:03 - 1:06
    nei movimenti respiratori.
  • 1:06 - 1:09
    Questi movimenti
    sono molto significativi,
  • 1:09 - 1:13
    ma sono troppo piccoli
    per essere visti,
  • 1:13 - 1:15
    e per essere in grado di osservarli
  • 1:15 - 1:19
    abbiamo bisogno del contatto diretto.
  • 1:19 - 1:20
    Alcuni anni fa,
  • 1:20 - 1:25
    i miei colleghi del MIT hanno creato
    il cosiddetto microscopio da movimento,
  • 1:25 - 1:29
    vale a dire un software che individua
    i movimenti sottili nei video
  • 1:29 - 1:33
    e li amplifica per fare in modo
    che siano visibili al nostro occhio.
  • 1:33 - 1:37
    Adoperando questo software
    sul video di sinistra,
  • 1:37 - 1:40
    saremo in grado di vedere
    il battito del polso
  • 1:40 - 1:42
    e, se cominciamo a contare,
  • 1:42 - 1:45
    potremmo anche ricavare
    la frequenza cardiaca della persona.
  • 1:45 - 1:48
    Con lo stesso software,
    sul video di destra
  • 1:48 - 1:51
    potremmo vedere
    ogni singolo respiro del bambino
  • 1:51 - 1:56
    e potremmo usare questo mezzo
    per monitorare il respiro senza contatto.
  • 1:57 - 2:02
    La grandezza di questa tecnologia
    sta nel fatto che questi fenomeni,
  • 2:02 - 2:05
    normalmente percepiti
    con il contatto fisico,
  • 2:05 - 2:08
    possono essere catturati in modo visivo
    e non invasivo.
  • 2:09 - 2:14
    Un paio di anni fa, iniziai a lavorare
    con i creatori del software
  • 2:14 - 2:17
    e decidemmo di approfondire un'idea folle.
  • 2:17 - 2:20
    Pensavamo che andasse bene
    usare il software
  • 2:20 - 2:23
    per visualizzare movimenti minuscoli
    come questi,
  • 2:23 - 2:27
    è come un modo per ampliare
    il senso del tatto.
  • 2:27 - 2:31
    Ma che accadrebbe se facessimo
    la stessa cosa con l'udito?
  • 2:33 - 2:37
    Se potessimo usare dei video
    per catturare la vibrazione dei suoni,
  • 2:37 - 2:40
    che altro non sono
    se non un diverso tipo di movimento,
  • 2:40 - 2:43
    e trasformare tutto ciò che vediamo
    in una sorta di microfono?
  • 2:44 - 2:46
    Certo, l'idea può suonare strana,
  • 2:46 - 2:50
    perciò permettetemi
    di illustrarvela meglio.
  • 2:50 - 2:53
    I microfoni tradizionali
    funzionano convertendo il movimento
  • 2:53 - 2:57
    di un diaframma interno
    in un segnale elettrico
  • 2:57 - 3:01
    e il diaframma è fatto in modo
    da muoversi appena colpito dal suono
  • 3:01 - 3:06
    così che il suo movimento possa essere
    registrato e interpretato come audio.
  • 3:06 - 3:09
    Il suono fa vibrare tutte le cose,
  • 3:09 - 3:15
    ma quelle vibrazioni, di solito,
    sono troppo piccole e veloci da vedere.
  • 3:15 - 3:19
    E se si potessero registrare
    con una video camera ad alta velocità
  • 3:19 - 3:22
    e quindi usare il software
    per estrarre i movimenti impercettibili
  • 3:22 - 3:24
    dal nostro video ad alta velocità,
  • 3:24 - 3:29
    analizzando quei movimenti per capire
    da quali suoni abbiano avuto origine?
  • 3:30 - 3:35
    Si potrebbero trasformare oggetti visibili
    in microfoni visivi a distanza.
  • 3:37 - 3:39
    Noi abbiamo provato a farlo.
  • 3:39 - 3:41
    In uno dei nostri esperimenti,
  • 3:41 - 3:44
    abbiamo preso una pianta in vaso,
    che vedete sulla destra,
  • 3:44 - 3:47
    e l'abbiamo ripresa ad alta velocità
  • 3:47 - 3:50
    mentre un altoparlante
    emetteva questo suono.
  • 3:50 - 3:59
    (Musica: "Mary aveva un agnellino")
  • 4:00 - 4:03
    Ecco il video che abbiamo registrato
  • 4:03 - 4:07
    e nonostante sia stato registrato
    a migliaia di frame al secondo,
  • 4:07 - 4:09
    anche se guardate molto da vicino,
  • 4:09 - 4:11
    non vedrete altro che delle foglie
  • 4:11 - 4:14
    che se ne stanno lì
    senza far nulla
  • 4:14 - 4:19
    perché il nostro suono muoveva le foglie
    di appena un micrometro,
  • 4:19 - 4:23
    vale a dire la decimillesima parte
    di un centimetro,
  • 4:23 - 4:28
    che va da un centesimo
    a un millesimo di un pixel
  • 4:28 - 4:30
    in questa immagine.
  • 4:30 - 4:33
    Potete strizzare gli occhi quanto volete,
  • 4:33 - 4:37
    movimenti così piccoli sono
    impossibili da percepire.
  • 4:38 - 4:42
    Ma ci sono cose che,
    anche se non percepibili visivamente,
  • 4:42 - 4:45
    sono comunque significative
    a livello numerico,
  • 4:45 - 4:47
    perché con gli algoritmi giusti,
  • 4:47 - 4:50
    da un video apparentemente
    silenzioso come questo
  • 4:50 - 4:53
    è possibile recuperare questo suono.
  • 4:53 - 5:00
    (Musica: "Mary aveva un agnellino")
  • 5:00 - 5:06
    (Applausi)
  • 5:10 - 5:12
    Com'è possibile?
  • 5:12 - 5:16
    Come ricavare tante informazioni
    da una quantità di moto così piccola?
  • 5:16 - 5:22
    Ipotizziamo che quelle foglie
    si siano mosse di un solo micrometro
  • 5:22 - 5:27
    e che la nostra immagine subisca
    uno spostamento di un singolo pixel.
  • 5:27 - 5:30
    Potrà sembrare pochissimo,
  • 5:30 - 5:32
    ma un unico frame
  • 5:32 - 5:35
    può contenere centinaia di migliaia
    di pixel
  • 5:35 - 5:39
    per cui combinando tutti i movimenti
    microscopici che vediamo
  • 5:39 - 5:41
    in tutta l'immagine,
  • 5:41 - 5:43
    improvvisamente migliaia di pixel
  • 5:43 - 5:47
    cominciano a sommarsi
    per formare qualcosa di significativo.
  • 5:47 - 5:51
    E vi dirò, la cosa ci esaltò non poco
    quando capimmo come funzionava.
  • 5:51 - 5:53
    (Risate)
  • 5:53 - 5:56
    Ma anche con l'algoritmo giusto,
  • 5:56 - 6:00
    mancava ancora un pezzo
    piuttosto importante del puzzle.
  • 6:00 - 6:03
    Molti sono i fattori che influiscono
  • 6:03 - 6:05
    sul funzionamento di questa tecnica.
  • 6:05 - 6:08
    Può dipendere dall'oggetto
    e dalla sua distanza;
  • 6:08 - 6:11
    dalla telecamera usata
    e dal tipo di lente;
  • 6:11 - 6:15
    dal modo in cui l'oggetto è illuminato
    e dal volume del suono.
  • 6:16 - 6:19
    E anche disponendo
    dell'algoritmo giusto,
  • 6:19 - 6:23
    dovevamo stare molto attenti
    nei nostri primi esperimenti
  • 6:23 - 6:25
    perché se anche uno solo dei fattori
    era sbagliato,
  • 6:25 - 6:27
    era assolutamente impossibile
    dire quale fosse.
  • 6:27 - 6:30
    Avremmo solo ottenuto dei rumori.
  • 6:30 - 6:33
    Molti dei nostri esperimenti iniziali
    erano più o meno così.
  • 6:33 - 6:36
    Qui ci sono io
  • 6:36 - 6:40
    e sulla sinistra in basso s'intravvede
    la telecamera ad alta velocità
  • 6:40 - 6:42
    puntata su una busta di patatine
  • 6:42 - 6:45
    e il tutto è illuminato
    da una lampada.
  • 6:45 - 6:49
    Dovevamo stare molto attenti
    con questi primi esperimenti
  • 6:49 - 6:52
    ed ecco come andava.
  • 6:52 - 6:55
    (Video) Abe Davis: Tre, due, uno, via.
  • 6:55 - 7:01
    Mari aveva un agnellino!
    Un agnellino! Un agnellino!
  • 7:01 - 7:05
    (Risate)
  • 7:05 - 7:08
    AD: questo esperimento
    è assolutamente ridicolo.
  • 7:08 - 7:10
    (Risate)
  • 7:10 - 7:12
    Insomma,
    io che urlo a una busta di patatine...
  • 7:12 - 7:14
    (Risate)
  • 7:14 - 7:16
    e la luce
    è praticamente sparata a giorno,
  • 7:16 - 7:20
    la prima busta si sciolse letteralmente
    quando facemmo la prova. (Risate)
  • 7:20 - 7:24
    Ma per quanto questo esperimento
    possa sembrare ridicolo,
  • 7:24 - 7:26

    in realtà fu molto importante
  • 7:26 - 7:29
    perché riuscimmo
    a recuperare questo suono.
  • 7:29 - 7:33
    (Audio) Mary aveva un agnellino!
    Un agnellino! Un agnellino!
  • 7:33 - 7:37
    (Applausi)
  • 7:37 - 7:39
    AD: La cosa era piuttosto significativa:
  • 7:39 - 7:43
    per la prima volta recuperavamo
    voce umana intelligibile
  • 7:43 - 7:46
    dal video muto di un oggetto.
  • 7:46 - 7:48
    L'esperimento ci fornì
    un punto di riferimento
  • 7:48 - 7:52
    e, gradualmente, cominciammo
    a modificare il procedimento,
  • 7:52 - 7:56
    usando oggetti diversi
    oppure spostandoli più lontano,
  • 7:56 - 8:00
    diminuendo la luce o usando
    suoni più deboli.
  • 8:00 - 8:03
    Analizzammo tutti gli esperimenti
  • 8:03 - 8:06
    fino a che non ci furono chiari i limiti
    della nostra tecnica
  • 8:06 - 8:08
    e, una volta compresi i limiti,
  • 8:08 - 8:11
    riuscimmo a capire come superarli.
  • 8:11 - 8:14
    Ciò condusse
    a esperimenti come questo,
  • 8:14 - 8:17
    in cui io parlo di nuovo
    a una busta di patatine,
  • 8:17 - 8:21
    ma questa volta la telecamera
    si trova a circa 4,5 metri di distanza,
  • 8:21 - 8:24
    all'esterno, dietro a un vetro antirumore.
  • 8:24 - 8:28
    Tutta la scena è illuminata
    da luce naturale diurna.
  • 8:28 - 8:31
    Questo è il video che abbiamo ripreso.
  • 8:32 - 8:37
    Questi sono i suoni udibili dall'interno,
    vicino alla busta di patatine.
  • 8:37 - 8:42
    (Audio): "Mary aveva un agnellino
    con il manto bianco come la neve
  • 8:42 - 8:48
    e ovunque Mary andava,
    l'agnello la seguiva."
  • 8:48 - 8:52
    AD: E questo è quanto abbiamo
    recuperato dal video muto
  • 8:52 - 8:54
    ripreso all'esterno, fuori della finestra.
  • 8:54 - 8:58
    (Audio): "Mary aveva un agnellino
    con il manto bianco come la neve
  • 8:58 - 9:04
    e ovunque Mary andava,
    l'agnello la seguiva."
  • 9:04 - 9:10
    (Applauso)
  • 9:10 - 9:14
    AD: Ma ci sono altri modi
    per superare i limiti.
  • 9:14 - 9:16
    Questo è un esperimento
    più tranquillo
  • 9:16 - 9:20
    in cui abbiamo filmato degli auricolari
    connessi a un computer portatile.
  • 9:20 - 9:24
    Il nostro scopo era recuperare
    la musica suonata dal computer
  • 9:24 - 9:26
    dal video muto che riprendeva
  • 9:26 - 9:29
    i due auricolari di plastica
  • 9:29 - 9:31
    e siamo stati così bravi
    che abbiamo potuto
  • 9:31 - 9:33
    addirittura usare il risultato con Shazam.
  • 9:33 - 9:38
    (Risate)
  • 9:38 - 9:47
    (Musica: "Under Pressure" dei Queen)
  • 9:50 - 9:55
    (Applauso)
  • 9:55 - 9:59
    Possiamo influire sui risultati
    anche cambiando tipo di hardware.
  • 9:59 - 10:02
    Gli esperimenti
    che vi ho mostrato finora
  • 10:02 - 10:04
    sono stati fatti
    con una telecamera high-speed
  • 10:04 - 10:07
    che può registrare video
    a una velocità 100 volte superiore
  • 10:07 - 10:09
    a quella dei cellulari,
  • 10:09 - 10:12
    ma abbiamo trovato il modo
    di usare questa tecnica
  • 10:12 - 10:14
    con telecamere normali,
  • 10:14 - 10:18
    approfittando di un effetto
    comunemente chiamato "rolling shutter".
  • 10:18 - 10:23
    La maggior parte delle telecamere
    registrano le immagini una riga alla volta
  • 10:23 - 10:28
    quindi, se un soggetto si muove
    durante la registrazione di un'immagine,
  • 10:28 - 10:31
    c'è un leggero ritardo
    tra una riga e l'altra,
  • 10:31 - 10:34
    questo fa sì che piccoli artefatti
  • 10:34 - 10:38
    vengano codificati
    in ciascun frame di un video.
  • 10:38 - 10:42
    Analizzando questi artefatti,
    riusciamo a recuperare suoni
  • 10:42 - 10:46
    usando una versione modificata
    del nostro algoritmo.
  • 10:46 - 10:48
    In questo esperimento
  • 10:48 - 10:50
    abbiamo filmato
    un pacco di caramelle
  • 10:50 - 10:51
    mentre da un altoparlante vicino
  • 10:51 - 10:54
    arrivava la musica di prima
    "Mary aveva un agnellino",
  • 10:54 - 10:59
    ma questa volta abbiamo usato
    una normale telecamera commerciale
  • 10:59 - 11:02
    e in un attimo riprodurrò per voi
    il suono che abbiamo recuperato.
  • 11:02 - 11:04
    Questa volta
    il suono sarà distorto,
  • 11:04 - 11:08
    ma ascoltate e vedete
    se riuscite a riconoscere la musica.
  • 11:08 - 11:14
    (Audio: "Mary aveva un agnellino")
  • 11:26 - 11:29
    Il suono, certo, risulta distorto,
  • 11:29 - 11:33
    ma è pur vero che la telecamera
    che abbiamo usato
  • 11:33 - 11:36
    era una di quelle
    che si potevano comprare
  • 11:36 - 11:38
    al negozio sotto casa.
  • 11:39 - 11:40
    A questo punto,
  • 11:40 - 11:42
    molte persone
    che vedono questo lavoro,
  • 11:42 - 11:46
    pensano immediatamente
    ai servizi di vigilanza.
  • 11:46 - 11:48
    E per la verità,
  • 11:48 - 11:52
    è molto facile immaginare di usare
    questa tecnologia per spiare qualcuno.
  • 11:52 - 11:56
    Ma ricordate che esiste già
    una tecnologia molto evoluta
  • 11:56 - 11:58
    per i sistemi di sorveglianza.
  • 11:58 - 12:00
    I laser, ad esempio, sono stati usati
  • 12:00 - 12:04
    per decenni per intercettare oggetti
    a distanza.
  • 12:04 - 12:06
    L'elemento veramente nuovo
  • 12:06 - 12:07
    e diverso che si presenta qui
  • 12:07 - 12:12
    è un modo nuovo di raffigurare
    le vibrazioni di un oggetto
  • 12:12 - 12:15
    che ci dà una nuova lente
    attraverso la quale guardare il mondo.
  • 12:15 - 12:17
    Possiamo usare questa lente
  • 12:17 - 12:22
    non solo per imparare che forze
    come il suono fanno vibrare un oggetto,
  • 12:22 - 12:25
    ma anche per imparare qualcosa
    sull'oggetto stesso.
  • 12:25 - 12:27
    Ora faccio un passo indietro
    per riflettere
  • 12:27 - 12:31
    su come ciò potrebbe cambiare
    il nostro modo di usare il video.
  • 12:31 - 12:34
    Di solito usiamo il video
    per guardare degli oggetti,
  • 12:34 - 12:37
    ma, come vi ho appena dimostrato,
    si può usare anche
  • 12:37 - 12:39
    per ascoltare gli oggetti.
  • 12:39 - 12:43
    Ma c'è un altro modo fondamentale
    per conoscere il mondo
  • 12:43 - 12:45
    ed è l'interazione.
  • 12:45 - 12:48
    Noi tiriamo, spingiamo
    e tocchiamo le cose.
  • 12:48 - 12:51
    Le agitiamo e poi
    stiamo a guardare cosa succede.
  • 12:51 - 12:55
    Ma questo il video
    non ci permette di farlo,
  • 12:55 - 12:58
    almeno non in modo tradizionale.
  • 12:58 - 13:00
    Per cui voglio ora mostrarvi
    un lavoro nuovo,
  • 13:00 - 13:02
    basato su in'idea
    che ho avuto alcuni mesi fa
  • 13:02 - 13:06
    ed è la prima volta
    che lo faccio vedere in pubblico.
  • 13:06 - 13:11
    L'idea di fondo è quella
    di usare le vibrazioni in un video
  • 13:11 - 13:15
    per riprendere gli oggetti in modo
    che sia possibile un'interazione con essi
  • 13:15 - 13:18
    e vedere in che modo reagiscono a noi.
  • 13:19 - 13:21
    Questo è un oggetto.
  • 13:21 - 13:25
    In questo caso, si tratta di una figura
    di ferro filato con forma umana.
  • 13:25 - 13:28
    Riprenderemo l'oggetto
    con una normale telecamera.
  • 13:28 - 13:30
    Non c'è nulla di speciale
    in questa telecamera.
  • 13:30 - 13:33
    Anzi, altre volte l'ho fatto
    con il mio telefono cellulare.
  • 13:33 - 13:35
    Noi vogliamo vedere come l'oggetto vibra,
  • 13:35 - 13:36
    e perché ciò accada,
  • 13:36 - 13:40
    andremo a colpire leggermente
    la superficie sulla quale si trova
  • 13:40 - 13:42
    mentre giriamo il video.
  • 13:47 - 13:51
    E questo è tutto: cinque secondi
    di normale ripresa,
  • 13:51 - 13:53
    mentre la superficie viene percossa
  • 13:53 - 13:57
    e poi useremo le vibrazioni
    presenti nel video
  • 13:57 - 14:01
    per conoscere le proprietà strutturali
    e materiali del nostro oggetto.
  • 14:01 - 14:06
    Useremo quelle informazioni per creare
    qualcosa di nuovo e interattivo.
  • 14:13 - 14:16
    Ed ecco la nostra creazione.
  • 14:16 - 14:18
    All'apparenza
    è una normalissima immagine
  • 14:18 - 14:21
    eppure non è un'immagine
    e neanche un video
  • 14:21 - 14:23
    perché ora io posso prendere il mouse
  • 14:23 - 14:26
    e iniziare a interagire
    con l'oggetto.
  • 14:33 - 14:34
    Quella che vedete
  • 14:34 - 14:38
    è una simulazione di come quest'oggetto
  • 14:38 - 14:42
    risponderebbe a forze nuove
    e sconosciute,
  • 14:42 - 14:46
    una creazione fatta grazie a un normale
    video di cinque secondi.
  • 14:46 - 14:52
    (Applauso)
  • 14:57 - 15:01
    Questa visione del mondo
    è davvero efficace
  • 15:01 - 15:04
    perché ci consente di prevedere
    come gli oggetti risponderanno
  • 15:04 - 15:05
    a situazioni nuove.
  • 15:05 - 15:09
    Immaginate, ad esempio,
    di guardare un vecchio ponte
  • 15:09 - 15:12
    chiedendovi cosa succederebbe
    e se quel ponte reggerebbe
  • 15:12 - 15:15
    passandoci sopra con la macchina.
  • 15:15 - 15:18
    Un interrogativo al quale certamente
    vorreste rispondere
  • 15:18 - 15:22
    prima di cominciare
    ad attraversare il ponte.
  • 15:22 - 15:25
    Naturalmente ci saranno dei limiti
    a questa tecnica,
  • 15:25 - 15:28
    esattamente
    come per il microfono visivo,
  • 15:28 - 15:31
    ma abbiamo sperimentato che funziona
    in molte situazioni
  • 15:31 - 15:33
    in cui non ce lo aspetteremmo,
  • 15:33 - 15:36
    specie se si fanno video più lunghi.
  • 15:36 - 15:38
    Questo, ad esempio,
    è il video di un cespuglio
  • 15:38 - 15:40
    girato fuori casa mia.
  • 15:40 - 15:43
    Nulla è stato fatto a questo cespuglio
  • 15:43 - 15:46
    se non girare un video di un minuto.
  • 15:46 - 15:50
    Una sottile brezza ha causato
    vibrazioni sufficienti
  • 15:50 - 15:54
    a farci imparare quanto era necessario
    per creare questa simulazione.
  • 15:56 - 16:01
    (Applausi)
  • 16:01 - 16:04
    Immaginate questa tecnologia
    nelle mani di un regista
  • 16:04 - 16:06
    per controllare, ad esempio,
  • 16:06 - 16:11
    la forza e la direzione del vento
    di una scena dopo che è stata girata.
  • 16:13 - 16:17
    In questo caso, abbiamo puntato
    la telecamera verso una tenda
  • 16:17 - 16:21
    e, vedete, non c'è alcun movimento
    in questo video.
  • 16:21 - 16:24
    Ma girando per due minuti,
  • 16:24 - 16:27
    le naturali correnti d'aria nella stanza
  • 16:27 - 16:31
    hanno creato impercettibili movimenti
    e vibrazioni sufficienti
  • 16:31 - 16:34
    da farci imparare quanto basta
    per creare questa simulazione.
  • 16:37 - 16:39
    E paradossalmente,
  • 16:39 - 16:42
    noi siamo abbastanza abituati
    a questo tipo di interattività
  • 16:42 - 16:44
    quando si tratta di oggetti virtuali,
  • 16:44 - 16:48
    video game
    e modelli tridimensionali,
  • 16:48 - 16:52
    ma riuscire a carpire queste informazioni
    da oggetti reali nel mondo reale
  • 16:52 - 16:55
    per mezzo di semplici video,
  • 16:55 - 16:58
    è un fatto nuovo
    con potenzialità enormi.
  • 16:58 - 17:04
    Ecco le persone straordinarie che hanno
    lavorato con me su questi progetti.
  • 17:04 - 17:12
    (Applausi)
  • 17:12 - 17:16
    Quello che vi ho mostrato oggi
    è solo il principio.
  • 17:16 - 17:18
    Abbiamo solo cominciato
    a scalfire la superficie
  • 17:18 - 17:21
    di ciò che è possibile fare
    con questo tipo di imaging
  • 17:21 - 17:23
    che ci dà un nuovo modo
  • 17:23 - 17:28
    di catturare il mondo circostante
    con una tecnologia comune, accessibile.
  • 17:28 - 17:30
    Guardando al futuro, credo
  • 17:30 - 17:32
    che sarà davvero
    interessante esplorare
  • 17:32 - 17:35
    ciò che questa tecnologia
    saprà dirci del mondo.
  • 17:35 - 17:36
    Grazie.
  • 17:36 - 17:43
    (Applauso)
Title:
Le proprietà nascoste degli oggetti rivelate dalle nuove videotecnologie
Speaker:
Abe Davis
Description:

Il moto impercettibile è sempre presente intorno a noi, comprese quelle piccolissime vibrazioni causate dai suoni. Le nuove tecnologie ci mostrano come sia possibile individuare queste vibrazioni e ricreare suoni e conversazioni partendo da un video solo in apparenza muto. Abe Davis riesce ad andare addirittura oltre: il software di sua invenzione consente a chiunque di interagire con le proprietà nascoste degli oggetti, partendo da un semplice video.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:57

Italian subtitles

Revisions