Return to Video

Cum folosesc informațiile biologice pentru a spune povești mai bune - și pentru a provoca schimbări sociale

  • 0:01 - 0:05
    În ultimii 15 ani am încercat
    să vă schimb mentalitatea.
  • 0:06 - 0:10
    Prin munca mea, adun cultura pop
    şi tehnologii noi
  • 0:10 - 0:11
    pentru a schimba norme culturale.
  • 0:12 - 0:16
    Am creat jocuri video
    pentru promovarea drepturilor omului,
  • 0:16 - 0:21
    animații pentru a sensibiliza lumea
    față de legile nedrepte ale imigrației
  • 0:21 - 0:25
    şi chiar aplicații cu realitate augmentată
    bazate pe localizare
  • 0:25 - 0:28
    pentru a schimba percepțiile
    despre oamenii fără adăpost
  • 0:28 - 0:29
    cu mult înainte de Pokemon Go.
  • 0:30 - 0:31
    (Râsete)
  • 0:31 - 0:35
    Dar apoi am început să mă întreb
    dacă un joc sau o aplicație
  • 0:35 - 0:37
    chiar poate schimba
    atitudini sau comportamente,
  • 0:37 - 0:40
    şi dacă da, pot măsura schimbările?
  • 0:40 - 0:43
    Care e ştiința din spatele procesului?
  • 0:43 - 0:47
    Așadar, mi-am schimbat ținta de la a crea
    conținut digital și tehnologii
  • 0:47 - 0:50
    la a măsura efectul lor neurobiologic.
  • 0:51 - 0:53
    Iată ce am descoperit.
  • 0:53 - 0:57
    Internetul, dispozitivele mobile,
    realitatea virtuală şi augmentată
  • 0:57 - 1:00
    ne rescriau sistemul nervos.
  • 1:00 - 1:03
    Şi ne schimbau la propriu
    structura creierului.
  • 1:04 - 1:09
    Tocmai tehnologiile pe care le foloseam
    pentru a influența în bine inimi şi minți
  • 1:09 - 1:13
    erodau funcțiile creierului
    necesare pentru empatie
  • 1:13 - 1:15
    şi pentru luarea deciziilor.
  • 1:15 - 1:19
    De fapt, dependența noastră
    de internet şi dispozitive mobile
  • 1:19 - 1:23
    pot deteriora facultățile
    cognitive şi afective,
  • 1:23 - 1:27
    ne pot face incompetenți
    social şi emoțional,
  • 1:27 - 1:30
    iar eu m-am simțit un complice
    în această dezumanizare.
  • 1:31 - 1:36
    Mi-am dat seama că înainte de a continua
    să creez conținut despre probleme sociale,
  • 1:36 - 1:40
    trebuie să inversez efectele
    negative ale tehnologiei.
  • 1:41 - 1:44
    Pentru a realiza asta, m-am întrebat:
  • 1:44 - 1:47
    „Cum pot translata mecanismele empatiei,
  • 1:47 - 1:51
    aspectele cognitive,
    afective şi motivaționale,
  • 1:51 - 1:54
    într-un motor care simulează
    părțile narative
  • 1:54 - 1:56
    care ne fac să acționăm?”
  • 1:57 - 2:01
    Ca să răspund la acestă întrebare
    a trebuit să construiesc o maşinărie.
  • 2:01 - 2:02
    (Râde)
  • 2:02 - 2:05
    Am dezvoltat un laborator
    biometric open-source,
  • 2:05 - 2:09
    un sistem de IA pe care îl numesc
    Laborator Limbic.
  • 2:09 - 2:10
    Laboratorul nu doar captează
  • 2:10 - 2:12
    reacția inconștientă a creierului
  • 2:12 - 2:14
    şi a corpului la conținut
    digital și tehnologie,
  • 2:14 - 2:17
    dar și folosește învățarea automată
    pentru a adapta conținutul
  • 2:17 - 2:20
    pe baza acestor răspunsuri biologice.
  • 2:21 - 2:24
    Scopul meu e de a descoperi
    ce combinație de ingrediente narative
  • 2:24 - 2:26
    sunt cele mai atrăgătoare şi stimulante
  • 2:26 - 2:28
    pentru anumite grupuri de audiență
  • 2:28 - 2:33
    pentru ca dreptatea socială,
    organizațiile culturale şi educaționale
  • 2:33 - 2:36
    să creeze conținut digital mai eficient.
  • 2:36 - 2:39
    Laboratorul Limbic are două componente:
  • 2:39 - 2:42
    un motor narativ şi un aparat media.
  • 2:42 - 2:47
    În timp ce o persoană urmăreşte sau
    interacționează cu conținutul media,
  • 2:47 - 2:48
    motorul narativ asimilează
  • 2:48 - 2:51
    şi sincronizează undele
    cerebrale în timp real,
  • 2:51 - 2:54
    informațiile fiziologice, ca pulsul,
    circulația sângelui, temperatura
  • 2:54 - 2:56
    şi contracțiile musculare,
  • 2:56 - 2:59
    plus mişcarea ochilor
    şi expresiile faciale.
  • 3:00 - 3:04
    Informațiile sunt înregistrate
    la momentele cheie ale intrigii,
  • 3:04 - 3:07
    la interacțiunea dintre personaje
    sau la unghiuri de filmare deosebite.
  • 3:08 - 3:12
    De exemplu, scena finala
    din „Urzeala Tronurilor, Nunta Roşie”
  • 3:12 - 3:13
    în care, şocant,
  • 3:13 - 3:15
    toată lumea moare.
  • 3:15 - 3:16
    (Râsete)
  • 3:17 - 3:20
    Sondajele de opinie
    despre simpatiile politice,
  • 3:20 - 3:23
    împreună cu informațiile psihografice
    şi demografice,
  • 3:23 - 3:25
    sunt inserate în sistem
  • 3:25 - 3:28
    pentru a obține o cunoaştere
    mai profundă a individului.
  • 3:29 - 3:30
    Să vă dau un exemplu.
  • 3:32 - 3:34
    Potrivirea preferințelor TV
    cu părerile lor
  • 3:34 - 3:37
    despre problemele de dreptate socială
  • 3:37 - 3:41
    ne arată că americanii care au imigrația
    în top trei îngrijorări
  • 3:41 - 3:44
    sunt cel mai probabil fani
    ai „The Walking Dead”
  • 3:45 - 3:48
    şi cel mai adesea îl urmăresc
    pentru doza de adrenalină,
  • 3:48 - 3:49
    care poate fi măsurată.
  • 3:50 - 3:54
    Semnătura biologică şi răspunsurile
    unei persoane la un chestionar
  • 3:54 - 3:59
    sunt combinate într-o bază de date
    pentru a crea amprenta digitală unică.
  • 3:59 - 4:03
    Apoi modelul nostru predictiv descoperă
    modele în amprentele digitale
  • 4:03 - 4:05
    şi ne spune care ingrediente narative
  • 4:05 - 4:09
    pot cel mai probabil să ducă
    la comportament altruist
  • 4:09 - 4:11
    în loc de griji şi apatie.
  • 4:11 - 4:14
    Cu cât sunt mai multe
    amprente în baza de date
  • 4:14 - 4:17
    cu conținut de la seriale la jocuri,
  • 4:17 - 4:19
    cu atât mai bune devin
    modelele predictive.
  • 4:20 - 4:24
    Pe scurt, fac harta primului
    genom digital.
  • 4:24 - 4:28
    (Aplauze şi urale)
  • 4:32 - 4:35
    În timp ce genomul uman conține
    toate genele implicate
  • 4:35 - 4:37
    în ADN-ului uman,
  • 4:38 - 4:41
    baza de date în creștere
    îmi va permite la un moment dat
  • 4:41 - 4:45
    să determin ADN-ul digital
    al unei persoane.
  • 4:46 - 4:49
    Deja motorul narativ
    al Laboratorului Limbic
  • 4:50 - 4:53
    ajută creatorii
    să-şi îmbunătățească nararea,
  • 4:53 - 4:57
    astfel încât să rezoneze
    cu publicul țintă la nivel de individ.
  • 4:59 - 5:01
    Cealaltă componentă
    a Laboratorului Limbic,
  • 5:01 - 5:03
    aparatul media,
  • 5:03 - 5:05
    evaluează modul în care conținutul
  • 5:05 - 5:08
    generează un răspuns
    emoțional şi fiziologic,
  • 5:08 - 5:10
    apoi alege imagini din biblioteca
  • 5:10 - 5:13
    destinată unui ADN-ului digital
    specific acelei persoane.
  • 5:14 - 5:18
    Atașarea inteligenței artificiale
    la informațiile biometrice
  • 5:18 - 5:21
    creează o experiență personalizată.
  • 5:21 - 5:26
    Una care adaptează conținutul pe baza
    răspunsurilor inconștiente în timp real.
  • 5:27 - 5:29
    Imaginați-vă cum ar fi
    dacă organizațiile non-profit
  • 5:29 - 5:33
    și creatorii de conținut ar putea măsura
    ce simte audiența
  • 5:33 - 5:35
    în timpul experienței
  • 5:35 - 5:37
    şi ar putea schimba conținutul pe loc.
  • 5:37 - 5:40
    Cred că acesta e viitorul
    conținutului digital.
  • 5:41 - 5:44
    Până acum, majoritatea conținutului
    digital și a mișcărilor sociale
  • 5:44 - 5:47
    au încercat să apeleze la mase,
  • 5:47 - 5:50
    dar viitorul e conținutul digital
    adaptat fiecărei persoane.
  • 5:51 - 5:54
    În timp ce măsurarea
    consumului de conținut digital
  • 5:54 - 5:57
    şi producția automatizată
    de conținut devine norma,
  • 5:57 - 6:01
    vom consuma conținut digital
    personalizat nevoilor noastre,
  • 6:01 - 6:05
    folosind un amestec de fiziografie,
    biometrie şi IA.
  • 6:06 - 6:10
    E ca medicamentele personalizate
    pe baza ADN-ului nostru.
  • 6:10 - 6:12
    O voi numi „Biomedia”.
  • 6:13 - 6:16
    Acum testez Laboratorul Limbic
    într-un studiu pilot
  • 6:16 - 6:18
    la Centrul Norman Lear,
  • 6:18 - 6:22
    unde se urmăresc topul 50 al serialelor.
  • 6:22 - 6:25
    Dar am probleme cu o dilemă etică.
  • 6:25 - 6:29
    Daca creez o unealtă care poate
    fi transformată într-o armă,
  • 6:29 - 6:31
    ar trebui să o mai creez?
  • 6:32 - 6:35
    Prin a lăsa laboratorul open-source
    pentru a încuraja accesul şi incluziunea,
  • 6:35 - 6:39
    risc să dau liber guvernelor puternice
  • 6:39 - 6:42
    şi companiilor conduse de profit
    să îşi asume platforma
  • 6:42 - 6:46
    pentru fake news, marketing
    sau alte mijloace de manipulare în masă.
  • 6:47 - 6:51
    De asta, pentru mine e crucial
    ca cercetările mele să fie
  • 6:51 - 6:54
    atât de clare pentru oamenii de rând
    precum sunt etichetele OMG.
  • 6:55 - 6:58
    Totuşi, aceasta nu e de ajuns.
  • 6:59 - 7:01
    În calitate de creatori de tehnologii,
  • 7:01 - 7:03
    avem responsabilitatea
  • 7:03 - 7:06
    nu doar de a reflecta
    la cum tehnologiile de azi
  • 7:06 - 7:08
    modelează valorile culturale
  • 7:08 - 7:10
    şi comportamentul social,
  • 7:10 - 7:15
    dar şi de a ridica întrebări în mod activ
    asupra direcției tehnologiilor viitoare.
  • 7:15 - 7:19
    Sper că ne vom lua angajamentul etic
  • 7:19 - 7:21
    de a folosi informațiile corpul omenesc
  • 7:21 - 7:25
    pentru a crea poveşti autentice şi juste
  • 7:25 - 7:27
    care să transforme
    conținutul digital şi tehnologia
  • 7:27 - 7:31
    din arme dăunătoare
    în narațiuni medicinale.
  • 7:31 - 7:32
    Vă mulțumesc!
  • 7:32 - 7:34
    (Aplauze şi urale)
Title:
Cum folosesc informațiile biologice pentru a spune povești mai bune - și pentru a provoca schimbări sociale
Speaker:
Heidi Boisvert
Description:

Ce fel de poveşti ne fac să acționăm? Pentru a răspunde la această întrebare, creatoarea de tehnologii Heidi Boisvert măsoară cum creierul și corpul răspund inconștient la diferite tipuri conținut digital. Ea ne arată cum folosește aceste informații pentru a afla ingredientele narative care să inspire empatie și dreptate - și care să pornească o schimbare socială.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
07:49

Romanian subtitles

Revisions Compare revisions