< Return to Video

Coșmarul canalului YouTube pentru copii - și ce nu e în regulă cu internetul zilelor noastre

  • 0:01 - 0:02
    Eu sunt James.
  • 0:02 - 0:04
    Sunt scriitor și artist
  • 0:04 - 0:06
    și domeniul meu este tehnologia.
  • 0:06 - 0:10
    Desenez schițe în mărime naturală
    pentru drone militare
  • 0:10 - 0:12
    pe străzile orașelor de prin lume
  • 0:12 - 0:15
    pentru ca oamenii să se poată gândi
    și să poată înțelege
  • 0:15 - 0:19
    această tehnologie greu de văzut
    și greu de imaginat.
  • 0:19 - 0:23
    Eu concep lucruri precum rețele neurale
    care prezic rezultatele alegerilor,
  • 0:23 - 0:25
    având la bază prognozele vremii,
  • 0:25 - 0:26
    pentru că sunt intrigat
  • 0:26 - 0:30
    de posibilitățile propriu-zise
    pe care le au aceste tehnologii bizare.
  • 0:31 - 0:34
    Acum un an mi-am făcut
    o mașină care se conduce singură.
  • 0:34 - 0:36
    Însă, pentru că nu prea mă încred
    în tehnologie,
  • 0:36 - 0:38
    i-am creat și o capcană.
  • 0:39 - 0:40
    (Râsete)
  • 0:40 - 0:44
    Și fac toate acestea în special
    pentru că le consider absolut fascinante,
  • 0:44 - 0:47
    dar și pentru că eu cred
    că atunci când vorbim despre tehnologie,
  • 0:47 - 0:49
    vorbim, în mare măsură, despre noi înșine
  • 0:49 - 0:52
    și despre modul în care înțelegem lumea.
  • 0:52 - 0:54
    Așa că, iată o poveste despre tehnologie.
  • 0:56 - 0:58
    Acesta este un filmuleț
    despre „ouă cu surprize”.
  • 0:58 - 1:02
    Este un filmuleț cu cineva care desface
    o grămadă de ouă de ciocolată
  • 1:02 - 1:04
    și arată jucăriile din interior.
  • 1:04 - 1:07
    Asta e tot. Numai asta face
    timp de șapte minute lungi.
  • 1:07 - 1:10
    Și aș vrea să observați
    două aspecte despre acest lucru.
  • 1:11 - 1:15
    În primul rând, acest filmuleț
    are 30 milioane de vizualizări.
  • 1:15 - 1:16
    (Râsete)
  • 1:16 - 1:18
    Și celălalt lucru:
  • 1:18 - 1:21
    el provine de pe un canal care are
    6,3 milioane de abonați,
  • 1:21 - 1:24
    care are opt miliarde de vizualizări,
  • 1:24 - 1:27
    și sunt doar alte filmulețe ca acesta -
  • 1:28 - 1:32
    30 de milioane de oameni urmărind un om
    care desface aceste ouă.
  • 1:32 - 1:37
    Sună destul de ciudat, dar dacă am căuta
    „ouă cu surprize” pe YouTube,
  • 1:37 - 1:40
    vom vedea că sunt 10 milioane
    de astfel de filmulețe,
  • 1:40 - 1:42
    și cred că asta e o vagă estimare.
  • 1:42 - 1:44
    Cred că sunt mult, mult mai multe.
  • 1:44 - 1:46
    Dacă vom continua să căutăm,
    sunt infinite.
  • 1:46 - 1:48
    Sunt milioane și milioane
    de astfel de filme
  • 1:48 - 1:52
    în nenumărate combinații sofisticate
    de firme și materiale,
  • 1:52 - 1:56
    și tot mai multe sunt încărcate
    în fiecare zi.
  • 1:56 - 1:59
    Chiar că e o lume ciudată. Nu-i așa?
  • 1:59 - 2:03
    Dar chestia e că nu adulții
    vizionează aceste filmulețe.
  • 2:03 - 2:06
    Ci puștii, copiii mici.
  • 2:06 - 2:08
    Aceste filmulețe sunt
    ca un drog pentru copii.
  • 2:08 - 2:10
    S-ar părea că prezentarea repetată,
  • 2:10 - 2:12
    mica doză de dopamină
    dată de descoperirea surprizei
  • 2:12 - 2:14
    e ceea ce îi atrage foarte tare.
  • 2:14 - 2:19
    Și copiii urmăresc aceste filmulețe
    iarăși și iarăși,
  • 2:19 - 2:21
    și o fac ore întregi.
  • 2:21 - 2:24
    Și dacă încerci să le iei ecranul,
  • 2:24 - 2:26
    vor începe să țipe mult și bine.
  • 2:26 - 2:27
    Dacă nu mă credeți -
  • 2:27 - 2:29
    și deja am și văzut persoane din public
    dând din cap -
  • 2:29 - 2:33
    dacă nu mă credeți, căutați pe cineva
    care are copii, întrebați-i
  • 2:33 - 2:35
    și vă vor spune ei despre filmele
    cu ouă cu surpriză.
  • 2:35 - 2:37
    Așadar, de aici începem.
  • 2:37 - 2:41
    E anul 2018 și cineva sau chiar
    mai mulți oameni
  • 2:41 - 2:45
    folosesc același mecanism
    care, la fel ca Facebook și Instagram,
  • 2:45 - 2:47
    ne fac să ne tot verificăm aplicația,
  • 2:47 - 2:51
    și folosesc asta și pe YouTube
    pentru a „subjuga” creierul copiilor mici
  • 2:51 - 2:53
    în schimbul veniturilor din publicitate.
  • 2:54 - 2:56
    Cel puțin, sper că asta fac.
  • 2:56 - 2:58
    Sper că pentru asta o fac,
  • 2:58 - 3:04
    pentru că sunt căi mai simple de a obține
    vebituri din publicitate pe YouTube.
  • 3:04 - 3:06
    Poți să inventezi ceva sau să furi ceva.
  • 3:06 - 3:09
    Așa că, atunci când cauți desene animate
    foarte populare
  • 3:09 - 3:10
    ca „Peppa Pig” sau „Paw Patrol”,
  • 3:10 - 3:14
    vei afla că sunt milioane
    și milioane din acestea online.
  • 3:14 - 3:17
    Desigur, cele mai multe nu sunt postate
    de creatorii originali.
  • 3:17 - 3:20
    Ele vin din încărcări peste încărcări
    din diferite conturi
  • 3:20 - 3:22
    și este imposibil să afli cine le postează
  • 3:22 - 3:24
    sau care ar putea fi motivele lor.
  • 3:24 - 3:26
    Toate astea vă sună cumva cunoscut?
  • 3:26 - 3:28
    Pentru că e exact același mecanism
  • 3:28 - 3:31
    folosit de multe
    dintre serviciile noastre digitale
  • 3:31 - 3:34
    în care e imposibil să afli
    de unde vine informația.
  • 3:34 - 3:36
    De fapt, e știre falsă pentru copii,
  • 3:36 - 3:38
    iar noi îi pregătim încă de la naștere
  • 3:38 - 3:41
    să acceseze chiar primul link care apare,
  • 3:41 - 3:43
    indiferent de sursă.
  • 3:43 - 3:45
    Nu pare să fie o idee prea bună.
  • 3:46 - 3:49
    Iată altceva care are mare succes
    pe YouTube pentru copii.
  • 3:49 - 3:51
    Se numește „Cântecul Familiei Degețel.”
  • 3:51 - 3:53
    Am auzit pe cineva oftând în public.
  • 3:53 - 3:55
    Iată „Cântecul Familiei Degețel.”
  • 3:55 - 3:57
    E chiar primul pe care l-am putut găsi.
  • 3:57 - 4:00
    E din 2007 și are
    doar 200.000 de vizualizări,
  • 4:00 - 4:02
    ceea ce e foarte puțin în acest „joc”.
  • 4:02 - 4:04
    Dar are o melodie îngrozitor de pregnantă,
  • 4:04 - 4:06
    pe care n-am să v-o pun acum,
  • 4:06 - 4:08
    pentru că vi s-ar „lipi” de creier,
  • 4:08 - 4:11
    așa cum s-a întâmplat în cazul meu,
  • 4:11 - 4:12
    și n-am de gând să vă fac așa ceva.
  • 4:12 - 4:14
    Dar, ca și ouăle cu surprize,
  • 4:14 - 4:16
    melodia a intrat în capul copiilor
  • 4:16 - 4:18
    și i-a făcut dependenți de ea.
  • 4:18 - 4:20
    În doar câțiva ani,
    filmele cu familia Degețel
  • 4:20 - 4:21
    au tot apărut peste tot,
  • 4:21 - 4:23
    în variante în diverse limbi,
  • 4:24 - 4:26
    cu desene animate care folosesc mâncare
  • 4:26 - 4:28
    sau, sincer, orice fel de elemente
    de animație
  • 4:28 - 4:31
    pe care le ai în preajma ta.
  • 4:31 - 4:36
    Sunt milioane și milioane
    de astfel de filmulețe
  • 4:36 - 4:40
    accesibile pe internet,
    în tot felul de combinații ciudate.
  • 4:40 - 4:42
    Cu cât începi să petreci
    mai mult timp cu ele,
  • 4:42 - 4:46
    cu atât ai senzația că te înnebunesc.
  • 4:46 - 4:49
    Ăsta e momentul în care am început
    să mă ocup de asta,
  • 4:49 - 4:53
    de acel sentiment bizar dat
    de lipsa de înțelegere
  • 4:53 - 4:57
    a felului în care era conceput
    acel ceva prezent mereu în jurul meu.
  • 4:57 - 5:00
    Căci e imposibil să știm
    de unde vin aceste lucruri.
  • 5:00 - 5:01
    Cum ar fi, cine le face?
  • 5:01 - 5:05
    Unele par a fi concepute de echipe
    de animatori profesioniști.
  • 5:05 - 5:07
    Altele sunt asamblate întâmplător
    de vreun program software,
  • 5:07 - 5:12
    Unele sunt chiar niște superbi animatori
    pentru copii.
  • 5:12 - 5:13
    Unele vin din partea unor oameni
  • 5:13 - 5:15
    care nu ar trebui lăsați
    în preajma copiilor.
  • 5:16 - 5:19
    (Râsete)
  • 5:19 - 5:23
    Repet, această imposibilitate de a ști
    cine creează aceste lucruri -
  • 5:23 - 5:25
    o fi un program de calculator
  • 5:25 - 5:27
    sau e o persoană? E un trol?
  • 5:27 - 5:30
    Ce înseamnă să nu mai putem face diferența
  • 5:30 - 5:32
    dintre aceste lucruri?
  • 5:32 - 5:38
    Mai mult, nu vi se pare că această
    nesiguranța vă este familiară?
  • 5:38 - 5:41
    În principal, oamenii
    își asigură vizualizările —
  • 5:41 - 5:43
    reținem, vizualizările înseamnă bani —
  • 5:43 - 5:47
    folosind în titlurile filmulețelor
    termeni foarte populari.
  • 5:47 - 5:49
    Luăm, de pildă, „ouăle cu surprize”
  • 5:49 - 5:51
    plus „Patrula Cățelușilor”, „Ouă de Paște”
  • 5:51 - 5:52
    sau orice altceva,
  • 5:52 - 5:55
    cuvinte din alte filmulețe populare,
    aduse în titlu,
  • 5:55 - 5:58
    până obținem un soi de terci
    lingvistic fără înțeles,
  • 5:58 - 6:01
    ce nu mai are niciun sens pentru oameni.
  • 6:01 - 6:04
    Căci doar copiii mici se uită
    la astfel de filmulețe
  • 6:04 - 6:06
    și ce naiba știu ei?
  • 6:06 - 6:09
    Publicul tău țintă e programul software.
  • 6:09 - 6:11
    Sunt algoritmii.
  • 6:11 - 6:12
    Programul de soft folosit de YouTube
  • 6:12 - 6:15
    pentru a alege ce filmulețe se aseamănă,
  • 6:15 - 6:17
    pentru a le face populare,
    pentru a le recomanda.
  • 6:17 - 6:21
    Așa ne alegem cu un amestec
    total lipsit de sens
  • 6:21 - 6:24
    în titlu și în conținut.
  • 6:24 - 6:26
    Dar, să nu uităm,
  • 6:26 - 6:30
    încă există oameni în acest sistem
    optimizat algoritmic,
  • 6:30 - 6:33
    care sunt forțați să răspundă
  • 6:33 - 6:36
    la aceste combinații bizare de cuvinte,
  • 6:36 - 6:41
    precum un artist de improvizație
    reacționând în fața țipetelor simultane
  • 6:41 - 6:45
    ale milioane de copilași.
  • 6:45 - 6:48
    Oameni adevărați sunt
    captivi în aceste sisteme,
  • 6:48 - 6:52
    un alt aspect deosebit de straniu
    al culturii dirijate prin algoritmi,
  • 6:52 - 6:53
    căci, deși suntem oameni,
  • 6:53 - 6:55
    ajungem să ne purtăm precum mașini
  • 6:55 - 6:57
    doar pentru a supraviețui.
  • 6:57 - 6:59
    De cealaltă parte a ecranului,
  • 6:59 - 7:02
    încă îi avem pe copilașii
    care vizionează captivați,
  • 7:02 - 7:07
    total absorbiți
    de aceste mecanisme ciudate.
  • 7:07 - 7:10
    Majoritatea sunt prea mici
    să intre pe pagina web.
  • 7:10 - 7:13
    Doar lovesc ecranul cu mâinile lor mici.
  • 7:13 - 7:14
    Și filmulețul repornește
  • 7:14 - 7:18
    și o ia mereu de la început
    ca într-o buclă temporală,
  • 7:18 - 7:20
    ore și ore, la nesfârșit.
  • 7:20 - 7:23
    Și e atâta ciudățenie în sistem acum,
  • 7:23 - 7:26
    încât reluările ne duc
    în niște locuri bizare.
  • 7:26 - 7:28
    Astfel încât, cu doar câțiva pași,
  • 7:28 - 7:31
    poți ajunge de la un filmuleț simpatic
    cu un trenuleț care numără
  • 7:31 - 7:35
    la un Mickey Mouse care se masturbează.
  • 7:35 - 7:37
    Da. Îmi pare rău pentru asta.
  • 7:37 - 7:39
    Și asta se înrăutățește.
  • 7:39 - 7:40
    Iată ce se întâmplă
  • 7:40 - 7:43
    când toate aceste cuvinte cheie diferite,
  • 7:43 - 7:45
    toată atenția,
  • 7:45 - 7:48
    toată generarea disperată de conținut,
  • 7:48 - 7:52
    ajung să fie puse împreună în același loc.
  • 7:52 - 7:56
    Acolo unde aceste cuvinte cheie bizare
    dau rod.
  • 7:56 - 7:59
    Combinând filmulețul cu familia Degețel
  • 7:59 - 8:01
    cu ceva acțiune cu super eroi,
  • 8:01 - 8:04
    și adăugând ceva chestii ciudate, ----------
    triviale,
  • 8:04 - 8:08
    se ajunge într-o zonă cu adevărat
    stranie.
  • 8:08 - 8:10
    Ceea ce îi deranjează pe părinți
  • 8:10 - 8:14
    este un material cu conținut
    violent sau sexual, nu-i așa?
  • 8:14 - 8:16
    Desene animate pentru copii,
    cu violență,
  • 8:16 - 8:18
    sau cu omoruri,
  • 8:18 - 8:21
    farse bizare care, literalmente,
    îi sperie pe copii.
  • 8:21 - 8:25
    E vorba de programe ce folosesc
    toate astea
  • 8:25 - 8:28
    pentru a le crea copiilor
    cele mai urâte coșmaruri.
  • 8:28 - 8:31
    Și copiii mici sunt cu adevărat marcați.
  • 8:31 - 8:33
    Părinții se plâng
    că le sunt traumatizați copiii,
  • 8:34 - 8:35
    că le e frică de întuneric,
  • 8:35 - 8:39
    că se tem de personajele favorite
    din desenele animate.
  • 8:39 - 8:42
    Dacă ar fi să rețineți ceva de aici,
    în cazul în care aveți copii mici,
  • 8:42 - 8:45
    faceți bine și țineți-i departe
    de YouTube.
  • 8:45 - 8:50
    (Aplauze)
  • 8:50 - 8:54
    Un alt lucru care mă îngrijorează,
    referitor la această problemă,
  • 8:54 - 8:59
    este că nu sunt sigur că noi înțelegem
    cum s-a ajuns în acest punct.
  • 8:59 - 9:02
    Am preluat toată această influență,
    toate lucrurile astea,
  • 9:02 - 9:05
    și le-am combinat într-o manieră
    pe care n-a dorit-o nimeni.
  • 9:05 - 9:08
    Totuși, acesta este felul
    în care ne construim întreaga lume.
  • 9:08 - 9:10
    Luăm toate informațiile,
  • 9:10 - 9:11
    multe dintre ele proaste,
  • 9:11 - 9:14
    date istorice pline de prejudecăți
  • 9:14 - 9:17
    și de cele mai rele impulsuri ale istoriei
  • 9:17 - 9:19
    și concepem astfel seturi imense de date
  • 9:19 - 9:21
    pe care le automatizăm.
  • 9:21 - 9:24
    Și le concentrăm în rapoarte de credit,
  • 9:24 - 9:26
    asigurări premium,
  • 9:26 - 9:29
    sisteme de predicție în munca poliției,
  • 9:29 - 9:30
    regulamente și directive.
  • 9:30 - 9:33
    Așa ne concepem lumea de azi,
  • 9:33 - 9:34
    din astfel de date.
  • 9:34 - 9:36
    Și nu știu ce e mai rău:
  • 9:36 - 9:39
    că am construit un sistem
    care pare optimizat
  • 9:39 - 9:42
    pentru aspectele negative
    ale comportamentului uman
  • 9:42 - 9:45
    sau faptul că pare că am comis-o
    din greșeală,
  • 9:45 - 9:47
    fără a ne da seama că am făcut-o
  • 9:47 - 9:50
    pentru că nu înțelegeam pe deplin
    sistemul pe care îl cream,
  • 9:50 - 9:55
    pentru că nu înțelegeam pe deplin
    cum să schimbăm ceva prin el.
  • 9:55 - 9:58
    Ar fi o serie de lucruri
    care controlează totul
  • 9:58 - 9:59
    mai ales pe YouTube,
  • 9:59 - 10:01
    iar primul ar fi publicitatea,
  • 10:01 - 10:04
    adică monetizarea atenției,
  • 10:04 - 10:07
    fără a ține cont de alte variabile reale,
  • 10:07 - 10:11
    de oamenii care creează,
    de fapt, acest conținut,
  • 10:11 - 10:15
    de centralizarea puterii
    sau de separarea acestor lucruri.
  • 10:15 - 10:18
    Și, orice am crede
    despre utilizarea publicității
  • 10:18 - 10:19
    ca fiind un fel de sprijin,
  • 10:19 - 10:22
    imaginea unor adulți în scutece,
    tăvălindu-se prin nisip,
  • 10:22 - 10:25
    sperând că un algoritm
    pe care nu-l înțeleg pe deplin
  • 10:25 - 10:27
    îi va îmbogăți,
  • 10:27 - 10:29
    sugerează că, probabil, nu pe așa ceva
  • 10:29 - 10:31
    ar trebui să bazăm societatea și cultura,
  • 10:31 - 10:33
    și că nu așa ar trebui s-o finanțăm.
  • 10:34 - 10:37
    Cealaltă cauză majoră
    a acestui proces e automatismul,
  • 10:37 - 10:39
    adică utilizarea acestei tehnologii
  • 10:39 - 10:42
    de îndată ce apare, fără nicio omisiune,
  • 10:42 - 10:43
    și, odată ce e lansată,
  • 10:43 - 10:47
    ne aruncăm mâinile în aer zicând:
    „Nu noi suntem de vină, ci tehnologia.”
  • 10:47 - 10:49
    Adică „Noi nu suntem implicați.”
  • 10:49 - 10:51
    Asta nu e de ajuns,
  • 10:51 - 10:53
    căci toate acestea nu sunt
    doar guvernate de algoritmi,
  • 10:53 - 10:56
    ci și controlate de algoritmi.
  • 10:56 - 10:59
    Când YouTube a început
    să acorde atenție acestui aspect,
  • 10:59 - 11:01
    primul lucru pe care au zis că-l vor face
  • 11:01 - 11:04
    a fost să aplice algoritmi
    de învățare automată mai buni
  • 11:04 - 11:05
    ca să controleze conținutul.
  • 11:05 - 11:09
    Ei bine, așa cum v-ar spune orice expert,
    învățarea automată
  • 11:09 - 11:10
    este ceea ce generic numim
  • 11:10 - 11:13
    program software
    pe care nu-l înțelegem pe deplin.
  • 11:13 - 11:17
    Și cred că avem deja destule.
  • 11:17 - 11:20
    N-ar trebui să lăsăm IA să decidă
  • 11:20 - 11:21
    ce e potrivit și ce nu,
  • 11:22 - 11:23
    pentru că știm ce se întâmplă.
  • 11:23 - 11:25
    Va cenzura alte lucruri.
  • 11:25 - 11:26
    Va cenzura conținut suspicios.
  • 11:27 - 11:29
    Va cenzura discursuri publice bune.
  • 11:29 - 11:31
    Ceea ce e permis în aceste discursuri
  • 11:31 - 11:34
    n-ar trebui să fie decis
    de sisteme arbitrare.
  • 11:34 - 11:37
    Face parte dintr-o discuție
    pe care ar trebui să o avem cu toții.
  • 11:37 - 11:38
    Dar aș lăsa drept memento
  • 11:38 - 11:41
    faptul că nici alternativa
    nu este mai plăcută.
  • 11:41 - 11:42
    YouTube a mai anunțat recent
  • 11:42 - 11:45
    că va lansa o versiune
    a aplicației pentru copii
  • 11:45 - 11:48
    ce este moderată în întregime de oameni.
  • 11:48 - 11:51
    Facebook - Zuckerberg a spus
    cam același lucru la Congres,
  • 11:51 - 11:55
    întrebat insistent
    cum își vor modera conținutul.
  • 11:55 - 11:56
    A zis că oamenii vor rezolva asta.
  • 11:57 - 11:58
    Asta înseamnă, de fapt,
  • 11:58 - 12:01
    nu copiii vor fi primii
    care vor vedea materialele,
  • 12:01 - 12:04
    ci niște angajați prost plătiți,
    cu un contract precar,
  • 12:04 - 12:06
    fără pregătire psihologică potrivită
  • 12:06 - 12:07
    care vor avea și ei de suferit.
  • 12:07 - 12:08
    (Râsete)
  • 12:08 - 12:11
    Eu cred că putem mai mult.
  • 12:11 - 12:14
    (Aplauze)
  • 12:14 - 12:19
    Consider că ceea ce poate reuni
    aceste două lucruri
  • 12:19 - 12:20
    este implicarea.
  • 12:20 - 12:23
    Anume, cât de mult înțelegem
    cu adevărat - prin implicare, mă refer
  • 12:23 - 12:28
    la cum știm ce să facem
    pentru a acționa în interesul nostru.
  • 12:28 - 12:29
    Ceea ce e aproape imposibil de făcut
  • 12:30 - 12:33
    în aceste sisteme
    pe care nu le înțelegem pe deplin.
  • 12:33 - 12:36
    Disproporția de putere
    întotdeauna generează violență.
  • 12:36 - 12:38
    Și în interiorul acestor sisteme,
  • 12:38 - 12:40
    înțelegerea inegală duce la același lucru.
  • 12:40 - 12:44
    Dacă e să putem face ceva
    pentru a îmbunătăți aceste sisteme,
  • 12:44 - 12:47
    e să le facem mai accesibile
    celor care le utilizează,
  • 12:47 - 12:49
    astfel încât noi toți să putem înțelege
  • 12:49 - 12:52
    ce se întâmplă cu adevărat.
  • 12:52 - 12:55
    Problema cu aceste sisteme nu e, de fapt,
  • 12:55 - 12:59
    așa cum sper că am reușit să explic,
    legată doar de YouTube.
  • 12:59 - 13:00
    E legată de totul din jur.
  • 13:00 - 13:03
    Chestiunile legate de responsabilitate
    și implicare,
  • 13:03 - 13:05
    de transparență și complexitate,
  • 13:05 - 13:08
    de violență și exploatare,
    ce rezultă, în mod inevitabil,
  • 13:08 - 13:11
    din comasarea puterii
    în doar câteva mâini --
  • 13:11 - 13:14
    sunt niște chestiuni mult,
    mult mai ample.
  • 13:14 - 13:18
    Nu sunt chestiuni legate doar de YouTube
    sau de tehnologie, în general,
  • 13:18 - 13:19
    și nici măcar nu sunt noi.
  • 13:19 - 13:21
    Ne preocupă de mult timp.
  • 13:21 - 13:25
    Doar că am construit acest sistem global,
    care este internetul,
  • 13:25 - 13:28
    care acum ni le pune în fața ochilor
    într-un mod extraordinar,
  • 13:28 - 13:30
    făcându-le parte din realitate.
  • 13:30 - 13:33
    Tehnologia are
    această capacitate fabuloasă
  • 13:33 - 13:37
    de a scoate la lumină și a exploata
  • 13:37 - 13:41
    cele mai grozave, adesea ascunse,
    dorințe și prejudecăți ale noastre
  • 13:41 - 13:43
    și de a le „exprima” în lume,
  • 13:43 - 13:46
    dar și de a le scrie,
    astfel încât să le vedem,
  • 13:46 - 13:50
    să nu mai putem pretinde
    că ele nu mai există.
  • 13:50 - 13:54
    Trebuie să încetăm să mai credem
    că soluția la probleme este tehnologia
  • 13:54 - 13:58
    și să o considerăm, mai degrabă, un ghid
    pentru ceea ce reprezintă ele,
  • 13:58 - 14:00
    pentru a ne putea concentra asupra lor
  • 14:00 - 14:02
    și pentru a începe să le rezolvăm.
  • 14:02 - 14:03
    Vă mulțumesc foarte mult.
  • 14:03 - 14:10
    (Aplauze)
  • 14:10 - 14:11
    Mulțumesc.
  • 14:11 - 14:17
    (Aplauze)
  • 14:17 - 14:20
    Helen Walters: James, îți mulțumesc
    că ai venit și ne-ai vorbit.
  • 14:20 - 14:21
    Așadar, e interesant:
  • 14:21 - 14:25
    dacă ne gândim la filmele
    în care roboții supremi preiau controlul,
  • 14:25 - 14:28
    pare mai fermecător decât ce ne descrii.
  • 14:28 - 14:32
    Dar, mă întreb: în acele filme,
    există o luptă pentru supremație.
  • 14:32 - 14:35
    Întâlnim așa ceva
    și în cazul materialelor în discuție?
  • 14:35 - 14:40
    Vezi vreun semn pozitiv,
    vreo tendință de rezistență?
  • 14:40 - 14:43
    James Bridle: Nu știu ce să zic
    legat de rezistență,
  • 14:43 - 14:45
    consider că e o chestiune
    pe termen foarte lung.
  • 14:45 - 14:48
    Cred că e foarte adânc imprimată
    în cultură.
  • 14:48 - 14:50
    O prietenă, Eleanor Saitta, zice mereu
  • 14:50 - 14:54
    că orice probleme tehnologice
    cu destulă greutate și scop
  • 14:54 - 14:56
    sunt, înainte de toate, probleme politice.
  • 14:56 - 14:59
    Așa că, toate aceste chestiuni
    pe care vrem să le rezolvăm
  • 14:59 - 15:02
    nu se vor putea rezolva
    doar concepând o tehnologie mai bună,
  • 15:02 - 15:05
    ci prin schimbarea societății
    care o produce.
  • 15:05 - 15:08
    Deci nu, acum cred că încă mai avem
    un drum al naibii de lung.
  • 15:09 - 15:11
    Dar, cred că dacă defalcăm problemele,
  • 15:11 - 15:13
    dacă vorbim despre ele
    cu toată sinceritatea,
  • 15:13 - 15:16
    putem măcar să începem
    procesul de schimbare.
  • 15:16 - 15:19
    HW: Când vorbești
    despre accesibilitate și cultură digitală,
  • 15:19 - 15:21
    mi-e greu să-mi imaginez
  • 15:21 - 15:25
    că trebuie să punem povara culturalizării
    digitale în sarcina utilizatorului.
  • 15:25 - 15:29
    Dar a cui este responsabilitatea
    educației în această lume nouă?
  • 15:29 - 15:33
    JB: O spun din nou, responsabilitatea
    ne cam aparține nouă, tuturor,
  • 15:33 - 15:36
    căci tot ceea ce facem, tot ce construim,
    tot ceea ce creăm,
  • 15:36 - 15:40
    trebuie să fie făcut
    într-o discuție consensuală
  • 15:40 - 15:42
    cu toți cei care o evită;
  • 15:42 - 15:46
    că nu construim sisteme ce urmăresc
    să înșele, să păcălească oamenii
  • 15:46 - 15:48
    să facă ce e bine.
  • 15:48 - 15:51
    ci să se implice în fiecare pas
    al educației lor,
  • 15:52 - 15:54
    căci fiecare dintre aceste sisteme
    e educativ.
  • 15:54 - 15:57
    Asta e ceea ce sper,
    sper că și aceste aspecte sinistre,
  • 15:57 - 15:59
    dacă sunt privite corespunzător,
  • 15:59 - 16:01
    pot constitui forme de educație
  • 16:01 - 16:05
    care să ne permită să vedem
    cât de complexe sunt sistemele în lucru
  • 16:05 - 16:09
    și să utilizăm cunoștințele dobândite
    oriunde altundeva în lume.
  • 16:09 - 16:11
    HW: James, e o discuție foarte importantă
  • 16:11 - 16:14
    și știu că mulți din cei prezenți
    sunt deschiși și pregătiți,
  • 16:14 - 16:16
    îți mulțumim pentru că ai „deschis” ziua.
  • 16:16 - 16:17
    JB: Mulțumesc mult. Noroc.
  • 16:17 - 16:19
    (Aplauze)
Title:
Coșmarul canalului YouTube pentru copii - și ce nu e în regulă cu internetul zilelor noastre
Speaker:
James Bridle
Description:

Scriitorul și artistul James Bridle dezvăluie o parte întunecată și stranie a internetului, unde oameni sau grupuri de oameni necunoscuți se joacă cu mintea copiilor, în schimbul spațiului de publicitate. Pornind de la cadoul din „ouăle cu surprize” și „Cântecul Familiei Degețel” și până la calupuri create algoritmic, care prezintă personaje de desene animate în situații violente, aceste filmulețe exploatează și îngrozesc mințile tinere - și ne spun câte ceva despre direcția în care o ia lumea noastră tot mai condusă de informații. „Trebuie să încetăm să mai credem că soluția la probleme este tehnologia și să o considerăm, mai degrabă, un ghid pentru ceea ce reprezintă ele, pentru a ne putea concentra asupra lor și pentru a începe să le rezolvăm,” este de părere Bridle.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:32

Romanian subtitles

Revisions