Coșmarul canalului YouTube pentru copii - și ce nu e în regulă cu internetul zilelor noastre
-
0:01 - 0:02Eu sunt James.
-
0:02 - 0:04Sunt scriitor și artist
-
0:04 - 0:06și domeniul meu este tehnologia.
-
0:06 - 0:10Desenez schițe în mărime naturală
pentru drone militare -
0:10 - 0:12pe străzile orașelor de prin lume
-
0:12 - 0:15pentru ca oamenii să se poată gândi
și să poată înțelege -
0:15 - 0:19această tehnologie greu de văzut
și greu de imaginat. -
0:19 - 0:23Eu concep lucruri precum rețele neurale
care prezic rezultatele alegerilor, -
0:23 - 0:25având la bază prognozele vremii,
-
0:25 - 0:26pentru că sunt intrigat
-
0:26 - 0:30de posibilitățile propriu-zise
pe care le au aceste tehnologii bizare. -
0:31 - 0:34Acum un an mi-am făcut
o mașină care se conduce singură. -
0:34 - 0:36Însă, pentru că nu prea mă încred
în tehnologie, -
0:36 - 0:38i-am creat și o capcană.
-
0:39 - 0:40(Râsete)
-
0:40 - 0:44Și fac toate acestea în special
pentru că le consider absolut fascinante, -
0:44 - 0:47dar și pentru că eu cred
că atunci când vorbim despre tehnologie, -
0:47 - 0:49vorbim, în mare măsură, despre noi înșine
-
0:49 - 0:52și despre modul în care înțelegem lumea.
-
0:52 - 0:54Așa că, iată o poveste despre tehnologie.
-
0:56 - 0:58Acesta este un filmuleț
despre „ouă cu surprize”. -
0:58 - 1:02Este un filmuleț cu cineva care desface
o grămadă de ouă de ciocolată -
1:02 - 1:04și arată jucăriile din interior.
-
1:04 - 1:07Asta e tot. Numai asta face
timp de șapte minute lungi. -
1:07 - 1:10Și aș vrea să observați
două aspecte despre acest lucru. -
1:11 - 1:15În primul rând, acest filmuleț
are 30 milioane de vizualizări. -
1:15 - 1:16(Râsete)
-
1:16 - 1:18Și celălalt lucru:
-
1:18 - 1:21el provine de pe un canal care are
6,3 milioane de abonați, -
1:21 - 1:24care are opt miliarde de vizualizări,
-
1:24 - 1:27și sunt doar alte filmulețe ca acesta -
-
1:28 - 1:3230 de milioane de oameni urmărind un om
care desface aceste ouă. -
1:32 - 1:37Sună destul de ciudat, dar dacă am căuta
„ouă cu surprize” pe YouTube, -
1:37 - 1:40vom vedea că sunt 10 milioane
de astfel de filmulețe, -
1:40 - 1:42și cred că asta e o vagă estimare.
-
1:42 - 1:44Cred că sunt mult, mult mai multe.
-
1:44 - 1:46Dacă vom continua să căutăm,
sunt infinite. -
1:46 - 1:48Sunt milioane și milioane
de astfel de filme -
1:48 - 1:52în nenumărate combinații sofisticate
de firme și materiale, -
1:52 - 1:56și tot mai multe sunt încărcate
în fiecare zi. -
1:56 - 1:59Chiar că e o lume ciudată. Nu-i așa?
-
1:59 - 2:03Dar chestia e că nu adulții
vizionează aceste filmulețe. -
2:03 - 2:06Ci puștii, copiii mici.
-
2:06 - 2:08Aceste filmulețe sunt
ca un drog pentru copii. -
2:08 - 2:10S-ar părea că prezentarea repetată,
-
2:10 - 2:12mica doză de dopamină
dată de descoperirea surprizei -
2:12 - 2:14e ceea ce îi atrage foarte tare.
-
2:14 - 2:19Și copiii urmăresc aceste filmulețe
iarăși și iarăși, -
2:19 - 2:21și o fac ore întregi.
-
2:21 - 2:24Și dacă încerci să le iei ecranul,
-
2:24 - 2:26vor începe să țipe mult și bine.
-
2:26 - 2:27Dacă nu mă credeți -
-
2:27 - 2:29și deja am și văzut persoane din public
dând din cap - -
2:29 - 2:33dacă nu mă credeți, căutați pe cineva
care are copii, întrebați-i -
2:33 - 2:35și vă vor spune ei despre filmele
cu ouă cu surpriză. -
2:35 - 2:37Așadar, de aici începem.
-
2:37 - 2:41E anul 2018 și cineva sau chiar
mai mulți oameni -
2:41 - 2:45folosesc același mecanism
care, la fel ca Facebook și Instagram, -
2:45 - 2:47ne fac să ne tot verificăm aplicația,
-
2:47 - 2:51și folosesc asta și pe YouTube
pentru a „subjuga” creierul copiilor mici -
2:51 - 2:53în schimbul veniturilor din publicitate.
-
2:54 - 2:56Cel puțin, sper că asta fac.
-
2:56 - 2:58Sper că pentru asta o fac,
-
2:58 - 3:04pentru că sunt căi mai simple de a obține
vebituri din publicitate pe YouTube. -
3:04 - 3:06Poți să inventezi ceva sau să furi ceva.
-
3:06 - 3:09Așa că, atunci când cauți desene animate
foarte populare -
3:09 - 3:10ca „Peppa Pig” sau „Paw Patrol”,
-
3:10 - 3:14vei afla că sunt milioane
și milioane din acestea online. -
3:14 - 3:17Desigur, cele mai multe nu sunt postate
de creatorii originali. -
3:17 - 3:20Ele vin din încărcări peste încărcări
din diferite conturi -
3:20 - 3:22și este imposibil să afli cine le postează
-
3:22 - 3:24sau care ar putea fi motivele lor.
-
3:24 - 3:26Toate astea vă sună cumva cunoscut?
-
3:26 - 3:28Pentru că e exact același mecanism
-
3:28 - 3:31folosit de multe
dintre serviciile noastre digitale -
3:31 - 3:34în care e imposibil să afli
de unde vine informația. -
3:34 - 3:36De fapt, e știre falsă pentru copii,
-
3:36 - 3:38iar noi îi pregătim încă de la naștere
-
3:38 - 3:41să acceseze chiar primul link care apare,
-
3:41 - 3:43indiferent de sursă.
-
3:43 - 3:45Nu pare să fie o idee prea bună.
-
3:46 - 3:49Iată altceva care are mare succes
pe YouTube pentru copii. -
3:49 - 3:51Se numește „Cântecul Familiei Degețel.”
-
3:51 - 3:53Am auzit pe cineva oftând în public.
-
3:53 - 3:55Iată „Cântecul Familiei Degețel.”
-
3:55 - 3:57E chiar primul pe care l-am putut găsi.
-
3:57 - 4:00E din 2007 și are
doar 200.000 de vizualizări, -
4:00 - 4:02ceea ce e foarte puțin în acest „joc”.
-
4:02 - 4:04Dar are o melodie îngrozitor de pregnantă,
-
4:04 - 4:06pe care n-am să v-o pun acum,
-
4:06 - 4:08pentru că vi s-ar „lipi” de creier,
-
4:08 - 4:11așa cum s-a întâmplat în cazul meu,
-
4:11 - 4:12și n-am de gând să vă fac așa ceva.
-
4:12 - 4:14Dar, ca și ouăle cu surprize,
-
4:14 - 4:16melodia a intrat în capul copiilor
-
4:16 - 4:18și i-a făcut dependenți de ea.
-
4:18 - 4:20În doar câțiva ani,
filmele cu familia Degețel -
4:20 - 4:21au tot apărut peste tot,
-
4:21 - 4:23în variante în diverse limbi,
-
4:24 - 4:26cu desene animate care folosesc mâncare
-
4:26 - 4:28sau, sincer, orice fel de elemente
de animație -
4:28 - 4:31pe care le ai în preajma ta.
-
4:31 - 4:36Sunt milioane și milioane
de astfel de filmulețe -
4:36 - 4:40accesibile pe internet,
în tot felul de combinații ciudate. -
4:40 - 4:42Cu cât începi să petreci
mai mult timp cu ele, -
4:42 - 4:46cu atât ai senzația că te înnebunesc.
-
4:46 - 4:49Ăsta e momentul în care am început
să mă ocup de asta, -
4:49 - 4:53de acel sentiment bizar dat
de lipsa de înțelegere -
4:53 - 4:57a felului în care era conceput
acel ceva prezent mereu în jurul meu. -
4:57 - 5:00Căci e imposibil să știm
de unde vin aceste lucruri. -
5:00 - 5:01Cum ar fi, cine le face?
-
5:01 - 5:05Unele par a fi concepute de echipe
de animatori profesioniști. -
5:05 - 5:07Altele sunt asamblate întâmplător
de vreun program software, -
5:07 - 5:12Unele sunt chiar niște superbi animatori
pentru copii. -
5:12 - 5:13Unele vin din partea unor oameni
-
5:13 - 5:15care nu ar trebui lăsați
în preajma copiilor. -
5:16 - 5:19(Râsete)
-
5:19 - 5:23Repet, această imposibilitate de a ști
cine creează aceste lucruri - -
5:23 - 5:25o fi un program de calculator
-
5:25 - 5:27sau e o persoană? E un trol?
-
5:27 - 5:30Ce înseamnă să nu mai putem face diferența
-
5:30 - 5:32dintre aceste lucruri?
-
5:32 - 5:38Mai mult, nu vi se pare că această
nesiguranța vă este familiară? -
5:38 - 5:41În principal, oamenii
își asigură vizualizările — -
5:41 - 5:43reținem, vizualizările înseamnă bani —
-
5:43 - 5:47folosind în titlurile filmulețelor
termeni foarte populari. -
5:47 - 5:49Luăm, de pildă, „ouăle cu surprize”
-
5:49 - 5:51plus „Patrula Cățelușilor”, „Ouă de Paște”
-
5:51 - 5:52sau orice altceva,
-
5:52 - 5:55cuvinte din alte filmulețe populare,
aduse în titlu, -
5:55 - 5:58până obținem un soi de terci
lingvistic fără înțeles, -
5:58 - 6:01ce nu mai are niciun sens pentru oameni.
-
6:01 - 6:04Căci doar copiii mici se uită
la astfel de filmulețe -
6:04 - 6:06și ce naiba știu ei?
-
6:06 - 6:09Publicul tău țintă e programul software.
-
6:09 - 6:11Sunt algoritmii.
-
6:11 - 6:12Programul de soft folosit de YouTube
-
6:12 - 6:15pentru a alege ce filmulețe se aseamănă,
-
6:15 - 6:17pentru a le face populare,
pentru a le recomanda. -
6:17 - 6:21Așa ne alegem cu un amestec
total lipsit de sens -
6:21 - 6:24în titlu și în conținut.
-
6:24 - 6:26Dar, să nu uităm,
-
6:26 - 6:30încă există oameni în acest sistem
optimizat algoritmic, -
6:30 - 6:33care sunt forțați să răspundă
-
6:33 - 6:36la aceste combinații bizare de cuvinte,
-
6:36 - 6:41precum un artist de improvizație
reacționând în fața țipetelor simultane -
6:41 - 6:45ale milioane de copilași.
-
6:45 - 6:48Oameni adevărați sunt
captivi în aceste sisteme, -
6:48 - 6:52un alt aspect deosebit de straniu
al culturii dirijate prin algoritmi, -
6:52 - 6:53căci, deși suntem oameni,
-
6:53 - 6:55ajungem să ne purtăm precum mașini
-
6:55 - 6:57doar pentru a supraviețui.
-
6:57 - 6:59De cealaltă parte a ecranului,
-
6:59 - 7:02încă îi avem pe copilașii
care vizionează captivați, -
7:02 - 7:07total absorbiți
de aceste mecanisme ciudate. -
7:07 - 7:10Majoritatea sunt prea mici
să intre pe pagina web. -
7:10 - 7:13Doar lovesc ecranul cu mâinile lor mici.
-
7:13 - 7:14Și filmulețul repornește
-
7:14 - 7:18și o ia mereu de la început
ca într-o buclă temporală, -
7:18 - 7:20ore și ore, la nesfârșit.
-
7:20 - 7:23Și e atâta ciudățenie în sistem acum,
-
7:23 - 7:26încât reluările ne duc
în niște locuri bizare. -
7:26 - 7:28Astfel încât, cu doar câțiva pași,
-
7:28 - 7:31poți ajunge de la un filmuleț simpatic
cu un trenuleț care numără -
7:31 - 7:35la un Mickey Mouse care se masturbează.
-
7:35 - 7:37Da. Îmi pare rău pentru asta.
-
7:37 - 7:39Și asta se înrăutățește.
-
7:39 - 7:40Iată ce se întâmplă
-
7:40 - 7:43când toate aceste cuvinte cheie diferite,
-
7:43 - 7:45toată atenția,
-
7:45 - 7:48toată generarea disperată de conținut,
-
7:48 - 7:52ajung să fie puse împreună în același loc.
-
7:52 - 7:56Acolo unde aceste cuvinte cheie bizare
dau rod. -
7:56 - 7:59Combinând filmulețul cu familia Degețel
-
7:59 - 8:01cu ceva acțiune cu super eroi,
-
8:01 - 8:04și adăugând ceva chestii ciudate, ----------
triviale, -
8:04 - 8:08se ajunge într-o zonă cu adevărat
stranie. -
8:08 - 8:10Ceea ce îi deranjează pe părinți
-
8:10 - 8:14este un material cu conținut
violent sau sexual, nu-i așa? -
8:14 - 8:16Desene animate pentru copii,
cu violență, -
8:16 - 8:18sau cu omoruri,
-
8:18 - 8:21farse bizare care, literalmente,
îi sperie pe copii. -
8:21 - 8:25E vorba de programe ce folosesc
toate astea -
8:25 - 8:28pentru a le crea copiilor
cele mai urâte coșmaruri. -
8:28 - 8:31Și copiii mici sunt cu adevărat marcați.
-
8:31 - 8:33Părinții se plâng
că le sunt traumatizați copiii, -
8:34 - 8:35că le e frică de întuneric,
-
8:35 - 8:39că se tem de personajele favorite
din desenele animate. -
8:39 - 8:42Dacă ar fi să rețineți ceva de aici,
în cazul în care aveți copii mici, -
8:42 - 8:45faceți bine și țineți-i departe
de YouTube. -
8:45 - 8:50(Aplauze)
-
8:50 - 8:54Un alt lucru care mă îngrijorează,
referitor la această problemă, -
8:54 - 8:59este că nu sunt sigur că noi înțelegem
cum s-a ajuns în acest punct. -
8:59 - 9:02Am preluat toată această influență,
toate lucrurile astea, -
9:02 - 9:05și le-am combinat într-o manieră
pe care n-a dorit-o nimeni. -
9:05 - 9:08Totuși, acesta este felul
în care ne construim întreaga lume. -
9:08 - 9:10Luăm toate informațiile,
-
9:10 - 9:11multe dintre ele proaste,
-
9:11 - 9:14date istorice pline de prejudecăți
-
9:14 - 9:17și de cele mai rele impulsuri ale istoriei
-
9:17 - 9:19și concepem astfel seturi imense de date
-
9:19 - 9:21pe care le automatizăm.
-
9:21 - 9:24Și le concentrăm în rapoarte de credit,
-
9:24 - 9:26asigurări premium,
-
9:26 - 9:29sisteme de predicție în munca poliției,
-
9:29 - 9:30regulamente și directive.
-
9:30 - 9:33Așa ne concepem lumea de azi,
-
9:33 - 9:34din astfel de date.
-
9:34 - 9:36Și nu știu ce e mai rău:
-
9:36 - 9:39că am construit un sistem
care pare optimizat -
9:39 - 9:42pentru aspectele negative
ale comportamentului uman -
9:42 - 9:45sau faptul că pare că am comis-o
din greșeală, -
9:45 - 9:47fără a ne da seama că am făcut-o
-
9:47 - 9:50pentru că nu înțelegeam pe deplin
sistemul pe care îl cream, -
9:50 - 9:55pentru că nu înțelegeam pe deplin
cum să schimbăm ceva prin el. -
9:55 - 9:58Ar fi o serie de lucruri
care controlează totul -
9:58 - 9:59mai ales pe YouTube,
-
9:59 - 10:01iar primul ar fi publicitatea,
-
10:01 - 10:04adică monetizarea atenției,
-
10:04 - 10:07fără a ține cont de alte variabile reale,
-
10:07 - 10:11de oamenii care creează,
de fapt, acest conținut, -
10:11 - 10:15de centralizarea puterii
sau de separarea acestor lucruri. -
10:15 - 10:18Și, orice am crede
despre utilizarea publicității -
10:18 - 10:19ca fiind un fel de sprijin,
-
10:19 - 10:22imaginea unor adulți în scutece,
tăvălindu-se prin nisip, -
10:22 - 10:25sperând că un algoritm
pe care nu-l înțeleg pe deplin -
10:25 - 10:27îi va îmbogăți,
-
10:27 - 10:29sugerează că, probabil, nu pe așa ceva
-
10:29 - 10:31ar trebui să bazăm societatea și cultura,
-
10:31 - 10:33și că nu așa ar trebui s-o finanțăm.
-
10:34 - 10:37Cealaltă cauză majoră
a acestui proces e automatismul, -
10:37 - 10:39adică utilizarea acestei tehnologii
-
10:39 - 10:42de îndată ce apare, fără nicio omisiune,
-
10:42 - 10:43și, odată ce e lansată,
-
10:43 - 10:47ne aruncăm mâinile în aer zicând:
„Nu noi suntem de vină, ci tehnologia.” -
10:47 - 10:49Adică „Noi nu suntem implicați.”
-
10:49 - 10:51Asta nu e de ajuns,
-
10:51 - 10:53căci toate acestea nu sunt
doar guvernate de algoritmi, -
10:53 - 10:56ci și controlate de algoritmi.
-
10:56 - 10:59Când YouTube a început
să acorde atenție acestui aspect, -
10:59 - 11:01primul lucru pe care au zis că-l vor face
-
11:01 - 11:04a fost să aplice algoritmi
de învățare automată mai buni -
11:04 - 11:05ca să controleze conținutul.
-
11:05 - 11:09Ei bine, așa cum v-ar spune orice expert,
învățarea automată -
11:09 - 11:10este ceea ce generic numim
-
11:10 - 11:13program software
pe care nu-l înțelegem pe deplin. -
11:13 - 11:17Și cred că avem deja destule.
-
11:17 - 11:20N-ar trebui să lăsăm IA să decidă
-
11:20 - 11:21ce e potrivit și ce nu,
-
11:22 - 11:23pentru că știm ce se întâmplă.
-
11:23 - 11:25Va cenzura alte lucruri.
-
11:25 - 11:26Va cenzura conținut suspicios.
-
11:27 - 11:29Va cenzura discursuri publice bune.
-
11:29 - 11:31Ceea ce e permis în aceste discursuri
-
11:31 - 11:34n-ar trebui să fie decis
de sisteme arbitrare. -
11:34 - 11:37Face parte dintr-o discuție
pe care ar trebui să o avem cu toții. -
11:37 - 11:38Dar aș lăsa drept memento
-
11:38 - 11:41faptul că nici alternativa
nu este mai plăcută. -
11:41 - 11:42YouTube a mai anunțat recent
-
11:42 - 11:45că va lansa o versiune
a aplicației pentru copii -
11:45 - 11:48ce este moderată în întregime de oameni.
-
11:48 - 11:51Facebook - Zuckerberg a spus
cam același lucru la Congres, -
11:51 - 11:55întrebat insistent
cum își vor modera conținutul. -
11:55 - 11:56A zis că oamenii vor rezolva asta.
-
11:57 - 11:58Asta înseamnă, de fapt,
-
11:58 - 12:01nu copiii vor fi primii
care vor vedea materialele, -
12:01 - 12:04ci niște angajați prost plătiți,
cu un contract precar, -
12:04 - 12:06fără pregătire psihologică potrivită
-
12:06 - 12:07care vor avea și ei de suferit.
-
12:07 - 12:08(Râsete)
-
12:08 - 12:11Eu cred că putem mai mult.
-
12:11 - 12:14(Aplauze)
-
12:14 - 12:19Consider că ceea ce poate reuni
aceste două lucruri -
12:19 - 12:20este implicarea.
-
12:20 - 12:23Anume, cât de mult înțelegem
cu adevărat - prin implicare, mă refer -
12:23 - 12:28la cum știm ce să facem
pentru a acționa în interesul nostru. -
12:28 - 12:29Ceea ce e aproape imposibil de făcut
-
12:30 - 12:33în aceste sisteme
pe care nu le înțelegem pe deplin. -
12:33 - 12:36Disproporția de putere
întotdeauna generează violență. -
12:36 - 12:38Și în interiorul acestor sisteme,
-
12:38 - 12:40înțelegerea inegală duce la același lucru.
-
12:40 - 12:44Dacă e să putem face ceva
pentru a îmbunătăți aceste sisteme, -
12:44 - 12:47e să le facem mai accesibile
celor care le utilizează, -
12:47 - 12:49astfel încât noi toți să putem înțelege
-
12:49 - 12:52ce se întâmplă cu adevărat.
-
12:52 - 12:55Problema cu aceste sisteme nu e, de fapt,
-
12:55 - 12:59așa cum sper că am reușit să explic,
legată doar de YouTube. -
12:59 - 13:00E legată de totul din jur.
-
13:00 - 13:03Chestiunile legate de responsabilitate
și implicare, -
13:03 - 13:05de transparență și complexitate,
-
13:05 - 13:08de violență și exploatare,
ce rezultă, în mod inevitabil, -
13:08 - 13:11din comasarea puterii
în doar câteva mâini -- -
13:11 - 13:14sunt niște chestiuni mult,
mult mai ample. -
13:14 - 13:18Nu sunt chestiuni legate doar de YouTube
sau de tehnologie, în general, -
13:18 - 13:19și nici măcar nu sunt noi.
-
13:19 - 13:21Ne preocupă de mult timp.
-
13:21 - 13:25Doar că am construit acest sistem global,
care este internetul, -
13:25 - 13:28care acum ni le pune în fața ochilor
într-un mod extraordinar, -
13:28 - 13:30făcându-le parte din realitate.
-
13:30 - 13:33Tehnologia are
această capacitate fabuloasă -
13:33 - 13:37de a scoate la lumină și a exploata
-
13:37 - 13:41cele mai grozave, adesea ascunse,
dorințe și prejudecăți ale noastre -
13:41 - 13:43și de a le „exprima” în lume,
-
13:43 - 13:46dar și de a le scrie,
astfel încât să le vedem, -
13:46 - 13:50să nu mai putem pretinde
că ele nu mai există. -
13:50 - 13:54Trebuie să încetăm să mai credem
că soluția la probleme este tehnologia -
13:54 - 13:58și să o considerăm, mai degrabă, un ghid
pentru ceea ce reprezintă ele, -
13:58 - 14:00pentru a ne putea concentra asupra lor
-
14:00 - 14:02și pentru a începe să le rezolvăm.
-
14:02 - 14:03Vă mulțumesc foarte mult.
-
14:03 - 14:10(Aplauze)
-
14:10 - 14:11Mulțumesc.
-
14:11 - 14:17(Aplauze)
-
14:17 - 14:20Helen Walters: James, îți mulțumesc
că ai venit și ne-ai vorbit. -
14:20 - 14:21Așadar, e interesant:
-
14:21 - 14:25dacă ne gândim la filmele
în care roboții supremi preiau controlul, -
14:25 - 14:28pare mai fermecător decât ce ne descrii.
-
14:28 - 14:32Dar, mă întreb: în acele filme,
există o luptă pentru supremație. -
14:32 - 14:35Întâlnim așa ceva
și în cazul materialelor în discuție? -
14:35 - 14:40Vezi vreun semn pozitiv,
vreo tendință de rezistență? -
14:40 - 14:43James Bridle: Nu știu ce să zic
legat de rezistență, -
14:43 - 14:45consider că e o chestiune
pe termen foarte lung. -
14:45 - 14:48Cred că e foarte adânc imprimată
în cultură. -
14:48 - 14:50O prietenă, Eleanor Saitta, zice mereu
-
14:50 - 14:54că orice probleme tehnologice
cu destulă greutate și scop -
14:54 - 14:56sunt, înainte de toate, probleme politice.
-
14:56 - 14:59Așa că, toate aceste chestiuni
pe care vrem să le rezolvăm -
14:59 - 15:02nu se vor putea rezolva
doar concepând o tehnologie mai bună, -
15:02 - 15:05ci prin schimbarea societății
care o produce. -
15:05 - 15:08Deci nu, acum cred că încă mai avem
un drum al naibii de lung. -
15:09 - 15:11Dar, cred că dacă defalcăm problemele,
-
15:11 - 15:13dacă vorbim despre ele
cu toată sinceritatea, -
15:13 - 15:16putem măcar să începem
procesul de schimbare. -
15:16 - 15:19HW: Când vorbești
despre accesibilitate și cultură digitală, -
15:19 - 15:21mi-e greu să-mi imaginez
-
15:21 - 15:25că trebuie să punem povara culturalizării
digitale în sarcina utilizatorului. -
15:25 - 15:29Dar a cui este responsabilitatea
educației în această lume nouă? -
15:29 - 15:33JB: O spun din nou, responsabilitatea
ne cam aparține nouă, tuturor, -
15:33 - 15:36căci tot ceea ce facem, tot ce construim,
tot ceea ce creăm, -
15:36 - 15:40trebuie să fie făcut
într-o discuție consensuală -
15:40 - 15:42cu toți cei care o evită;
-
15:42 - 15:46că nu construim sisteme ce urmăresc
să înșele, să păcălească oamenii -
15:46 - 15:48să facă ce e bine.
-
15:48 - 15:51ci să se implice în fiecare pas
al educației lor, -
15:52 - 15:54căci fiecare dintre aceste sisteme
e educativ. -
15:54 - 15:57Asta e ceea ce sper,
sper că și aceste aspecte sinistre, -
15:57 - 15:59dacă sunt privite corespunzător,
-
15:59 - 16:01pot constitui forme de educație
-
16:01 - 16:05care să ne permită să vedem
cât de complexe sunt sistemele în lucru -
16:05 - 16:09și să utilizăm cunoștințele dobândite
oriunde altundeva în lume. -
16:09 - 16:11HW: James, e o discuție foarte importantă
-
16:11 - 16:14și știu că mulți din cei prezenți
sunt deschiși și pregătiți, -
16:14 - 16:16îți mulțumim pentru că ai „deschis” ziua.
-
16:16 - 16:17JB: Mulțumesc mult. Noroc.
-
16:17 - 16:19(Aplauze)
- Title:
- Coșmarul canalului YouTube pentru copii - și ce nu e în regulă cu internetul zilelor noastre
- Speaker:
- James Bridle
- Description:
-
Scriitorul și artistul James Bridle dezvăluie o parte întunecată și stranie a internetului, unde oameni sau grupuri de oameni necunoscuți se joacă cu mintea copiilor, în schimbul spațiului de publicitate. Pornind de la cadoul din „ouăle cu surprize” și „Cântecul Familiei Degețel” și până la calupuri create algoritmic, care prezintă personaje de desene animate în situații violente, aceste filmulețe exploatează și îngrozesc mințile tinere - și ne spun câte ceva despre direcția în care o ia lumea noastră tot mai condusă de informații. „Trebuie să încetăm să mai credem că soluția la probleme este tehnologia și să o considerăm, mai degrabă, un ghid pentru ceea ce reprezintă ele, pentru a ne putea concentra asupra lor și pentru a începe să le rezolvăm,” este de părere Bridle.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 16:32