Prejudecata morală din spatele rezultatelor unei căutări
-
0:01 - 0:04Când vizitez o şcoală
şi le vorbesc elevilor, -
0:04 - 0:06le pun această întrebare:
-
0:07 - 0:08De ce daţi căutare pe Google?
-
0:09 - 0:12De ce preferaţi Google?
-
0:13 - 0:15Surprinzător, mereu primesc
aceleaşi trei răspunsuri: -
0:15 - 0:17Primul: „Pentru că funcţionează.”
-
0:17 - 0:20E un răspuns excelent;
de-asta folosesc și eu Google. -
0:20 - 0:22Al doilea, cineva va zice:
-
0:22 - 0:25„Nu știu alternative.”
-
0:26 - 0:29Nu e o variantă la fel de bună,
iar răspunsul meu e de obicei: -
0:29 - 0:31„Încearcă ‘motor de căutare’ pe Google,
-
0:31 - 0:33poate găseşti
câteva alternative interesante.” -
0:33 - 0:35Iar a treia variantă de răspuns -
-
0:35 - 0:39inevitabil, un elev va ridica mâna
şi va zice: -
0:39 - 0:44„Cu Google, sunt sigur că voi obţine
cel mai bun rezultat imparţial.” -
0:45 - 0:52Sigur că se obţine
cel mai bun rezultat imparţial. -
0:53 - 0:55Ca om al ştiinţelor umane,
-
0:56 - 0:58deși unul al științelor umane digitale,
-
0:58 - 0:59mă cutremur când aud asta,
-
0:59 - 1:04chiar dacă şi eu realizez că încrederea
în ideea unei căutări imparţiale -
1:04 - 1:08stă la baza admiraţiei şi iubirii noastre
colective pentru Google. -
1:09 - 1:13Am să vă demonstrez de ce asta este
aproape o imposibilitate filosofică. -
1:13 - 1:16Mai întâi, permiteți-mi să vorbesc
despre un principiu fundamental -
1:16 - 1:19ce stă la baza fiecărei căutări,
dar de care uităm adesea. -
1:20 - 1:22Atunci când daţi o căutare pe Google,
-
1:22 - 1:26începeţi prin a vă întreba:
„Caut un fapt izolat?" -
1:26 - 1:29Care este capitala Franţei?
-
1:30 - 1:32Din ce e alcătuită o moleculă de apă?
-
1:32 - 1:34Super - căutaţi în voie.
-
1:34 - 1:37Nu există niciun grup de specialişti
aproape de a demostra -
1:37 - 1:39că e vorba, de fapt, depre Londra şi H3O.
-
1:39 - 1:42Nu vedem nicio conspiraţie
în aceste lucruri. -
1:42 - 1:43Suntem de acord global
-
1:43 - 1:46cu răspunsurile
la aceste fapte izolate. -
1:46 - 1:52Dar dacă aveţi o întrebare
puţin mai complicată precum: -
1:52 - 1:54„De ce există
un conflict palestino-israelian?”, -
1:55 - 1:58nu mai sunteţi în căutarea
unui fapt singular, -
1:58 - 1:59sunteţi în căutare de cunoştinţe,
-
1:59 - 2:02ceva mult mai complicat şi mai delicat.
-
2:03 - 2:04Pentru a ajunge la cunoştinţe,
-
2:04 - 2:07trebuie să incluzi 10, 20
sau 100 de fapte în ecuaţie, -
2:07 - 2:10să le confirmi şi să spui:
„Da, toate astea sunt adevăruri.” -
2:10 - 2:12Însă datorită identităţii mele,
-
2:12 - 2:14tânăr sau bătrân, negru sau alb,
gay sau hetero, -
2:14 - 2:16le voi evalua diferit.
-
2:16 - 2:18Și voi spune:
„Da, asta e adevărat, -
2:18 - 2:20dar acest lucru e mai important
decât acela." -
2:20 - 2:22În acea clipă
lucrurile devin interesante, -
2:22 - 2:24fiindcă atunci devenim umani.
-
2:24 - 2:27Atunci începem să dezbatem,
să formăm societatea. -
2:27 - 2:30Iar pentru a putea ajunge undeva,
trebuie să filtrăm totul aici, -
2:30 - 2:33prin prieteni şi vecini, părinţi şi copii,
-
2:33 - 2:35colegi de muncă, ziare şi reviste,
-
2:35 - 2:38ca să avem la final
o bază reală de cunoaştere, -
2:38 - 2:42un lucru la care motoarele de căutare
nu prea ne ajută. -
2:43 - 2:50Deci v-am promis un exemplu
pentru a demonstra dificultatea -
2:50 - 2:53de a ajunge la o cunoştere adevărată,
curată şi obiectivă - -
2:53 - 2:55luaţi-o ca şi temă de gândire.
-
2:55 - 2:58O să efectuez două căutări simple.
-
2:58 - 3:03Începem cu „Michelle Obama”,
-
3:03 - 3:04Prima Doamnă a Statelor Unite.
-
3:04 - 3:06Şi o să căutăm imagini.
-
3:07 - 3:09După cum vedeţi, funcţionează foarte bine.
-
3:09 - 3:12E mai mult sau mai puţin
un rezultat perfect al căutării. -
3:12 - 3:15Nici măcar preşedintele
nu apare în imagini, doar ea. -
3:16 - 3:17Cum funcţionează asta?
-
3:18 - 3:19Destul de simplu.
-
3:19 - 3:20Google foloseşte multă inteligenţă
-
3:20 - 3:22pentru a obține asta,
dar, în principal, -
3:22 - 3:25e atent la două lucruri:
-
3:25 - 3:30Mai întâi, ce titlu au imaginile
de pe fiecare site? -
3:30 - 3:32Scrie „Michelle Obama” sub imagine?
-
3:32 - 3:34Acesta ar fi un indiciu bun
că e ea în imagine. -
3:34 - 3:37Apoi, Google se uită la fişierul imagine,
-
3:37 - 3:40numele fişierului
aşa cum a fost el încărcat pe Internet. -
3:40 - 3:42Din nou, se numeşte
imaginea „MichelleObama.jpeg”? -
3:43 - 3:46Dacă da, cel mai probabil
nu e Clint Eastwood în ea. -
3:46 - 3:50Deci avem aceste două criterii
şi obţinem acest rezultat - aproape. -
3:50 - 3:57În 2009, Michelle Obama
a fost victima unei campanii rasiste. -
3:57 - 4:01Oamenii doreau să o insulte prin
rezultatele la căutările numelui ei. -
4:01 - 4:04O anumită imagine s-a răspândit
larg pe Internet, -
4:04 - 4:07una în care faţa ei e făcută
să semene cu o maimuţă. -
4:07 - 4:10Imaginea a fost publicată peste tot.
-
4:10 - 4:14Oamenii o publicau
cu intenţia clară de a fi prima -
4:14 - 4:15la rezultatele de căutare.
-
4:15 - 4:18S-au asigurat să pună titlul
“Michelle Obama” -
4:18 - 4:19şi să încarce imaginea
-
4:19 - 4:23ca “MichelleObama.jpeg” sau ceva similar.
-
4:23 - 4:24Aţi înţeles de ce:
-
4:24 - 4:25să manipuleze rezultatele.
-
4:25 - 4:26Şi a mers.
-
4:26 - 4:29Astfel, dacă în 2009 căutaţi
“Michelle Obama” pe Google imagini -
4:29 - 4:33acea imagine distorsionată
apărea printre primele rezultate. -
4:33 - 4:36Dar, rezultatele căutărilor
se auto-corectează, -
4:36 - 4:38în aceasta constă de fapt frumuseţea lor,
-
4:38 - 4:42pentru că Google le măsoară relevanţă
în fiecare oră, fiecare zi. -
4:42 - 4:44În acest caz însă,
Google nu s-a mulţumit doar cu atât. -
4:44 - 4:47A zis: “Asta e rasism
şi un rezultat de căutare prost. -
4:48 - 4:51O să curăţăm rezultatele manual.
-
4:51 - 4:54O să codăm ceva
şi o să rezolvăm problema. -
4:54 - 4:55Şi au reuşit.
-
4:55 - 4:59Nu cred că se afla cineva aici
care să creadă că a fost o idee rea. -
5:00 - 5:01Nici eu nu cred.
-
5:03 - 5:06Însă după doi ani,
-
5:06 - 5:09cel mai căutat Anders de pe Google,
-
5:09 - 5:11anume Anders Behring Breivik,
-
5:11 - 5:13a făcut ce a făcut.
-
5:13 - 5:15E 22 iulie 2011,
-
5:15 - 5:18o zi înfiorătoare în istoria Norvegiei.
-
5:18 - 5:21Acest individ, un terorist,
a atacat două clădiri guvernamentale -
5:21 - 5:24aproape de locul unde ne aflăm
acum în Oslo, Norvegia -
5:24 - 5:26Apoi a călătorit în insula Utøya
-
5:26 - 5:29unde a împuşcat mortal un grup de copii.
-
5:29 - 5:31Aproape 80 de persoane
au murit atunci. -
5:32 - 5:37Mulţi ar zice ca actul terorist
a avut două etape, -
5:37 - 5:40că teroristul a comis două fapte:
a detonat clădirile şi a ucis copiii. -
5:40 - 5:42Nu este adevărat.
-
5:42 - 5:44Au fost trei etape.
-
5:44 - 5:47A detonat clădirile,
a împușcat acei copii -
5:47 - 5:50apoi a stat şi a aşteptat
ca lumea să îl caute pe Google. -
5:51 - 5:54A pregătit toţi cei trei paşi
la fel de atent. -
5:55 - 5:56Cineva a înţeles imediat acest lucru,
-
5:57 - 5:58un dezvoltator web
suedez, un expert -
5:58 - 6:00în optimizarea motoarelor
de căutare -
6:00 - 6:03din Stockholm, pe nume Nikke Lindqvist.
-
6:03 - 6:04El este şi activ politic,
-
6:04 - 6:07prezent pe reţele de socializare,
pe blogul lui şi pe Facebook. -
6:07 - 6:09A spus tuturor:
-
6:09 - 6:11“Ceea ce îşi doreşte acest om
cel mai mult acum -
6:11 - 6:14este să îşi controleze imaginea publică.
-
6:15 - 6:17Să vedem dacă reuşim să încurcăm asta,
-
6:17 - 6:21dacă noi, lumea civilizată, reuşim
să protestăm împotriva a ceea ce a făcut -
6:21 - 6:25prin a-l insulta
în rezultatele lui de căutare. -
6:25 - 6:26Dar cum?
-
6:27 - 6:29Le-a spus cititorilor lui următoarele:
-
6:29 - 6:31Intraţi pe internet,
-
6:31 - 6:34şi găsiţi imagini cu
excremente de câine pe trotuar, -
6:37 - 6:40publicaţi-le în postările, blogurile
şi site-urile voastre. -
6:40 - 6:43Asiguraţi-vă să scrieţi
numele teroristului în titlu, -
6:43 - 6:48asiguraţi-vă să denumiţi
fişierul “Breivik.jpeg.” -
6:48 - 6:52Haideţi să-l învăţăm pe Google
că aceasta e faţa unui terorist. -
6:54 - 6:55Şi a funcţionat.
-
6:56 - 6:59La doi ani după campania
împotriva lui Michelle Obama, -
6:59 - 7:02campania de manipulare împotriva
lui Anders Breivik a funcţionat. -
7:02 - 7:07Câteva săptămâni după incidentul
din 22 iulie, căutarea imaginii lui -
7:07 - 7:11dădea în fruntea rezultatelor
imagini cu excremente de câine, -
7:11 - 7:12în semn de protest.
-
7:13 - 7:18Straniu, de această dată
Google nu a intervenit. -
7:18 - 7:23Nu au acţionat să cureţe manual
acele rezultate de căutare. -
7:24 - 7:26Deci întrebarea fundamentală:
-
7:26 - 7:29Există vreo diferenţă
între cele două campanii prezentate? -
7:29 - 7:33Există vreo diferenţă între ce a păţit
Michelle Obama şi Anders Breivik? -
7:35 - 7:36Desigur că nu.
-
7:37 - 7:38Este exact aceeaşi situaţie
-
7:38 - 7:40Dar Google a intervenit
-
7:40 - 7:41într-un caz, nu şi în celălalt.
-
7:41 - 7:42De ce?
-
7:43 - 7:47Pentru că Michelle Obama
este o persoană onorabilă, -
7:47 - 7:50iar Anders Behring Breivik
este demn de dispreţ. -
7:50 - 7:52Înţelegeţi ce se întâmplă?
-
7:52 - 7:55Are loc o evaluare a persoanei,
-
7:55 - 7:59şi există un singur actor de putere
în lume autorizat să facă asta, -
7:59 - 8:01să decidă:
-
8:01 - 8:03“Ne place de tine, nu ne place de tine.
-
8:03 - 8:05Credem în tine, dar nu în tine.
-
8:05 - 8:06Tu ai dreptate, tu nu.
-
8:06 - 8:08Tu ești adevat, tu fals.
-
8:08 - 8:10Tu eşti Obama, tu eşti Breivik.
-
8:11 - 8:13Asta da putere.
-
8:15 - 8:19Așadar vă îndemn să ţineti cont
că în spatele fiecărui algoritm -
8:19 - 8:21se află o persoană,
-
8:21 - 8:23cineva cu un set de valori personale
-
8:23 - 8:26pe care nici un cod
nu îl poate elimina complet. -
8:26 - 8:28Mesajul meu nu este îndreptat
nu doar către Google, -
8:28 - 8:31ci către toţi cei cred
în soarta codurilor. -
8:31 - 8:34Trebuie să vă identificaţii
propriile voastre prejudecăţi -
8:34 - 8:36trebuie să înţelegeţi că sunteţi oameni
-
8:36 - 8:39şi să vă asumaţi responsabilitatea
corespunzător. -
8:40 - 8:43Şi spun asta fiindcă cred
că am ajuns într-o etapă în care -
8:43 - 8:44este absolut imperativ
-
8:44 - 8:48să înnodăm din nou mai strâns
acea legătură -
8:48 - 8:50dintre ştiinţele umane şi tehnologie,
-
8:50 - 8:52mai strâns ca niciodată.
-
8:52 - 8:56Măcar ca să ne amintească
că acea idee atât de atrăgătoare -
8:56 - 8:58a unui rezultat de căutare
imparţial, curat -
8:58 - 9:01este, şi probabil va rămâne, un mit.
-
9:02 - 9:04Vă mulţumesc pentru timpul acordat.
-
9:04 - 9:06(Aplauze)
- Title:
- Prejudecata morală din spatele rezultatelor unei căutări
- Speaker:
- Andreas Ekström
- Description:
-
Motoarele de căutare au devenit sursele noastre de informaţii cele mai credibile şi imparţiale în transmiterea adevărului. Este însă posibil să obţinem un rezultat al unei căutări lipsit de prejudecăţi? Autorul şi jurnalistul suedez Andreas Ekström afirmă ca acest lucru reprezintă o imposibilitate filosofică. În această prelegere profundă, ne îndeamnă să consolidăm legăturile existente între tehnologie şi ştiinţele umane şi ne reaminteşte că în spatele fiecărui algoritm se află un set de valori personale pe care nici un cod nu îl poate eradica în totalitate.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 09:18
Dimitra Papageorgiou approved Romanian subtitles for The moral bias behind your search results | ||
Lorena Ciutacu accepted Romanian subtitles for The moral bias behind your search results | ||
Lorena Ciutacu edited Romanian subtitles for The moral bias behind your search results | ||
Lorena Ciutacu edited Romanian subtitles for The moral bias behind your search results | ||
Lorena Ciutacu edited Romanian subtitles for The moral bias behind your search results | ||
Cristina Nicolae edited Romanian subtitles for The moral bias behind your search results | ||
Cristina Nicolae edited Romanian subtitles for The moral bias behind your search results | ||
maria dobos edited Romanian subtitles for The moral bias behind your search results |