Return to Video

Prejudecata morală din spatele rezultatelor unei căutări

  • 0:01 - 0:04
    Când vizitez o şcoală
    şi le vorbesc elevilor,
  • 0:04 - 0:06
    le pun această întrebare:
  • 0:07 - 0:08
    De ce daţi căutare pe Google?
  • 0:09 - 0:12
    De ce preferaţi Google?
  • 0:13 - 0:15
    Surprinzător, mereu primesc
    aceleaşi trei răspunsuri:
  • 0:15 - 0:17
    Primul: „Pentru că funcţionează.”
  • 0:17 - 0:20
    E un răspuns excelent;
    de-asta folosesc și eu Google.
  • 0:20 - 0:22
    Al doilea, cineva va zice:
  • 0:22 - 0:25
    „Nu știu alternative.”
  • 0:26 - 0:29
    Nu e o variantă la fel de bună,
    iar răspunsul meu e de obicei:
  • 0:29 - 0:31
    „Încearcă ‘motor de căutare’ pe Google,
  • 0:31 - 0:33
    poate găseşti
    câteva alternative interesante.”
  • 0:33 - 0:35
    Iar a treia variantă de răspuns -
  • 0:35 - 0:39
    inevitabil, un elev va ridica mâna
    şi va zice:
  • 0:39 - 0:44
    „Cu Google, sunt sigur că voi obţine
    cel mai bun rezultat imparţial.”
  • 0:45 - 0:52
    Sigur că se obţine
    cel mai bun rezultat imparţial.
  • 0:53 - 0:55
    Ca om al ştiinţelor umane,
  • 0:56 - 0:58
    deși unul al științelor umane digitale,
  • 0:58 - 0:59
    mă cutremur când aud asta,
  • 0:59 - 1:04
    chiar dacă şi eu realizez că încrederea
    în ideea unei căutări imparţiale
  • 1:04 - 1:08
    stă la baza admiraţiei şi iubirii noastre
    colective pentru Google.
  • 1:09 - 1:13
    Am să vă demonstrez de ce asta este
    aproape o imposibilitate filosofică.
  • 1:13 - 1:16
    Mai întâi, permiteți-mi să vorbesc
    despre un principiu fundamental
  • 1:16 - 1:19
    ce stă la baza fiecărei căutări,
    dar de care uităm adesea.
  • 1:20 - 1:22
    Atunci când daţi o căutare pe Google,
  • 1:22 - 1:26
    începeţi prin a vă întreba:
    „Caut un fapt izolat?"
  • 1:26 - 1:29
    Care este capitala Franţei?
  • 1:30 - 1:32
    Din ce e alcătuită o moleculă de apă?
  • 1:32 - 1:34
    Super - căutaţi în voie.
  • 1:34 - 1:37
    Nu există niciun grup de specialişti
    aproape de a demostra
  • 1:37 - 1:39
    că e vorba, de fapt, depre Londra şi H3O.
  • 1:39 - 1:42
    Nu vedem nicio conspiraţie
    în aceste lucruri.
  • 1:42 - 1:43
    Suntem de acord global
  • 1:43 - 1:46
    cu răspunsurile
    la aceste fapte izolate.
  • 1:46 - 1:52
    Dar dacă aveţi o întrebare
    puţin mai complicată precum:
  • 1:52 - 1:54
    „De ce există
    un conflict palestino-israelian?”,
  • 1:55 - 1:58
    nu mai sunteţi în căutarea
    unui fapt singular,
  • 1:58 - 1:59
    sunteţi în căutare de cunoştinţe,
  • 1:59 - 2:02
    ceva mult mai complicat şi mai delicat.
  • 2:03 - 2:04
    Pentru a ajunge la cunoştinţe,
  • 2:04 - 2:07
    trebuie să incluzi 10, 20
    sau 100 de fapte în ecuaţie,
  • 2:07 - 2:10
    să le confirmi şi să spui:
    „Da, toate astea sunt adevăruri.”
  • 2:10 - 2:12
    Însă datorită identităţii mele,
  • 2:12 - 2:14
    tânăr sau bătrân, negru sau alb,
    gay sau hetero,
  • 2:14 - 2:16
    le voi evalua diferit.
  • 2:16 - 2:18
    Și voi spune:
    „Da, asta e adevărat,
  • 2:18 - 2:20
    dar acest lucru e mai important
    decât acela."
  • 2:20 - 2:22
    În acea clipă
    lucrurile devin interesante,
  • 2:22 - 2:24
    fiindcă atunci devenim umani.
  • 2:24 - 2:27
    Atunci începem să dezbatem,
    să formăm societatea.
  • 2:27 - 2:30
    Iar pentru a putea ajunge undeva,
    trebuie să filtrăm totul aici,
  • 2:30 - 2:33
    prin prieteni şi vecini, părinţi şi copii,
  • 2:33 - 2:35
    colegi de muncă, ziare şi reviste,
  • 2:35 - 2:38
    ca să avem la final
    o bază reală de cunoaştere,
  • 2:38 - 2:42
    un lucru la care motoarele de căutare
    nu prea ne ajută.
  • 2:43 - 2:50
    Deci v-am promis un exemplu
    pentru a demonstra dificultatea
  • 2:50 - 2:53
    de a ajunge la o cunoştere adevărată,
    curată şi obiectivă -
  • 2:53 - 2:55
    luaţi-o ca şi temă de gândire.
  • 2:55 - 2:58
    O să efectuez două căutări simple.
  • 2:58 - 3:03
    Începem cu „Michelle Obama”,
  • 3:03 - 3:04
    Prima Doamnă a Statelor Unite.
  • 3:04 - 3:06
    Şi o să căutăm imagini.
  • 3:07 - 3:09
    După cum vedeţi, funcţionează foarte bine.
  • 3:09 - 3:12
    E mai mult sau mai puţin
    un rezultat perfect al căutării.
  • 3:12 - 3:15
    Nici măcar preşedintele
    nu apare în imagini, doar ea.
  • 3:16 - 3:17
    Cum funcţionează asta?
  • 3:18 - 3:19
    Destul de simplu.
  • 3:19 - 3:20
    Google foloseşte multă inteligenţă
  • 3:20 - 3:22
    pentru a obține asta,
    dar, în principal,
  • 3:22 - 3:25
    e atent la două lucruri:
  • 3:25 - 3:30
    Mai întâi, ce titlu au imaginile
    de pe fiecare site?
  • 3:30 - 3:32
    Scrie „Michelle Obama” sub imagine?
  • 3:32 - 3:34
    Acesta ar fi un indiciu bun
    că e ea în imagine.
  • 3:34 - 3:37
    Apoi, Google se uită la fişierul imagine,
  • 3:37 - 3:40
    numele fişierului
    aşa cum a fost el încărcat pe Internet.
  • 3:40 - 3:42
    Din nou, se numeşte
    imaginea „MichelleObama.jpeg”?
  • 3:43 - 3:46
    Dacă da, cel mai probabil
    nu e Clint Eastwood în ea.
  • 3:46 - 3:50
    Deci avem aceste două criterii
    şi obţinem acest rezultat - aproape.
  • 3:50 - 3:57
    În 2009, Michelle Obama
    a fost victima unei campanii rasiste.
  • 3:57 - 4:01
    Oamenii doreau să o insulte prin
    rezultatele la căutările numelui ei.
  • 4:01 - 4:04
    O anumită imagine s-a răspândit
    larg pe Internet,
  • 4:04 - 4:07
    una în care faţa ei e făcută
    să semene cu o maimuţă.
  • 4:07 - 4:10
    Imaginea a fost publicată peste tot.
  • 4:10 - 4:14
    Oamenii o publicau
    cu intenţia clară de a fi prima
  • 4:14 - 4:15
    la rezultatele de căutare.
  • 4:15 - 4:18
    S-au asigurat să pună titlul
    “Michelle Obama”
  • 4:18 - 4:19
    şi să încarce imaginea
  • 4:19 - 4:23
    ca “MichelleObama.jpeg” sau ceva similar.
  • 4:23 - 4:24
    Aţi înţeles de ce:
  • 4:24 - 4:25
    să manipuleze rezultatele.
  • 4:25 - 4:26
    Şi a mers.
  • 4:26 - 4:29
    Astfel, dacă în 2009 căutaţi
    “Michelle Obama” pe Google imagini
  • 4:29 - 4:33
    acea imagine distorsionată
    apărea printre primele rezultate.
  • 4:33 - 4:36
    Dar, rezultatele căutărilor
    se auto-corectează,
  • 4:36 - 4:38
    în aceasta constă de fapt frumuseţea lor,
  • 4:38 - 4:42
    pentru că Google le măsoară relevanţă
    în fiecare oră, fiecare zi.
  • 4:42 - 4:44
    În acest caz însă,
    Google nu s-a mulţumit doar cu atât.
  • 4:44 - 4:47
    A zis: “Asta e rasism
    şi un rezultat de căutare prost.
  • 4:48 - 4:51
    O să curăţăm rezultatele manual.
  • 4:51 - 4:54
    O să codăm ceva
    şi o să rezolvăm problema.
  • 4:54 - 4:55
    Şi au reuşit.
  • 4:55 - 4:59
    Nu cred că se afla cineva aici
    care să creadă că a fost o idee rea.
  • 5:00 - 5:01
    Nici eu nu cred.
  • 5:03 - 5:06
    Însă după doi ani,
  • 5:06 - 5:09
    cel mai căutat Anders de pe Google,
  • 5:09 - 5:11
    anume Anders Behring Breivik,
  • 5:11 - 5:13
    a făcut ce a făcut.
  • 5:13 - 5:15
    E 22 iulie 2011,
  • 5:15 - 5:18
    o zi înfiorătoare în istoria Norvegiei.
  • 5:18 - 5:21
    Acest individ, un terorist,
    a atacat două clădiri guvernamentale
  • 5:21 - 5:24
    aproape de locul unde ne aflăm
    acum în Oslo, Norvegia
  • 5:24 - 5:26
    Apoi a călătorit în insula Utøya
  • 5:26 - 5:29
    unde a împuşcat mortal un grup de copii.
  • 5:29 - 5:31
    Aproape 80 de persoane
    au murit atunci.
  • 5:32 - 5:37
    Mulţi ar zice ca actul terorist
    a avut două etape,
  • 5:37 - 5:40
    că teroristul a comis două fapte:
    a detonat clădirile şi a ucis copiii.
  • 5:40 - 5:42
    Nu este adevărat.
  • 5:42 - 5:44
    Au fost trei etape.
  • 5:44 - 5:47
    A detonat clădirile,
    a împușcat acei copii
  • 5:47 - 5:50
    apoi a stat şi a aşteptat
    ca lumea să îl caute pe Google.
  • 5:51 - 5:54
    A pregătit toţi cei trei paşi
    la fel de atent.
  • 5:55 - 5:56
    Cineva a înţeles imediat acest lucru,
  • 5:57 - 5:58
    un dezvoltator web
    suedez, un expert
  • 5:58 - 6:00
    în optimizarea motoarelor
    de căutare
  • 6:00 - 6:03
    din Stockholm, pe nume Nikke Lindqvist.
  • 6:03 - 6:04
    El este şi activ politic,
  • 6:04 - 6:07
    prezent pe reţele de socializare,
    pe blogul lui şi pe Facebook.
  • 6:07 - 6:09
    A spus tuturor:
  • 6:09 - 6:11
    “Ceea ce îşi doreşte acest om
    cel mai mult acum
  • 6:11 - 6:14
    este să îşi controleze imaginea publică.
  • 6:15 - 6:17
    Să vedem dacă reuşim să încurcăm asta,
  • 6:17 - 6:21
    dacă noi, lumea civilizată, reuşim
    să protestăm împotriva a ceea ce a făcut
  • 6:21 - 6:25
    prin a-l insulta
    în rezultatele lui de căutare.
  • 6:25 - 6:26
    Dar cum?
  • 6:27 - 6:29
    Le-a spus cititorilor lui următoarele:
  • 6:29 - 6:31
    Intraţi pe internet,
  • 6:31 - 6:34
    şi găsiţi imagini cu
    excremente de câine pe trotuar,
  • 6:37 - 6:40
    publicaţi-le în postările, blogurile
    şi site-urile voastre.
  • 6:40 - 6:43
    Asiguraţi-vă să scrieţi
    numele teroristului în titlu,
  • 6:43 - 6:48
    asiguraţi-vă să denumiţi
    fişierul “Breivik.jpeg.”
  • 6:48 - 6:52
    Haideţi să-l învăţăm pe Google
    că aceasta e faţa unui terorist.
  • 6:54 - 6:55
    Şi a funcţionat.
  • 6:56 - 6:59
    La doi ani după campania
    împotriva lui Michelle Obama,
  • 6:59 - 7:02
    campania de manipulare împotriva
    lui Anders Breivik a funcţionat.
  • 7:02 - 7:07
    Câteva săptămâni după incidentul
    din 22 iulie, căutarea imaginii lui
  • 7:07 - 7:11
    dădea în fruntea rezultatelor
    imagini cu excremente de câine,
  • 7:11 - 7:12
    în semn de protest.
  • 7:13 - 7:18
    Straniu, de această dată
    Google nu a intervenit.
  • 7:18 - 7:23
    Nu au acţionat să cureţe manual
    acele rezultate de căutare.
  • 7:24 - 7:26
    Deci întrebarea fundamentală:
  • 7:26 - 7:29
    Există vreo diferenţă
    între cele două campanii prezentate?
  • 7:29 - 7:33
    Există vreo diferenţă între ce a păţit
    Michelle Obama şi Anders Breivik?
  • 7:35 - 7:36
    Desigur că nu.
  • 7:37 - 7:38
    Este exact aceeaşi situaţie
  • 7:38 - 7:40
    Dar Google a intervenit
  • 7:40 - 7:41
    într-un caz, nu şi în celălalt.
  • 7:41 - 7:42
    De ce?
  • 7:43 - 7:47
    Pentru că Michelle Obama
    este o persoană onorabilă,
  • 7:47 - 7:50
    iar Anders Behring Breivik
    este demn de dispreţ.
  • 7:50 - 7:52
    Înţelegeţi ce se întâmplă?
  • 7:52 - 7:55
    Are loc o evaluare a persoanei,
  • 7:55 - 7:59
    şi există un singur actor de putere
    în lume autorizat să facă asta,
  • 7:59 - 8:01
    să decidă:
  • 8:01 - 8:03
    “Ne place de tine, nu ne place de tine.
  • 8:03 - 8:05
    Credem în tine, dar nu în tine.
  • 8:05 - 8:06
    Tu ai dreptate, tu nu.
  • 8:06 - 8:08
    Tu ești adevat, tu fals.
  • 8:08 - 8:10
    Tu eşti Obama, tu eşti Breivik.
  • 8:11 - 8:13
    Asta da putere.
  • 8:15 - 8:19
    Așadar vă îndemn să ţineti cont
    că în spatele fiecărui algoritm
  • 8:19 - 8:21
    se află o persoană,
  • 8:21 - 8:23
    cineva cu un set de valori personale
  • 8:23 - 8:26
    pe care nici un cod
    nu îl poate elimina complet.
  • 8:26 - 8:28
    Mesajul meu nu este îndreptat
    nu doar către Google,
  • 8:28 - 8:31
    ci către toţi cei cred
    în soarta codurilor.
  • 8:31 - 8:34
    Trebuie să vă identificaţii
    propriile voastre prejudecăţi
  • 8:34 - 8:36
    trebuie să înţelegeţi că sunteţi oameni
  • 8:36 - 8:39
    şi să vă asumaţi responsabilitatea
    corespunzător.
  • 8:40 - 8:43
    Şi spun asta fiindcă cred
    că am ajuns într-o etapă în care
  • 8:43 - 8:44
    este absolut imperativ
  • 8:44 - 8:48
    să înnodăm din nou mai strâns
    acea legătură
  • 8:48 - 8:50
    dintre ştiinţele umane şi tehnologie,
  • 8:50 - 8:52
    mai strâns ca niciodată.
  • 8:52 - 8:56
    Măcar ca să ne amintească
    că acea idee atât de atrăgătoare
  • 8:56 - 8:58
    a unui rezultat de căutare
    imparţial, curat
  • 8:58 - 9:01
    este, şi probabil va rămâne, un mit.
  • 9:02 - 9:04
    Vă mulţumesc pentru timpul acordat.
  • 9:04 - 9:06
    (Aplauze)
Title:
Prejudecata morală din spatele rezultatelor unei căutări
Speaker:
Andreas Ekström
Description:

Motoarele de căutare au devenit sursele noastre de informaţii cele mai credibile şi imparţiale în transmiterea adevărului. Este însă posibil să obţinem un rezultat al unei căutări lipsit de prejudecăţi? Autorul şi jurnalistul suedez Andreas Ekström afirmă ca acest lucru reprezintă o imposibilitate filosofică. În această prelegere profundă, ne îndeamnă să consolidăm legăturile existente între tehnologie şi ştiinţele umane şi ne reaminteşte că în spatele fiecărui algoritm se află un set de valori personale pe care nici un cod nu îl poate eradica în totalitate.

more » « less
Video Language:
English
Team:
TED
Project:
TEDTalks
Duration:
09:18

Romanian subtitles

Revisions