Romanian subtitles

← Prejudecata morală din spatele rezultatelor unei căutări

Get Embed Code
36 Languages

Showing Revision 12 created 02/16/2016 by Lorena Ciutacu.

  1. Când vizitez o şcoală
    şi le vorbesc elevilor,
  2. le pun această întrebare:
  3. De ce daţi căutare pe Google?
  4. De ce preferaţi Google?
  5. Surprinzător, mereu primesc
    aceleaşi trei răspunsuri:
  6. Primul: „Pentru că funcţionează.”
  7. E un răspuns excelent;
    de-asta folosesc și eu Google.
  8. Al doilea, cineva va zice:
  9. „Nu știu alternative.”
  10. Nu e o variantă la fel de bună,
    iar răspunsul meu e de obicei:
  11. „Încearcă ‘motor de căutare’ pe Google,
  12. poate găseşti
    câteva alternative interesante.”
  13. Iar a treia variantă de răspuns -
  14. inevitabil, un elev va ridica mâna
    şi va zice:
  15. „Cu Google, sunt sigur că voi obţine
    cel mai bun rezultat imparţial.”
  16. Sigur că se obţine
    cel mai bun rezultat imparţial.
  17. Ca om al ştiinţelor umane,

  18. deși unul al științelor umane digitale,
  19. mă cutremur când aud asta,
  20. chiar dacă şi eu realizez că încrederea
    în ideea unei căutări imparţiale
  21. stă la baza admiraţiei şi iubirii noastre
    colective pentru Google.
  22. Am să vă demonstrez de ce asta este
    aproape o imposibilitate filosofică.
  23. Mai întâi, permiteți-mi să vorbesc
    despre un principiu fundamental

  24. ce stă la baza fiecărei căutări,
    dar de care uităm adesea.
  25. Atunci când daţi o căutare pe Google,
  26. începeţi prin a vă întreba:
    „Caut un fapt izolat?"
  27. Care este capitala Franţei?
  28. Din ce e alcătuită o moleculă de apă?
  29. Super - căutaţi în voie.
  30. Nu există niciun grup de specialişti
    aproape de a demostra
  31. că e vorba, de fapt, depre Londra şi H3O.
  32. Nu vedem nicio conspiraţie
    în aceste lucruri.
  33. Suntem de acord global
  34. cu răspunsurile
    la aceste fapte izolate.
  35. Dar dacă aveţi o întrebare
    puţin mai complicată precum:

  36. „De ce există
    un conflict palestino-israelian?”,
  37. nu mai sunteţi în căutarea
    unui fapt singular,
  38. sunteţi în căutare de cunoştinţe,
  39. ceva mult mai complicat şi mai delicat.
  40. Pentru a ajunge la cunoştinţe,
  41. trebuie să incluzi 10, 20
    sau 100 de fapte în ecuaţie,
  42. să le confirmi şi să spui:
    „Da, toate astea sunt adevăruri.”
  43. Însă datorită identităţii mele,
  44. tânăr sau bătrân, negru sau alb,
    gay sau hetero,
  45. le voi evalua diferit.
  46. Și voi spune:
    „Da, asta e adevărat,
  47. dar acest lucru e mai important
    decât acela."
  48. În acea clipă
    lucrurile devin interesante,
  49. fiindcă atunci devenim umani.
  50. Atunci începem să dezbatem,
    să formăm societatea.
  51. Iar pentru a putea ajunge undeva,
    trebuie să filtrăm totul aici,
  52. prin prieteni şi vecini, părinţi şi copii,
  53. colegi de muncă, ziare şi reviste,
  54. ca să avem la final
    o bază reală de cunoaştere,
  55. un lucru la care motoarele de căutare
    nu prea ne ajută.
  56. Deci v-am promis un exemplu
    pentru a demonstra dificultatea

  57. de a ajunge la o cunoştere adevărată,
    curată şi obiectivă -
  58. luaţi-o ca şi temă de gândire.
  59. O să efectuez două căutări simple.
  60. Începem cu „Michelle Obama”,
  61. Prima Doamnă a Statelor Unite.
  62. Şi o să căutăm imagini.
  63. După cum vedeţi, funcţionează foarte bine.
  64. E mai mult sau mai puţin
    un rezultat perfect al căutării.
  65. Nici măcar preşedintele
    nu apare în imagini, doar ea.
  66. Cum funcţionează asta?

  67. Destul de simplu.
  68. Google foloseşte multă inteligenţă
  69. pentru a obține asta,
    dar, în principal,
  70. e atent la două lucruri:
  71. Mai întâi, ce titlu au imaginile
    de pe fiecare site?
  72. Scrie „Michelle Obama” sub imagine?
  73. Acesta ar fi un indiciu bun
    că e ea în imagine.
  74. Apoi, Google se uită la fişierul imagine,
  75. numele fişierului
    aşa cum a fost el încărcat pe Internet.
  76. Din nou, se numeşte
    imaginea „MichelleObama.jpeg”?
  77. Dacă da, cel mai probabil
    nu e Clint Eastwood în ea.
  78. Deci avem aceste două criterii
    şi obţinem acest rezultat - aproape.
  79. În 2009, Michelle Obama
    a fost victima unei campanii rasiste.

  80. Oamenii doreau să o insulte prin
    rezultatele la căutările numelui ei.
  81. O anumită imagine s-a răspândit
    larg pe Internet,
  82. una în care faţa ei e făcută
    să semene cu o maimuţă.
  83. Imaginea a fost publicată peste tot.
  84. Oamenii o publicau
    cu intenţia clară de a fi prima
  85. la rezultatele de căutare.
  86. S-au asigurat să pună titlul
    “Michelle Obama”
  87. şi să încarce imaginea
  88. ca “MichelleObama.jpeg” sau ceva similar.
  89. Aţi înţeles de ce:
  90. să manipuleze rezultatele.
  91. Şi a mers.
  92. Astfel, dacă în 2009 căutaţi
    “Michelle Obama” pe Google imagini
  93. acea imagine distorsionată
    apărea printre primele rezultate.
  94. Dar, rezultatele căutărilor
    se auto-corectează,

  95. în aceasta constă de fapt frumuseţea lor,
  96. pentru că Google le măsoară relevanţă
    în fiecare oră, fiecare zi.
  97. În acest caz însă,
    Google nu s-a mulţumit doar cu atât.
  98. A zis: “Asta e rasism
    şi un rezultat de căutare prost.
  99. O să curăţăm rezultatele manual.
  100. O să codăm ceva
    şi o să rezolvăm problema.
  101. Şi au reuşit.
  102. Nu cred că se afla cineva aici
    care să creadă că a fost o idee rea.
  103. Nici eu nu cred.
  104. Însă după doi ani,

  105. cel mai căutat Anders de pe Google,
  106. anume Anders Behring Breivik,
  107. a făcut ce a făcut.
  108. E 22 iulie 2011,
  109. o zi înfiorătoare în istoria Norvegiei.
  110. Acest individ, un terorist,
    a atacat două clădiri guvernamentale
  111. aproape de locul unde ne aflăm
    acum în Oslo, Norvegia
  112. Apoi a călătorit în insula Utøya
  113. unde a împuşcat mortal un grup de copii.
  114. Aproape 80 de persoane
    au murit atunci.
  115. Mulţi ar zice ca actul terorist
    a avut două etape,

  116. că teroristul a comis două fapte:
    a detonat clădirile şi a ucis copiii.
  117. Nu este adevărat.
  118. Au fost trei etape.
  119. A detonat clădirile,
    a împușcat acei copii
  120. apoi a stat şi a aşteptat
    ca lumea să îl caute pe Google.
  121. A pregătit toţi cei trei paşi
    la fel de atent.
  122. Cineva a înţeles imediat acest lucru,

  123. un dezvoltator web
    suedez, un expert
  124. în optimizarea motoarelor
    de căutare
  125. din Stockholm, pe nume Nikke Lindqvist.
  126. El este şi activ politic,
  127. prezent pe reţele de socializare,
    pe blogul lui şi pe Facebook.
  128. A spus tuturor:
  129. “Ceea ce îşi doreşte acest om
    cel mai mult acum
  130. este să îşi controleze imaginea publică.
  131. Să vedem dacă reuşim să încurcăm asta,
  132. dacă noi, lumea civilizată, reuşim
    să protestăm împotriva a ceea ce a făcut
  133. prin a-l insulta
    în rezultatele lui de căutare.
  134. Dar cum?

  135. Le-a spus cititorilor lui următoarele:
  136. Intraţi pe internet,
  137. şi găsiţi imagini cu
    excremente de câine pe trotuar,
  138. publicaţi-le în postările, blogurile
    şi site-urile voastre.
  139. Asiguraţi-vă să scrieţi
    numele teroristului în titlu,
  140. asiguraţi-vă să denumiţi
    fişierul “Breivik.jpeg.”
  141. Haideţi să-l învăţăm pe Google
    că aceasta e faţa unui terorist.
  142. Şi a funcţionat.
  143. La doi ani după campania
    împotriva lui Michelle Obama,
  144. campania de manipulare împotriva
    lui Anders Breivik a funcţionat.
  145. Câteva săptămâni după incidentul
    din 22 iulie, căutarea imaginii lui
  146. dădea în fruntea rezultatelor
    imagini cu excremente de câine,
  147. în semn de protest.
  148. Straniu, de această dată
    Google nu a intervenit.

  149. Nu au acţionat să cureţe manual
    acele rezultate de căutare.
  150. Deci întrebarea fundamentală:
  151. Există vreo diferenţă
    între cele două campanii prezentate?
  152. Există vreo diferenţă între ce a păţit
    Michelle Obama şi Anders Breivik?
  153. Desigur că nu.
  154. Este exact aceeaşi situaţie
  155. Dar Google a intervenit
  156. într-un caz, nu şi în celălalt.
  157. De ce?

  158. Pentru că Michelle Obama
    este o persoană onorabilă,
  159. iar Anders Behring Breivik
    este demn de dispreţ.
  160. Înţelegeţi ce se întâmplă?
  161. Are loc o evaluare a persoanei,
  162. şi există un singur actor de putere
    în lume autorizat să facă asta,
  163. să decidă:
  164. “Ne place de tine, nu ne place de tine.
  165. Credem în tine, dar nu în tine.
  166. Tu ai dreptate, tu nu.
  167. Tu ești adevat, tu fals.
  168. Tu eşti Obama, tu eşti Breivik.
  169. Asta da putere.
  170. Așadar vă îndemn să ţineti cont
    că în spatele fiecărui algoritm

  171. se află o persoană,
  172. cineva cu un set de valori personale
  173. pe care nici un cod
    nu îl poate elimina complet.
  174. Mesajul meu nu este îndreptat
    nu doar către Google,
  175. ci către toţi cei cred
    în soarta codurilor.
  176. Trebuie să vă identificaţii
    propriile voastre prejudecăţi
  177. trebuie să înţelegeţi că sunteţi oameni
  178. şi să vă asumaţi responsabilitatea
    corespunzător.
  179. Şi spun asta fiindcă cred
    că am ajuns într-o etapă în care

  180. este absolut imperativ
  181. să înnodăm din nou mai strâns
    acea legătură
  182. dintre ştiinţele umane şi tehnologie,
  183. mai strâns ca niciodată.
  184. Măcar ca să ne amintească
    că acea idee atât de atrăgătoare
  185. a unui rezultat de căutare
    imparţial, curat
  186. este, şi probabil va rămâne, un mit.
  187. Vă mulţumesc pentru timpul acordat.

  188. (Aplauze)