< Return to Video

Bruce Schneier: Mirajul securității

  • 0:00 - 0:02
    Securitatea înseamnă două lucruri diferite:
  • 0:02 - 0:04
    este o senzație și este o realitate.
  • 0:04 - 0:06
    Iar ele sunt diferite.
  • 0:06 - 0:08
    Poți să te simți în siguranță
  • 0:08 - 0:10
    chiar dacă nu ești.
  • 0:10 - 0:12
    Și poți fi în siguranță
  • 0:12 - 0:14
    chiar dacă nu simți asta.
  • 0:14 - 0:16
    Chiar avem două concepte separate
  • 0:16 - 0:18
    mapate în același cuvânt.
  • 0:18 - 0:20
    Și ce vreau să fac în acest discurs
  • 0:20 - 0:22
    e să le separ una de alta --
  • 0:22 - 0:24
    înțelegând când diverg ele
  • 0:24 - 0:26
    și cum converg ele.
  • 0:26 - 0:28
    Iar limba chiar este o problemă aici.
  • 0:28 - 0:30
    Nu există prea multe cuvinte potrivite
  • 0:30 - 0:33
    pentru conceptele despre care vom vorbi.
  • 0:33 - 0:35
    Deci dacă privești securitatea
  • 0:35 - 0:37
    din punct de vedere economic,
  • 0:37 - 0:39
    ea este un troc.
  • 0:39 - 0:41
    De fiecare dată când obții ceva securitate,
  • 0:41 - 0:43
    întotdeauna dai ceva în schimb.
  • 0:43 - 0:45
    Fie că asta este o decizie personală --
  • 0:45 - 0:47
    instalezi o alarmă antifurt acasă --
  • 0:47 - 0:50
    sau o decizie națională -- când vei invada o țară străină --
  • 0:50 - 0:52
    vei da ceva la schimb,
  • 0:52 - 0:55
    fie bani sau timp, confort, posibilități,
  • 0:55 - 0:58
    poate libertăți fundamentale.
  • 0:58 - 1:01
    Iar întrebarea care trebuie pusă când examinezi ceva de securitate
  • 1:01 - 1:04
    nu este dacă asta ne aduce mai multă siguranță,
  • 1:04 - 1:07
    ci dacă schimbul a meritat sau nu.
  • 1:07 - 1:09
    Ați auzit în ultimii câțiva ani,
  • 1:09 - 1:11
    că lumea este mai sigură fiindcă Saddam Hussein nu mai este la putere.
  • 1:11 - 1:14
    Poate că este adevărat, dar nu este foarte relevant.
  • 1:14 - 1:17
    Întrebarea este: a meritat?
  • 1:17 - 1:20
    Și poți decide singur, iar apoi
  • 1:20 - 1:22
    vei decide dacă invazia a meritat.
  • 1:22 - 1:24
    Așa trebuie să gândești despre securitate --
  • 1:24 - 1:26
    în termeni de schimb.
  • 1:26 - 1:29
    De multe ori nu există răspuns corect sau greșit.
  • 1:29 - 1:31
    Unii din noi avem alarme în casele noastre,
  • 1:31 - 1:33
    iar unii din noi nu avem.
  • 1:33 - 1:35
    Și asta depinde de unde trăim,
  • 1:35 - 1:37
    dacă trăim singuri sau avem o familie,
  • 1:37 - 1:39
    cât de multe lucruri grozave avem,
  • 1:39 - 1:41
    cât de mult dorim să acceptăm
  • 1:41 - 1:43
    riscul furtului.
  • 1:43 - 1:45
    În politică de asemenea
  • 1:45 - 1:47
    sunt opinii diferite.
  • 1:47 - 1:49
    De multe ori aceste schimburi
  • 1:49 - 1:51
    sunt despre mai mult decât securitate,
  • 1:51 - 1:53
    și cred că asta este foarte important.
  • 1:53 - 1:55
    Oamenii au o intuiție înnăscută
  • 1:55 - 1:57
    despre aceste schimburi.
  • 1:57 - 1:59
    Le facem zilnic --
  • 1:59 - 2:01
    noaptea trecută în camera mea de hotel,
  • 2:01 - 2:03
    când am decis să încui ușa de două ori,
  • 2:03 - 2:05
    sau voi în mașinile cu care ați venit aici,
  • 2:05 - 2:07
    când mergem la prânz
  • 2:07 - 2:10
    și decidem că hrana nu este otravă și o vom mânca.
  • 2:10 - 2:12
    Facem aceste schimburi iar și iar
  • 2:12 - 2:14
    de mai multe ori pe zi.
  • 2:14 - 2:16
    Adesea nici nu le observăm.
  • 2:16 - 2:18
    Ele sunt parte a vieții, toți o facem.
  • 2:18 - 2:21
    Fiecare specie o face.
  • 2:21 - 2:23
    Imaginați-vă un iepure în câmp, mâncând iarba,
  • 2:23 - 2:26
    și iepurele vede o vulpe.
  • 2:26 - 2:28
    Iepurele va face un schimb de securitate.
  • 2:28 - 2:30
    "Să stau sau să fug?"
  • 2:30 - 2:32
    Și dacă vă gândiți la asta,
  • 2:32 - 2:35
    iepurii care sunt buni la aceste schimburi
  • 2:35 - 2:37
    vor tinde să trăiască și să se reproducă,
  • 2:37 - 2:39
    iar iepurii care nu sunt buni la asta
  • 2:39 - 2:41
    vor fi mâncați sau vor muri de foame.
  • 2:41 - 2:43
    Deci ați gândi că noi,
  • 2:43 - 2:46
    ca o specie de succes a planetei --
  • 2:46 - 2:48
    voi, eu, toți --
  • 2:48 - 2:51
    am fi foarte buni în a face aceste schimburi.
  • 2:51 - 2:53
    Cu toate acestea se pare că, iar și iar,
  • 2:53 - 2:56
    suntem foarte nepricepuți în asta.
  • 2:56 - 2:59
    Și eu cred că asta este o întrebare fundamental interesantă.
  • 2:59 - 3:01
    Vă voi da răspunsul scurt.
  • 3:01 - 3:03
    Răspunsul este că răspundem la senzația de securitate
  • 3:03 - 3:06
    și nu la realitate.
  • 3:06 - 3:09
    În majoritatea cazurilor asta merge.
  • 3:10 - 3:12
    În majoritatea cazurilor,
  • 3:12 - 3:15
    senzația și realitatea sunt identice.
  • 3:15 - 3:17
    În mod cert asta este adevărat
  • 3:17 - 3:20
    pentru majoritatea preistoriei umane.
  • 3:20 - 3:23
    Am dezvoltat această abilitate
  • 3:23 - 3:25
    fiindcă are sens din puct de vedere evoluționar.
  • 3:25 - 3:27
    Un mod de a gândi la asta
  • 3:27 - 3:29
    este că suntem extrem de optimizați
  • 3:29 - 3:31
    pentru decizii de risc
  • 3:31 - 3:34
    tipice vieții în mici grupuri familiale
  • 3:34 - 3:37
    în savana africană din anul 100.000 î.H. --
  • 3:37 - 3:40
    dar nu așa de mult pentru anul 2010, în New York.
  • 3:41 - 3:44
    Există mai multe predispoziţii în perceperea riscului.
  • 3:44 - 3:46
    Există o mulțime de experimente bune pentru asta.
  • 3:46 - 3:49
    Și poți observa anumite predispoziţii care apar din nou și din nou.
  • 3:49 - 3:51
    Vă voi da patru.
  • 3:51 - 3:54
    Tindem să exagerăm riscurile spectaculoase și rare
  • 3:54 - 3:56
    și să desconsiderăm riscurile comune --
  • 3:56 - 3:59
    de ex. a zbura comparat cu a conduce.
  • 3:59 - 4:01
    Necunoscutul este perceput
  • 4:01 - 4:04
    a fi mai riscant decât cunoscutul.
  • 4:05 - 4:07
    Un exemplu ar fi,
  • 4:07 - 4:10
    oamenilor le e teamă de străinii care răpesc copii,
  • 4:10 - 4:13
    când datele susțin că răpirea de către rude este mult mai comună.
  • 4:13 - 4:15
    Asta este pentru copii.
  • 4:15 - 4:18
    Trei, riscurile personificate
  • 4:18 - 4:21
    sunt percepute a fi mai mari decât riscurile anonime --
  • 4:21 - 4:24
    deci Bin Laden este mai înspăimântător fiindcă are un nume.
  • 4:24 - 4:26
    Și a patra
  • 4:26 - 4:28
    este că oamenii subestimează riscurile
  • 4:28 - 4:30
    în situații pe care le controlează
  • 4:30 - 4:34
    și le supraestimează în situații pe care nu le controlează.
  • 4:34 - 4:37
    Deci odată ce te-ai apucat de sărituri cu parașuta sau de fumat,
  • 4:37 - 4:39
    desconsideri riscurile.
  • 4:39 - 4:42
    Dacă ți se impune un risc cu forța -- terorismul a fost un bun exemplu --
  • 4:42 - 4:45
    îl vei exagera, fiindcă simți că nu este sub controlul tău.
  • 4:47 - 4:50
    Există o mulțime de alte predispoziţii, aceste predispoziţii cognitive,
  • 4:50 - 4:53
    care afectează deciziile noastre de risc.
  • 4:53 - 4:55
    Este heuristica disponibilității,
  • 4:55 - 4:57
    care de fapt înseamnă
  • 4:57 - 5:00
    că estimăm probabilitatea a ceva
  • 5:00 - 5:04
    prin cât de ușor ne imaginăm instanțele ei.
  • 5:04 - 5:06
    Puteți să vă imaginați cum funcționează asta.
  • 5:06 - 5:09
    Dacă auziți mult despre atacuri de tigri, trebuie să fie mulți tigri în jur.
  • 5:09 - 5:12
    Nu auziți despre atacuri de lei, deci nu sunt mulți lei în jur.
  • 5:12 - 5:15
    Asta funcționează până inventezi ziarele.
  • 5:15 - 5:17
    Fiindcă ziarele
  • 5:17 - 5:19
    repetă din nou și din nou
  • 5:19 - 5:21
    riscurile rare.
  • 5:21 - 5:23
    Eu le spun oamenilor: dacă este în știri, nu te îngrijora.
  • 5:23 - 5:25
    Fiindcă prin definiție,
  • 5:25 - 5:28
    știrea este ceva care se întâmplă foarte rar.
  • 5:28 - 5:30
    (Râsete)
  • 5:30 - 5:33
    Când ceva este așa de comun. nu mai apare în știri --
  • 5:33 - 5:35
    accidente de mașină, violența domestică --
  • 5:35 - 5:38
    acelea sunt riscurile pentru care să te îngrijorezi.
  • 5:38 - 5:40
    Suntem de asemenea o specie de povestitori.
  • 5:40 - 5:43
    Răspundem mai mult la povești, decât la date.
  • 5:43 - 5:45
    Și există o lipsă de știință în aprecierea numerelor.
  • 5:45 - 5:48
    Adică bancul: "Una, două, trei, multe" pare să fie adevărat.
  • 5:48 - 5:51
    Suntem foarte buni la numere mici.
  • 5:51 - 5:53
    Un mango, două mango, trei mango,
  • 5:53 - 5:55
    însă 10,000 de mango, 100,000 mango --
  • 5:55 - 5:58
    sunt totuși mai multe mango decât poți mânca înainte de a putrezi.
  • 5:58 - 6:01
    Deci o jumătate, un sfert, o cincime -- suntem buni la asta.
  • 6:01 - 6:03
    Unul dintr-un milion, unul dintr-un miliard --
  • 6:03 - 6:06
    ambele sunt aproape ca niciodată.
  • 6:06 - 6:08
    Așa că avem problemă cu riscurile
  • 6:08 - 6:10
    care nu sunt foarte comune.
  • 6:10 - 6:12
    Iar aceste predispoziţii cognitive
  • 6:12 - 6:15
    acționează ca niște filtre între noi și realitate.
  • 6:15 - 6:17
    Și rezultatul
  • 6:17 - 6:19
    este că senzația și realitatea ies din sincron,
  • 6:19 - 6:22
    ajung diferite.
  • 6:22 - 6:25
    Fie ai o senzație -- te simți mai sigur decât ești în realitate.
  • 6:25 - 6:27
    Este o falsă senzație de securitate.
  • 6:27 - 6:29
    Sau invers,
  • 6:29 - 6:31
    și atunci este o falsă senzație de insecuritate.
  • 6:31 - 6:34
    Scriu mult despre "scena securității",
  • 6:34 - 6:37
    care sunt produsele care îi fac pe oamenii să se simtă în siguranță,
  • 6:37 - 6:39
    dar de fapt nu fac ceva util.
  • 6:39 - 6:41
    Nu există cuvânt pentru lucrurile care ne asigură securitatea,
  • 6:41 - 6:43
    dar nu ne fac să ne simțim mai în siguranță.
  • 6:43 - 6:46
    Poate asta ar trebui să facă CIA pentru noi.
  • 6:48 - 6:50
    Deci înapoi la economie.
  • 6:50 - 6:54
    Dacă economia, dacă piața, dirijează securitatea,
  • 6:54 - 6:56
    și dacă oamenii fac schimburi
  • 6:56 - 6:59
    bazate pe senzația de securitate,
  • 6:59 - 7:01
    atunci companiile trebuie să facă
  • 7:01 - 7:03
    oamenii să se simtă în siguranță
  • 7:03 - 7:06
    pentru a culege recompensele economice.
  • 7:06 - 7:09
    Și sunt două căi de a face asta.
  • 7:09 - 7:11
    Prima, poți asigura securitatea omenilor
  • 7:11 - 7:13
    și speri că vor observa.
  • 7:13 - 7:16
    Sau a doua, poți să-i faci pe oameni să se simtă în siguranță
  • 7:16 - 7:19
    și speri că nu vor observa.
  • 7:20 - 7:23
    Deci ce-i face pe oameni să observe?
  • 7:23 - 7:25
    Câteva lucruri:
  • 7:25 - 7:27
    înțelegerea securității,
  • 7:27 - 7:29
    a riscurilor, a amenințărilor,
  • 7:29 - 7:32
    a contramăsurilor, cum funcționează ele.
  • 7:32 - 7:34
    Dar dacă știi lucrurile,
  • 7:34 - 7:37
    este mai probabil ca senzațiile tale să se potrivească cu realitatea.
  • 7:37 - 7:40
    Multe exemple din lumea reală ne pot ajuta.
  • 7:40 - 7:43
    Știm cu toții despre rata crimelor din cartierul nostru,
  • 7:43 - 7:46
    fiindcă trăim acolo și avem o atitudine față de asta,
  • 7:46 - 7:49
    senzație care de fapt se potrivește cu realitatea.
  • 7:49 - 7:52
    Spectacolul de securitate este dezvăluit
  • 7:52 - 7:55
    când este evident că nu funționează corect.
  • 7:55 - 7:59
    În regulă, deci ce-i face pe oameni să nu observe?
  • 7:59 - 8:01
    Ei bine, o slabă înțelegere.
  • 8:01 - 8:04
    Dacă nu înțelegi riscurile, nu înțelegi costurile,
  • 8:04 - 8:06
    vei face probabil schimbul greșit,
  • 8:06 - 8:09
    și senzația ta nu se va potrivi cu realitatea.
  • 8:09 - 8:11
    Nu sunt destule exemple.
  • 8:11 - 8:13
    Este o problemă inerentă
  • 8:13 - 8:15
    cu evenimentele de mică probabilitate.
  • 8:15 - 8:17
    Dacă, de exemplu,
  • 8:17 - 8:19
    terorismul se întâmplă foarte rar,
  • 8:19 - 8:21
    este foarte greu de judecat
  • 8:21 - 8:24
    eficacitatea măsurilor antiteroriste.
  • 8:25 - 8:28
    De asta continui să sacrifici fecioare,
  • 8:28 - 8:31
    și de asta funcționează așa de minunat apărarea ta bazată pe inorogi.
  • 8:31 - 8:34
    Nu sunt destule exemple de eșecuri.
  • 8:35 - 8:38
    De asemenea, sentimentele care obturează problemele --
  • 8:38 - 8:40
    predispoziţiile cognitive despre care am vorbit înainte,
  • 8:40 - 8:43
    temeri, credințe populare,
  • 8:43 - 8:46
    de fapt un model neadecvat al realității.
  • 8:47 - 8:50
    Permiteți-mi să complic lucrurile.
  • 8:50 - 8:52
    Am senzație și realitate.
  • 8:52 - 8:55
    Vreau să adaug un al treilea element. Vreau să adaug modelul.
  • 8:55 - 8:57
    Senzația și modelul este în capul nostru,
  • 8:57 - 8:59
    realitatea este lumea din jur.
  • 8:59 - 9:02
    Ea nu se schimbă; este reală.
  • 9:02 - 9:04
    Senzația este bazată pe intuiția noastră.
  • 9:04 - 9:06
    Modelul este bazat pe raționament.
  • 9:06 - 9:09
    Asta este de fapt diferența.
  • 9:09 - 9:11
    Într-o lume primitivă și simplă,
  • 9:11 - 9:14
    chiar nu este nevoie de un model.
  • 9:14 - 9:17
    Fiindcă senzația este aproape de realitate.
  • 9:17 - 9:19
    Nu ai nevoie de un model.
  • 9:19 - 9:21
    Dar într-o lume modernă și complexă,
  • 9:21 - 9:23
    ai nevoie de modele
  • 9:23 - 9:26
    pentru a înțelege mulțimea de riscuri care există.
  • 9:27 - 9:29
    Nu există senzație despre microbi.
  • 9:29 - 9:32
    Ai nevoie de un model pentru a-i înțelege.
  • 9:32 - 9:34
    Deci acest model
  • 9:34 - 9:37
    este o reprezentare inteligentă a realității.
  • 9:37 - 9:40
    Este desigur limitat de știință,
  • 9:40 - 9:42
    de tehnologie.
  • 9:42 - 9:45
    Nu am putut avea o teorie a bolilor bazată pe microbi
  • 9:45 - 9:48
    înainte de inventarea microscopului pentru a le vedea.
  • 9:49 - 9:52
    Este limitat de predispoziţiile noastre cognitive.
  • 9:52 - 9:54
    Dar are abilitatea
  • 9:54 - 9:56
    de a suprascrie senzațiile noastre.
  • 9:56 - 9:59
    De unde avem aceste modele? Le avem de la alții.
  • 9:59 - 10:02
    Le avem din religie, cultură,
  • 10:02 - 10:04
    profesori, strămoși.
  • 10:04 - 10:06
    Cu câțiva ani în urmă,
  • 10:06 - 10:08
    am fost în Africa de sud la un safari.
  • 10:08 - 10:11
    Călăuza cu care am fost a crescut în Parcul Național Kruger.
  • 10:11 - 10:14
    El avea niște modele foarte complexe despre cum să supraviețuiești.
  • 10:14 - 10:16
    Iar asta depindea dacă te ataca
  • 10:16 - 10:18
    un leu sau un leopard sau un rinocer sau un elefant --
  • 10:18 - 10:21
    și când trebuie să fugi, și când trebuie să te urci într-un copac --
  • 10:21 - 10:23
    și când nu trebuie să te urci într-un copac.
  • 10:23 - 10:26
    Eu aș fi murit într-o singură zi,
  • 10:26 - 10:28
    dar el s-a născut acolo,
  • 10:28 - 10:30
    și înțelegea cum să supraviețuiești.
  • 10:30 - 10:32
    Eu m-am născut în New York City.
  • 10:32 - 10:35
    Dacă l-aș fi luat cu mine în New York, atunci el ar fi murit într-o singură zi.
  • 10:35 - 10:37
    (Râsete)
  • 10:37 - 10:39
    Fiindcă aveam modele diferite
  • 10:39 - 10:42
    bazate pe experiențele noastre diferite.
  • 10:43 - 10:45
    Modelele pot veni din massmedia,
  • 10:45 - 10:48
    de la aleșii noștri oficiali.
  • 10:48 - 10:51
    Gândiți-vă la modele de terorism,
  • 10:51 - 10:54
    răpiri de copii,
  • 10:54 - 10:56
    siguranța zborului, siguranța mașinii.
  • 10:56 - 10:59
    Modelele pot veni din industrie.
  • 10:59 - 11:01
    Cele două pe care la urmăresc sunt camerele de supraveghere,
  • 11:01 - 11:03
    cardurile de identitate,
  • 11:03 - 11:06
    destul de multe din modelele de securitatea calculatoarelor vin de acolo.
  • 11:06 - 11:09
    O mulțime de modele vin din știință.
  • 11:09 - 11:11
    Modelele de sănătate sunt un exemplu grozav.
  • 11:11 - 11:14
    Gândiți-vă la cancer, gripa aviară, gripa porcină, SARS.
  • 11:14 - 11:17
    Toate senzațiile noastre de securitate
  • 11:17 - 11:19
    despre acele boli
  • 11:19 - 11:21
    vin din modele
  • 11:21 - 11:24
    date nouă, de fapt, de știință filtrată prin massmedia.
  • 11:25 - 11:28
    Așa că modelele se pot schimba.
  • 11:28 - 11:30
    Modelele nu sunt statice.
  • 11:30 - 11:33
    Pe măsură ce devenim mai confortabili în mediile noastre,
  • 11:33 - 11:37
    modelele noastre se pot muta mai aproape de senzațiile noastre.
  • 11:38 - 11:40
    Un exemplu ar fi,
  • 11:40 - 11:42
    dacă mergeți înapoi 100 de ani
  • 11:42 - 11:45
    când electricitatea a început să fie folosită,
  • 11:45 - 11:47
    erau multe temeri legate de ea.
  • 11:47 - 11:49
    Erau oameni cărora le era frică să apese butonul soneriei,
  • 11:49 - 11:52
    fiindcă era electricitate în el, iar asta era periculos.
  • 11:52 - 11:55
    Noi suntem degajați privind electricitatea.
  • 11:55 - 11:57
    Schimbăm becurile electrice
  • 11:57 - 11:59
    fără să ne gândim la ea.
  • 11:59 - 12:03
    Modelul nostru de securitate despre electricitate
  • 12:03 - 12:06
    este ceva în care trăim de la naștere.
  • 12:06 - 12:09
    El nu s-a schimbat pe durata vieții noastre.
  • 12:09 - 12:12
    Și suntem buni la acest model.
  • 12:12 - 12:14
    Sau gândiți-vă la riscurile
  • 12:14 - 12:16
    Internetului perceput de generații --
  • 12:16 - 12:18
    cum tratează părinții voștri securitatea Internetului,
  • 12:18 - 12:20
    față de cum faceți voi,
  • 12:20 - 12:23
    față de cum vor face copiii noștri.
  • 12:23 - 12:26
    În cele din urmă modelele dispar în fundal.
  • 12:27 - 12:30
    Intuitiv este doar un alt cuvânt pentru familiar.
  • 12:30 - 12:32
    Pe măsură ce modelul tău este aproape de realitate,
  • 12:32 - 12:34
    și converge cu senzațiile,
  • 12:34 - 12:37
    adesea nici nu știi că e acolo.
  • 12:37 - 12:39
    Un exemplu drăguț pentru asta
  • 12:39 - 12:42
    a fost gripa porcină de anul trecut.
  • 12:42 - 12:44
    Când gripa porcină a apărut prima dată,
  • 12:44 - 12:48
    știrile inițiale au provocat multe reacții exagerate.
  • 12:48 - 12:50
    Apoi a avut un nume,
  • 12:50 - 12:52
    ceea ce a făcut-o mai de speriat decât gripa normală,
  • 12:52 - 12:54
    chiar dacă a fost mai mortală.
  • 12:54 - 12:58
    Și oamenii au gândit că doctorii vor fi în stare să-i facă față.
  • 12:58 - 13:00
    Deci a fost senzația lipsei de control.
  • 13:00 - 13:02
    Iar aceste două lucruri
  • 13:02 - 13:04
    au făcut riscul mai mare decât era.
  • 13:04 - 13:07
    După ce a trecut noutatea, au trecut luni,
  • 13:07 - 13:09
    a existat o doză de toleranță,
  • 13:09 - 13:11
    oamenii s-au obișnuit cu ea.
  • 13:11 - 13:14
    Nu existau date noi, dar era mai puțină frică.
  • 13:14 - 13:16
    Până toamna,
  • 13:16 - 13:18
    oamenii au gândit
  • 13:18 - 13:20
    că doctorii au rezolvat deja asta.
  • 13:20 - 13:22
    Și există un fel de bifurcație --
  • 13:22 - 13:24
    oamenii au trebuit să aleagă
  • 13:24 - 13:28
    între frică și acceptare --
  • 13:28 - 13:30
    de fapt frică și indiferență --
  • 13:30 - 13:33
    și ei au devenit suspicioși.
  • 13:33 - 13:36
    Și când a apărut vaccinul iarna trecută,
  • 13:36 - 13:39
    erau o mulțime de oameni -- un număr surprinzător --
  • 13:39 - 13:42
    care au refuzat să-l ia --
  • 13:43 - 13:45
    ca un exemplu drăguț
  • 13:45 - 13:48
    de cum se schimbă senzația de securitate a oamenilor, cum se schimbă modelul lor,
  • 13:48 - 13:50
    într-un mod nebunesc
  • 13:50 - 13:52
    fără informații noi,
  • 13:52 - 13:54
    fără date noi de intrare.
  • 13:54 - 13:57
    Acest lucru se întâmplă des.
  • 13:57 - 14:00
    Voi mai face o complicare în plus.
  • 14:00 - 14:03
    Avem senzație, model, realitate.
  • 14:03 - 14:05
    Am o vedere foarte relativistă a securității.
  • 14:05 - 14:08
    Cred că depinde de observator.
  • 14:08 - 14:10
    Și majoritatea deciziilor de securitate
  • 14:10 - 14:14
    implică o diversitate de oameni.
  • 14:14 - 14:16
    Iar părțile interesate
  • 14:16 - 14:19
    cu schimburi specifice
  • 14:19 - 14:21
    vor încerca să influențeze decizia.
  • 14:21 - 14:23
    Și eu numesc asta planul lor.
  • 14:23 - 14:25
    Și vedeți planuri --
  • 14:25 - 14:28
    în marketing, în politică --
  • 14:28 - 14:31
    încercând să te convingă să ai un anumit model față de un altul,
  • 14:31 - 14:33
    încercând să te convingă să ignori un model
  • 14:33 - 14:36
    și să te încrezi în senzațiile tale,
  • 14:36 - 14:39
    marginalizând oamenii cu modele care nu-ți plac.
  • 14:39 - 14:42
    Asta nu este ceva neobişnuit.
  • 14:42 - 14:45
    Un exemplu grozav este riscul fumatului.
  • 14:46 - 14:49
    În istoria ultimilor 50 de ani, riscul fumatului
  • 14:49 - 14:51
    arată cum se schimbă un model,
  • 14:51 - 14:54
    și arată de asemenea cum o industrie luptă
  • 14:54 - 14:56
    împotriva unui model care nu-i place.
  • 14:56 - 14:59
    Comparați asta cu dezbaterea despre fumatul pasiv --
  • 14:59 - 15:02
    probabil cu aproape 20 de ani în urmă.
  • 15:02 - 15:04
    Gândiți-vă la centurile de siguranță.
  • 15:04 - 15:06
    Când eram copil, nimeni nu purta centura de siguranță.
  • 15:06 - 15:08
    Azi, niciun copil nu te va lăsa să conduci
  • 15:08 - 15:10
    dacă nu ai centura de siguranță.
  • 15:11 - 15:13
    Comparați asta cu dezbaterea despre perna de aer --
  • 15:13 - 15:16
    probabil cu 30 de ani în urmă.
  • 15:16 - 15:19
    Toate sunt exemple de schimbări de modele.
  • 15:21 - 15:24
    Ceea ce învățăm este că schimbarea modelelor este dificilă.
  • 15:24 - 15:26
    Modelele sunt greu de dislocat.
  • 15:26 - 15:28
    Dacă sunt la fel cu senzațiile tale
  • 15:28 - 15:31
    nu știi că ai un model.
  • 15:31 - 15:33
    Și există o altă predispoziţie cognitivă
  • 15:33 - 15:35
    pe care o numesc predispoziţie de confirmare,
  • 15:35 - 15:38
    unde tindem să acceptăm datele
  • 15:38 - 15:40
    care confirmă credințele noastre
  • 15:40 - 15:43
    și să rejectăm datele care contrazic credințele noastre.
  • 15:44 - 15:46
    Deci probabil vom ignora dovada
  • 15:46 - 15:49
    împotriva modelului nostru, chiar dacă este convingătoare.
  • 15:49 - 15:52
    Trebuie să devină foarte convingătoare înainte de a-i acorda atenție.
  • 15:53 - 15:55
    Modele noi care se întind perioade lungi de timp sunt dificile.
  • 15:55 - 15:57
    Încălzirea globală este un exemplu grozav.
  • 15:57 - 15:59
    Suntem îngrozitori
  • 15:59 - 16:01
    la modele care acoperă 80 de ani.
  • 16:01 - 16:03
    Putem s-o facem până la următoarea recoltă.
  • 16:03 - 16:06
    Adesea o putem face până cresc copiii noștri.
  • 16:06 - 16:09
    Dar 80 de ani, pur și simplu nu suntem buni la asta.
  • 16:09 - 16:12
    Deci este un model foarte greu de acceptat.
  • 16:12 - 16:16
    Putem avea ambele modele simultan în cap,
  • 16:16 - 16:19
    sau acel tip de problemă
  • 16:19 - 16:22
    când avem ambele credințe simultan,
  • 16:22 - 16:24
    sau disonanța cognitivă.
  • 16:24 - 16:26
    În final modelul nou
  • 16:26 - 16:29
    va înlocui modelul vechi.
  • 16:29 - 16:32
    Senzațiile puternice pot crea un model.
  • 16:32 - 16:35
    11 septembrie a creat un model de securitate
  • 16:35 - 16:37
    în capul multor oameni.
  • 16:37 - 16:40
    Experiența personală cu criminalitatea o poate face,
  • 16:40 - 16:42
    panica pentru sănătatea personală,
  • 16:42 - 16:44
    o panică de sănătate în știri.
  • 16:44 - 16:46
    Psihiatrii numesc asta
  • 16:46 - 16:48
    evenimente "se aprinde becul".
  • 16:48 - 16:51
    Ele pot crea instantaneu un model,
  • 16:51 - 16:54
    fiindcă sunt foarte emoționale.
  • 16:54 - 16:56
    În lumea tehnologică
  • 16:56 - 16:58
    nu avem experiența
  • 16:58 - 17:00
    de a judeca modele.
  • 17:00 - 17:02
    Și ne bazăm pe alții. Ne bazăm pe împuterniciți.
  • 17:02 - 17:06
    Adică, asta funcționează cât timp este în regulă pentru alții.
  • 17:06 - 17:08
    Ne bazăm pe agenții guvernamentale
  • 17:08 - 17:13
    să ne spună care sunt medicamentele sigure.
  • 17:13 - 17:15
    Ieri am zburat aici.
  • 17:15 - 17:17
    Nu am verificat avionul.
  • 17:17 - 17:19
    M-am bazat pe un alt grup
  • 17:19 - 17:22
    să constate dacă avionul meu este sigur pentru zbor.
  • 17:22 - 17:25
    Suntem aici, nimănui nu-i este teamă că acoperișul va cădea peste noi,
  • 17:25 - 17:28
    nu fiindcă am verificat,
  • 17:28 - 17:30
    ci fiindcă suntem destul de siguri
  • 17:30 - 17:33
    că aici normele de construcție sunt bune.
  • 17:33 - 17:35
    Este un model pe care-l acceptăm
  • 17:35 - 17:37
    mai mult prin încredere.
  • 17:37 - 17:40
    Și asta este în regulă.
  • 17:42 - 17:44
    Ceea ce vrem este ca
  • 17:44 - 17:46
    oamenii să devină suficient de obișnuiți
  • 17:46 - 17:48
    cu modele mai bune --
  • 17:48 - 17:50
    să le reflecte în senzațiile lor --
  • 17:50 - 17:54
    să le permită să facă schimburi de securitate.
  • 17:54 - 17:56
    Când acestea se strică,
  • 17:56 - 17:58
    ai două opțiuni.
  • 17:58 - 18:00
    Prima, poți repara senzațiile oamenilor,
  • 18:00 - 18:02
    apelând direct la sentimente.
  • 18:02 - 18:05
    Este manipulare, dar poate funcționa.
  • 18:05 - 18:07
    A doua cale, mai cinstită,
  • 18:07 - 18:10
    este să repari modelul.
  • 18:11 - 18:13
    Schimbările se întâmplă încet.
  • 18:13 - 18:16
    Dezbaterea despre fumat a luat 40 de ani,
  • 18:16 - 18:19
    și asta a fost una ușoară.
  • 18:19 - 18:21
    Unele din aceste lucruri sunt dificile.
  • 18:21 - 18:23
    Adică foarte dificile,
  • 18:23 - 18:25
    informația pare cea mai bună speranță pentru noi.
  • 18:25 - 18:27
    Și am mințit.
  • 18:27 - 18:29
    Țineți minte când am spus: senzație, model, realitate.
  • 18:29 - 18:32
    Am spus că realitatea nu se schimbă. De fapt o face.
  • 18:32 - 18:34
    Trăim într-o lume tehnologică;
  • 18:34 - 18:37
    realitatea se schimbă tot timpul.
  • 18:37 - 18:40
    Deci s-ar putea să avem -- pentru prima dată ca specie --
  • 18:40 - 18:43
    senzația urmărește modelul, modelul urmărește realitatea,
  • 18:43 - 18:46
    iar realitatea se mișcă -- s-ar putea să nu se ajungă niciodată.
  • 18:47 - 18:49
    Nu știm.
  • 18:49 - 18:51
    Dar pe termen lung,
  • 18:51 - 18:54
    sunt importante și senzația și realitatea.
  • 18:54 - 18:57
    Și vreau să închei cu două istorioare pentru a ilustra asta.
  • 18:57 - 18:59
    1982 -- nu știu dacă oamenii își vor aminti asta --
  • 18:59 - 19:02
    a fost o scurtă epidemie
  • 19:02 - 19:04
    de otrăvire cu Tylenol în SUA.
  • 19:04 - 19:07
    Este o poveste oribilă. Cineva a luat o sticlă de Tylenol,
  • 19:07 - 19:10
    a pus otravă în ea, a închis-o la loc, a pus-o înapoi pe raft.
  • 19:10 - 19:12
    Altcineva a cumpărat-o și a murit.
  • 19:12 - 19:14
    Asta a îngrozit lumea.
  • 19:14 - 19:16
    Au fost câteva cazuri de copiere a atacului.
  • 19:16 - 19:19
    Nu exista un risc real, dar oamenii erau speriați.
  • 19:19 - 19:21
    Și așa a fost inventată
  • 19:21 - 19:23
    industria medicamentelor sigilate.
  • 19:23 - 19:25
    Acele capace sigilate au rezultat din asta.
  • 19:25 - 19:27
    Este un adevărat spectacol de securitate.
  • 19:27 - 19:29
    Ca temă pentr acasă, gândiți-vă la 10 căi de a ocoli asta.
  • 19:29 - 19:32
    Vă dau una: o seringă.
  • 19:32 - 19:35
    Dar a făcut oamenii să se simtă mai bine.
  • 19:35 - 19:37
    A făcut ca senzația lor de securitate
  • 19:37 - 19:39
    să se potrivească mai mult cu realitatea.
  • 19:39 - 19:42
    Ulima poveste, acum câțiva ani, o prietenă a născut.
  • 19:42 - 19:44
    Am vizitat-o în spital.
  • 19:44 - 19:46
    Am aflat că acum când se naște un copil,
  • 19:46 - 19:48
    se pune o brățară cu identificator radio (RFID) bebelușului,
  • 19:48 - 19:50
    se pune una corespunzătoare mamei,
  • 19:50 - 19:52
    deci dacă oricine altcineva decât mama scoate copilul
  • 19:52 - 19:54
    din maternitate, va suna o alarmă.
  • 19:54 - 19:56
    Am zis: "Ei bine, asta este simplu dar elegant.
  • 19:56 - 19:58
    Mă întreb cât de excesiv este furtul
  • 19:58 - 20:00
    de bebeluși din spitale."
  • 20:00 - 20:02
    Am mers acasă, am căutat asta.
  • 20:02 - 20:04
    De fapt nu se întâmplă niciodată.
  • 20:04 - 20:06
    Dar dacă te gândești la asta,
  • 20:06 - 20:08
    dacă ești un spital,
  • 20:08 - 20:10
    și dacă trebuie să iei un bebeluș de la mama lui,
  • 20:10 - 20:12
    afară din cameră pentru niște teste,
  • 20:12 - 20:14
    ar fi bine să ai un spectacol de securitate bun,
  • 20:14 - 20:16
    sau mama îți va rupe brațul.
  • 20:16 - 20:18
    (Râsete)
  • 20:18 - 20:20
    Deci este important pentru noi,
  • 20:20 - 20:22
    cei care proiectăm securitatea,
  • 20:22 - 20:25
    care privim la politica de securitate,
  • 20:25 - 20:27
    sau doar privim la politica publică
  • 20:27 - 20:29
    în moduri care afectează securitatea.
  • 20:29 - 20:32
    Nu este doar realitate, este senzație și realitate.
  • 20:32 - 20:34
    Ce este important
  • 20:34 - 20:36
    este ca ele să fie la fel.
  • 20:36 - 20:38
    Este important, fiindcă dacă senzația se potrivește cu realitatea,
  • 20:38 - 20:40
    facem schimburi mai bune de securitate.
  • 20:40 - 20:42
    Vă mulțumesc.
  • 20:42 - 20:44
    (Aplauze)
Title:
Bruce Schneier: Mirajul securității
Speaker:
Bruce Schneier
Description:

Senzația securității și securitatea reală nu se potrivesc întotdeauna, spune Bruce Schneier, expertul în securitatea calculatoarelor. El explică la TEDxPSU de ce cheltuim miliarde pe riscurile bazate pe știri, ca de exemplu "spectacolul de securitate" prezentat acum pe aeroporturi, în timp ce neglijăm riscuri mai probabile -- și cum putem sparge acest tipar.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
20:44
Laszlo Kereszturi added a translation

Romanian subtitles

Revisions