WEBVTT 00:00:00.000 --> 00:00:02.000 Securitatea înseamnă două lucruri diferite: 00:00:02.000 --> 00:00:04.000 este o senzație și este o realitate. 00:00:04.000 --> 00:00:06.000 Iar ele sunt diferite. 00:00:06.000 --> 00:00:08.000 Poți să te simți în siguranță 00:00:08.000 --> 00:00:10.000 chiar dacă nu ești. 00:00:10.000 --> 00:00:12.000 Și poți fi în siguranță 00:00:12.000 --> 00:00:14.000 chiar dacă nu simți asta. 00:00:14.000 --> 00:00:16.000 Chiar avem două concepte separate 00:00:16.000 --> 00:00:18.000 mapate în același cuvânt. 00:00:18.000 --> 00:00:20.000 Și ce vreau să fac în acest discurs 00:00:20.000 --> 00:00:22.000 e să le separ una de alta -- 00:00:22.000 --> 00:00:24.000 înțelegând când diverg ele 00:00:24.000 --> 00:00:26.000 și cum converg ele. 00:00:26.000 --> 00:00:28.000 Iar limba chiar este o problemă aici. 00:00:28.000 --> 00:00:30.000 Nu există prea multe cuvinte potrivite 00:00:30.000 --> 00:00:33.000 pentru conceptele despre care vom vorbi. NOTE Paragraph 00:00:33.000 --> 00:00:35.000 Deci dacă privești securitatea 00:00:35.000 --> 00:00:37.000 din punct de vedere economic, 00:00:37.000 --> 00:00:39.000 ea este un troc. 00:00:39.000 --> 00:00:41.000 De fiecare dată când obții ceva securitate, 00:00:41.000 --> 00:00:43.000 întotdeauna dai ceva în schimb. 00:00:43.000 --> 00:00:45.000 Fie că asta este o decizie personală -- 00:00:45.000 --> 00:00:47.000 instalezi o alarmă antifurt acasă -- 00:00:47.000 --> 00:00:50.000 sau o decizie națională -- când vei invada o țară străină -- 00:00:50.000 --> 00:00:52.000 vei da ceva la schimb, 00:00:52.000 --> 00:00:55.000 fie bani sau timp, confort, posibilități, 00:00:55.000 --> 00:00:58.000 poate libertăți fundamentale. 00:00:58.000 --> 00:01:01.000 Iar întrebarea care trebuie pusă când examinezi ceva de securitate 00:01:01.000 --> 00:01:04.000 nu este dacă asta ne aduce mai multă siguranță, 00:01:04.000 --> 00:01:07.000 ci dacă schimbul a meritat sau nu. 00:01:07.000 --> 00:01:09.000 Ați auzit în ultimii câțiva ani, 00:01:09.000 --> 00:01:11.000 că lumea este mai sigură fiindcă Saddam Hussein nu mai este la putere. 00:01:11.000 --> 00:01:14.000 Poate că este adevărat, dar nu este foarte relevant. 00:01:14.000 --> 00:01:17.000 Întrebarea este: a meritat? 00:01:17.000 --> 00:01:20.000 Și poți decide singur, iar apoi 00:01:20.000 --> 00:01:22.000 vei decide dacă invazia a meritat. 00:01:22.000 --> 00:01:24.000 Așa trebuie să gândești despre securitate -- 00:01:24.000 --> 00:01:26.000 în termeni de schimb. NOTE Paragraph 00:01:26.000 --> 00:01:29.000 De multe ori nu există răspuns corect sau greșit. 00:01:29.000 --> 00:01:31.000 Unii din noi avem alarme în casele noastre, 00:01:31.000 --> 00:01:33.000 iar unii din noi nu avem. 00:01:33.000 --> 00:01:35.000 Și asta depinde de unde trăim, 00:01:35.000 --> 00:01:37.000 dacă trăim singuri sau avem o familie, 00:01:37.000 --> 00:01:39.000 cât de multe lucruri grozave avem, 00:01:39.000 --> 00:01:41.000 cât de mult dorim să acceptăm 00:01:41.000 --> 00:01:43.000 riscul furtului. 00:01:43.000 --> 00:01:45.000 În politică de asemenea 00:01:45.000 --> 00:01:47.000 sunt opinii diferite. 00:01:47.000 --> 00:01:49.000 De multe ori aceste schimburi 00:01:49.000 --> 00:01:51.000 sunt despre mai mult decât securitate, 00:01:51.000 --> 00:01:53.000 și cred că asta este foarte important. 00:01:53.000 --> 00:01:55.000 Oamenii au o intuiție înnăscută 00:01:55.000 --> 00:01:57.000 despre aceste schimburi. 00:01:57.000 --> 00:01:59.000 Le facem zilnic -- 00:01:59.000 --> 00:02:01.000 noaptea trecută în camera mea de hotel, 00:02:01.000 --> 00:02:03.000 când am decis să încui ușa de două ori, 00:02:03.000 --> 00:02:05.000 sau voi în mașinile cu care ați venit aici, 00:02:05.000 --> 00:02:07.000 când mergem la prânz 00:02:07.000 --> 00:02:10.000 și decidem că hrana nu este otravă și o vom mânca. 00:02:10.000 --> 00:02:12.000 Facem aceste schimburi iar și iar 00:02:12.000 --> 00:02:14.000 de mai multe ori pe zi. 00:02:14.000 --> 00:02:16.000 Adesea nici nu le observăm. 00:02:16.000 --> 00:02:18.000 Ele sunt parte a vieții, toți o facem. NOTE Paragraph 00:02:18.000 --> 00:02:21.000 Fiecare specie o face. 00:02:21.000 --> 00:02:23.000 Imaginați-vă un iepure în câmp, mâncând iarba, 00:02:23.000 --> 00:02:26.000 și iepurele vede o vulpe. 00:02:26.000 --> 00:02:28.000 Iepurele va face un schimb de securitate. 00:02:28.000 --> 00:02:30.000 "Să stau sau să fug?" 00:02:30.000 --> 00:02:32.000 Și dacă vă gândiți la asta, 00:02:32.000 --> 00:02:35.000 iepurii care sunt buni la aceste schimburi 00:02:35.000 --> 00:02:37.000 vor tinde să trăiască și să se reproducă, 00:02:37.000 --> 00:02:39.000 iar iepurii care nu sunt buni la asta 00:02:39.000 --> 00:02:41.000 vor fi mâncați sau vor muri de foame. 00:02:41.000 --> 00:02:43.000 Deci ați gândi că noi, 00:02:43.000 --> 00:02:46.000 ca o specie de succes a planetei -- 00:02:46.000 --> 00:02:48.000 voi, eu, toți -- 00:02:48.000 --> 00:02:51.000 am fi foarte buni în a face aceste schimburi. 00:02:51.000 --> 00:02:53.000 Cu toate acestea se pare că, iar și iar, 00:02:53.000 --> 00:02:56.000 suntem foarte nepricepuți în asta. 00:02:56.000 --> 00:02:59.000 Și eu cred că asta este o întrebare fundamental interesantă. NOTE Paragraph 00:02:59.000 --> 00:03:01.000 Vă voi da răspunsul scurt. 00:03:01.000 --> 00:03:03.000 Răspunsul este că răspundem la senzația de securitate 00:03:03.000 --> 00:03:06.000 și nu la realitate. 00:03:06.000 --> 00:03:09.000 În majoritatea cazurilor asta merge. 00:03:10.000 --> 00:03:12.000 În majoritatea cazurilor, 00:03:12.000 --> 00:03:15.000 senzația și realitatea sunt identice. 00:03:15.000 --> 00:03:17.000 În mod cert asta este adevărat 00:03:17.000 --> 00:03:20.000 pentru majoritatea preistoriei umane. 00:03:20.000 --> 00:03:23.000 Am dezvoltat această abilitate 00:03:23.000 --> 00:03:25.000 fiindcă are sens din puct de vedere evoluționar. 00:03:25.000 --> 00:03:27.000 Un mod de a gândi la asta 00:03:27.000 --> 00:03:29.000 este că suntem extrem de optimizați 00:03:29.000 --> 00:03:31.000 pentru decizii de risc 00:03:31.000 --> 00:03:34.000 tipice vieții în mici grupuri familiale 00:03:34.000 --> 00:03:37.000 în savana africană din anul 100.000 î.H. -- 00:03:37.000 --> 00:03:40.000 dar nu așa de mult pentru anul 2010, în New York. NOTE Paragraph 00:03:41.000 --> 00:03:44.000 Există mai multe predispoziţii în perceperea riscului. 00:03:44.000 --> 00:03:46.000 Există o mulțime de experimente bune pentru asta. 00:03:46.000 --> 00:03:49.000 Și poți observa anumite predispoziţii care apar din nou și din nou. 00:03:49.000 --> 00:03:51.000 Vă voi da patru. 00:03:51.000 --> 00:03:54.000 Tindem să exagerăm riscurile spectaculoase și rare 00:03:54.000 --> 00:03:56.000 și să desconsiderăm riscurile comune -- 00:03:56.000 --> 00:03:59.000 de ex. a zbura comparat cu a conduce. 00:03:59.000 --> 00:04:01.000 Necunoscutul este perceput 00:04:01.000 --> 00:04:04.000 a fi mai riscant decât cunoscutul. 00:04:05.000 --> 00:04:07.000 Un exemplu ar fi, 00:04:07.000 --> 00:04:10.000 oamenilor le e teamă de străinii care răpesc copii, 00:04:10.000 --> 00:04:13.000 când datele susțin că răpirea de către rude este mult mai comună. 00:04:13.000 --> 00:04:15.000 Asta este pentru copii. 00:04:15.000 --> 00:04:18.000 Trei, riscurile personificate 00:04:18.000 --> 00:04:21.000 sunt percepute a fi mai mari decât riscurile anonime -- 00:04:21.000 --> 00:04:24.000 deci Bin Laden este mai înspăimântător fiindcă are un nume. 00:04:24.000 --> 00:04:26.000 Și a patra 00:04:26.000 --> 00:04:28.000 este că oamenii subestimează riscurile 00:04:28.000 --> 00:04:30.000 în situații pe care le controlează 00:04:30.000 --> 00:04:34.000 și le supraestimează în situații pe care nu le controlează. 00:04:34.000 --> 00:04:37.000 Deci odată ce te-ai apucat de sărituri cu parașuta sau de fumat, 00:04:37.000 --> 00:04:39.000 desconsideri riscurile. 00:04:39.000 --> 00:04:42.000 Dacă ți se impune un risc cu forța -- terorismul a fost un bun exemplu -- 00:04:42.000 --> 00:04:45.000 îl vei exagera, fiindcă simți că nu este sub controlul tău. NOTE Paragraph 00:04:47.000 --> 00:04:50.000 Există o mulțime de alte predispoziţii, aceste predispoziţii cognitive, 00:04:50.000 --> 00:04:53.000 care afectează deciziile noastre de risc. 00:04:53.000 --> 00:04:55.000 Este heuristica disponibilității, 00:04:55.000 --> 00:04:57.000 care de fapt înseamnă 00:04:57.000 --> 00:05:00.000 că estimăm probabilitatea a ceva 00:05:00.000 --> 00:05:04.000 prin cât de ușor ne imaginăm instanțele ei. 00:05:04.000 --> 00:05:06.000 Puteți să vă imaginați cum funcționează asta. 00:05:06.000 --> 00:05:09.000 Dacă auziți mult despre atacuri de tigri, trebuie să fie mulți tigri în jur. 00:05:09.000 --> 00:05:12.000 Nu auziți despre atacuri de lei, deci nu sunt mulți lei în jur. 00:05:12.000 --> 00:05:15.000 Asta funcționează până inventezi ziarele. 00:05:15.000 --> 00:05:17.000 Fiindcă ziarele 00:05:17.000 --> 00:05:19.000 repetă din nou și din nou 00:05:19.000 --> 00:05:21.000 riscurile rare. 00:05:21.000 --> 00:05:23.000 Eu le spun oamenilor: dacă este în știri, nu te îngrijora. 00:05:23.000 --> 00:05:25.000 Fiindcă prin definiție, 00:05:25.000 --> 00:05:28.000 știrea este ceva care se întâmplă foarte rar. 00:05:28.000 --> 00:05:30.000 (Râsete) 00:05:30.000 --> 00:05:33.000 Când ceva este așa de comun. nu mai apare în știri -- 00:05:33.000 --> 00:05:35.000 accidente de mașină, violența domestică -- 00:05:35.000 --> 00:05:38.000 acelea sunt riscurile pentru care să te îngrijorezi. NOTE Paragraph 00:05:38.000 --> 00:05:40.000 Suntem de asemenea o specie de povestitori. 00:05:40.000 --> 00:05:43.000 Răspundem mai mult la povești, decât la date. 00:05:43.000 --> 00:05:45.000 Și există o lipsă de știință în aprecierea numerelor. 00:05:45.000 --> 00:05:48.000 Adică bancul: "Una, două, trei, multe" pare să fie adevărat. 00:05:48.000 --> 00:05:51.000 Suntem foarte buni la numere mici. 00:05:51.000 --> 00:05:53.000 Un mango, două mango, trei mango, 00:05:53.000 --> 00:05:55.000 însă 10,000 de mango, 100,000 mango -- 00:05:55.000 --> 00:05:58.000 sunt totuși mai multe mango decât poți mânca înainte de a putrezi. 00:05:58.000 --> 00:06:01.000 Deci o jumătate, un sfert, o cincime -- suntem buni la asta. 00:06:01.000 --> 00:06:03.000 Unul dintr-un milion, unul dintr-un miliard -- 00:06:03.000 --> 00:06:06.000 ambele sunt aproape ca niciodată. 00:06:06.000 --> 00:06:08.000 Așa că avem problemă cu riscurile 00:06:08.000 --> 00:06:10.000 care nu sunt foarte comune. NOTE Paragraph 00:06:10.000 --> 00:06:12.000 Iar aceste predispoziţii cognitive 00:06:12.000 --> 00:06:15.000 acționează ca niște filtre între noi și realitate. 00:06:15.000 --> 00:06:17.000 Și rezultatul 00:06:17.000 --> 00:06:19.000 este că senzația și realitatea ies din sincron, 00:06:19.000 --> 00:06:22.000 ajung diferite. 00:06:22.000 --> 00:06:25.000 Fie ai o senzație -- te simți mai sigur decât ești în realitate. 00:06:25.000 --> 00:06:27.000 Este o falsă senzație de securitate. 00:06:27.000 --> 00:06:29.000 Sau invers, 00:06:29.000 --> 00:06:31.000 și atunci este o falsă senzație de insecuritate. 00:06:31.000 --> 00:06:34.000 Scriu mult despre "scena securității", 00:06:34.000 --> 00:06:37.000 care sunt produsele care îi fac pe oamenii să se simtă în siguranță, 00:06:37.000 --> 00:06:39.000 dar de fapt nu fac ceva util. 00:06:39.000 --> 00:06:41.000 Nu există cuvânt pentru lucrurile care ne asigură securitatea, 00:06:41.000 --> 00:06:43.000 dar nu ne fac să ne simțim mai în siguranță. 00:06:43.000 --> 00:06:46.000 Poate asta ar trebui să facă CIA pentru noi. NOTE Paragraph 00:06:48.000 --> 00:06:50.000 Deci înapoi la economie. 00:06:50.000 --> 00:06:54.000 Dacă economia, dacă piața, dirijează securitatea, 00:06:54.000 --> 00:06:56.000 și dacă oamenii fac schimburi 00:06:56.000 --> 00:06:59.000 bazate pe senzația de securitate, 00:06:59.000 --> 00:07:01.000 atunci companiile trebuie să facă 00:07:01.000 --> 00:07:03.000 oamenii să se simtă în siguranță 00:07:03.000 --> 00:07:06.000 pentru a culege recompensele economice. 00:07:06.000 --> 00:07:09.000 Și sunt două căi de a face asta. 00:07:09.000 --> 00:07:11.000 Prima, poți asigura securitatea omenilor 00:07:11.000 --> 00:07:13.000 și speri că vor observa. 00:07:13.000 --> 00:07:16.000 Sau a doua, poți să-i faci pe oameni să se simtă în siguranță 00:07:16.000 --> 00:07:19.000 și speri că nu vor observa. 00:07:20.000 --> 00:07:23.000 Deci ce-i face pe oameni să observe? 00:07:23.000 --> 00:07:25.000 Câteva lucruri: 00:07:25.000 --> 00:07:27.000 înțelegerea securității, 00:07:27.000 --> 00:07:29.000 a riscurilor, a amenințărilor, 00:07:29.000 --> 00:07:32.000 a contramăsurilor, cum funcționează ele. 00:07:32.000 --> 00:07:34.000 Dar dacă știi lucrurile, 00:07:34.000 --> 00:07:37.000 este mai probabil ca senzațiile tale să se potrivească cu realitatea. 00:07:37.000 --> 00:07:40.000 Multe exemple din lumea reală ne pot ajuta. NOTE Paragraph 00:07:40.000 --> 00:07:43.000 Știm cu toții despre rata crimelor din cartierul nostru, 00:07:43.000 --> 00:07:46.000 fiindcă trăim acolo și avem o atitudine față de asta, 00:07:46.000 --> 00:07:49.000 senzație care de fapt se potrivește cu realitatea. 00:07:49.000 --> 00:07:52.000 Spectacolul de securitate este dezvăluit 00:07:52.000 --> 00:07:55.000 când este evident că nu funționează corect. 00:07:55.000 --> 00:07:59.000 În regulă, deci ce-i face pe oameni să nu observe? 00:07:59.000 --> 00:08:01.000 Ei bine, o slabă înțelegere. 00:08:01.000 --> 00:08:04.000 Dacă nu înțelegi riscurile, nu înțelegi costurile, 00:08:04.000 --> 00:08:06.000 vei face probabil schimbul greșit, 00:08:06.000 --> 00:08:09.000 și senzația ta nu se va potrivi cu realitatea. 00:08:09.000 --> 00:08:11.000 Nu sunt destule exemple. 00:08:11.000 --> 00:08:13.000 Este o problemă inerentă 00:08:13.000 --> 00:08:15.000 cu evenimentele de mică probabilitate. 00:08:15.000 --> 00:08:17.000 Dacă, de exemplu, 00:08:17.000 --> 00:08:19.000 terorismul se întâmplă foarte rar, 00:08:19.000 --> 00:08:21.000 este foarte greu de judecat 00:08:21.000 --> 00:08:24.000 eficacitatea măsurilor antiteroriste. 00:08:25.000 --> 00:08:28.000 De asta continui să sacrifici fecioare, 00:08:28.000 --> 00:08:31.000 și de asta funcționează așa de minunat apărarea ta bazată pe inorogi. 00:08:31.000 --> 00:08:34.000 Nu sunt destule exemple de eșecuri. 00:08:35.000 --> 00:08:38.000 De asemenea, sentimentele care obturează problemele -- 00:08:38.000 --> 00:08:40.000 predispoziţiile cognitive despre care am vorbit înainte, 00:08:40.000 --> 00:08:43.000 temeri, credințe populare, 00:08:43.000 --> 00:08:46.000 de fapt un model neadecvat al realității. NOTE Paragraph 00:08:47.000 --> 00:08:50.000 Permiteți-mi să complic lucrurile. 00:08:50.000 --> 00:08:52.000 Am senzație și realitate. 00:08:52.000 --> 00:08:55.000 Vreau să adaug un al treilea element. Vreau să adaug modelul. 00:08:55.000 --> 00:08:57.000 Senzația și modelul este în capul nostru, 00:08:57.000 --> 00:08:59.000 realitatea este lumea din jur. 00:08:59.000 --> 00:09:02.000 Ea nu se schimbă; este reală. 00:09:02.000 --> 00:09:04.000 Senzația este bazată pe intuiția noastră. 00:09:04.000 --> 00:09:06.000 Modelul este bazat pe raționament. 00:09:06.000 --> 00:09:09.000 Asta este de fapt diferența. 00:09:09.000 --> 00:09:11.000 Într-o lume primitivă și simplă, 00:09:11.000 --> 00:09:14.000 chiar nu este nevoie de un model. 00:09:14.000 --> 00:09:17.000 Fiindcă senzația este aproape de realitate. 00:09:17.000 --> 00:09:19.000 Nu ai nevoie de un model. 00:09:19.000 --> 00:09:21.000 Dar într-o lume modernă și complexă, 00:09:21.000 --> 00:09:23.000 ai nevoie de modele 00:09:23.000 --> 00:09:26.000 pentru a înțelege mulțimea de riscuri care există. 00:09:27.000 --> 00:09:29.000 Nu există senzație despre microbi. 00:09:29.000 --> 00:09:32.000 Ai nevoie de un model pentru a-i înțelege. 00:09:32.000 --> 00:09:34.000 Deci acest model 00:09:34.000 --> 00:09:37.000 este o reprezentare inteligentă a realității. 00:09:37.000 --> 00:09:40.000 Este desigur limitat de știință, 00:09:40.000 --> 00:09:42.000 de tehnologie. 00:09:42.000 --> 00:09:45.000 Nu am putut avea o teorie a bolilor bazată pe microbi 00:09:45.000 --> 00:09:48.000 înainte de inventarea microscopului pentru a le vedea. 00:09:49.000 --> 00:09:52.000 Este limitat de predispoziţiile noastre cognitive. 00:09:52.000 --> 00:09:54.000 Dar are abilitatea 00:09:54.000 --> 00:09:56.000 de a suprascrie senzațiile noastre. NOTE Paragraph 00:09:56.000 --> 00:09:59.000 De unde avem aceste modele? Le avem de la alții. 00:09:59.000 --> 00:10:02.000 Le avem din religie, cultură, 00:10:02.000 --> 00:10:04.000 profesori, strămoși. 00:10:04.000 --> 00:10:06.000 Cu câțiva ani în urmă, 00:10:06.000 --> 00:10:08.000 am fost în Africa de sud la un safari. 00:10:08.000 --> 00:10:11.000 Călăuza cu care am fost a crescut în Parcul Național Kruger. 00:10:11.000 --> 00:10:14.000 El avea niște modele foarte complexe despre cum să supraviețuiești. 00:10:14.000 --> 00:10:16.000 Iar asta depindea dacă te ataca 00:10:16.000 --> 00:10:18.000 un leu sau un leopard sau un rinocer sau un elefant -- 00:10:18.000 --> 00:10:21.000 și când trebuie să fugi, și când trebuie să te urci într-un copac -- 00:10:21.000 --> 00:10:23.000 și când nu trebuie să te urci într-un copac. 00:10:23.000 --> 00:10:26.000 Eu aș fi murit într-o singură zi, 00:10:26.000 --> 00:10:28.000 dar el s-a născut acolo, 00:10:28.000 --> 00:10:30.000 și înțelegea cum să supraviețuiești. 00:10:30.000 --> 00:10:32.000 Eu m-am născut în New York City. 00:10:32.000 --> 00:10:35.000 Dacă l-aș fi luat cu mine în New York, atunci el ar fi murit într-o singură zi. 00:10:35.000 --> 00:10:37.000 (Râsete) 00:10:37.000 --> 00:10:39.000 Fiindcă aveam modele diferite 00:10:39.000 --> 00:10:42.000 bazate pe experiențele noastre diferite. NOTE Paragraph 00:10:43.000 --> 00:10:45.000 Modelele pot veni din massmedia, 00:10:45.000 --> 00:10:48.000 de la aleșii noștri oficiali. 00:10:48.000 --> 00:10:51.000 Gândiți-vă la modele de terorism, 00:10:51.000 --> 00:10:54.000 răpiri de copii, 00:10:54.000 --> 00:10:56.000 siguranța zborului, siguranța mașinii. 00:10:56.000 --> 00:10:59.000 Modelele pot veni din industrie. 00:10:59.000 --> 00:11:01.000 Cele două pe care la urmăresc sunt camerele de supraveghere, 00:11:01.000 --> 00:11:03.000 cardurile de identitate, 00:11:03.000 --> 00:11:06.000 destul de multe din modelele de securitatea calculatoarelor vin de acolo. 00:11:06.000 --> 00:11:09.000 O mulțime de modele vin din știință. 00:11:09.000 --> 00:11:11.000 Modelele de sănătate sunt un exemplu grozav. 00:11:11.000 --> 00:11:14.000 Gândiți-vă la cancer, gripa aviară, gripa porcină, SARS. 00:11:14.000 --> 00:11:17.000 Toate senzațiile noastre de securitate 00:11:17.000 --> 00:11:19.000 despre acele boli 00:11:19.000 --> 00:11:21.000 vin din modele 00:11:21.000 --> 00:11:24.000 date nouă, de fapt, de știință filtrată prin massmedia. 00:11:25.000 --> 00:11:28.000 Așa că modelele se pot schimba. 00:11:28.000 --> 00:11:30.000 Modelele nu sunt statice. 00:11:30.000 --> 00:11:33.000 Pe măsură ce devenim mai confortabili în mediile noastre, 00:11:33.000 --> 00:11:37.000 modelele noastre se pot muta mai aproape de senzațiile noastre. NOTE Paragraph 00:11:38.000 --> 00:11:40.000 Un exemplu ar fi, 00:11:40.000 --> 00:11:42.000 dacă mergeți înapoi 100 de ani 00:11:42.000 --> 00:11:45.000 când electricitatea a început să fie folosită, 00:11:45.000 --> 00:11:47.000 erau multe temeri legate de ea. 00:11:47.000 --> 00:11:49.000 Erau oameni cărora le era frică să apese butonul soneriei, 00:11:49.000 --> 00:11:52.000 fiindcă era electricitate în el, iar asta era periculos. 00:11:52.000 --> 00:11:55.000 Noi suntem degajați privind electricitatea. 00:11:55.000 --> 00:11:57.000 Schimbăm becurile electrice 00:11:57.000 --> 00:11:59.000 fără să ne gândim la ea. 00:11:59.000 --> 00:12:03.000 Modelul nostru de securitate despre electricitate 00:12:03.000 --> 00:12:06.000 este ceva în care trăim de la naștere. 00:12:06.000 --> 00:12:09.000 El nu s-a schimbat pe durata vieții noastre. 00:12:09.000 --> 00:12:12.000 Și suntem buni la acest model. 00:12:12.000 --> 00:12:14.000 Sau gândiți-vă la riscurile 00:12:14.000 --> 00:12:16.000 Internetului perceput de generații -- 00:12:16.000 --> 00:12:18.000 cum tratează părinții voștri securitatea Internetului, 00:12:18.000 --> 00:12:20.000 față de cum faceți voi, 00:12:20.000 --> 00:12:23.000 față de cum vor face copiii noștri. 00:12:23.000 --> 00:12:26.000 În cele din urmă modelele dispar în fundal. 00:12:27.000 --> 00:12:30.000 Intuitiv este doar un alt cuvânt pentru familiar. NOTE Paragraph 00:12:30.000 --> 00:12:32.000 Pe măsură ce modelul tău este aproape de realitate, 00:12:32.000 --> 00:12:34.000 și converge cu senzațiile, 00:12:34.000 --> 00:12:37.000 adesea nici nu știi că e acolo. 00:12:37.000 --> 00:12:39.000 Un exemplu drăguț pentru asta 00:12:39.000 --> 00:12:42.000 a fost gripa porcină de anul trecut. 00:12:42.000 --> 00:12:44.000 Când gripa porcină a apărut prima dată, 00:12:44.000 --> 00:12:48.000 știrile inițiale au provocat multe reacții exagerate. 00:12:48.000 --> 00:12:50.000 Apoi a avut un nume, 00:12:50.000 --> 00:12:52.000 ceea ce a făcut-o mai de speriat decât gripa normală, 00:12:52.000 --> 00:12:54.000 chiar dacă a fost mai mortală. 00:12:54.000 --> 00:12:58.000 Și oamenii au gândit că doctorii vor fi în stare să-i facă față. 00:12:58.000 --> 00:13:00.000 Deci a fost senzația lipsei de control. 00:13:00.000 --> 00:13:02.000 Iar aceste două lucruri 00:13:02.000 --> 00:13:04.000 au făcut riscul mai mare decât era. 00:13:04.000 --> 00:13:07.000 După ce a trecut noutatea, au trecut luni, 00:13:07.000 --> 00:13:09.000 a existat o doză de toleranță, 00:13:09.000 --> 00:13:11.000 oamenii s-au obișnuit cu ea. 00:13:11.000 --> 00:13:14.000 Nu existau date noi, dar era mai puțină frică. 00:13:14.000 --> 00:13:16.000 Până toamna, 00:13:16.000 --> 00:13:18.000 oamenii au gândit 00:13:18.000 --> 00:13:20.000 că doctorii au rezolvat deja asta. 00:13:20.000 --> 00:13:22.000 Și există un fel de bifurcație -- 00:13:22.000 --> 00:13:24.000 oamenii au trebuit să aleagă 00:13:24.000 --> 00:13:28.000 între frică și acceptare -- 00:13:28.000 --> 00:13:30.000 de fapt frică și indiferență -- 00:13:30.000 --> 00:13:33.000 și ei au devenit suspicioși. 00:13:33.000 --> 00:13:36.000 Și când a apărut vaccinul iarna trecută, 00:13:36.000 --> 00:13:39.000 erau o mulțime de oameni -- un număr surprinzător -- 00:13:39.000 --> 00:13:42.000 care au refuzat să-l ia -- 00:13:43.000 --> 00:13:45.000 ca un exemplu drăguț 00:13:45.000 --> 00:13:48.000 de cum se schimbă senzația de securitate a oamenilor, cum se schimbă modelul lor, 00:13:48.000 --> 00:13:50.000 într-un mod nebunesc 00:13:50.000 --> 00:13:52.000 fără informații noi, 00:13:52.000 --> 00:13:54.000 fără date noi de intrare. 00:13:54.000 --> 00:13:57.000 Acest lucru se întâmplă des. NOTE Paragraph 00:13:57.000 --> 00:14:00.000 Voi mai face o complicare în plus. 00:14:00.000 --> 00:14:03.000 Avem senzație, model, realitate. 00:14:03.000 --> 00:14:05.000 Am o vedere foarte relativistă a securității. 00:14:05.000 --> 00:14:08.000 Cred că depinde de observator. 00:14:08.000 --> 00:14:10.000 Și majoritatea deciziilor de securitate 00:14:10.000 --> 00:14:14.000 implică o diversitate de oameni. 00:14:14.000 --> 00:14:16.000 Iar părțile interesate 00:14:16.000 --> 00:14:19.000 cu schimburi specifice 00:14:19.000 --> 00:14:21.000 vor încerca să influențeze decizia. 00:14:21.000 --> 00:14:23.000 Și eu numesc asta planul lor. 00:14:23.000 --> 00:14:25.000 Și vedeți planuri -- 00:14:25.000 --> 00:14:28.000 în marketing, în politică -- 00:14:28.000 --> 00:14:31.000 încercând să te convingă să ai un anumit model față de un altul, 00:14:31.000 --> 00:14:33.000 încercând să te convingă să ignori un model 00:14:33.000 --> 00:14:36.000 și să te încrezi în senzațiile tale, 00:14:36.000 --> 00:14:39.000 marginalizând oamenii cu modele care nu-ți plac. 00:14:39.000 --> 00:14:42.000 Asta nu este ceva neobişnuit. 00:14:42.000 --> 00:14:45.000 Un exemplu grozav este riscul fumatului. 00:14:46.000 --> 00:14:49.000 În istoria ultimilor 50 de ani, riscul fumatului 00:14:49.000 --> 00:14:51.000 arată cum se schimbă un model, 00:14:51.000 --> 00:14:54.000 și arată de asemenea cum o industrie luptă 00:14:54.000 --> 00:14:56.000 împotriva unui model care nu-i place. 00:14:56.000 --> 00:14:59.000 Comparați asta cu dezbaterea despre fumatul pasiv -- 00:14:59.000 --> 00:15:02.000 probabil cu aproape 20 de ani în urmă. 00:15:02.000 --> 00:15:04.000 Gândiți-vă la centurile de siguranță. 00:15:04.000 --> 00:15:06.000 Când eram copil, nimeni nu purta centura de siguranță. 00:15:06.000 --> 00:15:08.000 Azi, niciun copil nu te va lăsa să conduci 00:15:08.000 --> 00:15:10.000 dacă nu ai centura de siguranță. 00:15:11.000 --> 00:15:13.000 Comparați asta cu dezbaterea despre perna de aer -- 00:15:13.000 --> 00:15:16.000 probabil cu 30 de ani în urmă. NOTE Paragraph 00:15:16.000 --> 00:15:19.000 Toate sunt exemple de schimbări de modele. 00:15:21.000 --> 00:15:24.000 Ceea ce învățăm este că schimbarea modelelor este dificilă. 00:15:24.000 --> 00:15:26.000 Modelele sunt greu de dislocat. 00:15:26.000 --> 00:15:28.000 Dacă sunt la fel cu senzațiile tale 00:15:28.000 --> 00:15:31.000 nu știi că ai un model. 00:15:31.000 --> 00:15:33.000 Și există o altă predispoziţie cognitivă 00:15:33.000 --> 00:15:35.000 pe care o numesc predispoziţie de confirmare, 00:15:35.000 --> 00:15:38.000 unde tindem să acceptăm datele 00:15:38.000 --> 00:15:40.000 care confirmă credințele noastre 00:15:40.000 --> 00:15:43.000 și să rejectăm datele care contrazic credințele noastre. 00:15:44.000 --> 00:15:46.000 Deci probabil vom ignora dovada 00:15:46.000 --> 00:15:49.000 împotriva modelului nostru, chiar dacă este convingătoare. 00:15:49.000 --> 00:15:52.000 Trebuie să devină foarte convingătoare înainte de a-i acorda atenție. 00:15:53.000 --> 00:15:55.000 Modele noi care se întind perioade lungi de timp sunt dificile. 00:15:55.000 --> 00:15:57.000 Încălzirea globală este un exemplu grozav. 00:15:57.000 --> 00:15:59.000 Suntem îngrozitori 00:15:59.000 --> 00:16:01.000 la modele care acoperă 80 de ani. 00:16:01.000 --> 00:16:03.000 Putem s-o facem până la următoarea recoltă. 00:16:03.000 --> 00:16:06.000 Adesea o putem face până cresc copiii noștri. 00:16:06.000 --> 00:16:09.000 Dar 80 de ani, pur și simplu nu suntem buni la asta. 00:16:09.000 --> 00:16:12.000 Deci este un model foarte greu de acceptat. 00:16:12.000 --> 00:16:16.000 Putem avea ambele modele simultan în cap, 00:16:16.000 --> 00:16:19.000 sau acel tip de problemă 00:16:19.000 --> 00:16:22.000 când avem ambele credințe simultan, 00:16:22.000 --> 00:16:24.000 sau disonanța cognitivă. 00:16:24.000 --> 00:16:26.000 În final modelul nou 00:16:26.000 --> 00:16:29.000 va înlocui modelul vechi. NOTE Paragraph 00:16:29.000 --> 00:16:32.000 Senzațiile puternice pot crea un model. 00:16:32.000 --> 00:16:35.000 11 septembrie a creat un model de securitate 00:16:35.000 --> 00:16:37.000 în capul multor oameni. 00:16:37.000 --> 00:16:40.000 Experiența personală cu criminalitatea o poate face, 00:16:40.000 --> 00:16:42.000 panica pentru sănătatea personală, 00:16:42.000 --> 00:16:44.000 o panică de sănătate în știri. 00:16:44.000 --> 00:16:46.000 Psihiatrii numesc asta 00:16:46.000 --> 00:16:48.000 evenimente "se aprinde becul". 00:16:48.000 --> 00:16:51.000 Ele pot crea instantaneu un model, 00:16:51.000 --> 00:16:54.000 fiindcă sunt foarte emoționale. NOTE Paragraph 00:16:54.000 --> 00:16:56.000 În lumea tehnologică 00:16:56.000 --> 00:16:58.000 nu avem experiența 00:16:58.000 --> 00:17:00.000 de a judeca modele. 00:17:00.000 --> 00:17:02.000 Și ne bazăm pe alții. Ne bazăm pe împuterniciți. 00:17:02.000 --> 00:17:06.000 Adică, asta funcționează cât timp este în regulă pentru alții. 00:17:06.000 --> 00:17:08.000 Ne bazăm pe agenții guvernamentale 00:17:08.000 --> 00:17:13.000 să ne spună care sunt medicamentele sigure. 00:17:13.000 --> 00:17:15.000 Ieri am zburat aici. 00:17:15.000 --> 00:17:17.000 Nu am verificat avionul. 00:17:17.000 --> 00:17:19.000 M-am bazat pe un alt grup 00:17:19.000 --> 00:17:22.000 să constate dacă avionul meu este sigur pentru zbor. 00:17:22.000 --> 00:17:25.000 Suntem aici, nimănui nu-i este teamă că acoperișul va cădea peste noi, 00:17:25.000 --> 00:17:28.000 nu fiindcă am verificat, 00:17:28.000 --> 00:17:30.000 ci fiindcă suntem destul de siguri 00:17:30.000 --> 00:17:33.000 că aici normele de construcție sunt bune. 00:17:33.000 --> 00:17:35.000 Este un model pe care-l acceptăm 00:17:35.000 --> 00:17:37.000 mai mult prin încredere. 00:17:37.000 --> 00:17:40.000 Și asta este în regulă. NOTE Paragraph 00:17:42.000 --> 00:17:44.000 Ceea ce vrem este ca 00:17:44.000 --> 00:17:46.000 oamenii să devină suficient de obișnuiți 00:17:46.000 --> 00:17:48.000 cu modele mai bune -- 00:17:48.000 --> 00:17:50.000 să le reflecte în senzațiile lor -- 00:17:50.000 --> 00:17:54.000 să le permită să facă schimburi de securitate. 00:17:54.000 --> 00:17:56.000 Când acestea se strică, 00:17:56.000 --> 00:17:58.000 ai două opțiuni. 00:17:58.000 --> 00:18:00.000 Prima, poți repara senzațiile oamenilor, 00:18:00.000 --> 00:18:02.000 apelând direct la sentimente. 00:18:02.000 --> 00:18:05.000 Este manipulare, dar poate funcționa. 00:18:05.000 --> 00:18:07.000 A doua cale, mai cinstită, 00:18:07.000 --> 00:18:10.000 este să repari modelul. 00:18:11.000 --> 00:18:13.000 Schimbările se întâmplă încet. 00:18:13.000 --> 00:18:16.000 Dezbaterea despre fumat a luat 40 de ani, 00:18:16.000 --> 00:18:19.000 și asta a fost una ușoară. 00:18:19.000 --> 00:18:21.000 Unele din aceste lucruri sunt dificile. 00:18:21.000 --> 00:18:23.000 Adică foarte dificile, 00:18:23.000 --> 00:18:25.000 informația pare cea mai bună speranță pentru noi. NOTE Paragraph 00:18:25.000 --> 00:18:27.000 Și am mințit. 00:18:27.000 --> 00:18:29.000 Țineți minte când am spus: senzație, model, realitate. 00:18:29.000 --> 00:18:32.000 Am spus că realitatea nu se schimbă. De fapt o face. 00:18:32.000 --> 00:18:34.000 Trăim într-o lume tehnologică; 00:18:34.000 --> 00:18:37.000 realitatea se schimbă tot timpul. 00:18:37.000 --> 00:18:40.000 Deci s-ar putea să avem -- pentru prima dată ca specie -- 00:18:40.000 --> 00:18:43.000 senzația urmărește modelul, modelul urmărește realitatea, 00:18:43.000 --> 00:18:46.000 iar realitatea se mișcă -- s-ar putea să nu se ajungă niciodată. 00:18:47.000 --> 00:18:49.000 Nu știm. 00:18:49.000 --> 00:18:51.000 Dar pe termen lung, 00:18:51.000 --> 00:18:54.000 sunt importante și senzația și realitatea. 00:18:54.000 --> 00:18:57.000 Și vreau să închei cu două istorioare pentru a ilustra asta. NOTE Paragraph 00:18:57.000 --> 00:18:59.000 1982 -- nu știu dacă oamenii își vor aminti asta -- 00:18:59.000 --> 00:19:02.000 a fost o scurtă epidemie 00:19:02.000 --> 00:19:04.000 de otrăvire cu Tylenol în SUA. 00:19:04.000 --> 00:19:07.000 Este o poveste oribilă. Cineva a luat o sticlă de Tylenol, 00:19:07.000 --> 00:19:10.000 a pus otravă în ea, a închis-o la loc, a pus-o înapoi pe raft. 00:19:10.000 --> 00:19:12.000 Altcineva a cumpărat-o și a murit. 00:19:12.000 --> 00:19:14.000 Asta a îngrozit lumea. 00:19:14.000 --> 00:19:16.000 Au fost câteva cazuri de copiere a atacului. 00:19:16.000 --> 00:19:19.000 Nu exista un risc real, dar oamenii erau speriați. 00:19:19.000 --> 00:19:21.000 Și așa a fost inventată 00:19:21.000 --> 00:19:23.000 industria medicamentelor sigilate. 00:19:23.000 --> 00:19:25.000 Acele capace sigilate au rezultat din asta. 00:19:25.000 --> 00:19:27.000 Este un adevărat spectacol de securitate. 00:19:27.000 --> 00:19:29.000 Ca temă pentr acasă, gândiți-vă la 10 căi de a ocoli asta. 00:19:29.000 --> 00:19:32.000 Vă dau una: o seringă. 00:19:32.000 --> 00:19:35.000 Dar a făcut oamenii să se simtă mai bine. 00:19:35.000 --> 00:19:37.000 A făcut ca senzația lor de securitate 00:19:37.000 --> 00:19:39.000 să se potrivească mai mult cu realitatea. NOTE Paragraph 00:19:39.000 --> 00:19:42.000 Ulima poveste, acum câțiva ani, o prietenă a născut. 00:19:42.000 --> 00:19:44.000 Am vizitat-o în spital. 00:19:44.000 --> 00:19:46.000 Am aflat că acum când se naște un copil, 00:19:46.000 --> 00:19:48.000 se pune o brățară cu identificator radio (RFID) bebelușului, 00:19:48.000 --> 00:19:50.000 se pune una corespunzătoare mamei, 00:19:50.000 --> 00:19:52.000 deci dacă oricine altcineva decât mama scoate copilul 00:19:52.000 --> 00:19:54.000 din maternitate, va suna o alarmă. 00:19:54.000 --> 00:19:56.000 Am zis: "Ei bine, asta este simplu dar elegant. 00:19:56.000 --> 00:19:58.000 Mă întreb cât de excesiv este furtul 00:19:58.000 --> 00:20:00.000 de bebeluși din spitale." 00:20:00.000 --> 00:20:02.000 Am mers acasă, am căutat asta. 00:20:02.000 --> 00:20:04.000 De fapt nu se întâmplă niciodată. 00:20:04.000 --> 00:20:06.000 Dar dacă te gândești la asta, 00:20:06.000 --> 00:20:08.000 dacă ești un spital, 00:20:08.000 --> 00:20:10.000 și dacă trebuie să iei un bebeluș de la mama lui, 00:20:10.000 --> 00:20:12.000 afară din cameră pentru niște teste, 00:20:12.000 --> 00:20:14.000 ar fi bine să ai un spectacol de securitate bun, 00:20:14.000 --> 00:20:16.000 sau mama îți va rupe brațul. NOTE Paragraph 00:20:16.000 --> 00:20:18.000 (Râsete) NOTE Paragraph 00:20:18.000 --> 00:20:20.000 Deci este important pentru noi, 00:20:20.000 --> 00:20:22.000 cei care proiectăm securitatea, 00:20:22.000 --> 00:20:25.000 care privim la politica de securitate, 00:20:25.000 --> 00:20:27.000 sau doar privim la politica publică 00:20:27.000 --> 00:20:29.000 în moduri care afectează securitatea. 00:20:29.000 --> 00:20:32.000 Nu este doar realitate, este senzație și realitate. 00:20:32.000 --> 00:20:34.000 Ce este important 00:20:34.000 --> 00:20:36.000 este ca ele să fie la fel. 00:20:36.000 --> 00:20:38.000 Este important, fiindcă dacă senzația se potrivește cu realitatea, 00:20:38.000 --> 00:20:40.000 facem schimburi mai bune de securitate. NOTE Paragraph 00:20:40.000 --> 00:20:42.000 Vă mulțumesc. NOTE Paragraph 00:20:42.000 --> 00:20:44.000 (Aplauze)