Return to Video

Всередині химерного світу інтернет-тролів та пропагандистів

  • 0:01 - 0:02
    Останні мої три роки промайнули
  • 0:02 - 0:05
    у розмовах з найгіршими людьми інтернету.
  • 0:06 - 0:09
    Якщо ви недавно туди заходили,
  • 0:09 - 0:12
    то точно помітили
    чимало токсичних відходів:
  • 0:12 - 0:17
    расистські меми, дезінформація,
    жіноненависницька пропаганда.
  • 0:17 - 0:20
    Мені кортіло дізнатися,
    хто ж цим займається.
  • 0:20 - 0:22
    Я хотів знати, як вони це поширюють.
  • 0:22 - 0:23
    І врешті, я мав зрозуміти,
  • 0:23 - 0:26
    як це може вплинути на наше суспільство.
  • 0:26 - 0:30
    Тож у 2016-му я почав відслідковувати
    окремі меми до їх джерела:
  • 0:30 - 0:33
    до тих, хто їх створював,
    або до тих, хто їх розповсюджував.
  • 0:33 - 0:35
    Я писав таким людям:
  • 0:35 - 0:38
    «Привіт, я журналіст. Можна прийти
    поглянути, чим Ви займаєтесь?»
  • 0:38 - 0:39
    Частіше я отримував відповідь:
  • 0:39 - 0:41
    «Чому, в біса, я повинен мати справу
  • 0:41 - 0:44
    з якимось єврейським
    прихвостнем з Брукліна,
  • 0:44 - 0:46
    який у змові з демократичною партією?»
  • 0:46 - 0:47
    (Сміх)
  • 0:47 - 0:51
    На що я відповідав:
    «Об'єктивно, тут тільки 57% правди».
  • 0:51 - 0:52
    (Сміх)
  • 0:52 - 0:54
    Та часто лунало і протилежне:
  • 0:54 - 0:57
    «Окей, підходь».
  • 0:57 - 0:59
    Саме так я опинився у вітальні
  • 0:59 - 1:02
    соцмережевого пропагандиста
    у Південній Каліфорнії.
  • 1:02 - 1:05
    Це був одружений білий хлопець
    років тридцяти.
  • 1:05 - 1:08
    Перед ним стояв столик,
    на якому були: чашка кави,
  • 1:08 - 1:10
    ноут для твітів,
  • 1:10 - 1:11
    телефон для повідомлень
  • 1:11 - 1:15
    та айпод для стрімів через
    Перископ та Ютуб.
  • 1:15 - 1:17
    Саме це.
  • 1:17 - 1:18
    Але навіть з такими інструментами
  • 1:18 - 1:22
    він міг впорскувати свої
    радикальні, шкідливі тези
  • 1:22 - 1:25
    в серце американської розмови.
  • 1:25 - 1:27
    В один із днів, коли я був там,
  • 1:27 - 1:30
    у Нью-Йорку вибухнула бомба.
  • 1:30 - 1:34
    У підкладенні звинувачували
    хлопця з мусульманським іменем.
  • 1:34 - 1:38
    Для пропагандиста в Каліфорнії
    це видалось шансом,
  • 1:38 - 1:40
    бо одним з його прагнень
  • 1:40 - 1:42
    було відрізати США
    майже від усіх іммігрантів,
  • 1:42 - 1:45
    особливо з країн
    з мусульманською більшістю.
  • 1:45 - 1:47
    Тож він почав пряму трансляцію
  • 1:47 - 1:50
    і викликав гнів своїх підписників
  • 1:50 - 1:53
    на програму відкритих кордонів,
    яка буквально вб'є нас усіх.
  • 1:53 - 1:54
    Він просив їх твітити це,
  • 1:54 - 1:56
    використовувати особливі хештеги,
  • 1:56 - 1:58
    тим самим виводячи їх у тренди.
  • 1:58 - 1:59
    І вони твітили —
  • 1:59 - 2:01
    сотні і сотні твітів,
  • 2:01 - 2:03
    ось із таким зображенням.
  • 2:03 - 2:05
    Це Джордж Сорос,
  • 2:05 - 2:08
    угорський мільйонер та філантроп.
  • 2:08 - 2:10
    А в голові деяких онлайн-конспірологів —
  • 2:10 - 2:13
    це світовий демон,
  • 2:13 - 2:17
    один з членів таємної еліти,
    яка керує світом.
  • 2:17 - 2:21
    Спиніться на хвилинку,
    якщо ви десь чули фразу,
  • 2:21 - 2:23
    що певна еліта контролює світ,
  • 2:23 - 2:26
    і багато з них виявляються
    багатими євреями,
  • 2:26 - 2:29
    то лише тому, що це найбільш
    антисемітський мотив за всю історію.
  • 2:30 - 2:36
    Варто додати, що хлопець, який у Нью-Йорку
    підкинув бомбу, був американцем.
  • 2:36 - 2:38
    Що б там не було,
  • 2:38 - 2:41
    але імміграція явно не була
    основною проблемою.
  • 2:41 - 2:44
    Та каліфорнійський пропагандист це знав.
  • 2:44 - 2:47
    Він начитаний хлопець.
    Власне, він — юрист.
  • 2:47 - 2:49
    Всі вихідні факти для нього не таємниця,
  • 2:49 - 2:52
    але він також знав,
    що факти не стимулюють діалог онлайн.
  • 2:52 - 2:53
    Що його стимулює —
  • 2:53 - 2:55
    так це емоції.
  • 2:55 - 2:57
    Спочатку задум соціальних мереж
  • 2:57 - 2:59
    був у тому, щоб зібрати всіх разом,
  • 2:59 - 3:02
    зробити світ більш відкритим,
    толерантним та справедливим ...
  • 3:02 - 3:04
    Певна частина задуму вдалася.
  • 3:05 - 3:07
    Але соціальні мережі ніколи
    не мали на меті
  • 3:07 - 3:10
    відділяти правду від брехні,
  • 3:10 - 3:12
    хороше від поганого
    для нашого суспільства,
  • 3:12 - 3:14
    соціальне від антисоціального.
  • 3:14 - 3:16
    Це не завдання алгоритму.
  • 3:16 - 3:19
    Що він виконує,
    так це перевіряє залученість:
  • 3:19 - 3:22
    кліки, коменти, посилання,
    ретвіти, типу такого.
  • 3:22 - 3:25
    Якщо ви хочете, щоб ваш контент затягував,
  • 3:25 - 3:26
    там має бути іскра емоціїї,
  • 3:26 - 3:30
    те, що вчені-біхевіористи
    звуть "емоціями високого збудження."
  • 3:30 - 3:33
    "Високе збудження" — це не лише
    сексуальне збудження,
  • 3:33 - 3:36
    хоча у випадку з інтернетом це спрацьовує.
  • 3:36 - 3:40
    Це означає будь-що: позитивне
    чи негативне, те, що змушує серця битися.
  • 3:40 - 3:41
    Тож я сидів з цими пропагандистами,
  • 3:41 - 3:44
    не тільки з тим хлопцем з Каліфорнії,
    а з багатьма такими,
  • 3:44 - 3:48
    і спостерігав, як вони успішно
    провертали це знову і знову
  • 3:48 - 3:51
    не тому, що вони російські хакери
    чи супер технічно обдаровані,
  • 3:51 - 3:54
    не тільки тому, що вони мали
    унікальне політичне бачення —
  • 3:54 - 3:57
    просто вони розуміли,
    як працюють соціальні мережі
  • 3:57 - 3:59
    і хотіли використати це на свою користь.
  • 3:59 - 4:02
    Я мав собі зізнатися,
    що це маргінальний феномен,
  • 4:02 - 4:04
    і він направлений на інтернет.
  • 4:04 - 4:09
    Але більше не існує розділення
    між інтернетом та всім іншим.
  • 4:09 - 4:11
    Це реклама, яка запускалася
    на декількох телеканалах
  • 4:11 - 4:14
    під час виборів до конгресу 2018-го року,
  • 4:14 - 4:17
    де лише кілька слабких закидів
    стверджували, що один з кандидатів
  • 4:17 - 4:19
    був у кишені міжнародного
    маніпулятора Джорджа Сороса,
  • 4:19 - 4:23
    який так незграбно зафотошоплений
    біля купи грошей.
  • 4:23 - 4:26
    Ось твіт президента США,
  • 4:26 - 4:28
    який знову, без всяких доказів, стверджує,
  • 4:28 - 4:31
    що Джордж Сорос маніпулює
    американськими політиками.
  • 4:31 - 4:35
    Ці шокуючі речі вже настільки переходять
    межу, що зливаються з оточенням,
  • 4:35 - 4:38
    і ми вже навіть їх не помічаємо,
    настільки це стало звичним.
  • 4:38 - 4:40
    Майже три роки я провів у тому світі.
  • 4:40 - 4:42
    Я говорив з багатьма людьми.
  • 4:42 - 4:44
    Дехто взагалі не мав власних переконань.
  • 4:44 - 4:48
    Здавалось, що вони просто раціонально
    робили ставки,
  • 4:48 - 4:49
    ніби хотіли заробити гроші онлайн
  • 4:49 - 4:51
    чи отримати увагу.
  • 4:51 - 4:53
    А для цього вони мають бути
    якомога скандальнішими.
  • 4:53 - 4:56
    Та я розмовляв зі справжніми ідеологами.
  • 4:56 - 5:00
    Для ясності, їхня ідеологія
    не є традиційним консерватизмом.
  • 5:00 - 5:03
    Дехто хотів забрати у жінок
    право голосувати на виборах.
  • 5:03 - 5:06
    Були люди, які хотіли
    повернути назад расову сегрегацію.
  • 5:06 - 5:08
    Деякі навіть хотіли
    покінчити з демократією.
  • 5:09 - 5:12
    Очевидно, вони не вірили в це
    з самого народження.
  • 5:12 - 5:14
    Вони не навчилися цьому
    в початковій школі.
  • 5:15 - 5:17
    До того, як вони пірнули
    в цю інтернет-нору,
  • 5:17 - 5:20
    чимало з них були лібертаріанцями,
    або соціалістами,
  • 5:20 - 5:21
    або мали інші переконання.
  • 5:21 - 5:23
    Що ж відбувається?
  • 5:24 - 5:27
    Я не можу підігнати це під кожен випадок,
  • 5:27 - 5:29
    але чимало людей, з якими я говорив,
  • 5:29 - 5:32
    мали комбінацію високого розумового
    та низького емоційного інтелекту.
  • 5:33 - 5:38
    Анонімні онлайн-закутки здавалися їм
    комфортнішими, ніж реальний світ.
  • 5:39 - 5:41
    Тож вони тікали до цих форумів,
  • 5:41 - 5:42
    до цих суб-версій реддіту,
  • 5:42 - 5:45
    де їх найгірші імпульси
    тільки збільшувалися.
  • 5:45 - 5:48
    Вони можуть почати
    з якогось хворого жарту
  • 5:48 - 5:50
    і отримати за нього стільки підбадьорень,
  • 5:50 - 5:54
    незначущих "інтернет-точок",
    як вони їх називають,
  • 5:54 - 5:56
    що починають вірити у власний дотеп.
  • 5:58 - 6:01
    Я розмовляв із однією жінкою,
    яка виросла в Нью-Джерсі;
  • 6:01 - 6:04
    після школи вона переїхала
    до нового місця,
  • 6:04 - 6:06
    відчула себе відрізаною і чужою,
  • 6:06 - 6:08
    і почала никатися у свій телефон.
  • 6:09 - 6:11
    Вона знайшла одне з таких місць
    в інтернеті,
  • 6:11 - 6:13
    де люди постять найбільш шокуючі
    та мерзенні речі.
  • 6:14 - 6:16
    Для неї це було відразливо,
  • 6:16 - 6:19
    але навдивовижу захоплююче,
  • 6:19 - 6:21
    вона не могла відірвати погляд.
  • 6:21 - 6:24
    Вона почала спілкуватися
    з цими людьми на інтернет-просторах,
  • 6:24 - 6:26
    вони дали їй відчути себе
    розумною та цінною.
  • 6:26 - 6:28
    Вона почала відчувати себе частиною групи,
  • 6:28 - 6:31
    сумніватися, чи, можливо, якийсь
    із цих шокуючих мемів
  • 6:31 - 6:33
    має в собі зерно правди.
  • 6:34 - 6:36
    Через кілька місяців
    з новими друзями з інтернету,
  • 6:36 - 6:39
    вона вирушила машиною
    до Шарлотсвіллю в Вірджинії
  • 6:39 - 6:42
    на марш з факелами в ім'я білої раси.
  • 6:43 - 6:45
    Вона пройшла шлях від прихильниці Обами
  • 6:45 - 6:48
    до повністю радикалізованої
    білої расистки за кілька місяців.
  • 6:49 - 6:51
    В її випадку,
  • 6:51 - 6:55
    жінці вдалося вийти з культу
    панування білої раси.
  • 6:56 - 6:58
    Але багатьом, з якими я вів розмову — ні.
  • 6:58 - 7:00
    Щоб прояснити ситуацію:
  • 7:00 - 7:03
    я ніколи не мав на меті знайти
    спільну мову
  • 7:03 - 7:05
    з кожним своїм співрозмовником,
  • 7:05 - 7:06
    я ніколи не говорив:
  • 7:06 - 7:09
    "Знаєш, чоловіче, ти пропагандист
    фашизму, а я ні,
  • 7:09 - 7:13
    щоб там не було, давай обнімемось
    і всі відмінності зникнуть".
  • 7:13 - 7:15
    Ні, цілком ні.
  • 7:16 - 7:19
    Але я переконався, що ми не можемо
    просто оминути це.
  • 7:20 - 7:23
    Ми маємо це зрозуміти,
    бо лише зрозумівши,
  • 7:23 - 7:26
    зможемо зробити собі від цього щеплення.
  • 7:27 - 7:31
    За три роки у цьому світі я мав
    кілька неприємних телефонних дзвінків,
  • 7:31 - 7:32
    навіть з погрозами,
  • 7:32 - 7:36
    але це була лише дрібка того,
    що отримують журналістки.
  • 7:37 - 7:38
    І так, я єврей.
  • 7:38 - 7:42
    Дивно, що чимало нацистів
    не змогли розпізнати в мені єврея,
  • 7:42 - 7:45
    чесно кажучи, мене це трохи розчарувало.
  • 7:45 - 7:47
    (Сміх)
  • 7:47 - 7:50
    Серйозно, твоя робота
    бути професійним антисемітом.
  • 7:50 - 7:53
    А тобі нічого в мені не здається дивним?
  • 7:53 - 7:54
    Точно нічого?
  • 7:54 - 7:56
    (Сміх)
  • 7:58 - 7:59
    Це не таємниця.
  • 7:59 - 8:02
    Мене звати Ендрю Маранц,
    я пишу для "Нью-Йоркера",
  • 8:02 - 8:05
    я зазвичай пишу статі типу,
    що, якби епізод із "Друзів"
  • 8:05 - 8:06
    був знятий в АТБ.
  • 8:06 - 8:07
    Нічого?
  • 8:07 - 8:10
    (Сміх)
  • 8:13 - 8:15
    Але, подумайте, як би все було гарно,
  • 8:15 - 8:17
    якби існувала проста формула:
  • 8:17 - 8:21
    смартфон + забита дитина =
    12% можливості стати нацистом.
  • 8:21 - 8:24
    Але все, явно, не настільки просто.
  • 8:24 - 8:25
    У своїх статтях
  • 8:25 - 8:28
    я намагаюся більше описувати,
    а не оцінювати.
  • 8:29 - 8:31
    Але це TED,
  • 8:31 - 8:34
    тож будьмо практичними.
  • 8:34 - 8:36
    У мене є кілька пропозицій,
  • 8:36 - 8:38
    як нам, мешканцям інтернету,
    таким як ви і я,
  • 8:38 - 8:41
    зробити ці явища менш токсичними.
  • 8:42 - 8:45
    По-перше, ставтеся до цього
    з розумним скептицизмом.
  • 8:46 - 8:48
    На мою думку, існує два типи скептицизму.
  • 8:48 - 8:53
    Я не хочу занурювати вас в технічну
    епістеміологічну інформацію,
  • 8:53 - 8:55
    але я назву їх розумним
    і тупим скептицизмом.
  • 8:56 - 8:58
    Тож, розумний скептицизм:
  • 8:58 - 9:00
    думай своєю головою,
  • 9:00 - 9:02
    став під сумнів кожну заяву,
  • 9:02 - 9:03
    вимагай доказів —
  • 9:03 - 9:05
    чудово, це справжній скептицизм.
  • 9:05 - 9:08
    Тупий скептицизм скидається на скептицизм
  • 9:08 - 9:11
    та, насправді, є ближчим
    до бажання посперечатися.
  • 9:11 - 9:13
    Кожен стверджує, що Земля кругла,
  • 9:13 - 9:15
    а ви — що пласка.
  • 9:15 - 9:16
    Кожен говорить, расизм — це погано,
  • 9:16 - 9:19
    а ви: " Ну, не знаю,
    я налаштований скептично".
  • 9:20 - 9:24
    Навіть не знаю, скільки молодих білих
    чоловіків, з якими я говорив,
  • 9:24 - 9:25
    мені відповідали:
  • 9:25 - 9:28
    "Знаєш, медіа, вчителі, вони всі
    навіюють мені переконання
  • 9:28 - 9:30
    щодо привілейованості чоловіків та білих,
  • 9:30 - 9:33
    але, не знаю, я так не думаю".
  • 9:33 - 9:37
    Хлопці, білі тінейджери —
    бунтарі цього світу,
  • 9:37 - 9:38
    давайте так:
  • 9:39 - 9:42
    якщо ти скептично ставишся
    до теорії круглої Землі,
  • 9:42 - 9:45
    привілейованості чоловіків,
    негативності расизму,
  • 9:45 - 9:47
    то ти не скептик, ти — козел.
  • 9:47 - 9:51
    (Оплески)
  • 9:52 - 9:56
    Бути вільнодумцем — це чудово,
    ми всі повинні бути вільнодумцями,
  • 9:56 - 9:58
    але давайте просто тямити в цьому.
  • 9:58 - 10:00
    Тепер я перейду до свободи слова.
  • 10:00 - 10:04
    Коли ви чуєте, як розумні, успішні люди
    говорять: "Ну, я за свободу слова",
  • 10:04 - 10:07
    то вони кажуть так,
    ніби ставлять це під сумнів.
  • 10:07 - 10:11
    Власне, саме так розпочинається
    будь-яка змістовна розмова.
  • 10:12 - 10:14
    Потім відбувається все найцікавіше.
  • 10:14 - 10:16
    Окей, ти за свободу слова.
    Що це означає?
  • 10:16 - 10:19
    Чи це значить, що у Девіда Дюка
    та у Річарда Спенсера
  • 10:19 - 10:21
    мають бути активні твіттер аккаунти?
  • 10:21 - 10:24
    Це означає, що можна ображати
    будь-кого онлайн
  • 10:24 - 10:25
    з будь-якої причини?
  • 10:25 - 10:28
    Знаєте, я переглянув весь список
    промовців TED за цей рік.
  • 10:28 - 10:30
    Я не знайшов жодного скептика
    теорії круглої Землі.
  • 10:30 - 10:33
    Чи це порушення свободи слова?
  • 10:33 - 10:37
    Погляньте, ми всі за свободу слова,
    бути за свободу слова — прекрасно,
  • 10:37 - 10:40
    але якщо все, що ви знаєте —
    повторювати це знову і знову,
  • 10:40 - 10:42
    то ви блокуєте шлях
    більш продуктивній розмові.
  • 10:44 - 10:47
    Нехай порядність знову буде в тренді.
    Тож...
  • 10:47 - 10:48
    Чудово!
  • 10:48 - 10:50
    (Оплески)
  • 10:50 - 10:52
    Так. Навіть не потрібно пояснювати.
  • 10:52 - 10:56
    Для свого дослідження я заходив
    на Реддіт, Ютуб чи Фейсбук,
  • 10:56 - 10:58
    набирав "закони шаріату"
  • 10:58 - 11:00
    чи "Голокост".
  • 11:00 - 11:04
    Ви можете здогадатися,
    що видавав мені алгоритм.
  • 11:04 - 11:07
    "Чи закон шаріату знесе США?"
  • 11:07 - 11:09
    "Чи дійсно був Голокост?"
  • 11:10 - 11:12
    Тупий скептицизм.
  • 11:13 - 11:15
    Тож ми опинилися в цьому
    динамічному химерному світі,
  • 11:15 - 11:17
    коли люди використовують
    упереджену пропаганду,
  • 11:17 - 11:20
    щоб бути різкими,
    небезпечними та байдужими,
  • 11:20 - 11:23
    коли правда, людська порядність
    стали синонімом лицемірства,
  • 11:23 - 11:26
    показухою чи просто нудними.
  • 11:26 - 11:30
    А соціальні мережі, навмисне чи ні,
  • 11:30 - 11:32
    накручують це,
  • 11:32 - 11:35
    оскільки упереджена реклама
    прекрасно привертає увагу.
  • 11:35 - 11:37
    Кожен натискає на неї, кожен її коментує,
  • 11:37 - 11:39
    незалежно, чи любить чи ненавидить це.
  • 11:39 - 11:42
    Тож має відбутися спершу це —
  • 11:42 - 11:45
    соціальним мережам необхідно
    переробити власні платформи.
  • 11:45 - 11:50
    (Оплески)
  • 11:50 - 11:53
    Якщо ви слухаєте мене зараз,
    якщо ви працюєте в медіа компаніїї
  • 11:53 - 11:56
    чи інвестуєте в таку, не знаю,
    володієте такою —
  • 11:56 - 11:58
    це порада для вас.
  • 11:58 - 12:02
    Якщо ви налаштовуєте систему
    на максимальне емоційне залучення,
  • 12:02 - 12:06
    а максимальне емоційне залучення
    стає максимально шкодити світу —
  • 12:06 - 12:09
    час налаштовувати щось інше.
  • 12:09 - 12:13
    (Оплески)
  • 12:15 - 12:18
    Окрім того, щоб тиснути на них,
  • 12:18 - 12:21
    чекати і сподіватися,
    що вони, врешті, цим займуться,
  • 12:21 - 12:24
    ми теж можемо дещо зробити.
  • 12:24 - 12:28
    Ми можемо запропонувати кращі способи,
  • 12:28 - 12:30
    щоб втихомирити озлоблених підлітків.
  • 12:30 - 12:33
    Якщо ви помітили, на вашу думку,
    щось дійсно цікаве та змістовне,
  • 12:33 - 12:36
    і ви хочете цим поділитися — діліться,
  • 12:36 - 12:39
    навіть якщо це не дасть сильних емоцій.
  • 12:39 - 12:41
    Я розумію, що це невеличкий крок,
  • 12:41 - 12:43
    але загалом — це має значення,
  • 12:43 - 12:46
    бо ці сильні алгоритми
  • 12:46 - 12:48
    отримують сигнали поведінки від нас.
  • 12:50 - 12:52
    Тож подумайте над цим.
  • 12:52 - 12:54
    Кілька років тому було
    дуже модно говорити,
  • 12:54 - 12:57
    що інтернет — це революційне знаряддя,
  • 12:57 - 12:59
    яке об'єднає всіх нас.
  • 12:59 - 13:01
    Тепер більш модно говорити,
  • 13:01 - 13:04
    що інтернет — це величезне
    та безнадійне сміттєзвалище.
  • 13:05 - 13:06
    Жоден з описів не відображає правди.
  • 13:06 - 13:09
    Ми знаємо, що інтернет
    надто обширний та складний,
  • 13:09 - 13:11
    щоб бути однозначно хорошим або поганим.
  • 13:11 - 13:13
    Ці думки небезпечні по своїй суті:
  • 13:13 - 13:16
    чи це утопічний погляд на інтернет,
    як на нашого неминучого рятівника;
  • 13:16 - 13:20
    чи антиутопічний погляд, який говорить,
    що інтернет нас знищить.
  • 13:20 - 13:22
    У будь-якому разі
    ми зможемо зняти себе з гачка.
  • 13:24 - 13:26
    Наше майбутнє не є неминучим.
  • 13:27 - 13:29
    Інтернет складається із людей.
  • 13:29 - 13:32
    У соціальних медіакомпаніях
    люди приймають рішення.
  • 13:32 - 13:35
    Люди виводять хештеги у тренди або ні.
  • 13:35 - 13:38
    Люди змушують суспільства
    процвітати і занепадати.
  • 13:39 - 13:41
    Коли ми засвоїмо цей факт,
  • 13:41 - 13:44
    то припинимо чекати на неминуче майбутнє
  • 13:44 - 13:46
    і візьмемося за роботу зараз.
  • 13:47 - 13:50
    Знаєте, ми навчилися, що мораль
    сильно викривлена,
  • 13:50 - 13:53
    але завжди викривлена
    у бік справедливості.
  • 13:54 - 13:56
    Можливо.
  • 13:57 - 13:58
    Можливо, так буде.
  • 13:59 - 14:01
    Але це завжди було сподіванням,
  • 14:01 - 14:04
    а не гарантією.
  • 14:04 - 14:06
    Викривлення не станеться саме по собі.
  • 14:06 - 14:10
    Таємнича сила не викривить цю мораль.
  • 14:10 - 14:11
    Справжня правда
  • 14:11 - 14:14
    є набагато страшнішою
    та більш неприборканою,
  • 14:14 - 14:17
    і полягає в тому, що ми її викривляємо.
  • 14:17 - 14:18
    Дякую.
  • 14:18 - 14:22
    (Оплески)
Title:
Всередині химерного світу інтернет-тролів та пропагандистів
Speaker:
Ендрю Маранц
Description:

Три роки журналіст Ендрю Маранц провів, вникаючи у світ Інтернет-тролів та прогандистів у соціальних мережах. Він шукав тих людей, які розпилюють радикальні думки в саме серце онлайн-спілкування та намагався зрозуміти, як вони поширюють свої ідеї. Пролізьте у кролячу нору онлайн-пропаганди та дезінформаціїї — дізнайтесь, як нам почати робити інтернет менш токсичним.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:36

Ukrainian subtitles

Revisions