< Return to Video

Кошмарные видео детского YouTube, и что не так с интернетом сегодня

  • 0:01 - 0:02
    Меня зовут Джеймс.
  • 0:02 - 0:03
    Я писатель и художник,
  • 0:04 - 0:06
    а ещё я занимаюсь технологиями.
  • 0:06 - 0:09
    Например, на улицах разных городов мира
  • 0:09 - 0:12
    я рисую эскизы военных дронов
    в натуральную величину,
  • 0:12 - 0:15
    чтобы люди задумались и разобрались
  • 0:15 - 0:18
    в этих незаметных и
    трудных для понимания технологиях.
  • 0:19 - 0:23
    Я создаю такие вещи, как нейросети,
    которые предсказывают результаты выборов
  • 0:23 - 0:25
    на основе прогнозов погоды,
  • 0:25 - 0:26
    потому что я заинтригован
  • 0:26 - 0:30
    теми возможностями, которые могут
    предложить эти новые чудны́е технологии.
  • 0:31 - 0:34
    В прошлом году я изобрёл
    свой беспилотный автомобиль..
  • 0:34 - 0:36
    Но так как я не особо доверяю технологиям,
  • 0:36 - 0:38
    я также соорудил и ловушку для них.
  • 0:38 - 0:40
    (Смех)
  • 0:40 - 0:44
    И я делаю эти вещи, главным образом,
    потому что абсолютно увлечён ими,
  • 0:44 - 0:46
    но ещё я считаю, что говоря о технологиях,
  • 0:47 - 0:49
    мы по большей части говорим о нас самих
  • 0:49 - 0:51
    и о нашем ви́дении мира.
  • 0:52 - 0:54
    Представляю вам историю о технологиях.
  • 0:56 - 0:58
    Это видео про яйцо с сюрпризом.
  • 0:58 - 1:01
    По сути, в нём человек раскрывает
    целую кучу шоколадных яиц
  • 1:02 - 1:03
    и показывает игрушки из них зрителям.
  • 1:04 - 1:07
    И всё. Это всё, что он делает,
    целых семь долгих минут.
  • 1:07 - 1:10
    Я хочу, чтобы вы отметили здесь две вещи.
  • 1:11 - 1:14
    Во-первых, у этого видео
    30 миллионов просмотров.
  • 1:14 - 1:16
    (Смех)
  • 1:16 - 1:17
    А во-вторых,
  • 1:17 - 1:21
    оно размещено на канале
    с 6,3 миллиона подписчиков
  • 1:21 - 1:24
    и 8 миллиардами просмотров,
  • 1:24 - 1:27
    и все видео на нём похожи на это —
  • 1:28 - 1:32
    30 миллионов людей смотрят на то,
    как парень распаковывает яйца.
  • 1:32 - 1:36
    Звучит странно, но если вы забьёте
    в поиск на YouTube «яйца с сюрпризом»,
  • 1:37 - 1:40
    то найдёте 10 миллионов таких видео.
  • 1:40 - 1:42
    И я считаю, что это не всё.
  • 1:42 - 1:43
    Думаю, их гораздо, гораздо больше.
  • 1:44 - 1:46
    Если продолжите искать,
    их будет бесконечное множество.
  • 1:46 - 1:48
    Существуют миллионы, миллионы таких видео
  • 1:48 - 1:52
    с самыми причудливыми
    комбинациями брендов и материалов,
  • 1:52 - 1:55
    и каждый божий день их выкладывают
    всё больше и больше.
  • 1:56 - 1:59
    Что за странный мир. Не так ли?
  • 1:59 - 2:02
    Но дело в том, что такие видео
    смотрят не взрослые.
  • 2:03 - 2:05
    Их смотрят дети, маленькие дети.
  • 2:06 - 2:07
    Эти видео как наркотик для малышей.
  • 2:08 - 2:09
    Есть что-то в повторении,
  • 2:10 - 2:12
    в той регулярной дозе дофамина
    при раскрытии интриги,
  • 2:12 - 2:14
    что их так цепляет.
  • 2:14 - 2:19
    И маленькие дети пересматривают
    эти видео снова, и снова, и снова,
  • 2:19 - 2:21
    они делают это часами, и ещё, и ещё.
  • 2:21 - 2:23
    А если попытаетесь отнять у них экран,
  • 2:23 - 2:25
    они будут кричать, и кричать, и кричать.
  • 2:25 - 2:26
    Если не верите мне —
  • 2:26 - 2:28
    я уже видел, как некоторые в зале кивают —
  • 2:28 - 2:31
    если не верите мне, спросите у людей,
    у которых есть маленькие дети,
  • 2:31 - 2:34
    и они расскажут вам всё
    о видео про яйца с сюрпризом.
  • 2:35 - 2:37
    Вот с чего мы начнём.
  • 2:37 - 2:41
    Сейчас 2018 год, и некоторые,
    если не многие, люди
  • 2:41 - 2:45
    используют те же механизмы, которыми
    пользуются, скажем, Facebook и Instagram,
  • 2:45 - 2:47
    чтобы вы постоянно
    проверяли их приложение.
  • 2:47 - 2:51
    И их же используют на YouTube,
    чтобы промывать мозги маленьким детям,
  • 2:51 - 2:53
    получая взамен доходы от рекламы.
  • 2:54 - 2:56
    Ну, я надеюсь, что они делают именно это.
  • 2:56 - 2:58
    Точнее, для этого.
  • 2:58 - 3:03
    Ведь на YouTube можно получать
    доход от рекламы более простыми способами.
  • 3:04 - 3:06
    Можно просто что-то придумывать
    или его воровать.
  • 3:06 - 3:09
    И если забить в поисковик
    популярные мультики для детей,
  • 3:09 - 3:10
    «Свинку Пеппу» или «Щенячий патруль»,
  • 3:10 - 3:13
    можно увидеть, что их тоже
    миллионы в онлайн-доступе.
  • 3:13 - 3:16
    Разумеется, большинство из них
    размещены не создателями оригиналов.
  • 3:16 - 3:20
    Их выкладывают с сотни
    различных случайных аккаунтов,
  • 3:20 - 3:22
    и почти невозможно узнать,
    кто именно их выкладывает
  • 3:22 - 3:23
    и каковы их цели.
  • 3:24 - 3:26
    Звучит знакомо?
  • 3:26 - 3:28
    Потому что именно по такому механизму
  • 3:28 - 3:31
    работает большинство цифровых служб,
  • 3:31 - 3:34
    где невозможно отследить
    источник информации.
  • 3:34 - 3:36
    Это как фальшивые новости для детей,
  • 3:36 - 3:38
    и мы с рождения приучаем их
  • 3:38 - 3:40
    жать на первую попавшуюся ссылку,
  • 3:41 - 3:42
    не смотря на её источник.
  • 3:43 - 3:45
    Это не кажется такой уж хорошей идеей.
  • 3:46 - 3:49
    Есть ещё одна очень популярная
    вещь для детей на YouTube.
  • 3:49 - 3:51
    И это «Песня семьи пальчиков».
  • 3:51 - 3:52
    Я только что услышал стон в зале.
  • 3:53 - 3:54
    Вот эта «Песня семьи пальчиков».
  • 3:55 - 3:56
    Это самое раннее, что мне удалось найти.
  • 3:56 - 3:59
    Видео загружено в 2007,
    и у него только 200 000 просмотров,
  • 4:00 - 4:01
    что просто ничто в данном случае.
  • 4:02 - 4:04
    Но у неё дико навязчивый мотив,
  • 4:04 - 4:06
    и я не буду её включать,
  • 4:06 - 4:08
    потому что она въестся в ваш мозг,
  • 4:08 - 4:10
    точно так же, как въелась в мой,
  • 4:10 - 4:12
    а я не буду так с вами поступать.
  • 4:12 - 4:13
    Но, как и яйца с сюрпризом,
  • 4:14 - 4:15
    она влезла в головы детям
  • 4:16 - 4:17
    и застряла там.
  • 4:18 - 4:20
    И спустя несколько лет
    эти песни семьи пальчиков
  • 4:20 - 4:21
    начали появляться везде.
  • 4:21 - 4:23
    Есть версии на разных языках
  • 4:23 - 4:25
    с разными персонажами мультиков,
  • 4:25 - 4:28
    снятые при помощи еды
    или каких угодно материалов,
  • 4:28 - 4:30
    которые есть под рукой.
  • 4:31 - 4:36
    И опять-таки, есть немыслимое,
    просто невероятное количество таких видео
  • 4:36 - 4:39
    в открытом доступе
    в немыслимых комбинациях.
  • 4:40 - 4:42
    И чем больше времени вы с ними проводите,
  • 4:42 - 4:45
    тем больше чувствуете, что, возможно,
    начинаете сходить с ума.
  • 4:46 - 4:49
    Тут-то я и задумался над этим,
  • 4:49 - 4:52
    над этим чувством полного отчуждения
    и полнейшего непонимания того,
  • 4:53 - 4:56
    как было создано всё,
    что мне показывают вокруг.
  • 4:57 - 4:59
    Так как невозможно узнать,
    откуда все эти видео берутся.
  • 4:59 - 5:01
    Например, кто их делает?
  • 5:01 - 5:04
    Некоторые из них, оказывается, сняты
    группой профессиональных мультипликаторов.
  • 5:04 - 5:07
    Некоторые просто в случайном порядке
    подбираются программой.
  • 5:07 - 5:11
    Некоторые созданы вроде бы адекватными
    детскими аниматорами.
  • 5:12 - 5:13
    А некоторые придумали люди,
  • 5:13 - 5:15
    которых, очевидно, вообще нельзя
    подпускать к детям.
  • 5:15 - 5:18
    (Смех)
  • 5:19 - 5:23
    И опять-таки, эта невозможность понять,
    кто создаёт данный контент —
  • 5:24 - 5:25
    какой-то бот?
  • 5:25 - 5:27
    человек? тролль?
  • 5:28 - 5:30
    О чём говорит то, что мы уже
    не можем увидеть разницу
  • 5:30 - 5:31
    между ними?
  • 5:31 - 5:36
    И не кажется ли вам теперь
    эта неопределённость знакомой?
  • 5:38 - 5:41
    Основной способ получения
    просмотров своих видео —
  • 5:41 - 5:42
    и помните, просмотры значат деньги —
  • 5:42 - 5:47
    это напихать в название видео
    популярные словечки.
  • 5:47 - 5:49
    Например, берёте «яйца с сюрпризом»
  • 5:49 - 5:51
    и добавляете «Щенячий патруль»,
    «пасхальные яйца»
  • 5:51 - 5:52
    или вообще что угодно.
  • 5:52 - 5:54
    Пишете всё это в названии,
  • 5:55 - 5:58
    пока это не превратится
    в бессмысленный набор слов,
  • 5:58 - 6:00
    который совершенно не понятен людям.
  • 6:01 - 6:04
    Потому что, разумеется, смотреть
    это видео будут лишь маленькие дети,
  • 6:04 - 6:06
    а что они вообще понимают?
  • 6:06 - 6:09
    Ваша настоящая аудитория
    в таких случаях — это программы, ПО.
  • 6:09 - 6:10
    Это алгоритмы.
  • 6:10 - 6:12
    Это софт, который использует YouTube,
  • 6:12 - 6:15
    чтобы отбирать видео,
    которые похожи на другие видео,
  • 6:15 - 6:17
    чтобы делать их популярными,
    ставить в рекомендованное.
  • 6:17 - 6:20
    И поэтому вы видите
    такую бессмысленную кашу
  • 6:20 - 6:22
    как в названии, так и в содержании.
  • 6:24 - 6:25
    Но вам нужно помнить,
  • 6:25 - 6:30
    что за этой оптимизированной
    для алгоритмов системой стоят люди.
  • 6:30 - 6:33
    Люди, которым приходится разбираться
  • 6:33 - 6:36
    в этом диком наборе слов,
  • 6:36 - 6:41
    словно музыкант-импровизатор,
    который отвечает на крики
  • 6:41 - 6:43
    миллионов малышей.
  • 6:45 - 6:47
    В эти системы впутаны настоящие люди,
  • 6:48 - 6:51
    и это уже другой невероятно странный
    аспект этой культуры алгоритмов.
  • 6:52 - 6:53
    Потому что, даже если вы человек,
  • 6:53 - 6:55
    вам приходится вести себя как машина,
  • 6:55 - 6:56
    чтобы просто выжить.
  • 6:57 - 6:59
    Кроме того, по ту сторону экрана
  • 6:59 - 7:02
    всё-таки сидят маленькие дети.
  • 7:02 - 7:06
    Их как заворожённых удерживают
    эти странные механизмы.
  • 7:07 - 7:10
    И большинству из них слишком рано
    даже пользоваться этим сайтом.
  • 7:10 - 7:12
    Они просто молотят по экрану
    своими ручками.
  • 7:12 - 7:14
    Но благодаря автовоспроизведению
  • 7:14 - 7:17
    эти видео проигрываются
    снова и снова по кругу
  • 7:17 - 7:19
    долгие, долгие часы.
  • 7:20 - 7:22
    Сейчас у этой системы
    есть такая особенность,
  • 7:23 - 7:25
    что автовоспроизведение заводит вас
    в крайне странные места.
  • 7:26 - 7:28
    Вот так через цепочку в десяток видео
  • 7:28 - 7:31
    вы можете от милого видео
    с паровозиком, обучающим счёту,
  • 7:31 - 7:34
    попасть на мастурбирующего Микки Мауса.
  • 7:35 - 7:36
    Прошу прощения за это.
  • 7:37 - 7:38
    Дальше ещё хуже.
  • 7:39 - 7:40
    Вот что происходит,
  • 7:40 - 7:43
    когда куча разных ключевых слов,
  • 7:43 - 7:45
    куча всяких завлекалочек
  • 7:45 - 7:48
    и эта бессмысленная генерация контента
  • 7:48 - 7:51
    оказываются в одном месте.
  • 7:52 - 7:56
    Вот, где гнездятся все эти
    до ужаса странные ключевые слова.
  • 7:56 - 7:59
    Вы скрещиваете видео про семью пальчиков
  • 7:59 - 8:01
    с кадрами из фильмов про супергероев,
  • 8:01 - 8:04
    добавляете странные локальные шутки,
  • 8:04 - 8:07
    и внезапно оказываетесь
    в наистраннейшем месте.
  • 8:08 - 8:09
    Контент, напрягающий родителей,
  • 8:10 - 8:13
    обычно с наличием жестоких
    или сексуальных сцен, так?
  • 8:13 - 8:16
    Персонажей детских мультиков насилуют,
  • 8:16 - 8:17
    убивают,
  • 8:18 - 8:21
    издеваются таким образом,
    что это пугает детей.
  • 8:21 - 8:25
    А происходит это потому,
    что программа использует всё это,
  • 8:25 - 8:28
    чтобы автоматически генерировать
    самые страшные детские кошмары.
  • 8:28 - 8:31
    И такой контент действительно
    оказывает влияние на детей.
  • 8:31 - 8:34
    Родители жалуются на то,
    что их дети получают психотравмы,
  • 8:34 - 8:35
    боятся темноты,
  • 8:35 - 8:37
    боятся своих любимых персонажей мультиков.
  • 8:39 - 8:42
    Если вы что-то отсюда и вынесете —
    если у вас маленькие дети,
  • 8:42 - 8:44
    держите их подальше от YouTube.
  • 8:45 - 8:49
    (Аплодисменты)
  • 8:51 - 8:53
    Но с другой стороны, меня очень беспокоит,
  • 8:54 - 8:57
    что мы даже не знаем,
    как мы дошли до такого.
  • 8:59 - 9:02
    Мы взяли все эти вещи
  • 9:02 - 9:04
    и совместили их так,
    как никто из нас не желал.
  • 9:04 - 9:07
    Но так мы строим весь мир.
  • 9:08 - 9:10
    Мы берём все эти данные,
  • 9:10 - 9:11
    очень много плохих данных,
  • 9:11 - 9:14
    много исторических данных,
    переполненных предрассудками,
  • 9:14 - 9:17
    со всеми нашими худшими
    мотивами в истории,
  • 9:17 - 9:19
    и мы строим из этого огромные базы данных,
  • 9:19 - 9:20
    а затем их автоматизируем.
  • 9:21 - 9:24
    И всё это выливается в кредитные отчёты,
  • 9:24 - 9:26
    страховые платежи,
  • 9:26 - 9:28
    профилактические системы надзора,
  • 9:29 - 9:30
    директивы по назначению наказаний.
  • 9:30 - 9:33
    Вот как мы строим наш мир сегодня
  • 9:33 - 9:34
    на основе этих данных.
  • 9:34 - 9:36
    И я не знаю, что хуже:
  • 9:36 - 9:39
    то, что мы строим полностью
    оптимизированные системы
  • 9:39 - 9:42
    для худших аспектов
    человеческого поведения,
  • 9:42 - 9:44
    или то, что мы делаем это непредумышленно,
  • 9:45 - 9:47
    не отдавая отчёт своим действиям,
  • 9:47 - 9:50
    потому что не до конца понимаем
    системы, которые построили,
  • 9:50 - 9:53
    и теперь мы не знаем, как что-то изменить.
  • 9:55 - 9:58
    Есть две причины, по которым,
    как мне кажется, на YouTube
  • 9:58 - 9:59
    всё есть так, как есть.
  • 9:59 - 10:01
    И первая причина — это реклама,
  • 10:01 - 10:03
    что по сути является
    монетаризацией внимания,
  • 10:04 - 10:07
    никаких других целей она не преследует
  • 10:07 - 10:11
    и не заботится о людях, в действительности
    разрабатывающих контент.
  • 10:11 - 10:14
    Никакой централизации власти,
    никакого разграничения.
  • 10:15 - 10:18
    Как бы вы ни относились
    к использованию рекламы
  • 10:18 - 10:19
    для поддержки продуктов,
  • 10:19 - 10:22
    то, что кто-то, не понимая
    работы алгоритма, надеется,
  • 10:22 - 10:25
    что валяющиеся в песке
    взрослые мужики в подгузниках
  • 10:25 - 10:26
    принесут им деньги,
  • 10:26 - 10:28
    наводит на мысли, что мы, вероятно,
  • 10:28 - 10:31
    не на этом должны основывать
    наше общество и культуру
  • 10:31 - 10:32
    и не так их спонсировать.
  • 10:34 - 10:36
    Вторая причина, являющаяся основной, —
    это автоматизация,
  • 10:37 - 10:39
    которая всё это распределяет,
  • 10:39 - 10:42
    как только оно появляется,
    без какого-либо надзора.
  • 10:42 - 10:43
    А когда оно становится доступным,
  • 10:43 - 10:47
    мы как бы разводим руками и говорим:
    «Это не мы, это всё технологии».
  • 10:47 - 10:48
    Или: «Мы тут ни при чём».
  • 10:49 - 10:50
    Так не пойдёт,
  • 10:51 - 10:53
    потому что всё это не только
    подчиняется алгоритмам,
  • 10:53 - 10:55
    но и ими контролируется.
  • 10:56 - 10:59
    Когда в YouTube впервые обратили
    внимание на это,
  • 10:59 - 11:00
    сначала они сказали,
  • 11:01 - 11:03
    что разработают новые алгоритмы
    машинного обучения,
  • 11:03 - 11:05
    чтобы следить за контентом.
  • 11:05 - 11:08
    Машинное обучение,
    по словам любого эксперта, —
  • 11:09 - 11:10
    это, по сути, то, что мы начали называть
  • 11:10 - 11:13
    софтом, принцип работы
    которого мы не понимаем.
  • 11:13 - 11:15
    И я считаю, что с нас хватит этого.
  • 11:17 - 11:20
    Мы не должны перекладывать
    на искусственный интеллект решение,
  • 11:20 - 11:21
    что приемлемо, а что нет,
  • 11:21 - 11:23
    ведь мы знаем, что будет.
  • 11:23 - 11:25
    Он станет подвергать цензуре
    и другие вещи:
  • 11:25 - 11:26
    видео гомосексуального содержания,
  • 11:26 - 11:28
    законные публичные выступления.
  • 11:29 - 11:30
    То, что дозволено в этом плане
  • 11:30 - 11:34
    не должно решаться
    непостижимыми системами.
  • 11:34 - 11:36
    Это должно решаться
    в ходе беседы между всеми нами.
  • 11:37 - 11:38
    Но я напомню,
  • 11:38 - 11:40
    что альтернатива тоже неблагоприятна.
  • 11:41 - 11:42
    YouTube недавно объявил,
  • 11:42 - 11:44
    что выпустит версию приложения для детей,
  • 11:44 - 11:46
    которое будет полностью
    проверяться людьми.
  • 11:48 - 11:51
    Цукерберг в Конгрессе сказал,
    что в Facebook будет то же самое,
  • 11:52 - 11:54
    когда его спросили, как будет
    проверяться их контент.
  • 11:54 - 11:56
    Он сказал, что это поручат людям.
  • 11:56 - 11:57
    И имеют в виду они то,
  • 11:57 - 12:01
    что первыми видео увидят не дети,
  • 12:01 - 12:03
    а сомнительные работники
    с низкой зарплатой,
  • 12:03 - 12:05
    без должной поддержки
    психического здоровья,
  • 12:05 - 12:07
    которых эти видео также травмируют.
  • 12:07 - 12:07
    (Смех)
  • 12:07 - 12:10
    И я думаю, что все мы можем
    достичь гораздо большего.
  • 12:10 - 12:13
    (Аплодисменты)
  • 12:14 - 12:17
    На мой взгляд, эти вещи
    объединяет между собой
  • 12:19 - 12:20
    наличие посредника.
  • 12:20 - 12:23
    То есть то, что мы понимаем
    через посредника.
  • 12:23 - 12:26
    Иными словами, то, как мы понимаем,
    как вести себя в своих интересах.
  • 12:28 - 12:29
    А это сделать почти невозможно
  • 12:29 - 12:32
    в условиях тех систем, которые
    мы не полностью понимаем.
  • 12:33 - 12:36
    Неравное распределение власти
    всегда приводит к насилию.
  • 12:36 - 12:38
    И мы видим, что с этими системами
  • 12:38 - 12:40
    неравный уровень понимания
    приводит к тому же.
  • 12:41 - 12:44
    Если мы как-то и можем
    улучшить эти системы,
  • 12:44 - 12:47
    то только сделав их
    понятнее пользователям,
  • 12:47 - 12:49
    чтобы каждый из нас имел представление
  • 12:49 - 12:51
    о том, что там на самом деле происходит.
  • 12:52 - 12:54
    Однако, я думаю, что основное здесь то,
  • 12:55 - 12:58
    что эти системы, как я, надеюсь, объяснил,
    касаются не конкретно YouTube.
  • 12:59 - 13:00
    Они касаются всего.
  • 13:00 - 13:02
    Проблемы контроля и посредничества,
  • 13:03 - 13:04
    неясности и сложности,
  • 13:05 - 13:08
    насилия и эксплуатации,
    которая, по сути, происходит
  • 13:08 - 13:10
    из-за концентрации власти
    в нескольких руках —
  • 13:11 - 13:13
    это очень серьёзные проблемы.
  • 13:14 - 13:18
    И это проблемы не только YouTube
    и не только технологий в целом,
  • 13:18 - 13:19
    они даже не новы.
  • 13:19 - 13:20
    Они существовали годами.
  • 13:21 - 13:24
    Но мы наконец создали эту систему,
    всемирную сеть — интернет,
  • 13:25 - 13:28
    которая представляет их нам
    так невероятно,
  • 13:28 - 13:30
    что их стало невозможно отрицать.
  • 13:30 - 13:32
    Технологии обладают
    необычайной возможностью
  • 13:33 - 13:36
    как поддерживать, так и развивать
  • 13:37 - 13:41
    все наши самые странные
    и тайные желания и склонности,
  • 13:41 - 13:42
    раскрывать их всему миру,
  • 13:43 - 13:45
    а также фиксирует их так,
    что мы их замечаем
  • 13:46 - 13:49
    и больше не можем делать вид,
    будто их не существует.
  • 13:50 - 13:54
    Мы должны перестать видеть в технологиях
    решение всех наших проблем
  • 13:54 - 13:57
    и вместо этого относиться к ним
    как к средству выявления этих проблем,
  • 13:58 - 14:00
    чтобы можно было размышлять
    в правильном ключе
  • 14:00 - 14:01
    и начать их решать.
  • 14:02 - 14:03
    Спасибо огромное.
  • 14:03 - 14:08
    (Аплодисменты)
  • 14:10 - 14:10
    Спасибо.
  • 14:10 - 14:14
    (Аплодисменты)
  • 14:17 - 14:20
    Хелен Уолтерс: Джеймс, спасибо,
    что пришёл и выступил у нас.
  • 14:20 - 14:21
    Что замечательно,
  • 14:21 - 14:25
    когда на ум приходят фильмы,
    в которых роботы господствуют над миром,
  • 14:25 - 14:28
    всё это кажется более привлекательным,
    чем то, о чём ты рассказал.
  • 14:28 - 14:32
    Но меня волнует вот что: в этих фильмах
    всегда есть какое-то сопротивление.
  • 14:32 - 14:34
    Есть ли сопротивление в данном случае?
  • 14:35 - 14:38
    Видишь ли ты какие-то зачатки
    и предзнаменования сопротивления?
  • 14:41 - 14:43
    Джеймс Брайдл: Не знаю насчёт
    прямого сопротивления,
  • 14:43 - 14:44
    ещё слишком рано для этого.
  • 14:44 - 14:46
    Думаю, это глубоко заложено
    в нашей культуре.
  • 14:47 - 14:49
    Моя подруга Элеанор Саитта,
    всегда говорит,
  • 14:50 - 14:53
    что любая технологическая проблема
    глобального масштаба —
  • 14:54 - 14:56
    это в первую очередь
    политическая проблема.
  • 14:56 - 14:58
    И всё, над чем мы работаем,
  • 14:58 - 15:01
    нельзя разрешить, просто разработав
    улучшенные технологии,
  • 15:01 - 15:04
    необходимо менять общество,
    которое эти технологии создаёт.
  • 15:05 - 15:08
    Так что нет, на данный момент
    мы ещё слишком далеки от этого.
  • 15:08 - 15:10
    Но как я сказал, по-моему, разбирая их,
  • 15:10 - 15:13
    объясняя их, откровенно говоря о них,
  • 15:13 - 15:15
    мы можем по крайней мере
    запустить этот процесс.
  • 15:15 - 15:19
    ХУ: Когда ты говоришь о доступности
    и цифровой грамотности,
  • 15:19 - 15:21
    мне трудно представить,
  • 15:21 - 15:25
    что мы должны переложить это бремя
    на самих пользователей.
  • 15:25 - 15:29
    Но кто же будет ответственен
    за обучение в этом новом мире?
  • 15:29 - 15:32
    ДБ: Опять-таки, думаю,
    ответственность лежит на всех нас,
  • 15:33 - 15:35
    и всё, что мы делаем, создаём, строим,
  • 15:35 - 15:39
    должно совершаться при всеобщем согласии,
  • 15:39 - 15:41
    включая тех, кто избегает
    этого обсуждения.
  • 15:42 - 15:46
    И мы должны быть уверены, что
    создаём системы не для обмана людей,
  • 15:46 - 15:47
    чтобы они сделали что нам нужно,
  • 15:48 - 15:52
    но что люди действительно вовлечены
    в процесс обучения на каждом этапе,
  • 15:52 - 15:54
    потому что все эти системы
    образовательные.
  • 15:54 - 15:57
    Я надеюсь, что даже такая
    безжалостная штука,
  • 15:57 - 15:59
    если правильно к ней
    подойти и разобраться,
  • 15:59 - 16:01
    несёт в себе элемент обучения,
  • 16:01 - 16:05
    которое позволит вам увидеть,
    как сложные системы взаимодействуют
  • 16:05 - 16:08
    и, возможно, впоследствии применить
    эти знания где-нибудь ещё.
  • 16:09 - 16:10
    ХУ: Джеймс, это такая важная тема,
  • 16:10 - 16:13
    и я знаю, что многие здесь
    открыты и готовы к разговору,
  • 16:13 - 16:15
    поэтому спасибо, что начал наше утро.
  • 16:15 - 16:17
    ДБ: Спасибо большое. Спасибо.
  • 16:17 - 16:19
    (Аплодисменты)
Title:
Кошмарные видео детского YouTube, и что не так с интернетом сегодня
Speaker:
Джеймс Брайдл
Description:

Писатель и художник Джеймс Брайдл приоткрывает завесу тёмного и странного дна интернета, где на YouTube неизвестные влезают в мозг маленьким детям и взамен получают доходы от рекламы. Начиная с «яиц с сюрпризом» и «песни семьи пальчиков» и заканчивая сгенерированной алгоритмами подборкой недетских видео с участием известных персонажей мультфильмов — все эти видео пугают и используют детей. Кроме того, становится понятно, куда движется наш мир, которым всё больше управляют данные. «Мы должны перестать видеть в технологиях решение всех наших проблем. Вместо этого нам нужно относиться к ним как к средству выявления этих самых проблем, чтобы можно было размышлять в правильном ключе и начать их решать», — говорит Брайдл.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:32

Russian subtitles

Revisions