Кошмарные видео детского YouTube, и что не так с интернетом сегодня
-
0:01 - 0:02Меня зовут Джеймс.
-
0:02 - 0:03Я писатель и художник,
-
0:04 - 0:06а ещё я занимаюсь технологиями.
-
0:06 - 0:09Например, на улицах разных городов мира
-
0:09 - 0:12я рисую эскизы военных дронов
в натуральную величину, -
0:12 - 0:15чтобы люди задумались и разобрались
-
0:15 - 0:18в этих незаметных и
трудных для понимания технологиях. -
0:19 - 0:23Я создаю такие вещи, как нейросети,
которые предсказывают результаты выборов -
0:23 - 0:25на основе прогнозов погоды,
-
0:25 - 0:26потому что я заинтригован
-
0:26 - 0:30теми возможностями, которые могут
предложить эти новые чудны́е технологии. -
0:31 - 0:34В прошлом году я изобрёл
свой беспилотный автомобиль.. -
0:34 - 0:36Но так как я не особо доверяю технологиям,
-
0:36 - 0:38я также соорудил и ловушку для них.
-
0:38 - 0:40(Смех)
-
0:40 - 0:44И я делаю эти вещи, главным образом,
потому что абсолютно увлечён ими, -
0:44 - 0:46но ещё я считаю, что говоря о технологиях,
-
0:47 - 0:49мы по большей части говорим о нас самих
-
0:49 - 0:51и о нашем ви́дении мира.
-
0:52 - 0:54Представляю вам историю о технологиях.
-
0:56 - 0:58Это видео про яйцо с сюрпризом.
-
0:58 - 1:01По сути, в нём человек раскрывает
целую кучу шоколадных яиц -
1:02 - 1:03и показывает игрушки из них зрителям.
-
1:04 - 1:07И всё. Это всё, что он делает,
целых семь долгих минут. -
1:07 - 1:10Я хочу, чтобы вы отметили здесь две вещи.
-
1:11 - 1:14Во-первых, у этого видео
30 миллионов просмотров. -
1:14 - 1:16(Смех)
-
1:16 - 1:17А во-вторых,
-
1:17 - 1:21оно размещено на канале
с 6,3 миллиона подписчиков -
1:21 - 1:24и 8 миллиардами просмотров,
-
1:24 - 1:27и все видео на нём похожи на это —
-
1:28 - 1:3230 миллионов людей смотрят на то,
как парень распаковывает яйца. -
1:32 - 1:36Звучит странно, но если вы забьёте
в поиск на YouTube «яйца с сюрпризом», -
1:37 - 1:40то найдёте 10 миллионов таких видео.
-
1:40 - 1:42И я считаю, что это не всё.
-
1:42 - 1:43Думаю, их гораздо, гораздо больше.
-
1:44 - 1:46Если продолжите искать,
их будет бесконечное множество. -
1:46 - 1:48Существуют миллионы, миллионы таких видео
-
1:48 - 1:52с самыми причудливыми
комбинациями брендов и материалов, -
1:52 - 1:55и каждый божий день их выкладывают
всё больше и больше. -
1:56 - 1:59Что за странный мир. Не так ли?
-
1:59 - 2:02Но дело в том, что такие видео
смотрят не взрослые. -
2:03 - 2:05Их смотрят дети, маленькие дети.
-
2:06 - 2:07Эти видео как наркотик для малышей.
-
2:08 - 2:09Есть что-то в повторении,
-
2:10 - 2:12в той регулярной дозе дофамина
при раскрытии интриги, -
2:12 - 2:14что их так цепляет.
-
2:14 - 2:19И маленькие дети пересматривают
эти видео снова, и снова, и снова, -
2:19 - 2:21они делают это часами, и ещё, и ещё.
-
2:21 - 2:23А если попытаетесь отнять у них экран,
-
2:23 - 2:25они будут кричать, и кричать, и кричать.
-
2:25 - 2:26Если не верите мне —
-
2:26 - 2:28я уже видел, как некоторые в зале кивают —
-
2:28 - 2:31если не верите мне, спросите у людей,
у которых есть маленькие дети, -
2:31 - 2:34и они расскажут вам всё
о видео про яйца с сюрпризом. -
2:35 - 2:37Вот с чего мы начнём.
-
2:37 - 2:41Сейчас 2018 год, и некоторые,
если не многие, люди -
2:41 - 2:45используют те же механизмы, которыми
пользуются, скажем, Facebook и Instagram, -
2:45 - 2:47чтобы вы постоянно
проверяли их приложение. -
2:47 - 2:51И их же используют на YouTube,
чтобы промывать мозги маленьким детям, -
2:51 - 2:53получая взамен доходы от рекламы.
-
2:54 - 2:56Ну, я надеюсь, что они делают именно это.
-
2:56 - 2:58Точнее, для этого.
-
2:58 - 3:03Ведь на YouTube можно получать
доход от рекламы более простыми способами. -
3:04 - 3:06Можно просто что-то придумывать
или его воровать. -
3:06 - 3:09И если забить в поисковик
популярные мультики для детей, -
3:09 - 3:10«Свинку Пеппу» или «Щенячий патруль»,
-
3:10 - 3:13можно увидеть, что их тоже
миллионы в онлайн-доступе. -
3:13 - 3:16Разумеется, большинство из них
размещены не создателями оригиналов. -
3:16 - 3:20Их выкладывают с сотни
различных случайных аккаунтов, -
3:20 - 3:22и почти невозможно узнать,
кто именно их выкладывает -
3:22 - 3:23и каковы их цели.
-
3:24 - 3:26Звучит знакомо?
-
3:26 - 3:28Потому что именно по такому механизму
-
3:28 - 3:31работает большинство цифровых служб,
-
3:31 - 3:34где невозможно отследить
источник информации. -
3:34 - 3:36Это как фальшивые новости для детей,
-
3:36 - 3:38и мы с рождения приучаем их
-
3:38 - 3:40жать на первую попавшуюся ссылку,
-
3:41 - 3:42не смотря на её источник.
-
3:43 - 3:45Это не кажется такой уж хорошей идеей.
-
3:46 - 3:49Есть ещё одна очень популярная
вещь для детей на YouTube. -
3:49 - 3:51И это «Песня семьи пальчиков».
-
3:51 - 3:52Я только что услышал стон в зале.
-
3:53 - 3:54Вот эта «Песня семьи пальчиков».
-
3:55 - 3:56Это самое раннее, что мне удалось найти.
-
3:56 - 3:59Видео загружено в 2007,
и у него только 200 000 просмотров, -
4:00 - 4:01что просто ничто в данном случае.
-
4:02 - 4:04Но у неё дико навязчивый мотив,
-
4:04 - 4:06и я не буду её включать,
-
4:06 - 4:08потому что она въестся в ваш мозг,
-
4:08 - 4:10точно так же, как въелась в мой,
-
4:10 - 4:12а я не буду так с вами поступать.
-
4:12 - 4:13Но, как и яйца с сюрпризом,
-
4:14 - 4:15она влезла в головы детям
-
4:16 - 4:17и застряла там.
-
4:18 - 4:20И спустя несколько лет
эти песни семьи пальчиков -
4:20 - 4:21начали появляться везде.
-
4:21 - 4:23Есть версии на разных языках
-
4:23 - 4:25с разными персонажами мультиков,
-
4:25 - 4:28снятые при помощи еды
или каких угодно материалов, -
4:28 - 4:30которые есть под рукой.
-
4:31 - 4:36И опять-таки, есть немыслимое,
просто невероятное количество таких видео -
4:36 - 4:39в открытом доступе
в немыслимых комбинациях. -
4:40 - 4:42И чем больше времени вы с ними проводите,
-
4:42 - 4:45тем больше чувствуете, что, возможно,
начинаете сходить с ума. -
4:46 - 4:49Тут-то я и задумался над этим,
-
4:49 - 4:52над этим чувством полного отчуждения
и полнейшего непонимания того, -
4:53 - 4:56как было создано всё,
что мне показывают вокруг. -
4:57 - 4:59Так как невозможно узнать,
откуда все эти видео берутся. -
4:59 - 5:01Например, кто их делает?
-
5:01 - 5:04Некоторые из них, оказывается, сняты
группой профессиональных мультипликаторов. -
5:04 - 5:07Некоторые просто в случайном порядке
подбираются программой. -
5:07 - 5:11Некоторые созданы вроде бы адекватными
детскими аниматорами. -
5:12 - 5:13А некоторые придумали люди,
-
5:13 - 5:15которых, очевидно, вообще нельзя
подпускать к детям. -
5:15 - 5:18(Смех)
-
5:19 - 5:23И опять-таки, эта невозможность понять,
кто создаёт данный контент — -
5:24 - 5:25какой-то бот?
-
5:25 - 5:27человек? тролль?
-
5:28 - 5:30О чём говорит то, что мы уже
не можем увидеть разницу -
5:30 - 5:31между ними?
-
5:31 - 5:36И не кажется ли вам теперь
эта неопределённость знакомой? -
5:38 - 5:41Основной способ получения
просмотров своих видео — -
5:41 - 5:42и помните, просмотры значат деньги —
-
5:42 - 5:47это напихать в название видео
популярные словечки. -
5:47 - 5:49Например, берёте «яйца с сюрпризом»
-
5:49 - 5:51и добавляете «Щенячий патруль»,
«пасхальные яйца» -
5:51 - 5:52или вообще что угодно.
-
5:52 - 5:54Пишете всё это в названии,
-
5:55 - 5:58пока это не превратится
в бессмысленный набор слов, -
5:58 - 6:00который совершенно не понятен людям.
-
6:01 - 6:04Потому что, разумеется, смотреть
это видео будут лишь маленькие дети, -
6:04 - 6:06а что они вообще понимают?
-
6:06 - 6:09Ваша настоящая аудитория
в таких случаях — это программы, ПО. -
6:09 - 6:10Это алгоритмы.
-
6:10 - 6:12Это софт, который использует YouTube,
-
6:12 - 6:15чтобы отбирать видео,
которые похожи на другие видео, -
6:15 - 6:17чтобы делать их популярными,
ставить в рекомендованное. -
6:17 - 6:20И поэтому вы видите
такую бессмысленную кашу -
6:20 - 6:22как в названии, так и в содержании.
-
6:24 - 6:25Но вам нужно помнить,
-
6:25 - 6:30что за этой оптимизированной
для алгоритмов системой стоят люди. -
6:30 - 6:33Люди, которым приходится разбираться
-
6:33 - 6:36в этом диком наборе слов,
-
6:36 - 6:41словно музыкант-импровизатор,
который отвечает на крики -
6:41 - 6:43миллионов малышей.
-
6:45 - 6:47В эти системы впутаны настоящие люди,
-
6:48 - 6:51и это уже другой невероятно странный
аспект этой культуры алгоритмов. -
6:52 - 6:53Потому что, даже если вы человек,
-
6:53 - 6:55вам приходится вести себя как машина,
-
6:55 - 6:56чтобы просто выжить.
-
6:57 - 6:59Кроме того, по ту сторону экрана
-
6:59 - 7:02всё-таки сидят маленькие дети.
-
7:02 - 7:06Их как заворожённых удерживают
эти странные механизмы. -
7:07 - 7:10И большинству из них слишком рано
даже пользоваться этим сайтом. -
7:10 - 7:12Они просто молотят по экрану
своими ручками. -
7:12 - 7:14Но благодаря автовоспроизведению
-
7:14 - 7:17эти видео проигрываются
снова и снова по кругу -
7:17 - 7:19долгие, долгие часы.
-
7:20 - 7:22Сейчас у этой системы
есть такая особенность, -
7:23 - 7:25что автовоспроизведение заводит вас
в крайне странные места. -
7:26 - 7:28Вот так через цепочку в десяток видео
-
7:28 - 7:31вы можете от милого видео
с паровозиком, обучающим счёту, -
7:31 - 7:34попасть на мастурбирующего Микки Мауса.
-
7:35 - 7:36Прошу прощения за это.
-
7:37 - 7:38Дальше ещё хуже.
-
7:39 - 7:40Вот что происходит,
-
7:40 - 7:43когда куча разных ключевых слов,
-
7:43 - 7:45куча всяких завлекалочек
-
7:45 - 7:48и эта бессмысленная генерация контента
-
7:48 - 7:51оказываются в одном месте.
-
7:52 - 7:56Вот, где гнездятся все эти
до ужаса странные ключевые слова. -
7:56 - 7:59Вы скрещиваете видео про семью пальчиков
-
7:59 - 8:01с кадрами из фильмов про супергероев,
-
8:01 - 8:04добавляете странные локальные шутки,
-
8:04 - 8:07и внезапно оказываетесь
в наистраннейшем месте. -
8:08 - 8:09Контент, напрягающий родителей,
-
8:10 - 8:13обычно с наличием жестоких
или сексуальных сцен, так? -
8:13 - 8:16Персонажей детских мультиков насилуют,
-
8:16 - 8:17убивают,
-
8:18 - 8:21издеваются таким образом,
что это пугает детей. -
8:21 - 8:25А происходит это потому,
что программа использует всё это, -
8:25 - 8:28чтобы автоматически генерировать
самые страшные детские кошмары. -
8:28 - 8:31И такой контент действительно
оказывает влияние на детей. -
8:31 - 8:34Родители жалуются на то,
что их дети получают психотравмы, -
8:34 - 8:35боятся темноты,
-
8:35 - 8:37боятся своих любимых персонажей мультиков.
-
8:39 - 8:42Если вы что-то отсюда и вынесете —
если у вас маленькие дети, -
8:42 - 8:44держите их подальше от YouTube.
-
8:45 - 8:49(Аплодисменты)
-
8:51 - 8:53Но с другой стороны, меня очень беспокоит,
-
8:54 - 8:57что мы даже не знаем,
как мы дошли до такого. -
8:59 - 9:02Мы взяли все эти вещи
-
9:02 - 9:04и совместили их так,
как никто из нас не желал. -
9:04 - 9:07Но так мы строим весь мир.
-
9:08 - 9:10Мы берём все эти данные,
-
9:10 - 9:11очень много плохих данных,
-
9:11 - 9:14много исторических данных,
переполненных предрассудками, -
9:14 - 9:17со всеми нашими худшими
мотивами в истории, -
9:17 - 9:19и мы строим из этого огромные базы данных,
-
9:19 - 9:20а затем их автоматизируем.
-
9:21 - 9:24И всё это выливается в кредитные отчёты,
-
9:24 - 9:26страховые платежи,
-
9:26 - 9:28профилактические системы надзора,
-
9:29 - 9:30директивы по назначению наказаний.
-
9:30 - 9:33Вот как мы строим наш мир сегодня
-
9:33 - 9:34на основе этих данных.
-
9:34 - 9:36И я не знаю, что хуже:
-
9:36 - 9:39то, что мы строим полностью
оптимизированные системы -
9:39 - 9:42для худших аспектов
человеческого поведения, -
9:42 - 9:44или то, что мы делаем это непредумышленно,
-
9:45 - 9:47не отдавая отчёт своим действиям,
-
9:47 - 9:50потому что не до конца понимаем
системы, которые построили, -
9:50 - 9:53и теперь мы не знаем, как что-то изменить.
-
9:55 - 9:58Есть две причины, по которым,
как мне кажется, на YouTube -
9:58 - 9:59всё есть так, как есть.
-
9:59 - 10:01И первая причина — это реклама,
-
10:01 - 10:03что по сути является
монетаризацией внимания, -
10:04 - 10:07никаких других целей она не преследует
-
10:07 - 10:11и не заботится о людях, в действительности
разрабатывающих контент. -
10:11 - 10:14Никакой централизации власти,
никакого разграничения. -
10:15 - 10:18Как бы вы ни относились
к использованию рекламы -
10:18 - 10:19для поддержки продуктов,
-
10:19 - 10:22то, что кто-то, не понимая
работы алгоритма, надеется, -
10:22 - 10:25что валяющиеся в песке
взрослые мужики в подгузниках -
10:25 - 10:26принесут им деньги,
-
10:26 - 10:28наводит на мысли, что мы, вероятно,
-
10:28 - 10:31не на этом должны основывать
наше общество и культуру -
10:31 - 10:32и не так их спонсировать.
-
10:34 - 10:36Вторая причина, являющаяся основной, —
это автоматизация, -
10:37 - 10:39которая всё это распределяет,
-
10:39 - 10:42как только оно появляется,
без какого-либо надзора. -
10:42 - 10:43А когда оно становится доступным,
-
10:43 - 10:47мы как бы разводим руками и говорим:
«Это не мы, это всё технологии». -
10:47 - 10:48Или: «Мы тут ни при чём».
-
10:49 - 10:50Так не пойдёт,
-
10:51 - 10:53потому что всё это не только
подчиняется алгоритмам, -
10:53 - 10:55но и ими контролируется.
-
10:56 - 10:59Когда в YouTube впервые обратили
внимание на это, -
10:59 - 11:00сначала они сказали,
-
11:01 - 11:03что разработают новые алгоритмы
машинного обучения, -
11:03 - 11:05чтобы следить за контентом.
-
11:05 - 11:08Машинное обучение,
по словам любого эксперта, — -
11:09 - 11:10это, по сути, то, что мы начали называть
-
11:10 - 11:13софтом, принцип работы
которого мы не понимаем. -
11:13 - 11:15И я считаю, что с нас хватит этого.
-
11:17 - 11:20Мы не должны перекладывать
на искусственный интеллект решение, -
11:20 - 11:21что приемлемо, а что нет,
-
11:21 - 11:23ведь мы знаем, что будет.
-
11:23 - 11:25Он станет подвергать цензуре
и другие вещи: -
11:25 - 11:26видео гомосексуального содержания,
-
11:26 - 11:28законные публичные выступления.
-
11:29 - 11:30То, что дозволено в этом плане
-
11:30 - 11:34не должно решаться
непостижимыми системами. -
11:34 - 11:36Это должно решаться
в ходе беседы между всеми нами. -
11:37 - 11:38Но я напомню,
-
11:38 - 11:40что альтернатива тоже неблагоприятна.
-
11:41 - 11:42YouTube недавно объявил,
-
11:42 - 11:44что выпустит версию приложения для детей,
-
11:44 - 11:46которое будет полностью
проверяться людьми. -
11:48 - 11:51Цукерберг в Конгрессе сказал,
что в Facebook будет то же самое, -
11:52 - 11:54когда его спросили, как будет
проверяться их контент. -
11:54 - 11:56Он сказал, что это поручат людям.
-
11:56 - 11:57И имеют в виду они то,
-
11:57 - 12:01что первыми видео увидят не дети,
-
12:01 - 12:03а сомнительные работники
с низкой зарплатой, -
12:03 - 12:05без должной поддержки
психического здоровья, -
12:05 - 12:07которых эти видео также травмируют.
-
12:07 - 12:07(Смех)
-
12:07 - 12:10И я думаю, что все мы можем
достичь гораздо большего. -
12:10 - 12:13(Аплодисменты)
-
12:14 - 12:17На мой взгляд, эти вещи
объединяет между собой -
12:19 - 12:20наличие посредника.
-
12:20 - 12:23То есть то, что мы понимаем
через посредника. -
12:23 - 12:26Иными словами, то, как мы понимаем,
как вести себя в своих интересах. -
12:28 - 12:29А это сделать почти невозможно
-
12:29 - 12:32в условиях тех систем, которые
мы не полностью понимаем. -
12:33 - 12:36Неравное распределение власти
всегда приводит к насилию. -
12:36 - 12:38И мы видим, что с этими системами
-
12:38 - 12:40неравный уровень понимания
приводит к тому же. -
12:41 - 12:44Если мы как-то и можем
улучшить эти системы, -
12:44 - 12:47то только сделав их
понятнее пользователям, -
12:47 - 12:49чтобы каждый из нас имел представление
-
12:49 - 12:51о том, что там на самом деле происходит.
-
12:52 - 12:54Однако, я думаю, что основное здесь то,
-
12:55 - 12:58что эти системы, как я, надеюсь, объяснил,
касаются не конкретно YouTube. -
12:59 - 13:00Они касаются всего.
-
13:00 - 13:02Проблемы контроля и посредничества,
-
13:03 - 13:04неясности и сложности,
-
13:05 - 13:08насилия и эксплуатации,
которая, по сути, происходит -
13:08 - 13:10из-за концентрации власти
в нескольких руках — -
13:11 - 13:13это очень серьёзные проблемы.
-
13:14 - 13:18И это проблемы не только YouTube
и не только технологий в целом, -
13:18 - 13:19они даже не новы.
-
13:19 - 13:20Они существовали годами.
-
13:21 - 13:24Но мы наконец создали эту систему,
всемирную сеть — интернет, -
13:25 - 13:28которая представляет их нам
так невероятно, -
13:28 - 13:30что их стало невозможно отрицать.
-
13:30 - 13:32Технологии обладают
необычайной возможностью -
13:33 - 13:36как поддерживать, так и развивать
-
13:37 - 13:41все наши самые странные
и тайные желания и склонности, -
13:41 - 13:42раскрывать их всему миру,
-
13:43 - 13:45а также фиксирует их так,
что мы их замечаем -
13:46 - 13:49и больше не можем делать вид,
будто их не существует. -
13:50 - 13:54Мы должны перестать видеть в технологиях
решение всех наших проблем -
13:54 - 13:57и вместо этого относиться к ним
как к средству выявления этих проблем, -
13:58 - 14:00чтобы можно было размышлять
в правильном ключе -
14:00 - 14:01и начать их решать.
-
14:02 - 14:03Спасибо огромное.
-
14:03 - 14:08(Аплодисменты)
-
14:10 - 14:10Спасибо.
-
14:10 - 14:14(Аплодисменты)
-
14:17 - 14:20Хелен Уолтерс: Джеймс, спасибо,
что пришёл и выступил у нас. -
14:20 - 14:21Что замечательно,
-
14:21 - 14:25когда на ум приходят фильмы,
в которых роботы господствуют над миром, -
14:25 - 14:28всё это кажется более привлекательным,
чем то, о чём ты рассказал. -
14:28 - 14:32Но меня волнует вот что: в этих фильмах
всегда есть какое-то сопротивление. -
14:32 - 14:34Есть ли сопротивление в данном случае?
-
14:35 - 14:38Видишь ли ты какие-то зачатки
и предзнаменования сопротивления? -
14:41 - 14:43Джеймс Брайдл: Не знаю насчёт
прямого сопротивления, -
14:43 - 14:44ещё слишком рано для этого.
-
14:44 - 14:46Думаю, это глубоко заложено
в нашей культуре. -
14:47 - 14:49Моя подруга Элеанор Саитта,
всегда говорит, -
14:50 - 14:53что любая технологическая проблема
глобального масштаба — -
14:54 - 14:56это в первую очередь
политическая проблема. -
14:56 - 14:58И всё, над чем мы работаем,
-
14:58 - 15:01нельзя разрешить, просто разработав
улучшенные технологии, -
15:01 - 15:04необходимо менять общество,
которое эти технологии создаёт. -
15:05 - 15:08Так что нет, на данный момент
мы ещё слишком далеки от этого. -
15:08 - 15:10Но как я сказал, по-моему, разбирая их,
-
15:10 - 15:13объясняя их, откровенно говоря о них,
-
15:13 - 15:15мы можем по крайней мере
запустить этот процесс. -
15:15 - 15:19ХУ: Когда ты говоришь о доступности
и цифровой грамотности, -
15:19 - 15:21мне трудно представить,
-
15:21 - 15:25что мы должны переложить это бремя
на самих пользователей. -
15:25 - 15:29Но кто же будет ответственен
за обучение в этом новом мире? -
15:29 - 15:32ДБ: Опять-таки, думаю,
ответственность лежит на всех нас, -
15:33 - 15:35и всё, что мы делаем, создаём, строим,
-
15:35 - 15:39должно совершаться при всеобщем согласии,
-
15:39 - 15:41включая тех, кто избегает
этого обсуждения. -
15:42 - 15:46И мы должны быть уверены, что
создаём системы не для обмана людей, -
15:46 - 15:47чтобы они сделали что нам нужно,
-
15:48 - 15:52но что люди действительно вовлечены
в процесс обучения на каждом этапе, -
15:52 - 15:54потому что все эти системы
образовательные. -
15:54 - 15:57Я надеюсь, что даже такая
безжалостная штука, -
15:57 - 15:59если правильно к ней
подойти и разобраться, -
15:59 - 16:01несёт в себе элемент обучения,
-
16:01 - 16:05которое позволит вам увидеть,
как сложные системы взаимодействуют -
16:05 - 16:08и, возможно, впоследствии применить
эти знания где-нибудь ещё. -
16:09 - 16:10ХУ: Джеймс, это такая важная тема,
-
16:10 - 16:13и я знаю, что многие здесь
открыты и готовы к разговору, -
16:13 - 16:15поэтому спасибо, что начал наше утро.
-
16:15 - 16:17ДБ: Спасибо большое. Спасибо.
-
16:17 - 16:19(Аплодисменты)
- Title:
- Кошмарные видео детского YouTube, и что не так с интернетом сегодня
- Speaker:
- Джеймс Брайдл
- Description:
-
Писатель и художник Джеймс Брайдл приоткрывает завесу тёмного и странного дна интернета, где на YouTube неизвестные влезают в мозг маленьким детям и взамен получают доходы от рекламы. Начиная с «яиц с сюрпризом» и «песни семьи пальчиков» и заканчивая сгенерированной алгоритмами подборкой недетских видео с участием известных персонажей мультфильмов — все эти видео пугают и используют детей. Кроме того, становится понятно, куда движется наш мир, которым всё больше управляют данные. «Мы должны перестать видеть в технологиях решение всех наших проблем. Вместо этого нам нужно относиться к ним как к средству выявления этих самых проблем, чтобы можно было размышлять в правильном ключе и начать их решать», — говорит Брайдл.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 16:32