Кошмарни видео-снимци са дечијег Јутјуба и шта данас није у реду са интернетом
-
0:01 - 0:02Зовем се Џејмс.
-
0:02 - 0:04Писац сам и уметник
-
0:04 - 0:06и стварам дела о технологији.
-
0:06 - 0:10Цртам ствари као што су обриси
војних дронова у природној величини -
0:10 - 0:12на градским улицама широм света
-
0:12 - 0:15да би људи почели да размишљају
и да разумеју ове технологије -
0:15 - 0:19које се прилично ретко виђају
и о којима се ретко размишља. -
0:19 - 0:23Правим неуронске мреже
које предвиђају резултате избора -
0:23 - 0:25на основу временских извештаја,
-
0:25 - 0:30јер сам заинтригиран стварним могућностима
ових чудних нових технологија. -
0:31 - 0:34Прошле године сам направио
свој самовозећи аутомобил. -
0:34 - 0:38Међутим, пошто баш не верујем технологији,
дизајнирао сам и клопку за њега. -
0:39 - 0:40(Смех)
-
0:40 - 0:44Ове ствари углавном радим
јер мислим да су потпуно фасцинантне, -
0:44 - 0:47али и зато што мислим да,
када причамо о технологији, -
0:47 - 0:49у већини случајева причамо о нама самима
-
0:49 - 0:52и начину на који разумемо свет.
-
0:52 - 0:54Ево једне приче о технологији.
-
0:56 - 0:58Ово је видео о киндер јајету.
-
0:58 - 1:02То је, у ствари, снимак некога
ко отвара гомилу чоколадних јаја -
1:02 - 1:04и гледаоцу показује играчке из њих.
-
1:04 - 1:07То је то. То је све што се дешава
током седам дугих минута. -
1:07 - 1:10Желим да обратите пажњу
на две ствари у вези са тим. -
1:11 - 1:15Прво, овај видео има 30 милиона прегледа.
-
1:15 - 1:16(Смех)
-
1:16 - 1:21Друга ствар је да се налази на каналу
који има 6,3 милиона пратилаца -
1:21 - 1:24и укупно осам милијарди прегледа,
-
1:24 - 1:27а садржи једино још више оваквих видеа.
-
1:28 - 1:32Тридесет милиона људи гледа
овог момка како отвара ова јаја. -
1:32 - 1:37Звучи прилично чудно, али ако укуцате
„киндер јаја“ у претраживач Јутјуба, -
1:37 - 1:40рећи ће вам да постоји
десет милиона ових видеа, -
1:40 - 1:42а мислим да је тај број потцењен.
-
1:42 - 1:44Мислим да их има много, много више.
-
1:44 - 1:46Ако наставите претрагу, нема им краја.
-
1:46 - 1:48Има на милионе и милионе ових видеа
-
1:48 - 1:52у све учесталијим барокним комбинацијама
брендова и материјала, -
1:52 - 1:56а све се више и више њих
поставља сваког дана. -
1:56 - 1:59Чудан је ово свет, зар не?
-
1:59 - 2:03Међутим, ствар је у томе
да ове видео-снимке не гледају одрасли, -
2:03 - 2:06већ деца, мала деца.
-
2:06 - 2:08Ови видео-снимци
су као кокаин за малу децу. -
2:08 - 2:10Нешто у вези са понављањем,
-
2:10 - 2:12непрекидном малом налету
допамина приликом открића, -
2:12 - 2:14их у потпуности навлачи.
-
2:14 - 2:19Мала деца гледају ове видео-снимке
опет и опет и опет, -
2:19 - 2:21а то раде из сата у сат.
-
2:21 - 2:25Ако покушате да их одвојите од екрана,
урлаће и урлаће и урлаће. -
2:25 - 2:26Ако ми не верујете -
-
2:26 - 2:29а већ сам видео људе у публици
како климају главом - -
2:29 - 2:32ако ми не верујете, нађите неког
ко има малу децу и питајте их, -
2:32 - 2:34и знаће за видео снимке о киндер јајима.
-
2:35 - 2:37Овде почињемо.
-
2:37 - 2:41У 2018. години смо,
а неко, или много људи, -
2:41 - 2:45користи исти механизам
који Фејсбук и Инстаграм користе -
2:45 - 2:47да вас натерају
да проверавате ту апликацију, -
2:47 - 2:51а користе је на Јутјубу
да хакују мозгове веома мале деце -
2:51 - 2:53у замену за приход од реклама.
-
2:54 - 2:56Макар се надам да је то оно што раде.
-
2:56 - 2:58Надам се да због тога то раде,
-
2:58 - 3:04јер постоје лакши начини да се оствари
приход од реклама на Јутјубу. -
3:04 - 3:06Можете једноставно направити
или украсти нешто. -
3:06 - 3:09Ако тражите веома популарне
дечије цртане филмове -
3:09 - 3:11као што су „Пепа прасе“
или „Патролне шапе“, -
3:11 - 3:13видећете да постоје и милиони
оваквих видеа на интернету. -
3:13 - 3:17Наравно, већину њих нису поставили
прави ствараоци садржаја. -
3:17 - 3:20Потичу са мноштва различитих,
насумичних налога, -
3:20 - 3:24а немогуће је знати ко их поставља
или који би им мотиви могли бити. -
3:24 - 3:26Да ли то звучи донекле познато?
-
3:26 - 3:28Јер то је тачно исти механизам
-
3:28 - 3:31који се примењује широм већине
наших дигиталних услуга, -
3:31 - 3:34при чему је немогуће знати
одакле ове информације долазе. -
3:34 - 3:36То су, у суштини, лажне вести за децу,
-
3:36 - 3:41а обучавамо их од рођења
да кликну баш на први линк који се појави -
3:41 - 3:43без обзира на то који је извор.
-
3:43 - 3:45То не делује као посебно добра идеја.
-
3:46 - 3:49Ево још једне веома популарне
ствари на дечијем Јутјубу. -
3:49 - 3:51Зове се „Породица прстићи“.
-
3:51 - 3:53Управо сам чуо
да је неко у публици уздахнуо. -
3:53 - 3:55Ово је „Породица прстићи“.
-
3:55 - 3:57Ово је најранија
коју сам успео да пронађем. -
3:57 - 4:00Из 2007. године је
и има само двесто хиљада прегледа, -
4:00 - 4:02што је ништа у овој игри.
-
4:02 - 4:04Међутим, има ову невероватно
заразну мелодију, -
4:04 - 4:06коју вам нећу пустити,
-
4:06 - 4:11јер ће вам се урезати у мозак
исто онако како се мени урезала у мозак, -
4:11 - 4:12а нећу то да вам урадим.
-
4:12 - 4:14Али, као и киндер јаја,
-
4:14 - 4:18увукла се у дечије мозгове
и учинила их је зависним. -
4:18 - 4:21За неколико година, ови видео-снимци
„Породице прстићи“ се свугде појављују, -
4:21 - 4:23а имате верзије на различитим језицима
-
4:23 - 4:26са популарним ликовима
из цртаних филмова са храном -
4:26 - 4:27или, искрено говорећи,
-
4:27 - 4:31било каквом анимацијом
која је надохват руке. -
4:31 - 4:36Да поновим, милиони, милиони
и милиони ових видео снимака -
4:36 - 4:40су доступни на интернету у свим овим
донекле суманутим комбинацијама. -
4:40 - 4:42А што више времена почнете
да проводите уз њих, -
4:42 - 4:46све луђе и луђе почињете да се осећате.
-
4:46 - 4:49Ту сам се упустио у ово,
-
4:49 - 4:53у овај осећај велике необичности
и великог недостатка разумевања -
4:53 - 4:55по питању тога
како је направљена ова ствар -
4:55 - 4:57која делује да је представљена око мене.
-
4:57 - 4:59Јер је немогуће знати
одакле ове ствари потичу. -
4:59 - 5:01Као, ко их прави?
-
5:01 - 5:04Делује да неке праве
групе професионалних аниматора. -
5:05 - 5:07Неке је само насумично саставио софтвер.
-
5:07 - 5:12Неки од њих су млади дечији забављачи
који изгледају прилично нормално, -
5:12 - 5:15а неки су људи који сасвим сигурно уопште
не би требало да буду у близини деце. -
5:15 - 5:18(Смех)
-
5:19 - 5:24Поново, ова немогућност
да се открије ко прави ове ствари - -
5:24 - 5:25шта, ово је бот?
-
5:25 - 5:27Да ли је то особа? Да ли је то трол?
-
5:28 - 5:31Шта значи то што више не можемо
да направимо разлику између ових ствари? -
5:32 - 5:36Не изгледа ли та неизвесност
помало познато управо сада? -
5:38 - 5:41Главни начин на који се добијају
прегледи ових видеа - -
5:41 - 5:42а прегледи значе новац -
-
5:42 - 5:47је да натрпају популарне изразе
у наслове ових видеа. -
5:47 - 5:49Тако узмете „киндер јаја“
-
5:49 - 5:52и додате „Патролне шапе“, „Ускршње јаје“
или шта год су ове ствари, -
5:52 - 5:55све ове речи из осталих
популарних видеа у ваш наслов -
5:55 - 5:58док не завршите са овом донекле
бесмисленом мешавином речи -
5:58 - 6:01која уопште нема
никаквог смисла за људска бића. -
6:01 - 6:04Јер, наравно, само веома мала деца
гледају ваш видео, -
6:04 - 6:06а шта они, до врага, знају?
-
6:06 - 6:09Ваша права публика за ово је софтвер,
-
6:09 - 6:11алгоритми,
-
6:11 - 6:12софтвер који Јутјуб користи
-
6:12 - 6:15да изабере који
видео-снимци су као остали, -
6:15 - 6:17да их учини популарним,
да их препоручи. -
6:17 - 6:20И зато завршите са овом донекле
потпуно бесмисленом мешавином -
6:20 - 6:23у наслову и садржају.
-
6:24 - 6:25Али, морате да запамтите
-
6:25 - 6:28да још увек постоје људи
унутар овог система -
6:28 - 6:30који је оптимизован алгоритмима,
-
6:30 - 6:36људи који су све више приморани да одглуме
ове све бизарније комбинације речи, -
6:36 - 6:39као очајни уметници-импровизатори
-
6:39 - 6:41који реагују на удружену,
истовремену вриску -
6:41 - 6:44једног милиона мале деце.
-
6:45 - 6:48Постоје стварни људи
који су заробљени у овим системима, -
6:48 - 6:52и то је друга веома чудна ствар по питању
ове културе којом управљају алгоритми, -
6:52 - 6:53јер, чак иако сте људско биће,
-
6:53 - 6:56на крају морате да се понашате као машина
само да бисте преживели. -
6:57 - 6:59Такође, са друге стране екрана
-
6:59 - 7:02су још увек ова мала деца
која гледају те ствари, -
7:02 - 7:06опчињена, а пуну пажњу су им преотели
ови чудни механизми. -
7:07 - 7:10Већина ове деце су још увек
превише мала да би користила сајт. -
7:10 - 7:12Они само лупају по екрану својим ручицама.
-
7:12 - 7:14Зато постоји аутоплеј,
-
7:14 - 7:17који једноставно пушта
ове видео снимке изнова у круг, -
7:17 - 7:20бесконачно, сатима.
-
7:20 - 7:23Много чудних ствари је сада у систему,
-
7:23 - 7:26па вас аутоплеј води
на нека прилично чудна места. -
7:26 - 7:28Ево како у дванаест корака
-
7:28 - 7:31можете стићи од симпатичног
видеа воза који броји -
7:31 - 7:34до Микија Мауса који мастурбира.
-
7:35 - 7:37Да. Извините због тога.
-
7:37 - 7:39Постаје горе.
-
7:39 - 7:40Ово се дешава
-
7:40 - 7:43када се све ове разне кључне речи,
-
7:43 - 7:45сви ови различити делићи пажње
-
7:45 - 7:48и ово очајничко стварање садржаја
-
7:48 - 7:51нађу на једном месту.
-
7:52 - 7:56Овде све те веома чудне
кључне речи праве дар-мар. -
7:56 - 8:01Укрстите видео о „Породици прстићи“
са стварима које суперхероји изводе уживо, -
8:01 - 8:04додате неке чудне интерне шале
о троловима или већ нешто -
8:04 - 8:08и изненада стижете
на заиста веома чудно место. -
8:08 - 8:10Родитеље углавном узнемиравају
-
8:10 - 8:13ствари са насилним
и сексуалним садржајем, зар не? -
8:13 - 8:16Цртани ликови су физички нападнути,
-
8:16 - 8:18убијени,
-
8:18 - 8:21чудне неслане шале које,
у ствари, заправо престраве децу. -
8:21 - 8:25Имате софтвер који користи све ове утицаје
-
8:25 - 8:28како би аутоматски створио
најгоре дечије кошмаре. -
8:28 - 8:31Ове ствари заиста, заиста утичу
на нашу малу децу. -
8:31 - 8:34Родитељи потврђују
да су им деца трауматизована, -
8:34 - 8:35да почињу да се боје мрака,
-
8:35 - 8:38да почињу да се боје
својих омиљених цртаних јунака. -
8:39 - 8:42Ако ћете једну ствар урадити после овога,
нека то буде, ако имате малу децу, -
8:42 - 8:44да их држите подаље од Јутјуба.
-
8:45 - 8:47(Аплауз)
-
8:51 - 8:54Али, друга ствар, она која ме заиста
нервира у вези са овим -
8:54 - 8:58је то што нисам сигуран да уопште
разумемо како смо дошли довде. -
8:59 - 9:02Узели смо све ове утицаје, све ове ствари
-
9:02 - 9:05и изманипулисали их на начин
на који нико заиста није намеравао. -
9:05 - 9:08А ипак, ово је и начин
на који градимо цео свет. -
9:08 - 9:11Користимо све ове податке,
много лоших података, -
9:11 - 9:14много старих података пуних предрасуда,
-
9:14 - 9:17пуних свих наших
најгорих побуда из историје, -
9:17 - 9:19и то уграђујемо
у огромне скупове података, -
9:19 - 9:21а онда их аутоматизујемо.
-
9:21 - 9:24Све то изманипулишемо у ствари
као што су извештаји о кредитној историји, -
9:24 - 9:26рате за осигурање,
-
9:26 - 9:29системе за предвиђене полицијске ације,
-
9:29 - 9:30директиве за одређивање казни.
-
9:30 - 9:34Ово је начин на који ми сада, у ствари,
стварамо свет користећи ове податке. -
9:34 - 9:36Не знам шта је горе -
-
9:36 - 9:39то што правимо систем
који делује да је у потпуности оптимизован -
9:39 - 9:42за најгоре могуће видове људског понашања
-
9:42 - 9:45или то што изгледа
да смо то случајно урадили, -
9:45 - 9:47а да уопште нисмо схватили
да смо то радили -
9:47 - 9:50јер заиста нисмо разумели
системе које смо правили -
9:50 - 9:53и заиста нисмо разумели
како да урадимо нешто другачије са тим. -
9:55 - 9:58Мислим да постоје две ствари
које изгледа да заиста покрећу ово -
9:58 - 9:59највише на Јутјубу,
-
9:59 - 10:01а прва је рекламирање,
-
10:01 - 10:04што је начин да се заради од пажње
-
10:04 - 10:07без било којих других
стварних варијабли на делу, -
10:07 - 10:11бриге о људима који заиста
праве овај садржај, -
10:11 - 10:15централизације моћи,
разграничавања ових ствари. -
10:15 - 10:17Мислим да без обзира на то шта мислите
-
10:17 - 10:19о коришћењу рекламирања
да се ове ствари подржавају, -
10:19 - 10:22призор одраслих мушкараца у пеленама
који се ваљају у песку -
10:22 - 10:26надајући се да ће им неки алгоритам
који баш не разумеју дати новац за то -
10:26 - 10:28ми говори да ово вероватно није ствар
-
10:28 - 10:31на којој би требало да заснивамо
наше друштво и културу -
10:31 - 10:33нити начин на који би требало
да га финансирамо. -
10:34 - 10:37Друга ствар која је, на неки начин,
главни покретач ове аутоматизације -
10:37 - 10:42је примена све ове технологије
чим се појави без икакве врсте надзора, -
10:42 - 10:43а када је ту,
-
10:43 - 10:47некако дижемо руке и кажемо:
„Хеј, нисмо ми криви. Технологија је.“ -
10:47 - 10:49У фазону: „Немамо ништа са тим.“
-
10:49 - 10:51То није баш довољно добро
-
10:51 - 10:56јер овим не само да управља алгоритам,
већ га алгоритам и надгледа. -
10:56 - 10:59Када је Јутјуб први пут почео
да обраћа пажњу на ово, -
10:59 - 11:03прво су рекли да ће применити
боље алгоритме за машинско учење -
11:03 - 11:05како би уређивали садржај.
-
11:05 - 11:09Па, машинско учење, као што ће вам
сваки стручњак из те области рећи, -
11:09 - 11:13је оно што смо почели да називамо
софтвером чији начин рада не разумемо. -
11:13 - 11:17Мислим да тога већ имамо довољно.
-
11:17 - 11:20Не би требало да препуштамо
вештачкој интелигенцији да одлучује -
11:20 - 11:23шта је прикладно или не,
јер знамо шта ће се десити. -
11:23 - 11:24Почеће да цензурише остале ствари.
-
11:24 - 11:26Почеће да цензурише хомосексуални садржај.
-
11:26 - 11:29Почеће да цензурише
легитимно јавно изражавање. -
11:29 - 11:31Оно што је дозвољено у овим разговорима
-
11:31 - 11:34не би требало да се препусти
системима који немају одговорност. -
11:34 - 11:37Ово је део разговора
који бисмо сви морали да водимо. -
11:37 - 11:41Међутим, подсетићу вас
да ни алтернатива није веома пријатна. -
11:41 - 11:42Јутјуб је недавно објавио
-
11:42 - 11:45да ће пустити у рад верзију
своје апликације за децу -
11:45 - 11:47којом ће у потпуности
управљати људска бића. -
11:48 - 11:52Фејсбук - Закерберг је рекао
нешто веома слично у Конгресу -
11:52 - 11:55када су га притиснули по питању тога
како ће уређивати свој садржај. -
11:55 - 11:57Рекао је да ће људска бића то радити.
-
11:57 - 12:01А то стварно значи да ће,
уместо да мала деца прва виде ове ствари, -
12:01 - 12:04слабо плаћени радници на уговор
са нестабилним запослењем -
12:04 - 12:06и без одговарајуће
заштите менталног здравља -
12:06 - 12:07такође бити тиме упропашћени.
-
12:07 - 12:08(Смех)
-
12:08 - 12:11Мислим да сви можемо да урадимо
прилично више од тога. -
12:11 - 12:13(Аплауз)
-
12:14 - 12:19Мислим да је идеја
која повезује ове две ствари -
12:19 - 12:20залагање.
-
12:20 - 12:22Колико ми то заиста разумемо?
-
12:22 - 12:23Кад кажем залагање,
-
12:23 - 12:27мислим на то како знамо да радимо
у свом најбољем интересу. -
12:28 - 12:29То је скоро немогуће радити
-
12:29 - 12:33у овим системима које заиста
не разумемо у потпуности. -
12:33 - 12:36Неједнакост моћи увек води ка насиљу.
-
12:36 - 12:40А унутар ових система можемо видети
да неједнакост разумевања чини исто. -
12:40 - 12:43Ако постоји једна ствар
коју можемо да урадимо -
12:43 - 12:44да почнемо да побољшавамо ове системе,
-
12:44 - 12:47то је да их учинимо јаснијим
за људе који их користе -
12:47 - 12:50како бисмо сви ми разумели
шта се заиста овде дешава. -
12:52 - 12:55Ипак, мислим да је код већине
ових система ствар у томе -
12:55 - 12:59да се овде заиста не ради о Јутјубу,
што се надам да сам објаснио. -
12:59 - 13:00У питању је све.
-
13:00 - 13:03Ова питања одговорности, залагања,
-
13:03 - 13:05нејасноће, сложености,
-
13:05 - 13:08насиља и експлоатације
који су суштинска последица -
13:08 - 13:11концентрације моћи у рукама неколицине -
-
13:11 - 13:13ово су много, много већа питања.
-
13:14 - 13:18Нису то питања која се тичу само Јутјуба
и само технологије уопште, -
13:18 - 13:19а нису чак ни нова;
-
13:19 - 13:21са нама су од давнина.
-
13:21 - 13:25Међутим, коначно смо направили
овај систем, глобални систем, интернет, -
13:25 - 13:30који нам их приказује на невероватан начин
и чини их неоспорним. -
13:30 - 13:33Технологија има неоспорну способност
-
13:33 - 13:37да подржи и настави
-
13:37 - 13:41већину наших невероватних,
често скривених жеља и предрасуда -
13:41 - 13:43и да их преноси у свет,
-
13:43 - 13:46али их такође и записује
како бисмо могли да их видимо, -
13:46 - 13:50да више не можемо
да се претварамо да не постоје. -
13:50 - 13:51Морамо да престанемо
-
13:51 - 13:54да размишљамо о технологији
као о решењу за све наше проблеме, -
13:54 - 13:58и да размишљамо о њој као о водиљи
ка ономе шта су ти проблеми у ствари -
13:58 - 14:00да бисмо почели да размишљамо
о њима на прави начин -
14:00 - 14:02и да почнемо да их решавамо.
-
14:02 - 14:03Хвала пуно.
-
14:03 - 14:06(Аплауз)
-
14:10 - 14:11Хвала.
-
14:11 - 14:14(Аплауз)
-
14:17 - 14:20Хелен Волтерс: Џејмс, хвала ти
што си дошао и одржао овај говор. -
14:20 - 14:21Занимљиво је да је,
-
14:21 - 14:25када помислимо да филмове у којима
роботизовани господари преузму контролу, -
14:25 - 14:28све много привлачније
од овога што ти описујеш. -
14:28 - 14:32Међутим, питам се - у тим филмовима
је присутан отпор који се појачава. -
14:32 - 14:35Да ли се појачава отпор према овоме?
-
14:35 - 14:39Да ли видиш позитивне знаке,
обнову отпора? -
14:41 - 14:43Џејмс Бридл: Нисам сигуран
по питању директног отпора, -
14:43 - 14:45јер мислим да је ово веома дуготрајно.
-
14:45 - 14:47Мислим да је дубоко усађено у културу.
-
14:47 - 14:50Моја пријатељица Еленор Саита увек каже
-
14:50 - 14:54да су било који технолошки проблеми
великих размера и опсега -
14:54 - 14:56првенствено политички проблеми.
-
14:56 - 14:58Тако да све ове ствари
на чијем решењу радимо -
14:58 - 15:02неће се решити тако што ће се једноставно
направити боља технологија, -
15:02 - 15:05већ тако што ће се променити друштво
које производи ове технологије. -
15:05 - 15:08Не. Управо сада, мислим
да нам предстоји веома дугачак пут. -
15:08 - 15:13Опет, мислим да, ако их анализирамо,
објаснимо и веома искрено причамо о њима, -
15:13 - 15:16можемо, у ствари,
макар започети тај процес. -
15:16 - 15:19ХВ: Када говориш о јасноћи
и дигиталној писмености, -
15:19 - 15:21тешко ми је да замислим
-
15:21 - 15:25да морамо да ставимо терет
дигиталне писмености на саме кориснике. -
15:25 - 15:29Чија је одговорност образовање
у овом новом свету? -
15:29 - 15:33ЏБ: Још једном, мислим
да је ова одговорност на свима нама, -
15:33 - 15:36да све што радимо,
све што градимо, све што правимо -
15:36 - 15:40мора бити направљено
уз пристанак у разговору -
15:40 - 15:42са свима који га избегавају;
-
15:42 - 15:46да не правимо системе чија је сврха
да преваре и изненаде људе -
15:46 - 15:48да ураде праву ствар,
-
15:48 - 15:52већ да су они заиста укључени
у сваки корак њиховог образовања, -
15:52 - 15:53јер је сваки од ових система образовни.
-
15:53 - 15:57Надам се, чак и по питању
ових веома страшних ствари, -
15:57 - 15:59да је, ако их можете узети
и прописно сагледати, -
15:59 - 16:01то, само по себи, део образовања
-
16:01 - 16:05које вам омогућава да почнете да видите
како се сложени системи удружују и раде -
16:05 - 16:09и да ћете можда моћи да примените
то знање негде другде у свету. -
16:09 - 16:11ХВ: Џејмс, ово је толико важан разговор
-
16:11 - 16:13и знам да су многи људи овде
отворени и спремни за њега, -
16:13 - 16:15стога ти захваљујем што си започео јутро.
-
16:15 - 16:17ЏБ: Хвала пуно. Све најбоље.
-
16:17 - 16:18(Аплауз)
- Title:
- Кошмарни видео-снимци са дечијег Јутјуба и шта данас није у реду са интернетом
- Speaker:
- Џејмс Бридл (James Bridle)
- Description:
-
Писац и уметник Џејмс Бридл разоткрива мрачан и чудан кутак интернета у којем непознати људи или групе на Јутјубу хакују мозгове мале деце у замену за приход од рекламирања. Од отварања киндер јаја преко „Породице прстићи“ до мешавине познатих цртаних ликова у насилним ситуацијама које је створио алгоритам, ови видео-снимци експлоатишу и престрављују мале умове и говоре нам нешто о томе куда иде наш свет којим се све више управља подацима. „Морамо да престанемо да размишљамо о технологији као о решењу за све наше проблеме, а да размишљамо о њој као о водиљи ка ономе шта су ти проблеми у ствари, како бисмо могли да размишљамо о њима на прави начин и да почнемо да их решавамо“, каже Бридл.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 16:32