< Return to Video

Кошмарни видео-снимци са дечијег Јутјуба и шта данас није у реду са интернетом

  • 0:01 - 0:02
    Зовем се Џејмс.
  • 0:02 - 0:04
    Писац сам и уметник
  • 0:04 - 0:06
    и стварам дела о технологији.
  • 0:06 - 0:10
    Цртам ствари као што су обриси
    војних дронова у природној величини
  • 0:10 - 0:12
    на градским улицама широм света
  • 0:12 - 0:15
    да би људи почели да размишљају
    и да разумеју ове технологије
  • 0:15 - 0:19
    које се прилично ретко виђају
    и о којима се ретко размишља.
  • 0:19 - 0:23
    Правим неуронске мреже
    које предвиђају резултате избора
  • 0:23 - 0:25
    на основу временских извештаја,
  • 0:25 - 0:30
    јер сам заинтригиран стварним могућностима
    ових чудних нових технологија.
  • 0:31 - 0:34
    Прошле године сам направио
    свој самовозећи аутомобил.
  • 0:34 - 0:38
    Међутим, пошто баш не верујем технологији,
    дизајнирао сам и клопку за њега.
  • 0:39 - 0:40
    (Смех)
  • 0:40 - 0:44
    Ове ствари углавном радим
    јер мислим да су потпуно фасцинантне,
  • 0:44 - 0:47
    али и зато што мислим да,
    када причамо о технологији,
  • 0:47 - 0:49
    у већини случајева причамо о нама самима
  • 0:49 - 0:52
    и начину на који разумемо свет.
  • 0:52 - 0:54
    Ево једне приче о технологији.
  • 0:56 - 0:58
    Ово је видео о киндер јајету.
  • 0:58 - 1:02
    То је, у ствари, снимак некога
    ко отвара гомилу чоколадних јаја
  • 1:02 - 1:04
    и гледаоцу показује играчке из њих.
  • 1:04 - 1:07
    То је то. То је све што се дешава
    током седам дугих минута.
  • 1:07 - 1:10
    Желим да обратите пажњу
    на две ствари у вези са тим.
  • 1:11 - 1:15
    Прво, овај видео има 30 милиона прегледа.
  • 1:15 - 1:16
    (Смех)
  • 1:16 - 1:21
    Друга ствар је да се налази на каналу
    који има 6,3 милиона пратилаца
  • 1:21 - 1:24
    и укупно осам милијарди прегледа,
  • 1:24 - 1:27
    а садржи једино још више оваквих видеа.
  • 1:28 - 1:32
    Тридесет милиона људи гледа
    овог момка како отвара ова јаја.
  • 1:32 - 1:37
    Звучи прилично чудно, али ако укуцате
    „киндер јаја“ у претраживач Јутјуба,
  • 1:37 - 1:40
    рећи ће вам да постоји
    десет милиона ових видеа,
  • 1:40 - 1:42
    а мислим да је тај број потцењен.
  • 1:42 - 1:44
    Мислим да их има много, много више.
  • 1:44 - 1:46
    Ако наставите претрагу, нема им краја.
  • 1:46 - 1:48
    Има на милионе и милионе ових видеа
  • 1:48 - 1:52
    у све учесталијим барокним комбинацијама
    брендова и материјала,
  • 1:52 - 1:56
    а све се више и више њих
    поставља сваког дана.
  • 1:56 - 1:59
    Чудан је ово свет, зар не?
  • 1:59 - 2:03
    Међутим, ствар је у томе
    да ове видео-снимке не гледају одрасли,
  • 2:03 - 2:06
    већ деца, мала деца.
  • 2:06 - 2:08
    Ови видео-снимци
    су као кокаин за малу децу.
  • 2:08 - 2:10
    Нешто у вези са понављањем,
  • 2:10 - 2:12
    непрекидном малом налету
    допамина приликом открића,
  • 2:12 - 2:14
    их у потпуности навлачи.
  • 2:14 - 2:19
    Мала деца гледају ове видео-снимке
    опет и опет и опет,
  • 2:19 - 2:21
    а то раде из сата у сат.
  • 2:21 - 2:25
    Ако покушате да их одвојите од екрана,
    урлаће и урлаће и урлаће.
  • 2:25 - 2:26
    Ако ми не верујете -
  • 2:26 - 2:29
    а већ сам видео људе у публици
    како климају главом -
  • 2:29 - 2:32
    ако ми не верујете, нађите неког
    ко има малу децу и питајте их,
  • 2:32 - 2:34
    и знаће за видео снимке о киндер јајима.
  • 2:35 - 2:37
    Овде почињемо.
  • 2:37 - 2:41
    У 2018. години смо,
    а неко, или много људи,
  • 2:41 - 2:45
    користи исти механизам
    који Фејсбук и Инстаграм користе
  • 2:45 - 2:47
    да вас натерају
    да проверавате ту апликацију,
  • 2:47 - 2:51
    а користе је на Јутјубу
    да хакују мозгове веома мале деце
  • 2:51 - 2:53
    у замену за приход од реклама.
  • 2:54 - 2:56
    Макар се надам да је то оно што раде.
  • 2:56 - 2:58
    Надам се да због тога то раде,
  • 2:58 - 3:04
    јер постоје лакши начини да се оствари
    приход од реклама на Јутјубу.
  • 3:04 - 3:06
    Можете једноставно направити
    или украсти нешто.
  • 3:06 - 3:09
    Ако тражите веома популарне
    дечије цртане филмове
  • 3:09 - 3:11
    као што су „Пепа прасе“
    или „Патролне шапе“,
  • 3:11 - 3:13
    видећете да постоје и милиони
    оваквих видеа на интернету.
  • 3:13 - 3:17
    Наравно, већину њих нису поставили
    прави ствараоци садржаја.
  • 3:17 - 3:20
    Потичу са мноштва различитих,
    насумичних налога,
  • 3:20 - 3:24
    а немогуће је знати ко их поставља
    или који би им мотиви могли бити.
  • 3:24 - 3:26
    Да ли то звучи донекле познато?
  • 3:26 - 3:28
    Јер то је тачно исти механизам
  • 3:28 - 3:31
    који се примењује широм већине
    наших дигиталних услуга,
  • 3:31 - 3:34
    при чему је немогуће знати
    одакле ове информације долазе.
  • 3:34 - 3:36
    То су, у суштини, лажне вести за децу,
  • 3:36 - 3:41
    а обучавамо их од рођења
    да кликну баш на први линк који се појави
  • 3:41 - 3:43
    без обзира на то који је извор.
  • 3:43 - 3:45
    То не делује као посебно добра идеја.
  • 3:46 - 3:49
    Ево још једне веома популарне
    ствари на дечијем Јутјубу.
  • 3:49 - 3:51
    Зове се „Породица прстићи“.
  • 3:51 - 3:53
    Управо сам чуо
    да је неко у публици уздахнуо.
  • 3:53 - 3:55
    Ово је „Породица прстићи“.
  • 3:55 - 3:57
    Ово је најранија
    коју сам успео да пронађем.
  • 3:57 - 4:00
    Из 2007. године је
    и има само двесто хиљада прегледа,
  • 4:00 - 4:02
    што је ништа у овој игри.
  • 4:02 - 4:04
    Међутим, има ову невероватно
    заразну мелодију,
  • 4:04 - 4:06
    коју вам нећу пустити,
  • 4:06 - 4:11
    јер ће вам се урезати у мозак
    исто онако како се мени урезала у мозак,
  • 4:11 - 4:12
    а нећу то да вам урадим.
  • 4:12 - 4:14
    Али, као и киндер јаја,
  • 4:14 - 4:18
    увукла се у дечије мозгове
    и учинила их је зависним.
  • 4:18 - 4:21
    За неколико година, ови видео-снимци
    „Породице прстићи“ се свугде појављују,
  • 4:21 - 4:23
    а имате верзије на различитим језицима
  • 4:23 - 4:26
    са популарним ликовима
    из цртаних филмова са храном
  • 4:26 - 4:27
    или, искрено говорећи,
  • 4:27 - 4:31
    било каквом анимацијом
    која је надохват руке.
  • 4:31 - 4:36
    Да поновим, милиони, милиони
    и милиони ових видео снимака
  • 4:36 - 4:40
    су доступни на интернету у свим овим
    донекле суманутим комбинацијама.
  • 4:40 - 4:42
    А што више времена почнете
    да проводите уз њих,
  • 4:42 - 4:46
    све луђе и луђе почињете да се осећате.
  • 4:46 - 4:49
    Ту сам се упустио у ово,
  • 4:49 - 4:53
    у овај осећај велике необичности
    и великог недостатка разумевања
  • 4:53 - 4:55
    по питању тога
    како је направљена ова ствар
  • 4:55 - 4:57
    која делује да је представљена око мене.
  • 4:57 - 4:59
    Јер је немогуће знати
    одакле ове ствари потичу.
  • 4:59 - 5:01
    Као, ко их прави?
  • 5:01 - 5:04
    Делује да неке праве
    групе професионалних аниматора.
  • 5:05 - 5:07
    Неке је само насумично саставио софтвер.
  • 5:07 - 5:12
    Неки од њих су млади дечији забављачи
    који изгледају прилично нормално,
  • 5:12 - 5:15
    а неки су људи који сасвим сигурно уопште
    не би требало да буду у близини деце.
  • 5:15 - 5:18
    (Смех)
  • 5:19 - 5:24
    Поново, ова немогућност
    да се открије ко прави ове ствари -
  • 5:24 - 5:25
    шта, ово је бот?
  • 5:25 - 5:27
    Да ли је то особа? Да ли је то трол?
  • 5:28 - 5:31
    Шта значи то што више не можемо
    да направимо разлику између ових ствари?
  • 5:32 - 5:36
    Не изгледа ли та неизвесност
    помало познато управо сада?
  • 5:38 - 5:41
    Главни начин на који се добијају
    прегледи ових видеа -
  • 5:41 - 5:42
    а прегледи значе новац -
  • 5:42 - 5:47
    је да натрпају популарне изразе
    у наслове ових видеа.
  • 5:47 - 5:49
    Тако узмете „киндер јаја“
  • 5:49 - 5:52
    и додате „Патролне шапе“, „Ускршње јаје“
    или шта год су ове ствари,
  • 5:52 - 5:55
    све ове речи из осталих
    популарних видеа у ваш наслов
  • 5:55 - 5:58
    док не завршите са овом донекле
    бесмисленом мешавином речи
  • 5:58 - 6:01
    која уопште нема
    никаквог смисла за људска бића.
  • 6:01 - 6:04
    Јер, наравно, само веома мала деца
    гледају ваш видео,
  • 6:04 - 6:06
    а шта они, до врага, знају?
  • 6:06 - 6:09
    Ваша права публика за ово је софтвер,
  • 6:09 - 6:11
    алгоритми,
  • 6:11 - 6:12
    софтвер који Јутјуб користи
  • 6:12 - 6:15
    да изабере који
    видео-снимци су као остали,
  • 6:15 - 6:17
    да их учини популарним,
    да их препоручи.
  • 6:17 - 6:20
    И зато завршите са овом донекле
    потпуно бесмисленом мешавином
  • 6:20 - 6:23
    у наслову и садржају.
  • 6:24 - 6:25
    Али, морате да запамтите
  • 6:25 - 6:28
    да још увек постоје људи
    унутар овог система
  • 6:28 - 6:30
    који је оптимизован алгоритмима,
  • 6:30 - 6:36
    људи који су све више приморани да одглуме
    ове све бизарније комбинације речи,
  • 6:36 - 6:39
    као очајни уметници-импровизатори
  • 6:39 - 6:41
    који реагују на удружену,
    истовремену вриску
  • 6:41 - 6:44
    једног милиона мале деце.
  • 6:45 - 6:48
    Постоје стварни људи
    који су заробљени у овим системима,
  • 6:48 - 6:52
    и то је друга веома чудна ствар по питању
    ове културе којом управљају алгоритми,
  • 6:52 - 6:53
    јер, чак иако сте људско биће,
  • 6:53 - 6:56
    на крају морате да се понашате као машина
    само да бисте преживели.
  • 6:57 - 6:59
    Такође, са друге стране екрана
  • 6:59 - 7:02
    су још увек ова мала деца
    која гледају те ствари,
  • 7:02 - 7:06
    опчињена, а пуну пажњу су им преотели
    ови чудни механизми.
  • 7:07 - 7:10
    Већина ове деце су још увек
    превише мала да би користила сајт.
  • 7:10 - 7:12
    Они само лупају по екрану својим ручицама.
  • 7:12 - 7:14
    Зато постоји аутоплеј,
  • 7:14 - 7:17
    који једноставно пушта
    ове видео снимке изнова у круг,
  • 7:17 - 7:20
    бесконачно, сатима.
  • 7:20 - 7:23
    Много чудних ствари је сада у систему,
  • 7:23 - 7:26
    па вас аутоплеј води
    на нека прилично чудна места.
  • 7:26 - 7:28
    Ево како у дванаест корака
  • 7:28 - 7:31
    можете стићи од симпатичног
    видеа воза који броји
  • 7:31 - 7:34
    до Микија Мауса који мастурбира.
  • 7:35 - 7:37
    Да. Извините због тога.
  • 7:37 - 7:39
    Постаје горе.
  • 7:39 - 7:40
    Ово се дешава
  • 7:40 - 7:43
    када се све ове разне кључне речи,
  • 7:43 - 7:45
    сви ови различити делићи пажње
  • 7:45 - 7:48
    и ово очајничко стварање садржаја
  • 7:48 - 7:51
    нађу на једном месту.
  • 7:52 - 7:56
    Овде све те веома чудне
    кључне речи праве дар-мар.
  • 7:56 - 8:01
    Укрстите видео о „Породици прстићи“
    са стварима које суперхероји изводе уживо,
  • 8:01 - 8:04
    додате неке чудне интерне шале
    о троловима или већ нешто
  • 8:04 - 8:08
    и изненада стижете
    на заиста веома чудно место.
  • 8:08 - 8:10
    Родитеље углавном узнемиравају
  • 8:10 - 8:13
    ствари са насилним
    и сексуалним садржајем, зар не?
  • 8:13 - 8:16
    Цртани ликови су физички нападнути,
  • 8:16 - 8:18
    убијени,
  • 8:18 - 8:21
    чудне неслане шале које,
    у ствари, заправо престраве децу.
  • 8:21 - 8:25
    Имате софтвер који користи све ове утицаје
  • 8:25 - 8:28
    како би аутоматски створио
    најгоре дечије кошмаре.
  • 8:28 - 8:31
    Ове ствари заиста, заиста утичу
    на нашу малу децу.
  • 8:31 - 8:34
    Родитељи потврђују
    да су им деца трауматизована,
  • 8:34 - 8:35
    да почињу да се боје мрака,
  • 8:35 - 8:38
    да почињу да се боје
    својих омиљених цртаних јунака.
  • 8:39 - 8:42
    Ако ћете једну ствар урадити после овога,
    нека то буде, ако имате малу децу,
  • 8:42 - 8:44
    да их држите подаље од Јутјуба.
  • 8:45 - 8:47
    (Аплауз)
  • 8:51 - 8:54
    Али, друга ствар, она која ме заиста
    нервира у вези са овим
  • 8:54 - 8:58
    је то што нисам сигуран да уопште
    разумемо како смо дошли довде.
  • 8:59 - 9:02
    Узели смо све ове утицаје, све ове ствари
  • 9:02 - 9:05
    и изманипулисали их на начин
    на који нико заиста није намеравао.
  • 9:05 - 9:08
    А ипак, ово је и начин
    на који градимо цео свет.
  • 9:08 - 9:11
    Користимо све ове податке,
    много лоших података,
  • 9:11 - 9:14
    много старих података пуних предрасуда,
  • 9:14 - 9:17
    пуних свих наших
    најгорих побуда из историје,
  • 9:17 - 9:19
    и то уграђујемо
    у огромне скупове података,
  • 9:19 - 9:21
    а онда их аутоматизујемо.
  • 9:21 - 9:24
    Све то изманипулишемо у ствари
    као што су извештаји о кредитној историји,
  • 9:24 - 9:26
    рате за осигурање,
  • 9:26 - 9:29
    системе за предвиђене полицијске ације,
  • 9:29 - 9:30
    директиве за одређивање казни.
  • 9:30 - 9:34
    Ово је начин на који ми сада, у ствари,
    стварамо свет користећи ове податке.
  • 9:34 - 9:36
    Не знам шта је горе -
  • 9:36 - 9:39
    то што правимо систем
    који делује да је у потпуности оптимизован
  • 9:39 - 9:42
    за најгоре могуће видове људског понашања
  • 9:42 - 9:45
    или то што изгледа
    да смо то случајно урадили,
  • 9:45 - 9:47
    а да уопште нисмо схватили
    да смо то радили
  • 9:47 - 9:50
    јер заиста нисмо разумели
    системе које смо правили
  • 9:50 - 9:53
    и заиста нисмо разумели
    како да урадимо нешто другачије са тим.
  • 9:55 - 9:58
    Мислим да постоје две ствари
    које изгледа да заиста покрећу ово
  • 9:58 - 9:59
    највише на Јутјубу,
  • 9:59 - 10:01
    а прва је рекламирање,
  • 10:01 - 10:04
    што је начин да се заради од пажње
  • 10:04 - 10:07
    без било којих других
    стварних варијабли на делу,
  • 10:07 - 10:11
    бриге о људима који заиста
    праве овај садржај,
  • 10:11 - 10:15
    централизације моћи,
    разграничавања ових ствари.
  • 10:15 - 10:17
    Мислим да без обзира на то шта мислите
  • 10:17 - 10:19
    о коришћењу рекламирања
    да се ове ствари подржавају,
  • 10:19 - 10:22
    призор одраслих мушкараца у пеленама
    који се ваљају у песку
  • 10:22 - 10:26
    надајући се да ће им неки алгоритам
    који баш не разумеју дати новац за то
  • 10:26 - 10:28
    ми говори да ово вероватно није ствар
  • 10:28 - 10:31
    на којој би требало да заснивамо
    наше друштво и културу
  • 10:31 - 10:33
    нити начин на који би требало
    да га финансирамо.
  • 10:34 - 10:37
    Друга ствар која је, на неки начин,
    главни покретач ове аутоматизације
  • 10:37 - 10:42
    је примена све ове технологије
    чим се појави без икакве врсте надзора,
  • 10:42 - 10:43
    а када је ту,
  • 10:43 - 10:47
    некако дижемо руке и кажемо:
    „Хеј, нисмо ми криви. Технологија је.“
  • 10:47 - 10:49
    У фазону: „Немамо ништа са тим.“
  • 10:49 - 10:51
    То није баш довољно добро
  • 10:51 - 10:56
    јер овим не само да управља алгоритам,
    већ га алгоритам и надгледа.
  • 10:56 - 10:59
    Када је Јутјуб први пут почео
    да обраћа пажњу на ово,
  • 10:59 - 11:03
    прво су рекли да ће применити
    боље алгоритме за машинско учење
  • 11:03 - 11:05
    како би уређивали садржај.
  • 11:05 - 11:09
    Па, машинско учење, као што ће вам
    сваки стручњак из те области рећи,
  • 11:09 - 11:13
    је оно што смо почели да називамо
    софтвером чији начин рада не разумемо.
  • 11:13 - 11:17
    Мислим да тога већ имамо довољно.
  • 11:17 - 11:20
    Не би требало да препуштамо
    вештачкој интелигенцији да одлучује
  • 11:20 - 11:23
    шта је прикладно или не,
    јер знамо шта ће се десити.
  • 11:23 - 11:24
    Почеће да цензурише остале ствари.
  • 11:24 - 11:26
    Почеће да цензурише хомосексуални садржај.
  • 11:26 - 11:29
    Почеће да цензурише
    легитимно јавно изражавање.
  • 11:29 - 11:31
    Оно што је дозвољено у овим разговорима
  • 11:31 - 11:34
    не би требало да се препусти
    системима који немају одговорност.
  • 11:34 - 11:37
    Ово је део разговора
    који бисмо сви морали да водимо.
  • 11:37 - 11:41
    Међутим, подсетићу вас
    да ни алтернатива није веома пријатна.
  • 11:41 - 11:42
    Јутјуб је недавно објавио
  • 11:42 - 11:45
    да ће пустити у рад верзију
    своје апликације за децу
  • 11:45 - 11:47
    којом ће у потпуности
    управљати људска бића.
  • 11:48 - 11:52
    Фејсбук - Закерберг је рекао
    нешто веома слично у Конгресу
  • 11:52 - 11:55
    када су га притиснули по питању тога
    како ће уређивати свој садржај.
  • 11:55 - 11:57
    Рекао је да ће људска бића то радити.
  • 11:57 - 12:01
    А то стварно значи да ће,
    уместо да мала деца прва виде ове ствари,
  • 12:01 - 12:04
    слабо плаћени радници на уговор
    са нестабилним запослењем
  • 12:04 - 12:06
    и без одговарајуће
    заштите менталног здравља
  • 12:06 - 12:07
    такође бити тиме упропашћени.
  • 12:07 - 12:08
    (Смех)
  • 12:08 - 12:11
    Мислим да сви можемо да урадимо
    прилично више од тога.
  • 12:11 - 12:13
    (Аплауз)
  • 12:14 - 12:19
    Мислим да је идеја
    која повезује ове две ствари
  • 12:19 - 12:20
    залагање.
  • 12:20 - 12:22
    Колико ми то заиста разумемо?
  • 12:22 - 12:23
    Кад кажем залагање,
  • 12:23 - 12:27
    мислим на то како знамо да радимо
    у свом најбољем интересу.
  • 12:28 - 12:29
    То је скоро немогуће радити
  • 12:29 - 12:33
    у овим системима које заиста
    не разумемо у потпуности.
  • 12:33 - 12:36
    Неједнакост моћи увек води ка насиљу.
  • 12:36 - 12:40
    А унутар ових система можемо видети
    да неједнакост разумевања чини исто.
  • 12:40 - 12:43
    Ако постоји једна ствар
    коју можемо да урадимо
  • 12:43 - 12:44
    да почнемо да побољшавамо ове системе,
  • 12:44 - 12:47
    то је да их учинимо јаснијим
    за људе који их користе
  • 12:47 - 12:50
    како бисмо сви ми разумели
    шта се заиста овде дешава.
  • 12:52 - 12:55
    Ипак, мислим да је код већине
    ових система ствар у томе
  • 12:55 - 12:59
    да се овде заиста не ради о Јутјубу,
    што се надам да сам објаснио.
  • 12:59 - 13:00
    У питању је све.
  • 13:00 - 13:03
    Ова питања одговорности, залагања,
  • 13:03 - 13:05
    нејасноће, сложености,
  • 13:05 - 13:08
    насиља и експлоатације
    који су суштинска последица
  • 13:08 - 13:11
    концентрације моћи у рукама неколицине -
  • 13:11 - 13:13
    ово су много, много већа питања.
  • 13:14 - 13:18
    Нису то питања која се тичу само Јутјуба
    и само технологије уопште,
  • 13:18 - 13:19
    а нису чак ни нова;
  • 13:19 - 13:21
    са нама су од давнина.
  • 13:21 - 13:25
    Међутим, коначно смо направили
    овај систем, глобални систем, интернет,
  • 13:25 - 13:30
    који нам их приказује на невероватан начин
    и чини их неоспорним.
  • 13:30 - 13:33
    Технологија има неоспорну способност
  • 13:33 - 13:37
    да подржи и настави
  • 13:37 - 13:41
    већину наших невероватних,
    често скривених жеља и предрасуда
  • 13:41 - 13:43
    и да их преноси у свет,
  • 13:43 - 13:46
    али их такође и записује
    како бисмо могли да их видимо,
  • 13:46 - 13:50
    да више не можемо
    да се претварамо да не постоје.
  • 13:50 - 13:51
    Морамо да престанемо
  • 13:51 - 13:54
    да размишљамо о технологији
    као о решењу за све наше проблеме,
  • 13:54 - 13:58
    и да размишљамо о њој као о водиљи
    ка ономе шта су ти проблеми у ствари
  • 13:58 - 14:00
    да бисмо почели да размишљамо
    о њима на прави начин
  • 14:00 - 14:02
    и да почнемо да их решавамо.
  • 14:02 - 14:03
    Хвала пуно.
  • 14:03 - 14:06
    (Аплауз)
  • 14:10 - 14:11
    Хвала.
  • 14:11 - 14:14
    (Аплауз)
  • 14:17 - 14:20
    Хелен Волтерс: Џејмс, хвала ти
    што си дошао и одржао овај говор.
  • 14:20 - 14:21
    Занимљиво је да је,
  • 14:21 - 14:25
    када помислимо да филмове у којима
    роботизовани господари преузму контролу,
  • 14:25 - 14:28
    све много привлачније
    од овога што ти описујеш.
  • 14:28 - 14:32
    Међутим, питам се - у тим филмовима
    је присутан отпор који се појачава.
  • 14:32 - 14:35
    Да ли се појачава отпор према овоме?
  • 14:35 - 14:39
    Да ли видиш позитивне знаке,
    обнову отпора?
  • 14:41 - 14:43
    Џејмс Бридл: Нисам сигуран
    по питању директног отпора,
  • 14:43 - 14:45
    јер мислим да је ово веома дуготрајно.
  • 14:45 - 14:47
    Мислим да је дубоко усађено у културу.
  • 14:47 - 14:50
    Моја пријатељица Еленор Саита увек каже
  • 14:50 - 14:54
    да су било који технолошки проблеми
    великих размера и опсега
  • 14:54 - 14:56
    првенствено политички проблеми.
  • 14:56 - 14:58
    Тако да све ове ствари
    на чијем решењу радимо
  • 14:58 - 15:02
    неће се решити тако што ће се једноставно
    направити боља технологија,
  • 15:02 - 15:05
    већ тако што ће се променити друштво
    које производи ове технологије.
  • 15:05 - 15:08
    Не. Управо сада, мислим
    да нам предстоји веома дугачак пут.
  • 15:08 - 15:13
    Опет, мислим да, ако их анализирамо,
    објаснимо и веома искрено причамо о њима,
  • 15:13 - 15:16
    можемо, у ствари,
    макар започети тај процес.
  • 15:16 - 15:19
    ХВ: Када говориш о јасноћи
    и дигиталној писмености,
  • 15:19 - 15:21
    тешко ми је да замислим
  • 15:21 - 15:25
    да морамо да ставимо терет
    дигиталне писмености на саме кориснике.
  • 15:25 - 15:29
    Чија је одговорност образовање
    у овом новом свету?
  • 15:29 - 15:33
    ЏБ: Још једном, мислим
    да је ова одговорност на свима нама,
  • 15:33 - 15:36
    да све што радимо,
    све што градимо, све што правимо
  • 15:36 - 15:40
    мора бити направљено
    уз пристанак у разговору
  • 15:40 - 15:42
    са свима који га избегавају;
  • 15:42 - 15:46
    да не правимо системе чија је сврха
    да преваре и изненаде људе
  • 15:46 - 15:48
    да ураде праву ствар,
  • 15:48 - 15:52
    већ да су они заиста укључени
    у сваки корак њиховог образовања,
  • 15:52 - 15:53
    јер је сваки од ових система образовни.
  • 15:53 - 15:57
    Надам се, чак и по питању
    ових веома страшних ствари,
  • 15:57 - 15:59
    да је, ако их можете узети
    и прописно сагледати,
  • 15:59 - 16:01
    то, само по себи, део образовања
  • 16:01 - 16:05
    које вам омогућава да почнете да видите
    како се сложени системи удружују и раде
  • 16:05 - 16:09
    и да ћете можда моћи да примените
    то знање негде другде у свету.
  • 16:09 - 16:11
    ХВ: Џејмс, ово је толико важан разговор
  • 16:11 - 16:13
    и знам да су многи људи овде
    отворени и спремни за њега,
  • 16:13 - 16:15
    стога ти захваљујем што си започео јутро.
  • 16:15 - 16:17
    ЏБ: Хвала пуно. Све најбоље.
  • 16:17 - 16:18
    (Аплауз)
Title:
Кошмарни видео-снимци са дечијег Јутјуба и шта данас није у реду са интернетом
Speaker:
Џејмс Бридл (James Bridle)
Description:

Писац и уметник Џејмс Бридл разоткрива мрачан и чудан кутак интернета у којем непознати људи или групе на Јутјубу хакују мозгове мале деце у замену за приход од рекламирања. Од отварања киндер јаја преко „Породице прстићи“ до мешавине познатих цртаних ликова у насилним ситуацијама које је створио алгоритам, ови видео-снимци експлоатишу и престрављују мале умове и говоре нам нешто о томе куда иде наш свет којим се све више управља подацима. „Морамо да престанемо да размишљамо о технологији као о решењу за све наше проблеме, а да размишљамо о њој као о водиљи ка ономе шта су ти проблеми у ствари, како бисмо могли да размишљамо о њима на прави начин и да почнемо да их решавамо“, каже Бридл.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:32

Serbian subtitles

Revisions