< Return to Video

Ужасните детски видеа на Јутјуб - што не е во ред со Интернетот денес

  • 0:01 - 0:02
    Јас сум Џејмс.
  • 0:02 - 0:04
    Јас сум писател и уметник
  • 0:04 - 0:06
    и творам на тема технологија.
  • 0:06 - 0:10
    На пример, цртам контури на воени дронови
    во реална големина
  • 0:10 - 0:12
    над градските улици ширум светот,
  • 0:12 - 0:15
    со цел луѓето да почнат
    да размислуваат и да ги разберат
  • 0:15 - 0:19
    овие технологии кои навистина е тешко
    да се видат и да се сфатат.
  • 0:19 - 0:23
    Изработувам, на пример,невронски мрежи
    кои предвидуваат резултати
  • 0:23 - 0:25
    врз основа на временска прогрноза,
  • 0:25 - 0:26
    бидејќи ме интересираат
  • 0:26 - 0:30
    сите реаални можности кои ги нудат
    овие нови и чудни технологии.
  • 0:31 - 0:34
    Лани си направив сопствен
    самовозечки автомобил.
  • 0:34 - 0:36
    Но бидејќи не ѝ верувам сосема
    на технологијата,
  • 0:36 - 0:38
    креирав и стапица за неа.
  • 0:39 - 0:40
    (смеа)
  • 0:40 - 0:44
    И ги правам овие работи, пред сѐ,
    затоа што сметам дека се чудесни
  • 0:44 - 0:47
    но исто така бидејќи, мислам,
    кога зборуваме за технологија,
  • 0:47 - 0:49
    во голема мера зборуваме за себе
  • 0:49 - 0:52
    и за начинот на кој го
    разбираме светот.
  • 0:52 - 0:54
    Па, еве една приказна за технологијата.
  • 0:56 - 0:58
    Ова е видео со „киндер јајца“.
  • 0:58 - 1:02
    Во суштина тоа е видео во кое некој
    отвора еден куп чололадни јајца
  • 1:02 - 1:04
    и ги покажува играчките
    кои ги наоѓа во нив.
  • 1:04 - 1:07
    Толку. Само тоа се случува
    цели долги седум минути.
  • 1:07 - 1:10
    И сакам да забележите две работи
    во врска со тоа.
  • 1:11 - 1:15
    Прво, ова видео има
    30 милиони прегледи.
  • 1:15 - 1:16
    (смеа)
  • 1:16 - 1:18
    А втората работа е,
  • 1:18 - 1:21
    доаѓа од канал кој има
    6,3 милиони претплатници,
  • 1:21 - 1:24
    кој има вкупно
    8 милијарди прегледи,
  • 1:24 - 1:27
    и тоа исти вакви видеа --
  • 1:28 - 1:32
    30 милиони луѓе кои гледаат
    како некој тип ги отвора овие јајца.
  • 1:32 - 1:37
    Звучи чудно, но ако пребарувате
    „киндер јајца" нa Јутјуб,
  • 1:37 - 1:40
    ќе видите дека постојат
    10 милиони вакви видеа,
  • 1:40 - 1:42
    во најмала рака.
  • 1:42 - 1:44
    Мислам дека има многу,
    многу повеќе.
  • 1:44 - 1:46
    Ако продолжите да барате,
    им нема крај.
  • 1:46 - 1:48
    Има милиони вакви видеа,
  • 1:48 - 1:52
    во сѐ побарокни комбинации
    на брендови и материјали,
  • 1:52 - 1:56
    и сѐ повеќе и повеќе од нив
    се прикачуваат секој ден.
  • 1:56 - 1:59
    Нели е ова чуден свет?
  • 1:59 - 2:03
    Но, не се возрасните
    тие кои што ги гледаат овие видеа.
  • 2:03 - 2:06
    Тоа се децата, малите деца.
  • 2:06 - 2:08
    Овие видеа се како дрога
    за малите деца.
  • 2:08 - 2:10
    Има нешто во тоа повторување,
  • 2:10 - 2:12
    во постојаната доза на допамин
    при откривањето,
  • 2:12 - 2:14
    што целосно ги навлекува.
  • 2:14 - 2:19
    И мaлите деца ги гледаат овие видеа
    пак и пак и пак,
  • 2:19 - 2:21
    и го прават тоа со часови,
    и часови, и часови.
  • 2:21 - 2:24
    И ако се обидете да ги оттргнете
    од екранот,
  • 2:24 - 2:26
    тие ќе вриштат и вриштат,
    и вриштат.
  • 2:26 - 2:27
    Ако не ми верувате --
  • 2:27 - 2:29
    а забележав некои од вас во
    публиката дека климаат --
  • 2:29 - 2:33
    ако не ми верувате, најдете некои со
    мали деца и прашајте ги,
  • 2:33 - 2:35
    и тие ќе знаат за видеата
    со киндер јајца.
  • 2:35 - 2:37
    Па, тука започнуваме.
  • 2:37 - 2:41
    2018 година е, некој,
    или многу луѓе,
  • 2:41 - 2:45
    го користат истиот механизам којшто
    го користат Фејсбук и Инстаграм
  • 2:45 - 2:47
    да ве наведат постојано
    да ги проверувате,
  • 2:47 - 2:51
    и го применуваат на YouTube за да ги
    хакираат мозоците на многу мали деца
  • 2:51 - 2:53
    со цел да остварат приходи
    од реклами.
  • 2:54 - 2:56
    Барем, се надевам дека тоа го прават.
  • 2:56 - 2:58
    Се надевам дека заради тоа го прават,
  • 2:58 - 3:04
    бидејќи има и полесни начини да се оствари
    приход од реклами на YouTube.
  • 3:04 - 3:06
    Можете и да измислувате работи,
    или да крадете.
  • 3:06 - 3:09
    Ако пребарувате навистина
    познати детски цртани:
  • 3:09 - 3:10
    "Прасето Пепа", "Патрола на Кутриња“,
  • 3:10 - 3:14
    ќе дознаете дека и нив ги има
    милиони и милиони на Интернет.
  • 3:14 - 3:17
    Секако, повеќето од нив не се објавени
    од нивните оригинални креатори
  • 3:17 - 3:20
    туку потекнуваат од многу различни,
    случајни канали,
  • 3:20 - 3:22
    и е невозможно да се знае
    кој ги објавува
  • 3:22 - 3:24
    и со какви намери.
  • 3:24 - 3:26
    Дали тоа ви звучи познато?
  • 3:26 - 3:28
    Затоа што тоа е токму истиот механизам
  • 3:28 - 3:31
    кој го има на повеќето
    наши дигитални услуги,
  • 3:31 - 3:34
    каде е невозможно да се знае
    од каде потекнува информацијата.
  • 3:34 - 3:36
    Тоа е во основа како
    "лажни вести" за деца,
  • 3:36 - 3:38
    и ние ги тренираме од раѓање
  • 3:38 - 3:41
    да кликнат на првиот линк
    кој ќе се појави,
  • 3:41 - 3:43
    без разлика од кој извор доаѓа.
  • 3:43 - 3:45
    Тоа не изгледа како
    многу добра идеја.
  • 3:46 - 3:49
    Еве уште едно нешто што е
    многу популарно на Јутјуб.
  • 3:49 - 3:51
    Се вика "Семејство Прсти“.
  • 3:51 - 3:53
    Некој штотуку офна во публиката.
  • 3:53 - 3:55
    Песната за семејството прсти.
  • 3:55 - 3:57
    Ова е токму првата што ја најдов.
  • 3:57 - 4:00
    Потекнува од 2007 година и има
    само 200.000 прегледи,
  • 4:00 - 4:02
    што е многу малку во споредба со други.
  • 4:02 - 4:04
    Но, има ритам што ти се
    вовлекува во главата,
  • 4:04 - 4:06
    нема да ви ја пуштам,
  • 4:06 - 4:08
    зашто ќе ви остане запечатена во мозокот,
  • 4:08 - 4:11
    исто како што ми се случи мене,
  • 4:11 - 4:12
    и нема да ви го направам тоа вам.
  • 4:12 - 4:14
    Но, како и киндер јајцата
  • 4:14 - 4:16
    се вовлекува во главите на децата
  • 4:16 - 4:18
    и ги направи зависни од неа.
  • 4:18 - 4:20
    Така, за неколку години,
    видеата со семејството прсти
  • 4:20 - 4:21
    почна да ги има насекаде,
  • 4:21 - 4:24
    и имате верзии на
    различни јазици,
  • 4:24 - 4:26
    каде познати цртани ликови
    користат храна
  • 4:26 - 4:28
    или, искрено, користат секакви
    елементи за анимација
  • 4:28 - 4:31
    што ќе им се најдат при рака.
  • 4:31 - 4:36
    И уште еднаш, има милиони и
    милиони вакви видеа,
  • 4:36 - 4:40
    достапни на Интернет во сите овие
    налудничави комбинации.
  • 4:40 - 4:42
    И колку повеќе време
    минувате со нив,
  • 4:42 - 4:46
    толку повеќе ви се чини
    дека полудувате.
  • 4:46 - 4:49
    И така се впуштив во ова,
  • 4:49 - 4:53
    со чувство на длабоко
    непознавање и неразбирање
  • 4:53 - 4:57
    за начинот како е конструирано
    ова околу мене.
  • 4:57 - 5:00
    Бидејќи е невозможно да се знае
    од каде потекнуваат овие работи.
  • 5:00 - 5:01
    Кој ги прави?
  • 5:01 - 5:04
    Некои се чини дека се направени од
    тимови професионални аниматори.
  • 5:05 - 5:07
    Некои се составени по случајност
    со помош на софтвер.
  • 5:07 - 5:12
    Некои се од пристојни аниматори
    на мали деца.
  • 5:12 - 5:13
    А некои се од луѓе
    кои очигледно
  • 5:13 - 5:16
    воопшто не смеат
    да бидат во близина на деца.
  • 5:16 - 5:18
    (смеа)
  • 5:19 - 5:24
    Повторно, неможноста да се дознае
    кој ги изработува овие работи,
  • 5:24 - 5:25
    дали е тоа робот?
  • 5:25 - 5:27
    Дали е личност?
    Дали е трол?
  • 5:28 - 5:30
    Што значи тоа што повеќе
    не можеме да ги разликуваме
  • 5:30 - 5:31
    овие работи?
  • 5:32 - 5:36
    Нели тоа чувство на несигурност
    ви е некако познато?
  • 5:38 - 5:41
    Најчесто луѓето привлекуваат
    прегледи на нивните видеа,
  • 5:41 - 5:42
    и запомнете, прегледите значат пари
  • 5:42 - 5:47
    така што ги полнат насловите на
    овие видеа со познати зборови.
  • 5:47 - 5:49
    Пример, почнувате со „киндер јајца"
  • 5:49 - 5:51
    и додавате "Патрола на кутриња,"
    "Велигденски јајца,"
  • 5:51 - 5:52
    или што и да е,
  • 5:52 - 5:55
    сите овие зборови од други
    популарни видеа,
  • 5:55 - 5:58
    додека не завршите со еден
    куп без јазично значење,
  • 5:58 - 6:01
    без логика.
  • 6:01 - 6:04
    Затоа што, се разбира, овие видеа
    ги гледаат мали деца,
  • 6:04 - 6:06
    а што разбираат тие?
  • 6:06 - 6:09
    Вашата вистинска публика
    за овие работи е софтверот.
  • 6:09 - 6:11
    Алгоритмите.
  • 6:11 - 6:12
    Софтверот кој Јутјуб го користи
  • 6:12 - 6:15
    да одреди кои видеа се
    слични на други видеа,
  • 6:15 - 6:17
    да им ја подигне популарноста,
    да ги препорача.
  • 6:17 - 6:21
    И затоа завршувате со ваква
    комплетно безначајна мешавина
  • 6:21 - 6:23
    на наслови и на содржини.
  • 6:24 - 6:26
    Но, мора да запомните
  • 6:26 - 6:30
    дека се`уште постои човечки фактор
    во овој систем на алгоритми,
  • 6:30 - 6:33
    луѓе кои сѐ повеќе се
    принудени да ги одиграат
  • 6:33 - 6:36
    овие сѐ побизарни
    комбинации на зборови,
  • 6:36 - 6:41
    како очајни импровизатори
    во одговор на здружените врисоци
  • 6:41 - 6:44
    на милиони деца
    во исто време.
  • 6:45 - 6:48
    Вистински луѓе се заробени
    во овие системи,
  • 6:48 - 6:52
    и тоа е другата чудна работа
    во оваа култура водена од алгоритми,
  • 6:52 - 6:53
    затоа што, иако си човек,
  • 6:53 - 6:55
    на крајот се однесуваш
    како машина,
  • 6:55 - 6:57
    само за да преживееш.
  • 6:57 - 6:59
    Исто така, на другата
    страна на екранот
  • 6:59 - 7:02
    се`уште се наоѓаат овие мали деца,
    кои ги гледаат овие работи,
  • 7:02 - 7:06
    заглавени, нивното целосно внимание
    зграпчено од овие чудни механизми.
  • 7:07 - 7:10
    Повеќето од овие деца се премали
    за да користат вебстрани.
  • 7:10 - 7:13
    Само удираат со рачињата
    по екраните.
  • 7:13 - 7:14
    Па имаме автоматско пуштање
  • 7:14 - 7:18
    каде видеата се пуштаат пак и пак во круг,
  • 7:18 - 7:20
    бескрајно, со часови и часови.
  • 7:20 - 7:23
    Системот стана
    толку чуден
  • 7:23 - 7:26
    што автоматското пуштање
    ве носи на прилично чудни места.
  • 7:26 - 7:28
    Така, во десетина чекори,
  • 7:28 - 7:31
    можете да стигнете
    од слатко видео со воз со бројки,
  • 7:31 - 7:34
    до Мики Маус кој мастурбира.
  • 7:35 - 7:37
    Да. Жалам.
  • 7:37 - 7:39
    А има и полошо.
  • 7:39 - 7:40
    Ова се случува
  • 7:40 - 7:43
    кога сите тие различни
    зборови за пребарување,
  • 7:43 - 7:45
    сите тие делчиња за
    привлекување внимание,
  • 7:45 - 7:48
    цело ова очајничко
    креирање содржини,
  • 7:48 - 7:51
    ќе се соберат
    на едно место.
  • 7:52 - 7:56
    Ова е асолништето на сите тие
    многу чудни зборови.
  • 7:56 - 7:59
    Ќе вкрстите видео
    со семејството прсти
  • 7:59 - 8:01
    со некои акциони суперхерои,
  • 8:01 - 8:04
    ќе додадете некои чудни,
    тролски шеги и слично,
  • 8:04 - 8:08
    и одеднаш, се наоѓате
    на навистина чудно место.
  • 8:08 - 8:10
    Она што најчесто ги
    вознемирува родителите
  • 8:10 - 8:13
    се материјалите со насилна
    и сексуална содржина, нели?
  • 8:13 - 8:16
    Ликови од цртаните филмови
    биваат нападнати,
  • 8:16 - 8:18
    убиени,
  • 8:18 - 8:21
    чудни трикови кои навистина
    ги преплашуваат децата.
  • 8:21 - 8:25
    Софтверот ги избира
    сите овие различни влијанија
  • 8:25 - 8:28
    со цел автматски да ги генерира
    најстрашните детски кошмари.
  • 8:28 - 8:31
    А овие работи навистина
    многу влијаат врз децата.
  • 8:31 - 8:34
    Родители пријавуваат дека децата
    им биле трауматизирани,
  • 8:34 - 8:35
    се плашат од темнината,
  • 8:35 - 8:38
    се плашат од нивните омилени
    ликови од цртаните филмови.
  • 8:39 - 8:42
    Ако едно нешто научивме од ова,
    тоа е: ако имате мали деца
  • 8:42 - 8:44
    држете ги подалеку од Јутјуб!
  • 8:45 - 8:49
    (аплауз)
  • 8:51 - 8:54
    Но, другото нешто,
    кое најмногу ме мачи,
  • 8:54 - 8:58
    е помислата дека не ни знаеме
    како стигнавме дотука.
  • 8:59 - 9:02
    Ги зедовме сите овие влијанија
    сите овие работи,
  • 9:02 - 9:05
    и ги измешавме заедно
    на начин на кој никој не намераваше.
  • 9:05 - 9:08
    А сепак, на истиот начин
    го градиме целиот свет.
  • 9:08 - 9:10
    Зборуваме за сите овие податоци,
  • 9:10 - 9:11
    голем дел од нив лоши,
  • 9:11 - 9:14
    многу историски податоци,
    полни со предрасуди,
  • 9:14 - 9:17
    полни со нашите најлоши
    пориви во историјата,
  • 9:17 - 9:19
    и ги внесуваме во огромни датотеки
  • 9:19 - 9:21
    и потоа ги автоматизираме.
  • 9:21 - 9:24
    Ги вметнуваме во
    кредитни извештаи,
  • 9:24 - 9:26
    премии за осигурување,
  • 9:26 - 9:29
    предиктивни полициски системи,
  • 9:29 - 9:30
    упатства за донесување пресуди.
  • 9:30 - 9:33
    Вака всушност го градиме
    денешниот свет,
  • 9:33 - 9:34
    врз основа на податоци.
  • 9:34 - 9:36
    И не знам што е полошо:
  • 9:36 - 9:39
    тоа што градиме систем
    кој се чини е целосно оптимизиран
  • 9:39 - 9:42
    за апсолутно најлошите варијанти
    на човечко однесување,
  • 9:42 - 9:45
    или тоа што истото го
    правиме случајно,
  • 9:45 - 9:47
    без воопшто да сфатиме
    што правиме,
  • 9:47 - 9:50
    бидејќи не ги разбираме добро
    системите кои ги градиме
  • 9:50 - 9:54
    и не знаеме како
    да постапиме поинаку.
  • 9:55 - 9:58
    Има две работи кои сметам дека се
    движечка сила на овој феномен,
  • 9:58 - 9:59
    особено на Јутјуб.
  • 9:59 - 10:01
    Првата е рекламирањето,
  • 10:01 - 10:04
    односно монетизацијата на
    привлеченото внимание,
  • 10:04 - 10:07
    без земање во предвид
    други варијабли,
  • 10:07 - 10:11
    без грижа за луѓето кои всушност
    ја креираат таа содржина,
  • 10:11 - 10:15
    централизацијата на моќта,
    одделувањето на тие нешта.
  • 10:15 - 10:18
    И сметам дека без разлика какво
    мислењеимате за рекламите,
  • 10:18 - 10:19
    како финансиска поддршка,
  • 10:19 - 10:22
    глетката на возрасни мажи во пелени
    како се тркалаат во песокта,
  • 10:22 - 10:25
    со надеж дека некој алгоритам
    кој ни самите не го разбираат
  • 10:25 - 10:27
    ќе им даде пари за тоа,
  • 10:27 - 10:29
    упатува на тоа дека ова
    веројатно не е начинот
  • 10:29 - 10:31
    на кој треба да го градиме
    нашето општество и култура,
  • 10:31 - 10:33
    нити начинот на кој
    треба да го финансираме.
  • 10:34 - 10:37
    А вториот двигател на оваа
    ситуација е автоматизацијата,
  • 10:37 - 10:39
    односно примената на
    сета таа технологија
  • 10:39 - 10:42
    веднаш штом се појави,
    без никаков надзор,
  • 10:42 - 10:43
    и кога е веќе пласирана,
  • 10:43 - 10:47
    ги креваме рацете и велиме:
    "Еј, не е до нас, до технолгијата е."
  • 10:47 - 10:49
    Демек, "Ние не сме дел од тоа."
  • 10:49 - 10:51
    Тое не е доволно добро.
  • 10:51 - 10:53
    Затоа што ова не е само
    предводено,
  • 10:53 - 10:56
    туку е и контролирано
    од алгоритми.
  • 10:56 - 10:59
    Кога Јутјуб почна да
    обрнува внимание на ова,
  • 10:59 - 11:01
    првото нешто што рекоа
    дека ќе го превземат
  • 11:01 - 11:04
    беше дека ќе применат подобри
    алгоритми за машинско учење
  • 11:04 - 11:05
    да ја ублажат содржината.
  • 11:05 - 11:09
    Е па, машинското учење,
    секој експерт во областа ќе ви каже,
  • 11:09 - 11:10
    го нарекуаваме всушност
  • 11:10 - 11:13
    софтверот кој не го разбираме
    како функционира.
  • 11:13 - 11:17
    Мислам дека веќе
    имаме доволно од тоа.
  • 11:17 - 11:20
    Не треба да оставаме
    на вештачката интелигенција
  • 11:20 - 11:22
    да одлучи што е соодветно,
  • 11:22 - 11:23
    зашто знаеме што ќе се случи.
  • 11:23 - 11:25
    Ќе почне да цензурира
    други работи:
  • 11:25 - 11:26
    необични содржини,
  • 11:27 - 11:29
    или легитимент јавен говор.
  • 11:29 - 11:31
    Што е дозволено, а што не,
  • 11:31 - 11:34
    не треба да се остави
    на неодговорни системи.
  • 11:34 - 11:37
    Тоа е дел од дискусија во која
    сите треба да учествуваме.
  • 11:37 - 11:38
    Но, потсетувам дека
  • 11:38 - 11:41
    ниту алтернативата
    не е многу пријатна.
  • 11:41 - 11:42
    Јутјуб неодамна изјавија
  • 11:42 - 11:45
    дека ќе издадат верзија на нивната
    апликација за деца
  • 11:45 - 11:48
    која ќе биде целосно
    прегледувана од луѓе.
  • 11:48 - 11:52
    Фејсбук - Закерберг изјави нешто слично
    пред Конгресот,
  • 11:52 - 11:55
    на прашањето како ќе
    управуваат со нивната содржина.
  • 11:55 - 11:57
    Рече дека луѓе ќе го прават тоа.
  • 11:57 - 11:58
    А, тоа всушност значи дека
  • 11:58 - 12:01
    наместо малите деца да бидат
    првите кои ќе ги видат овие содржини,
  • 12:01 - 12:04
    сега ќе има слабо платени,
    загрозени работници,
  • 12:04 - 12:06
    без соодветна ментално-здравствена
    заштита.
  • 12:06 - 12:07
    оштетени од истите содржини.
  • 12:07 - 12:08
    (смеа)
  • 12:08 - 12:11
    И сметам дека можеме
    многу подобро од тоа.
  • 12:11 - 12:13
    (аплауз)
  • 12:14 - 12:19
    Смислата, според мене, која ги
    поврзува овие работи
  • 12:19 - 12:20
    е дејствувањето.
  • 12:20 - 12:23
    Колку навистина разбираме?
    Под дејствување подразбирам:
  • 12:23 - 12:28
    како знаеме како да постапиме
    во наш најдобар интерес.
  • 12:28 - 12:30
    Што е речиси невозможно да се направи
  • 12:30 - 12:33
    во овие ситеми кои
    не ги разбираме целосно.
  • 12:33 - 12:36
    Нееднаквоста на моќта
    секогаш води до насилство.
  • 12:36 - 12:38
    Во овие системи
    можеме да видиме
  • 12:38 - 12:40
    дека нееднаквото разбирање
    го предизвикува истото.
  • 12:41 - 12:44
    Ако постои начин како да започнеме
    да ги подобруваме овие системи
  • 12:44 - 12:47
    тоа е да ги направиме почитливи
    за луѓето кои ги користат,
  • 12:47 - 12:49
    така што сите ќе имаме
    заедничко разбирање
  • 12:49 - 12:51
    за тоа што всушност
    се случува тука.
  • 12:52 - 12:55
    Проблемот со повеќето
    од овие системи
  • 12:55 - 12:59
    не е во врска со Јутјуб,
    како што објаснив,
  • 12:59 - 13:00
    туку со сѐ.
  • 13:00 - 13:03
    Прашањата на одговорност
    и дејствување,
  • 13:03 - 13:05
    на нејасност и комплексност,
  • 13:05 - 13:08
    на насилството и експлоатацијата
    кои неизбежно произлегуваат
  • 13:08 - 13:11
    од концентрацијата на моќ
    во нечии раце --
  • 13:11 - 13:13
    ова се многу, многу
    поголеми проблеми.
  • 13:14 - 13:18
    Тоа се проблеми не само на Јутјуб,
    и не само на технологијата воопшто,
  • 13:18 - 13:19
    и не се новосоздадени.
  • 13:19 - 13:21
    Со нас се долго време.
  • 13:21 - 13:25
    Но, конечно го изградивме овој систем
    овој глобален систем, Интернетот,
  • 13:25 - 13:28
    кој на извонреден начин ни ги покажува
    ,
  • 13:28 - 13:30
    и ги прави вистински.
  • 13:30 - 13:33
    Технологијата има
    исклучителна способност
  • 13:33 - 13:37
    истовремено да ги прикаже и продолжи
  • 13:37 - 13:41
    сите наши извонредни,
    често притаени, желби и предрасуди
  • 13:41 - 13:43
    и да ги вкодира во светот,
  • 13:43 - 13:46
    но и да ги запише
    за да ни се видливи
  • 13:46 - 13:50
    и да не можеме да се преправаме
    дека не постојат повеќе.
  • 13:50 - 13:54
    Не треба да ја гледаме технологијата
    како решение на сите наши проблеми,
  • 13:54 - 13:58
    туку како водич за идентификување
    на тие проблеми,
  • 13:58 - 14:00
    со цел да почнеме
    соодветно да ги
  • 14:00 - 14:02
    разгледуваме и да дејствуваме.
  • 14:02 - 14:03
    Многу ви благодарам.
  • 14:03 - 14:08
    (аплауз)
  • 14:10 - 14:11
    Благодарам!
  • 14:11 - 14:14
    (аплауз)
  • 14:17 - 14:20
    Хелен Волтерс: Џејмс, благодарам
    за гостувањето и за говорот.
  • 14:20 - 14:21
    Значи, интересно е:
  • 14:21 - 14:25
    кога размислуваш за филмови во кои
    роботите го преземаат светот,
  • 14:25 - 14:28
    сѐ изгледа погламурозно
    од она што ни го опиша.
  • 14:28 - 14:32
    Се прашувам -- во тие филмови
    имаме градење на отпор.
  • 14:32 - 14:35
    Дали градиме отпор кон овие работи
    во реалноста?
  • 14:35 - 14:39
    Дали забележуваш позитивни знаци,
    никулци на отпорот?
  • 14:41 - 14:43
    Џејмс Бридл: Не знам за
    директен отпор,
  • 14:43 - 14:45
    бидејќи ова се дологорочни работи.
  • 14:45 - 14:48
    Мислам дека е длабоко
    всадено во културата.
  • 14:48 - 14:50
    Моја пријателка, Еленор Саита,
    секогаш вели
  • 14:50 - 14:54
    дека секој технолошки проблем
    со доволна големина и опсег
  • 14:54 - 14:56
    е пред сѐ политички проблем.
  • 14:56 - 14:59
    Така што сите овие работи кои
    се трудиме да ги решиме
  • 14:59 - 15:02
    нема да ги решиме само
    преку градење подобра технологија,
  • 15:02 - 15:05
    туку преку менување на општеството
    кое ги произведува овие технологии.
  • 15:05 - 15:08
    Така што, засега мислам дека имаме
    уште многу работа пред нас.
  • 15:09 - 15:10
    Но, како што реков,
    со нивното отворање,
  • 15:11 - 15:13
    објаснување, дискутирање за нив
    многу искрено,
  • 15:13 - 15:16
    можеме барем да го
    започнеме тој процес.
  • 15:16 - 15:19
    ХВ: Кога зборуваш за
    читливост и дигитална писменост,
  • 15:19 - 15:21
    тешко ми е да замислам
  • 15:21 - 15:25
    дека товарот на дигиталната писменост
    треба да остане кај самите корисници.
  • 15:25 - 15:29
    Тогаш, чија одговорност е
    образованието во овој нов свет?
  • 15:29 - 15:33
    ЏБ: Сметам дека таа е одговорност
    на сите нас,
  • 15:33 - 15:36
    дека сѐ што правиме,
    сѐ што градиме, сѐ што создаваме,
  • 15:36 - 15:40
    треба да биде во
    заеднички разговор
  • 15:40 - 15:42
    со сите кои го избегнуваат;
  • 15:42 - 15:46
    дека не градиме системи наменети да ги
    залажат или изненадат луѓето
  • 15:46 - 15:48
    да постапат правилно,
  • 15:48 - 15:52
    туку да бидат вклучени
    во секој чекор од нивното образование,
  • 15:52 - 15:54
    бидејќи секој од овие системи
    е образовен.
  • 15:54 - 15:57
    На тоа се надевам,
    дури и мрачните аспекти,
  • 15:57 - 15:59
    ако се земат и се
    разгледаат соодветно,
  • 15:59 - 16:01
    сами по себе се
    парче едукација
  • 16:01 - 16:05
    што ви овозможува да согледате како
    комплексните системи функционираат
  • 16:05 - 16:08
    и можеби да го примените
    знаењето на друго место.
  • 16:08 - 16:11
    ХВ: Џејмс, ова е многу значајна дискусија,
  • 16:11 - 16:14
    и знам дека многу од луѓето овде се
    отворени и подготвени да се вклучат,
  • 16:14 - 16:16
    па фала што ни го отпочна утрото.
  • 16:16 - 16:17
    ЏБ: Благодарам!. Поздрав.
  • 16:17 - 16:19
    (аплауз)
Title:
Ужасните детски видеа на Јутјуб - што не е во ред со Интернетот денес
Speaker:
Џејмс Бридл
Description:

Писателот и уметник Џејмс Бридл открива еден мрачен, чуден агол на Интернетот, каде непознати луѓе или групи на Јутјуб ги хакираат мозоците на малите деца, со цел да остварат приходи од реклами. Видеата со „киндер јајца“, песната за "Семејството Прсти" и алгоритмички создадените мешавини на познати ликови од цртаните филмови во насилни ситуации, ги искористуваат и преплашуваат младите умови. Истовремено ни укажуваат каде е тргнато нашето општество предводено од податоци. "Не треба да ја гледаме технологијата како решение на сите наши проблеми, туку како водич при идентификување на тие проблеми, за да можеме да започнеме соодветно да ги разгледуваме и да дејствуваме", вели Бридл.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:32

Macedonian subtitles

Revisions