Ужасните детски видеа на Јутјуб - што не е во ред со Интернетот денес
-
0:01 - 0:02Јас сум Џејмс.
-
0:02 - 0:04Јас сум писател и уметник
-
0:04 - 0:06и творам на тема технологија.
-
0:06 - 0:10На пример, цртам контури на воени дронови
во реална големина -
0:10 - 0:12над градските улици ширум светот,
-
0:12 - 0:15со цел луѓето да почнат
да размислуваат и да ги разберат -
0:15 - 0:19овие технологии кои навистина е тешко
да се видат и да се сфатат. -
0:19 - 0:23Изработувам, на пример,невронски мрежи
кои предвидуваат резултати -
0:23 - 0:25врз основа на временска прогрноза,
-
0:25 - 0:26бидејќи ме интересираат
-
0:26 - 0:30сите реаални можности кои ги нудат
овие нови и чудни технологии. -
0:31 - 0:34Лани си направив сопствен
самовозечки автомобил. -
0:34 - 0:36Но бидејќи не ѝ верувам сосема
на технологијата, -
0:36 - 0:38креирав и стапица за неа.
-
0:39 - 0:40(смеа)
-
0:40 - 0:44И ги правам овие работи, пред сѐ,
затоа што сметам дека се чудесни -
0:44 - 0:47но исто така бидејќи, мислам,
кога зборуваме за технологија, -
0:47 - 0:49во голема мера зборуваме за себе
-
0:49 - 0:52и за начинот на кој го
разбираме светот. -
0:52 - 0:54Па, еве една приказна за технологијата.
-
0:56 - 0:58Ова е видео со „киндер јајца“.
-
0:58 - 1:02Во суштина тоа е видео во кое некој
отвора еден куп чололадни јајца -
1:02 - 1:04и ги покажува играчките
кои ги наоѓа во нив. -
1:04 - 1:07Толку. Само тоа се случува
цели долги седум минути. -
1:07 - 1:10И сакам да забележите две работи
во врска со тоа. -
1:11 - 1:15Прво, ова видео има
30 милиони прегледи. -
1:15 - 1:16(смеа)
-
1:16 - 1:18А втората работа е,
-
1:18 - 1:21доаѓа од канал кој има
6,3 милиони претплатници, -
1:21 - 1:24кој има вкупно
8 милијарди прегледи, -
1:24 - 1:27и тоа исти вакви видеа --
-
1:28 - 1:3230 милиони луѓе кои гледаат
како некој тип ги отвора овие јајца. -
1:32 - 1:37Звучи чудно, но ако пребарувате
„киндер јајца" нa Јутјуб, -
1:37 - 1:40ќе видите дека постојат
10 милиони вакви видеа, -
1:40 - 1:42во најмала рака.
-
1:42 - 1:44Мислам дека има многу,
многу повеќе. -
1:44 - 1:46Ако продолжите да барате,
им нема крај. -
1:46 - 1:48Има милиони вакви видеа,
-
1:48 - 1:52во сѐ побарокни комбинации
на брендови и материјали, -
1:52 - 1:56и сѐ повеќе и повеќе од нив
се прикачуваат секој ден. -
1:56 - 1:59Нели е ова чуден свет?
-
1:59 - 2:03Но, не се возрасните
тие кои што ги гледаат овие видеа. -
2:03 - 2:06Тоа се децата, малите деца.
-
2:06 - 2:08Овие видеа се како дрога
за малите деца. -
2:08 - 2:10Има нешто во тоа повторување,
-
2:10 - 2:12во постојаната доза на допамин
при откривањето, -
2:12 - 2:14што целосно ги навлекува.
-
2:14 - 2:19И мaлите деца ги гледаат овие видеа
пак и пак и пак, -
2:19 - 2:21и го прават тоа со часови,
и часови, и часови. -
2:21 - 2:24И ако се обидете да ги оттргнете
од екранот, -
2:24 - 2:26тие ќе вриштат и вриштат,
и вриштат. -
2:26 - 2:27Ако не ми верувате --
-
2:27 - 2:29а забележав некои од вас во
публиката дека климаат -- -
2:29 - 2:33ако не ми верувате, најдете некои со
мали деца и прашајте ги, -
2:33 - 2:35и тие ќе знаат за видеата
со киндер јајца. -
2:35 - 2:37Па, тука започнуваме.
-
2:37 - 2:412018 година е, некој,
или многу луѓе, -
2:41 - 2:45го користат истиот механизам којшто
го користат Фејсбук и Инстаграм -
2:45 - 2:47да ве наведат постојано
да ги проверувате, -
2:47 - 2:51и го применуваат на YouTube за да ги
хакираат мозоците на многу мали деца -
2:51 - 2:53со цел да остварат приходи
од реклами. -
2:54 - 2:56Барем, се надевам дека тоа го прават.
-
2:56 - 2:58Се надевам дека заради тоа го прават,
-
2:58 - 3:04бидејќи има и полесни начини да се оствари
приход од реклами на YouTube. -
3:04 - 3:06Можете и да измислувате работи,
или да крадете. -
3:06 - 3:09Ако пребарувате навистина
познати детски цртани: -
3:09 - 3:10"Прасето Пепа", "Патрола на Кутриња“,
-
3:10 - 3:14ќе дознаете дека и нив ги има
милиони и милиони на Интернет. -
3:14 - 3:17Секако, повеќето од нив не се објавени
од нивните оригинални креатори -
3:17 - 3:20туку потекнуваат од многу различни,
случајни канали, -
3:20 - 3:22и е невозможно да се знае
кој ги објавува -
3:22 - 3:24и со какви намери.
-
3:24 - 3:26Дали тоа ви звучи познато?
-
3:26 - 3:28Затоа што тоа е токму истиот механизам
-
3:28 - 3:31кој го има на повеќето
наши дигитални услуги, -
3:31 - 3:34каде е невозможно да се знае
од каде потекнува информацијата. -
3:34 - 3:36Тоа е во основа како
"лажни вести" за деца, -
3:36 - 3:38и ние ги тренираме од раѓање
-
3:38 - 3:41да кликнат на првиот линк
кој ќе се појави, -
3:41 - 3:43без разлика од кој извор доаѓа.
-
3:43 - 3:45Тоа не изгледа како
многу добра идеја. -
3:46 - 3:49Еве уште едно нешто што е
многу популарно на Јутјуб. -
3:49 - 3:51Се вика "Семејство Прсти“.
-
3:51 - 3:53Некој штотуку офна во публиката.
-
3:53 - 3:55Песната за семејството прсти.
-
3:55 - 3:57Ова е токму првата што ја најдов.
-
3:57 - 4:00Потекнува од 2007 година и има
само 200.000 прегледи, -
4:00 - 4:02што е многу малку во споредба со други.
-
4:02 - 4:04Но, има ритам што ти се
вовлекува во главата, -
4:04 - 4:06нема да ви ја пуштам,
-
4:06 - 4:08зашто ќе ви остане запечатена во мозокот,
-
4:08 - 4:11исто како што ми се случи мене,
-
4:11 - 4:12и нема да ви го направам тоа вам.
-
4:12 - 4:14Но, како и киндер јајцата
-
4:14 - 4:16се вовлекува во главите на децата
-
4:16 - 4:18и ги направи зависни од неа.
-
4:18 - 4:20Така, за неколку години,
видеата со семејството прсти -
4:20 - 4:21почна да ги има насекаде,
-
4:21 - 4:24и имате верзии на
различни јазици, -
4:24 - 4:26каде познати цртани ликови
користат храна -
4:26 - 4:28или, искрено, користат секакви
елементи за анимација -
4:28 - 4:31што ќе им се најдат при рака.
-
4:31 - 4:36И уште еднаш, има милиони и
милиони вакви видеа, -
4:36 - 4:40достапни на Интернет во сите овие
налудничави комбинации. -
4:40 - 4:42И колку повеќе време
минувате со нив, -
4:42 - 4:46толку повеќе ви се чини
дека полудувате. -
4:46 - 4:49И така се впуштив во ова,
-
4:49 - 4:53со чувство на длабоко
непознавање и неразбирање -
4:53 - 4:57за начинот како е конструирано
ова околу мене. -
4:57 - 5:00Бидејќи е невозможно да се знае
од каде потекнуваат овие работи. -
5:00 - 5:01Кој ги прави?
-
5:01 - 5:04Некои се чини дека се направени од
тимови професионални аниматори. -
5:05 - 5:07Некои се составени по случајност
со помош на софтвер. -
5:07 - 5:12Некои се од пристојни аниматори
на мали деца. -
5:12 - 5:13А некои се од луѓе
кои очигледно -
5:13 - 5:16воопшто не смеат
да бидат во близина на деца. -
5:16 - 5:18(смеа)
-
5:19 - 5:24Повторно, неможноста да се дознае
кој ги изработува овие работи, -
5:24 - 5:25дали е тоа робот?
-
5:25 - 5:27Дали е личност?
Дали е трол? -
5:28 - 5:30Што значи тоа што повеќе
не можеме да ги разликуваме -
5:30 - 5:31овие работи?
-
5:32 - 5:36Нели тоа чувство на несигурност
ви е некако познато? -
5:38 - 5:41Најчесто луѓето привлекуваат
прегледи на нивните видеа, -
5:41 - 5:42и запомнете, прегледите значат пари
-
5:42 - 5:47така што ги полнат насловите на
овие видеа со познати зборови. -
5:47 - 5:49Пример, почнувате со „киндер јајца"
-
5:49 - 5:51и додавате "Патрола на кутриња,"
"Велигденски јајца," -
5:51 - 5:52или што и да е,
-
5:52 - 5:55сите овие зборови од други
популарни видеа, -
5:55 - 5:58додека не завршите со еден
куп без јазично значење, -
5:58 - 6:01без логика.
-
6:01 - 6:04Затоа што, се разбира, овие видеа
ги гледаат мали деца, -
6:04 - 6:06а што разбираат тие?
-
6:06 - 6:09Вашата вистинска публика
за овие работи е софтверот. -
6:09 - 6:11Алгоритмите.
-
6:11 - 6:12Софтверот кој Јутјуб го користи
-
6:12 - 6:15да одреди кои видеа се
слични на други видеа, -
6:15 - 6:17да им ја подигне популарноста,
да ги препорача. -
6:17 - 6:21И затоа завршувате со ваква
комплетно безначајна мешавина -
6:21 - 6:23на наслови и на содржини.
-
6:24 - 6:26Но, мора да запомните
-
6:26 - 6:30дека се`уште постои човечки фактор
во овој систем на алгоритми, -
6:30 - 6:33луѓе кои сѐ повеќе се
принудени да ги одиграат -
6:33 - 6:36овие сѐ побизарни
комбинации на зборови, -
6:36 - 6:41како очајни импровизатори
во одговор на здружените врисоци -
6:41 - 6:44на милиони деца
во исто време. -
6:45 - 6:48Вистински луѓе се заробени
во овие системи, -
6:48 - 6:52и тоа е другата чудна работа
во оваа култура водена од алгоритми, -
6:52 - 6:53затоа што, иако си човек,
-
6:53 - 6:55на крајот се однесуваш
како машина, -
6:55 - 6:57само за да преживееш.
-
6:57 - 6:59Исто така, на другата
страна на екранот -
6:59 - 7:02се`уште се наоѓаат овие мали деца,
кои ги гледаат овие работи, -
7:02 - 7:06заглавени, нивното целосно внимание
зграпчено од овие чудни механизми. -
7:07 - 7:10Повеќето од овие деца се премали
за да користат вебстрани. -
7:10 - 7:13Само удираат со рачињата
по екраните. -
7:13 - 7:14Па имаме автоматско пуштање
-
7:14 - 7:18каде видеата се пуштаат пак и пак во круг,
-
7:18 - 7:20бескрајно, со часови и часови.
-
7:20 - 7:23Системот стана
толку чуден -
7:23 - 7:26што автоматското пуштање
ве носи на прилично чудни места. -
7:26 - 7:28Така, во десетина чекори,
-
7:28 - 7:31можете да стигнете
од слатко видео со воз со бројки, -
7:31 - 7:34до Мики Маус кој мастурбира.
-
7:35 - 7:37Да. Жалам.
-
7:37 - 7:39А има и полошо.
-
7:39 - 7:40Ова се случува
-
7:40 - 7:43кога сите тие различни
зборови за пребарување, -
7:43 - 7:45сите тие делчиња за
привлекување внимание, -
7:45 - 7:48цело ова очајничко
креирање содржини, -
7:48 - 7:51ќе се соберат
на едно место. -
7:52 - 7:56Ова е асолништето на сите тие
многу чудни зборови. -
7:56 - 7:59Ќе вкрстите видео
со семејството прсти -
7:59 - 8:01со некои акциони суперхерои,
-
8:01 - 8:04ќе додадете некои чудни,
тролски шеги и слично, -
8:04 - 8:08и одеднаш, се наоѓате
на навистина чудно место. -
8:08 - 8:10Она што најчесто ги
вознемирува родителите -
8:10 - 8:13се материјалите со насилна
и сексуална содржина, нели? -
8:13 - 8:16Ликови од цртаните филмови
биваат нападнати, -
8:16 - 8:18убиени,
-
8:18 - 8:21чудни трикови кои навистина
ги преплашуваат децата. -
8:21 - 8:25Софтверот ги избира
сите овие различни влијанија -
8:25 - 8:28со цел автматски да ги генерира
најстрашните детски кошмари. -
8:28 - 8:31А овие работи навистина
многу влијаат врз децата. -
8:31 - 8:34Родители пријавуваат дека децата
им биле трауматизирани, -
8:34 - 8:35се плашат од темнината,
-
8:35 - 8:38се плашат од нивните омилени
ликови од цртаните филмови. -
8:39 - 8:42Ако едно нешто научивме од ова,
тоа е: ако имате мали деца -
8:42 - 8:44држете ги подалеку од Јутјуб!
-
8:45 - 8:49(аплауз)
-
8:51 - 8:54Но, другото нешто,
кое најмногу ме мачи, -
8:54 - 8:58е помислата дека не ни знаеме
како стигнавме дотука. -
8:59 - 9:02Ги зедовме сите овие влијанија
сите овие работи, -
9:02 - 9:05и ги измешавме заедно
на начин на кој никој не намераваше. -
9:05 - 9:08А сепак, на истиот начин
го градиме целиот свет. -
9:08 - 9:10Зборуваме за сите овие податоци,
-
9:10 - 9:11голем дел од нив лоши,
-
9:11 - 9:14многу историски податоци,
полни со предрасуди, -
9:14 - 9:17полни со нашите најлоши
пориви во историјата, -
9:17 - 9:19и ги внесуваме во огромни датотеки
-
9:19 - 9:21и потоа ги автоматизираме.
-
9:21 - 9:24Ги вметнуваме во
кредитни извештаи, -
9:24 - 9:26премии за осигурување,
-
9:26 - 9:29предиктивни полициски системи,
-
9:29 - 9:30упатства за донесување пресуди.
-
9:30 - 9:33Вака всушност го градиме
денешниот свет, -
9:33 - 9:34врз основа на податоци.
-
9:34 - 9:36И не знам што е полошо:
-
9:36 - 9:39тоа што градиме систем
кој се чини е целосно оптимизиран -
9:39 - 9:42за апсолутно најлошите варијанти
на човечко однесување, -
9:42 - 9:45или тоа што истото го
правиме случајно, -
9:45 - 9:47без воопшто да сфатиме
што правиме, -
9:47 - 9:50бидејќи не ги разбираме добро
системите кои ги градиме -
9:50 - 9:54и не знаеме како
да постапиме поинаку. -
9:55 - 9:58Има две работи кои сметам дека се
движечка сила на овој феномен, -
9:58 - 9:59особено на Јутјуб.
-
9:59 - 10:01Првата е рекламирањето,
-
10:01 - 10:04односно монетизацијата на
привлеченото внимание, -
10:04 - 10:07без земање во предвид
други варијабли, -
10:07 - 10:11без грижа за луѓето кои всушност
ја креираат таа содржина, -
10:11 - 10:15централизацијата на моќта,
одделувањето на тие нешта. -
10:15 - 10:18И сметам дека без разлика какво
мислењеимате за рекламите, -
10:18 - 10:19како финансиска поддршка,
-
10:19 - 10:22глетката на возрасни мажи во пелени
како се тркалаат во песокта, -
10:22 - 10:25со надеж дека некој алгоритам
кој ни самите не го разбираат -
10:25 - 10:27ќе им даде пари за тоа,
-
10:27 - 10:29упатува на тоа дека ова
веројатно не е начинот -
10:29 - 10:31на кој треба да го градиме
нашето општество и култура, -
10:31 - 10:33нити начинот на кој
треба да го финансираме. -
10:34 - 10:37А вториот двигател на оваа
ситуација е автоматизацијата, -
10:37 - 10:39односно примената на
сета таа технологија -
10:39 - 10:42веднаш штом се појави,
без никаков надзор, -
10:42 - 10:43и кога е веќе пласирана,
-
10:43 - 10:47ги креваме рацете и велиме:
"Еј, не е до нас, до технолгијата е." -
10:47 - 10:49Демек, "Ние не сме дел од тоа."
-
10:49 - 10:51Тое не е доволно добро.
-
10:51 - 10:53Затоа што ова не е само
предводено, -
10:53 - 10:56туку е и контролирано
од алгоритми. -
10:56 - 10:59Кога Јутјуб почна да
обрнува внимание на ова, -
10:59 - 11:01првото нешто што рекоа
дека ќе го превземат -
11:01 - 11:04беше дека ќе применат подобри
алгоритми за машинско учење -
11:04 - 11:05да ја ублажат содржината.
-
11:05 - 11:09Е па, машинското учење,
секој експерт во областа ќе ви каже, -
11:09 - 11:10го нарекуаваме всушност
-
11:10 - 11:13софтверот кој не го разбираме
како функционира. -
11:13 - 11:17Мислам дека веќе
имаме доволно од тоа. -
11:17 - 11:20Не треба да оставаме
на вештачката интелигенција -
11:20 - 11:22да одлучи што е соодветно,
-
11:22 - 11:23зашто знаеме што ќе се случи.
-
11:23 - 11:25Ќе почне да цензурира
други работи: -
11:25 - 11:26необични содржини,
-
11:27 - 11:29или легитимент јавен говор.
-
11:29 - 11:31Што е дозволено, а што не,
-
11:31 - 11:34не треба да се остави
на неодговорни системи. -
11:34 - 11:37Тоа е дел од дискусија во која
сите треба да учествуваме. -
11:37 - 11:38Но, потсетувам дека
-
11:38 - 11:41ниту алтернативата
не е многу пријатна. -
11:41 - 11:42Јутјуб неодамна изјавија
-
11:42 - 11:45дека ќе издадат верзија на нивната
апликација за деца -
11:45 - 11:48која ќе биде целосно
прегледувана од луѓе. -
11:48 - 11:52Фејсбук - Закерберг изјави нешто слично
пред Конгресот, -
11:52 - 11:55на прашањето како ќе
управуваат со нивната содржина. -
11:55 - 11:57Рече дека луѓе ќе го прават тоа.
-
11:57 - 11:58А, тоа всушност значи дека
-
11:58 - 12:01наместо малите деца да бидат
првите кои ќе ги видат овие содржини, -
12:01 - 12:04сега ќе има слабо платени,
загрозени работници, -
12:04 - 12:06без соодветна ментално-здравствена
заштита. -
12:06 - 12:07оштетени од истите содржини.
-
12:07 - 12:08(смеа)
-
12:08 - 12:11И сметам дека можеме
многу подобро од тоа. -
12:11 - 12:13(аплауз)
-
12:14 - 12:19Смислата, според мене, која ги
поврзува овие работи -
12:19 - 12:20е дејствувањето.
-
12:20 - 12:23Колку навистина разбираме?
Под дејствување подразбирам: -
12:23 - 12:28како знаеме како да постапиме
во наш најдобар интерес. -
12:28 - 12:30Што е речиси невозможно да се направи
-
12:30 - 12:33во овие ситеми кои
не ги разбираме целосно. -
12:33 - 12:36Нееднаквоста на моќта
секогаш води до насилство. -
12:36 - 12:38Во овие системи
можеме да видиме -
12:38 - 12:40дека нееднаквото разбирање
го предизвикува истото. -
12:41 - 12:44Ако постои начин како да започнеме
да ги подобруваме овие системи -
12:44 - 12:47тоа е да ги направиме почитливи
за луѓето кои ги користат, -
12:47 - 12:49така што сите ќе имаме
заедничко разбирање -
12:49 - 12:51за тоа што всушност
се случува тука. -
12:52 - 12:55Проблемот со повеќето
од овие системи -
12:55 - 12:59не е во врска со Јутјуб,
како што објаснив, -
12:59 - 13:00туку со сѐ.
-
13:00 - 13:03Прашањата на одговорност
и дејствување, -
13:03 - 13:05на нејасност и комплексност,
-
13:05 - 13:08на насилството и експлоатацијата
кои неизбежно произлегуваат -
13:08 - 13:11од концентрацијата на моќ
во нечии раце -- -
13:11 - 13:13ова се многу, многу
поголеми проблеми. -
13:14 - 13:18Тоа се проблеми не само на Јутјуб,
и не само на технологијата воопшто, -
13:18 - 13:19и не се новосоздадени.
-
13:19 - 13:21Со нас се долго време.
-
13:21 - 13:25Но, конечно го изградивме овој систем
овој глобален систем, Интернетот, -
13:25 - 13:28кој на извонреден начин ни ги покажува
, -
13:28 - 13:30и ги прави вистински.
-
13:30 - 13:33Технологијата има
исклучителна способност -
13:33 - 13:37истовремено да ги прикаже и продолжи
-
13:37 - 13:41сите наши извонредни,
често притаени, желби и предрасуди -
13:41 - 13:43и да ги вкодира во светот,
-
13:43 - 13:46но и да ги запише
за да ни се видливи -
13:46 - 13:50и да не можеме да се преправаме
дека не постојат повеќе. -
13:50 - 13:54Не треба да ја гледаме технологијата
како решение на сите наши проблеми, -
13:54 - 13:58туку како водич за идентификување
на тие проблеми, -
13:58 - 14:00со цел да почнеме
соодветно да ги -
14:00 - 14:02разгледуваме и да дејствуваме.
-
14:02 - 14:03Многу ви благодарам.
-
14:03 - 14:08(аплауз)
-
14:10 - 14:11Благодарам!
-
14:11 - 14:14(аплауз)
-
14:17 - 14:20Хелен Волтерс: Џејмс, благодарам
за гостувањето и за говорот. -
14:20 - 14:21Значи, интересно е:
-
14:21 - 14:25кога размислуваш за филмови во кои
роботите го преземаат светот, -
14:25 - 14:28сѐ изгледа погламурозно
од она што ни го опиша. -
14:28 - 14:32Се прашувам -- во тие филмови
имаме градење на отпор. -
14:32 - 14:35Дали градиме отпор кон овие работи
во реалноста? -
14:35 - 14:39Дали забележуваш позитивни знаци,
никулци на отпорот? -
14:41 - 14:43Џејмс Бридл: Не знам за
директен отпор, -
14:43 - 14:45бидејќи ова се дологорочни работи.
-
14:45 - 14:48Мислам дека е длабоко
всадено во културата. -
14:48 - 14:50Моја пријателка, Еленор Саита,
секогаш вели -
14:50 - 14:54дека секој технолошки проблем
со доволна големина и опсег -
14:54 - 14:56е пред сѐ политички проблем.
-
14:56 - 14:59Така што сите овие работи кои
се трудиме да ги решиме -
14:59 - 15:02нема да ги решиме само
преку градење подобра технологија, -
15:02 - 15:05туку преку менување на општеството
кое ги произведува овие технологии. -
15:05 - 15:08Така што, засега мислам дека имаме
уште многу работа пред нас. -
15:09 - 15:10Но, како што реков,
со нивното отворање, -
15:11 - 15:13објаснување, дискутирање за нив
многу искрено, -
15:13 - 15:16можеме барем да го
започнеме тој процес. -
15:16 - 15:19ХВ: Кога зборуваш за
читливост и дигитална писменост, -
15:19 - 15:21тешко ми е да замислам
-
15:21 - 15:25дека товарот на дигиталната писменост
треба да остане кај самите корисници. -
15:25 - 15:29Тогаш, чија одговорност е
образованието во овој нов свет? -
15:29 - 15:33ЏБ: Сметам дека таа е одговорност
на сите нас, -
15:33 - 15:36дека сѐ што правиме,
сѐ што градиме, сѐ што создаваме, -
15:36 - 15:40треба да биде во
заеднички разговор -
15:40 - 15:42со сите кои го избегнуваат;
-
15:42 - 15:46дека не градиме системи наменети да ги
залажат или изненадат луѓето -
15:46 - 15:48да постапат правилно,
-
15:48 - 15:52туку да бидат вклучени
во секој чекор од нивното образование, -
15:52 - 15:54бидејќи секој од овие системи
е образовен. -
15:54 - 15:57На тоа се надевам,
дури и мрачните аспекти, -
15:57 - 15:59ако се земат и се
разгледаат соодветно, -
15:59 - 16:01сами по себе се
парче едукација -
16:01 - 16:05што ви овозможува да согледате како
комплексните системи функционираат -
16:05 - 16:08и можеби да го примените
знаењето на друго место. -
16:08 - 16:11ХВ: Џејмс, ова е многу значајна дискусија,
-
16:11 - 16:14и знам дека многу од луѓето овде се
отворени и подготвени да се вклучат, -
16:14 - 16:16па фала што ни го отпочна утрото.
-
16:16 - 16:17ЏБ: Благодарам!. Поздрав.
-
16:17 - 16:19(аплауз)
- Title:
- Ужасните детски видеа на Јутјуб - што не е во ред со Интернетот денес
- Speaker:
- Џејмс Бридл
- Description:
-
Писателот и уметник Џејмс Бридл открива еден мрачен, чуден агол на Интернетот, каде непознати луѓе или групи на Јутјуб ги хакираат мозоците на малите деца, со цел да остварат приходи од реклами. Видеата со „киндер јајца“, песната за "Семејството Прсти" и алгоритмички создадените мешавини на познати ликови од цртаните филмови во насилни ситуации, ги искористуваат и преплашуваат младите умови. Истовремено ни укажуваат каде е тргнато нашето општество предводено од податоци. "Не треба да ја гледаме технологијата како решение на сите наши проблеми, туку како водич при идентификување на тие проблеми, за да можеме да започнеме соодветно да ги разгледуваме и да дејствуваме", вели Бридл.
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 16:32