ویدیوهای کابوسوار یوتیوب برای کودکان -- و دردسرهای امروزه اینترنت
-
0:01 - 0:02جیمز هستم.
-
0:02 - 0:04نویسنده و هنرمندم،
-
0:04 - 0:06و کارم درباره فناوری است.
-
0:06 - 0:10کارهایی مثل کشیدن هواپیماهای بدون
سرنشین نظامی در مقیاس واقعی را در -
0:10 - 0:12خیابانهای شهرهای جهان انجام میدهم.
-
0:12 - 0:15تا مردم شروع به فکر کردن
به مسائل فناوری کنند -
0:15 - 0:19
که هم دیدن و هم فهم شان سخت است. -
0:19 - 0:23ابزاری مثل شبکههای عصبی میسازم
که نتایج انتخابات را بر اساس -
0:23 - 0:25گزارشهای هواشناسی پیش بینی میکند،
-
0:25 - 0:26چون علاقمندم بفهمم
-
0:26 - 0:30امکانات واقعی این فناوریهای
عجیب جدید چیست؟ -
0:31 - 0:34پارسال، اولین ماشین خودران خود را ساختم.
-
0:34 - 0:36اما چون حقیقتا به فناوری اعتماد ندارم،
-
0:36 - 0:38یک تله نیز برایش طراحی کردم.
-
0:39 - 0:40(خنده)
-
0:40 - 0:44و این کارها را برای این انجام میدهم
که برایم خیلی جالبند، -
0:44 - 0:47و فکر میکنم که وقتی درباره فناوری
حرف میزنیم -
0:47 - 0:49در واقع عمدتا درباره خودمان
-
0:49 - 0:52و نحوه درک خود از جهان اطراف صحبت میکنیم.
-
0:52 - 0:54خوب، داستانی از فناوری را تعریف میکنم.
-
0:56 - 0:58این ویدئویی درباره تخم مرغ شانسی است.
-
0:58 - 1:02در واقع این ویدئو شخصی است که
کلی تخم مرغ شانسی را باز کرده و -
1:02 - 1:04اسباببازی داخل آن را نشان بیننده میدهد.
-
1:04 - 1:07فقط همین. این کل چیزی است که
طی ۷ دقیقه انجام میدهد. -
1:07 - 1:10و از شما می خواهم که به دو چیز
در مورد این ویدئو توجه کنید. -
1:11 - 1:15نخست، این ویدئو
۳۰ میلیون بار دیده شده است. -
1:15 - 1:16(خنده)
-
1:16 - 1:18و مورد بعدی این که،
-
1:18 - 1:21این ویدئو از کانالی است که
۶/۳ میلیون عضو دارد، -
1:21 - 1:24که در مجموع ۸ میلیارد بازدید شده است.
-
1:24 - 1:27و ویدیوهای مشابه اینطوری زیادند--
-
1:28 - 1:32۳۰ میلیون نفر به تماشای شخصی که در
حال بازکردن تخم مرغ شانسی است نشستهاند. -
1:32 - 1:37بنظر عجیب است، اما اگر در یوتیوب
تخم مرغ شانسی را جستجو کنید، -
1:37 - 1:40متوجه خواهید شد که ۱۰ میلیون
از این ویدئوها وجود دارد، -
1:40 - 1:42که فکر میکنم این رقم
-
1:42 - 1:44بسیار بسیار بالاتر باشد.
-
1:44 - 1:46با ادامه جستجو متوجه
میشوید که پایان ندارد. -
1:46 - 1:48میلیونها میلیون از این ویدئوها
-
1:48 - 1:52که ترکیب عجیب و غربی از برندها
و مواد هستند وجود دارد. -
1:52 - 1:56و هرروز هم تعداد بیشتری بارگذاری میشوند.
-
1:56 - 1:59دنیای عجیبی است. نه؟
-
1:59 - 2:03اما مساله این است که که مخاطب این ویدئوها
-
2:03 - 2:06بزگسالان نیستند، بلکه کودکان هستند.
-
2:06 - 2:08این ویدئوها مثل هروپین برای
کودکان است. -
2:08 - 2:10این تکرار ویدئوها مانند
-
2:10 - 2:12ترشح دوپامین،
-
2:12 - 2:14آنها را گیر میاندازد.
-
2:14 - 2:19و کودکان این ویدئوها را بارها و بارها و
-
2:19 - 2:21بارها و ساعتها و ساعتها تماشا میکنند.
-
2:21 - 2:24و اگر آنها را از این کار باز دارید،
-
2:24 - 2:26جیغ و فریاد خواهند کرد.
-
2:26 - 2:27اگر حرفم را باور ندارید--
-
2:27 - 2:29و بعضی از شما را میبینم
که سر تایید تکان میدهید-- -
2:29 - 2:33اگر باور ندارید، افرادی که
بچه دارند را پیدا کنید و از آنها بپرسید -
2:33 - 2:35تا به شما درباره
این تخممرغ شانسیها بگویند. -
2:35 - 2:37خوب این شروع کار ما است.
-
2:37 - 2:41سال ۲۰۱۸ است، و اشخاص یا خیلی از مردم
-
2:41 - 2:45از ابزارهایی شبیه فیسبوک و
اینستاگرم استفاده می کنند تا -
2:45 - 2:47شما را وادار به چک کردن آن اپلیکیشن کنند،
-
2:47 - 2:51و از آن در یوتیوب استفاده میکنند تا
مغز کودکان را برای -
2:51 - 2:53درآمد ناشی از تبلیغات شستشو دهند.
-
2:54 - 2:56حداقل، کاری است
که امیدوارم انجام دهند. -
2:56 - 2:58امیدوارم دنبال این باشند،
-
2:58 - 3:04بدلیل اینکه راههای ساده تری برای کسب
درآمد از تبلیغ در یوتیوب وجود دارد. -
3:04 - 3:06شما میتوانید محتوا تولید کنید یا بدزدید.
-
3:06 - 3:09بنابراین اگر دنبال کارتونهای واقعا
مشهور کودکان مثل -
3:09 - 3:10«پپاپیگ» یا «پاو پترول» باشید،
-
3:10 - 3:14میلیونها و میلیونها از اینها را
نیز انلاین پیدا کنید. -
3:14 - 3:17البته بیشتر آنها توسط
خالقشان پست نشدهاند. -
3:17 - 3:20بلکه توسط بسیاری از حسابهای مختلف هستند
-
3:20 - 3:22که پیدا کردن و پی بردن به انگیزهشان
-
3:22 - 3:24غیرممکن است.
-
3:24 - 3:26آیا به نظرتان آشنا نیست؟
-
3:26 - 3:28چون همان مکانیزمی است که در بیشتر
-
3:28 - 3:31سرویسهای دیجیتال استفاده میشود،
-
3:31 - 3:34که غیر ممکن است بتوان منبع را یافت.
-
3:34 - 3:36اساسا اخبار دروغ برای کودکان هستند،
-
3:36 - 3:38و ما نیز از بدو تولد به کودکان میآموزیم
-
3:38 - 3:41که روی اولین لینکی که میبینند
کلیک کنند، -
3:41 - 3:43بدون توجه به منبع آن.
-
3:43 - 3:45به نظر ایده جالبی نمیآید.
-
3:46 - 3:49از برنامههای محبوب
دیگر برای کودکان در یوتیوب، -
3:49 - 3:51ترانه خانواده انگشتی است.
-
3:51 - 3:53ناله یکی از حضار را شنیدم.
-
3:53 - 3:55این ترانه خانواده انگشتی است.
-
3:55 - 3:57یکی از اولین نمونهها که پیدا کردم.
-
3:57 - 4:00سال ۲۰۰۷ ساخته شده،
و فقط ۲۰۰٫۰۰۰ بار دیده شده است، -
4:00 - 4:02که رقم بسیار پایینی است.
-
4:02 - 4:04اما نوای بسیار گوش نوازی دارد،
-
4:04 - 4:06که نمیخواهم اینجا پخش کنم،
-
4:06 - 4:08چون کرم مغز شما خواهد شد
-
4:08 - 4:11همانطور که برای من اتفاق افتاد.
-
4:11 - 4:12و نمیخواهم برای شما تکرار شود.
-
4:12 - 4:14اما همانند تخم مرغ شانسی،
-
4:14 - 4:16داخل مغز کودکان نفوذ کرده
-
4:16 - 4:18و آنها را معتاد کرده است.
-
4:18 - 4:20بنابراین بزودی، ویدئوهای خانواده انگشتی
-
4:20 - 4:21همه جا ظاهر شدند،
-
4:21 - 4:24و به زبانهای مختلف با
-
4:24 - 4:26کارتونهای مشهور کودکان با استفاده از غذا
-
4:26 - 4:28یا راستش هر عنصر انیمیشنی موجود
-
4:28 - 4:31در اطراف خواهد بود.
-
4:31 - 4:36میلیونها میلیون از این ویدئوها با
-
4:36 - 4:40ترکیبهای متفاوت روی اینترنت موجود است.
-
4:40 - 4:42و هرقدر وقت بیشتری با آنها صرف کنید،
-
4:42 - 4:46احساس دیوانگی بیشتری خواهید داشت.
-
4:46 - 4:49و این جا است که من به این
موضوع علاقهمند شدم، -
4:49 - 4:53احساس غریبگی عمیق و درک ناقص چگونگی
-
4:53 - 4:57تولید آن من را احاطه کرده بود.
-
4:57 - 5:00چون غیرممکن است که بدانید
این چیزها از کجا میآیند؟ -
5:00 - 5:01مثلا سازندهشان کیست؟
-
5:01 - 5:04بعضی از آنها توسط تیمی از انیماتورهای
حرفهای ساخته شدهاند. -
5:05 - 5:07بعضی از آنها توسط نرمافزار
سرهم شدهاند. -
5:07 - 5:12بعضی از آنها سرگرم کنندههای سالمی
برای کودکان هستند. -
5:12 - 5:13اما بعضی را افرادی تهیه میکنند
-
5:13 - 5:16که به هیچ عنوان
نباید اطراف کودکان باشند. -
5:16 - 5:18(خنده)
-
5:19 - 5:24و دوباره، این عدم امکان فهمیدن منبع ساخت
این ویدئوها است-- -
5:24 - 5:25مثل این که بات باشد؟
-
5:25 - 5:27یا شخص و یا ترول؟
-
5:28 - 5:30این یعنی ما نمیتوانیم تفاوت
-
5:30 - 5:31بین اینها را دیگر بیابیم؟
-
5:32 - 5:36و دوباره، آیا این عدم اطمینان آشنا نیست؟
-
5:38 - 5:41بنابراین اصلیترین راهی
که این ویدئوها بازدید شوند، -
5:41 - 5:42و یادتان باشد، بازدید یعنی پول --
-
5:42 - 5:47این است که نامهای معروف
برای آنها انتخاب شود. -
5:47 - 5:49مثل تخم مرغ شانسی و بعد افزودن
-
5:49 - 5:51نامهای دیگر، مثل پاوپاترول،
تخم مرغ عید پاک، -
5:51 - 5:52یا هر چیز دیگری که هست،
-
5:52 - 5:55همه اینها از ویدئوهای
محبوب در عنوان میآید -
5:55 - 5:58تا که ملغمه بیسروتهای
از کلمهها سرهم شود -
5:58 - 6:01که برای انسانها مفهومی ندارد.
-
6:01 - 6:04چون البته که بچههای کوچک تنها تماشاچی
این ویدئوها هستند -
6:04 - 6:06و آنها هم از همه جا بیخبرند.
-
6:06 - 6:09مخاطب حقیقی شما برای این محتواها
نرمافزارها هستند. -
6:09 - 6:11الگوریتمها.
-
6:11 - 6:12نرمافزاری که یوتیوب استفاده میکند
-
6:12 - 6:15تا انتخاب کند کدام ویدئوها مثل سایر
ویدئوها هستند، -
6:15 - 6:17کدام را محبوب کند،
کدام را توصیه کند. -
6:17 - 6:21و برای همین به آن ملغمه کاملا
بیسر و ته ختم میشود، -
6:21 - 6:23هم در محتوا و هم در عنوان.
-
6:24 - 6:26اما نکتهای که باید به خاطر بسپارید:
-
6:26 - 6:30واقعا هنوز بین این سیستم الگوریتمی
بهینه شده آدمهایی هستند -
6:30 - 6:33که به طرز فزایندهای وادارشدهاند
-
6:33 - 6:36این ترکیب رو به رشد غریب از واژهها،
-
6:36 - 6:41مثل هنرمند بداههپرداز مستاصلی
که به فریادهای یکی شده -
6:41 - 6:44میلیونها کودک نوپا هم زمان جواب دهد.
-
6:45 - 6:48آدمهای واقعی در این سیستمها
به دام افتادند، -
6:48 - 6:52و این چیز واقعا عجیب دیگری است
درباره فرهنگ نشات گرفته از الگوریتم، -
6:52 - 6:53چون حتی اگر انسان باشی،
-
6:53 - 6:55براب بقاء داشتن باید دست آخر مثل
-
6:55 - 6:57ماشین رفتار کنی.
-
6:57 - 6:59و هنوز در آن سوی پرده
-
6:59 - 7:02این خردسالان هستند
که این محتوا را میبینند، -
7:02 - 7:06در حالی که کل توجه آنها با
این مکانیزمهای عجیب جلب میشود. -
7:07 - 7:10و اکثر این کودکان حتی برای استفاده
از یوتیوب خیلی کوچکند. -
7:10 - 7:13با دستهای کوچک خود به صفحه میکوبند.
-
7:13 - 7:14و خب این پخش خودکار هست،
-
7:14 - 7:18که به پخش این ویدئوها پشت سر هم در این
بدون وقفه -
7:18 - 7:20برای ساعتهای متوالی ادامه میدهد.
-
7:20 - 7:23و الان در سیستم چنان چیزهایی غریبی هست
-
7:23 - 7:26که حالت پخش خودکار شما را
به جاهای عجیب میبرد. -
7:26 - 7:28اینطوری است که طی چند مرحله
-
7:28 - 7:31میتوانید از یک ویدئوی بامزه از قطار شماری
-
7:31 - 7:34به میکیموسی برسید که خودارضایی میکند.
-
7:35 - 7:37بله. متاسفم درباره آن.
-
7:37 - 7:39تازه بدتر هم میشود.
-
7:39 - 7:40اتفاقی که میافتد این است
-
7:40 - 7:43وقتی همه این کلیدواژههای مختلف،
-
7:43 - 7:45همه این تکههای مختلف توجه،
-
7:45 - 7:48این نسل متاصل محتوا،
-
7:48 - 7:51همه در یک جا گرد میآید.
-
7:52 - 7:56اینجاست که همه آن کلیدواژههای عمیقا
عجیب تاوان این ندانم کاری را میدهند. -
7:56 - 7:59ویدئوی خانواده انگشتی را با برخی
-
7:59 - 8:01چیزهای ابر-قهرمانی زنده پیوند میزنید،
-
8:01 - 8:04به آن امثال شوخیهای ترولیوار عجیب
را اضافه میکنید -
8:04 - 8:08و ناگهان راستش از جای عجیبی
سر در میآورید. -
8:08 - 8:10چیزهایی که موجب برافروختگی والدین میشود
-
8:10 - 8:13بنوعی حاوی محتوا خشونت آمیز یا جنسی هستند،
درست است؟ -
8:13 - 8:16کارتونهای کودکان که مورد
آزار قرار میگیرند، -
8:16 - 8:18کشته میشوند،
-
8:18 - 8:21شوخیهای عجیب که در واقع
کودکان را میترساند. -
8:21 - 8:25آنچه دارید نرمافزاری است همه انواع
این تاثیرات مختلف را گرد میآورد -
8:25 - 8:28تا بطور خودکار بدترین کابوسهای
کودکان را تولید کنند. -
8:28 - 8:31و این چیزها واقعا واقعا روی بچههای
کوچک تاثیر میگذارد. -
8:31 - 8:34والدین از آسیبهای روحی فرزندان خود
گزارش میدهند، -
8:34 - 8:35ترسیدنشان از تاریکی،
-
8:35 - 8:38ترسیدنشان از شخصیتهای محبوب
کارتونی خود. -
8:39 - 8:42اگر قرار به کار بردن یک نکته باشید
-
8:42 - 8:44بچههای کوچک را از یوتیوب دور نگه دارید.
-
8:45 - 8:49(تشویق)
-
8:51 - 8:54اما نکته دیگری که واقعا
من را درگیر خودش کرده -
8:54 - 8:58این است که من مطمئن نیستم ما حتی واقعا
بفهمیم چطور به این نکته رسیدیم. -
8:59 - 9:02ما همه تاثیرات این چیزها را لحاظ کردهایم
-
9:02 - 9:05و چنان ملغمهای درست کردهایم
که کسی واقعا قصدش را نداشته است. -
9:05 - 9:08و هنوز با این روش به
ساخت دنیا ادامه میدهیم. -
9:08 - 9:10همه این دادهها را بر میداریم،
-
9:10 - 9:11کلی دادههای بد،
-
9:11 - 9:14کلی دادههای تاریخی سرشار از تعصب،
-
9:14 - 9:17سرشار از بدترین محرکهای ما در تاریخ،
-
9:17 - 9:20و ما از آنها مجموعهای
عظیم از دادهها میسازیم -
9:20 - 9:21و بعد آنها را خودکار میکنیم
-
9:21 - 9:24و آنها در قالب گزارشهای اعتباری،
-
9:24 - 9:26به حق بیمه و چیزهایی مثل
-
9:26 - 9:29سیستمهای سیاستگذاری پیشگویانه، و
خط مشیهای محکوم کننده -
9:29 - 9:30ترکیب میکنیم.
-
9:30 - 9:33این دقیقا همان روشی است که ما
جهان امروز -
9:33 - 9:34را از دادهها میسازیم.
-
9:34 - 9:36و نمیدانم که کدام بدتر است،
-
9:36 - 9:39که سیستمی بسازیم که ظاهرا برای
بدترین زوایای -
9:39 - 9:42رفتار بشر بهینه باشد
-
9:42 - 9:45یا که ظاهرا این کار را انجام داده ایم،
-
9:45 - 9:47آن هم ندانسته،
-
9:47 - 9:50چون واقعا سیستمهایی
که میساختیم را نمیفهمیدند، -
9:50 - 9:54و واقعا نمیفهمیدیم چه کار
متفاوتی با آن انجام دهیم. -
9:55 - 9:58فکر میکنم چند مورد هست که
واقعا به نظر میرسد که با تمام قدرت -
9:58 - 9:59در یوتیوب محرک هستند،
-
9:59 - 10:01و اول از همه تبلیغات است،
-
10:01 - 10:04که از توجه پول در میآورد
-
10:04 - 10:07بدون هیچ متغیر واقعی دیگری دراین بین،
-
10:07 - 10:11بدون توجه به آدمهایی که در واقع
این محتوا را تولید میکنند، -
10:11 - 10:15متمرکز کردن قدرت،
تمایز دادن این چیزها. -
10:15 - 10:18و اگر چه شاید این حس را داشته باشید
که استفاده از تبلیغات بنوعی -
10:18 - 10:19برای حمایت از چیزهاست،
-
10:19 - 10:22تصویر مردان بالغ در پوشک که
در ماسه میغلتند -
10:22 - 10:25به امید الگوریتمی که آنها واقعا نمیفهمند
-
10:25 - 10:27پول برای آن میدهند
-
10:27 - 10:29نشان میدهد که این شاید چیزی نیست
-
10:29 - 10:31که باید اجتماع و فرهنگ خود را
بر پایه آن بگذاریم، -
10:31 - 10:33و روش سرمایهگذاری ما در آن.
-
10:34 - 10:37و نکته دیگر این است که محرک دیگر اصلی
برای آن اتوماسیون است -
10:37 - 10:39که بکارگیری انواع این فناوریها است
-
10:39 - 10:42و وقتی بدون هیچ دوراندیشی عرضه میشوند
-
10:42 - 10:43و قابل دسترس میشوند،
-
10:43 - 10:47مثل این میماند که دست در هوا تکان داده و
بگوییم، «کار ما نیست. تقصیر فناوریه.» -
10:47 - 10:49یا «ما که دخالتی نداریم.»
-
10:49 - 10:51که واقعا به حد کافی خوب نیست،
-
10:51 - 10:53چون این چیزها صرفا اگوریتمی
مدیریت نمیشوند، -
10:53 - 10:56بلکه الگوریتمی هم سیاستگذاری میشوند.
-
10:56 - 10:59وقتی یوتیوب اولین بار شروع به توجه
کردن به این کرد، -
10:59 - 11:01اولین کاری که گفتند در این باره
انجام دادند -
11:01 - 11:04به کارگیر الگوریتمهای بهتر
یادگیری ماشین بود -
11:04 - 11:05برای تعدیل محتوا.
-
11:05 - 11:09خب، یادگیری ماشین، همانطور هر متخصص
فعال در آن به شما خواهد گفت، -
11:09 - 11:10اساسا چیزی را نرمافزار نامیدیم
-
11:10 - 11:13که درک واقعی از کارکردش نداریم.
-
11:13 - 11:17و فکر کنم الان بحد کافی از آن داریم.
-
11:17 - 11:20نباید اینها را برای
تصمیمگیری درست یا غلطی -
11:20 - 11:22به هوش مصنوعی محول کرد،
-
11:22 - 11:23چون میدانیم چطور میشود.
-
11:23 - 11:25بقیه چیزها را سانسور میکند.
-
11:25 - 11:26محتوا دگرباشها را سانسور خواهد کرد.
-
11:27 - 11:29سخنرانیهای عمومی مشروع را سانسور میکند.
-
11:29 - 11:31محتوای مجاز در این گفت و شنودها نباید
-
11:31 - 11:34به سیستمهای بازخواست نشدنی محول گردد.
-
11:34 - 11:37باید بخشی از بحثی باشد که همه
ما مشارکت داریم. -
11:37 - 11:38اما بگذارید یادآوری کنم
-
11:38 - 11:41که جایگزین حتی خیلی دلچسب هم نیست.
-
11:41 - 11:42یوتیوب اخیرا اعلام کرد
-
11:42 - 11:45که قصد انتشار نسخهای از
برنامه کاربردی کودکان را دارند -
11:45 - 11:48که تماما از سوی انسانها اداره میشود.
-
11:48 - 11:52فیسبوک -- زوکربرگ تقریبا چیزی
مشابه را در کنگره گفت، -
11:52 - 11:55وقتی درباره نحوه تعدیل محتوایشان
تحت فشار قرار گرفت، -
11:55 - 11:57گفت آدمها را برای انجامش دارند.
-
11:57 - 11:58و معنی واقعی آن این است که
-
11:58 - 12:01بجای داشتن نوپاهایی که اولین بیننده
این برنامهها باشند، -
12:01 - 12:03کارکنان قراردادی متزلزل کم درآمد
-
12:03 - 12:05فاقد حمایت سلامت روان مناسب را خواهید داشت
-
12:05 - 12:07که از آن آسیب هم در امان نمیمانند.
-
12:07 - 12:08(خنده)
-
12:08 - 12:11و فکر میکنم میتوانیم عملکرد
بهتری داشته باشیم. -
12:11 - 12:13(تشویق)
-
12:14 - 12:19به اعتقاد من چیزی که بتواند این دو را
واقعا یکجا داشته باشد برای شخص من -
12:19 - 12:20نمایندگی است.
-
12:20 - 12:23مثلا چقدر ما واقعا می فهمیم--
-
12:23 - 12:28چطور میدانیم که چطور در جهت
نفع اعلای خود عمل کنیم. -
12:28 - 12:30که-- تقریبا انجامش در این سیستمهایی
-
12:30 - 12:33که واقعا کامل نمیفهمیم غیرممکن است.
-
12:33 - 12:36نابرابری در قدرت همواره منتهی به
خشونت میگردد. -
12:36 - 12:38و میبینیم که داخل این سیستمها
-
12:38 - 12:40که نابرابری از فهم
نیز همین کار را میکند. -
12:41 - 12:44اگر برای شروع چیزی باشد
که برای بهبود این سیستمها انجام دهیم، -
12:44 - 12:47که آنها را برای کاربرهای
آنها خواناتر کند، -
12:47 - 12:49بنابراین همه ما درک مشترکی
از آنچه واقعا -
12:49 - 12:51رخ میدهد داریم.
-
12:52 - 12:55چیزی که اگر چه فکر میکنم درباره
اکثر این سیستمها اینطور نیست -
12:55 - 12:59که البته امیدوارم به درستی
درباره یوتیوب آن را درست توضیح داده باشم. -
12:59 - 13:00شامل همه چیز است.
-
13:00 - 13:03این مسائل مسئولیتپذیری و پویایی،
-
13:03 - 13:05ابهام و پیچیدگی،
-
13:05 - 13:08خشونت و استثمار که ذاتا منجر به
-
13:08 - 13:11تمرکز قدرت در دستانی معدود میشوند --
-
13:11 - 13:13اینها مسائل خیلی خیلی بزرگتری هستند.
-
13:14 - 13:18و اینها صرفا مسائل یوتیوب
و فناوری در کل نیستند، -
13:18 - 13:19و حتی چیز تازهای نیستند.
-
13:19 - 13:21سالها با ما بودهاند.
-
13:21 - 13:25اما سرانجام این سیستم را ساختیم،
این سیستم جهانی، اینترنت، -
13:25 - 13:28که در واقع آنها را به شیوهای
خارقالعاده نشان میدهد، -
13:28 - 13:30آنها را غیرقابل انکار میکند.
-
13:30 - 13:33فناوری این ظرفیت خارقالعاده را دارد
-
13:33 - 13:37که همه آن استثناییترین تعصبها
و امیال ما -
13:37 - 13:41که اغلب پنهان هستند را معرفی کرده
و ادامه میدهد -
13:41 - 13:43و آنها را در این دنیا رمزگذاری میکند،
-
13:43 - 13:46اما همچنین آنها را یادداشت میکند
بنابراین میتوانیم آنها را ببینیم، -
13:46 - 13:50پس نمیتوانیم وانمود کنیم که
وجود ندارند. -
13:50 - 13:54باید از این تفکر که فناوری راهحل
همه مشکلات ما است دست بکشیم، -
13:54 - 13:58بلکه به آن بعنوان راهنمایی برای آنچه
واقعا این مشکلات هستند فکر کنیم، -
13:58 - 14:00تا بتوانیم درباره آنها به
درستی فکر کرده -
14:00 - 14:02و مورد خطاب قرار دهیم.
-
14:02 - 14:03خیلی متشکرم.
-
14:03 - 14:08(تشویق)
-
14:10 - 14:11متشکرم.
-
14:11 - 14:14(تشویق)
-
14:17 - 14:20هلن والترز: جیمز، متشکرم برای آمدنت
به اینجا و سخنرانی که کردی. -
14:20 - 14:21بنابراین جالب است:
-
14:21 - 14:25وقتی به فیلمهایی فکر میکنی،
-
14:25 - 14:28از آنچه شرح دادی کم باشکوهتر است.
-
14:28 - 14:32اما فکر می کنم-- در آن فیلمها
با افزایش مقاومت مواجه هستیم. -
14:32 - 14:35آیا مقاومتی در برابر این چیزها
در حال شکل گرفتن است؟ -
14:35 - 14:39آیا هیچ علامت مثبتی میبینی،
هیچی اثری از بهبودی در مقاومت؟ -
14:41 - 14:43جیمز بریدل: چیزی درباره
مقاومت مستقیم نمیدانم، -
14:43 - 14:45چون فکر میکنم این چیزها
واقعا طولانی مدت هستند. -
14:45 - 14:48فکر میکنم عمیقا در فرهنگ ما
جا افتادند. -
14:48 - 14:50الئنورسایتا یکی از دوستانم همیشه میگوید
-
14:50 - 14:54که مشکلات فناوری با هر مقیاس و دامنهای
-
14:54 - 14:56اول از همه مشکلات سیاسی هستند.
-
14:56 - 14:59بنابراین همه آنچه تلاش داریم
در این بازه خطاب قرار دهیم -
14:59 - 15:02صرف با بهتر ساختن فناوری
اصلاح نمیشود، -
15:02 - 15:05بلکه درواقع تغییر جامعهای که این
فناوریها را تولید میکند لازم است. -
15:05 - 15:08پس همین حالا فکر میکنم که راه
لعنتی درازی در پیش داریم. -
15:09 - 15:10همانطور که گفتم، با پرده برداشتن از آنها،
-
15:11 - 15:13با توضیح دادن، صحبت
صادقانه داشتن درباره آنها -
15:13 - 15:16میتوانیم حداقل این روند را آغاز کنیم.
-
15:16 - 15:19ه و: و بنابراین وقتی درباره سواد دیجیتالی
و خوانایی صحبت میکنید، -
15:19 - 15:21برایم دشوار است که تصور کنم
-
15:21 - 15:25لازم باشد بار سواد دیجیتال را بر دوش
خود کاربرها بگذاریم. -
15:25 - 15:29اما آموزش و تربیت در این جهان جدید
مسئولیت چه کسی است؟ -
15:29 - 15:33ج ب: دوباره، فکر میکنم این مسئولیت
به نوعی به همه ما بستگی دارد، -
15:33 - 15:36هر کاری که میکنیم، هر چیزی
که میسازیم، هرآنچه میسازیم، -
15:36 - 15:40لازم است به بحث جمعی با
اشخاصی دارد -
15:40 - 15:42که از آن اجتناب می کنند.
-
15:42 - 15:46که سیستمهایی نمیسازیم که تمایل به
کلک زدن و شگفتزده کردن آدمها -
15:46 - 15:48برای انجام کار درست دارند،
-
15:48 - 15:52اما این که آنها به راستی در هر گامی
در تعلیم آنها دخیل هستند، -
15:52 - 15:54چون هریک از این سیستمها آموزشی هستند.
-
15:54 - 15:57چیزی که برایش امیدوارم،
حتی این چیزهای واقعا ناراحت کننده، -
15:57 - 15:59که اگر بخواهید نگاه
حسابی به آنها بیندازید، -
15:59 - 16:01خودش در واقع آموزش محسوب میشود
-
16:01 - 16:05که به شما امکان میدهد ببینید چطور
سیستمهای پیچیده با هم شروع به کار می کنند -
16:05 - 16:09و احتمالا قادر خواهید بود آن را در
جاهای دیگر دنیا اعمال کنید. -
16:09 - 16:11ه و: جمیز، بحث خیلی مهمی است،
-
16:11 - 16:14و می دانم که خیلی از آدمهای حاضر در اینجا
واقعا مشتاق و آمادهاند، -
16:14 - 16:16خیلی ممنون که آغازگر جلسه صبح ما بودی.
-
16:16 - 16:17ج ب: خیلی خیلی متشکرم.
-
16:17 - 16:19(تشویق)
- Title:
- ویدیوهای کابوسوار یوتیوب برای کودکان -- و دردسرهای امروزه اینترنت
- Speaker:
- جیمز بریدل
- Description:
-
جیمز بریدل هنرمند و نویسنده از گوشه تاریک و عجیب اینترنت پرده برمیدارد، جایی که اشخاص یا گروههای نامعلوم در یوتیوب مغر بچههای کوچک را در ازای عایدات تبلیغاتی هک میکنند. از طریق جوایز «تخم مرغ شانسی» و «ترانه خانواده انگشتی» تا ملغمههای الگوریتمی خلق شده از شخصیتهای کارتونی آشنا در موقعیتهای خشونتآمیز، این ویدئوها از ذهن خردسالان سوءاستفاده کرده و آنها را میترساند -- و این چیزی است که به ما میگوید جهان داده محور ما به کجا میرود. بریدل میگوید: «لازم است دست از فکر کردن درباره فناوری به عنوان راهحلی برای همه مشکلات ما برداریم، اما به درستی به آنها بعنوان راهنمایی برای آنچه واقعا هستند فکر کنیم و آنها را خطاب قرار دهیم.»
- Video Language:
- English
- Team:
closed TED
- Project:
- TEDTalks
- Duration:
- 16:32