چگونه میتوانم از دادههای بیولوژیکی برای گفتن داستانهای بهتر -- و ایجاد تغییرات اجتماعی استفاده کنم
-
0:01 - 0:05طی ۱۵ سال گذشته در تلاش بودهام
که نظر شما را تغییر دهم. -
0:06 - 0:10من در کارم فرهنگ پاپ و فناوریِ نوظهور را
برای تغییر هنجارهایِ فرهنگی -
0:10 - 0:11تحت کنترل درمیآورم.
-
0:12 - 0:16من برای ارتقاء حقوق بشر
بازیهای ویدئویی ساختهام -
0:16 - 0:21برای افزایش آگاهی در مورد
قوانین غیرقانونی مهاجرت، انیمیشن ساختهام -
0:21 - 0:25و حتی برنامههای
واقعیت افزوده مبتنی بر مکان را -
0:25 - 0:28جهت تغییر تصورات مربوط
به بیخانمانی ساختهام. -
0:28 - 0:29خیلی قبل از بازی پوکمون گو.
-
0:30 - 0:31(خنده حضار)
-
0:31 - 0:35اما بعد برایم سوال پیش آمد،
چه بازی و یا برنامهای -
0:35 - 0:37واقعا میتوانند
نگرش و رفتارها را تغییر دهند؟ -
0:37 - 0:40و اگر اینطور باشد،
آیا میتوانم تغییرش را اندازه بگیرم؟ -
0:40 - 0:43علم پشت این روند چیست؟
-
0:43 - 0:47بنابراین تمرکز خود را از ساخت
رسانه و فناوری -
0:47 - 0:50برای اندازه گیری
اثرات عصبی آنها تغییر دادم. -
0:51 - 0:53این چیزی است که من کشف کردم.
-
0:53 - 0:57وب، دستگاههای تلفن همراه،
واقعیت مجازی و واقعیت افزوده -
0:57 - 1:00در حال نوشتن سیستمهای عصبی ما بودند.
-
1:00 - 1:03و آنها به معنای واقعی کلمه
در حالِ تغییر ساختار مغز ما بودند. -
1:04 - 1:09همان فناوریهایی که من استفاده کرده بودم
تا بتوانند بر قلب و ذهن تأثیر بگذارند -
1:09 - 1:13در واقع کارکردهای لازم
برای همدلی کردن در مغز -
1:13 - 1:15و همچنین تصمیم گیری را مختل میکردند.
-
1:15 - 1:19در حقیقت، وابستگی ما
به وب و دستگاههای تلفن همراه -
1:19 - 1:23ممکن است استعدادهایِ
شناختی و عاطفی ما را تصرف کرده، -
1:23 - 1:27و ما را به لحاظ اجتماعی
و عاطفی ناتوان کنند، -
1:27 - 1:30و من در این از دست دادن صفات انسانی
احساسِ همدستی داشتم. -
1:31 - 1:36فهمیدم، قبل از اینکه بتوانم ایجاد رسانه
در مورد مسائل اجتماعی را ادامه دهم، -
1:36 - 1:40نیاز به مهندسی معکوس کردنِ
آثار مضر فناوری داشتم. -
1:41 - 1:44برای مقابله با این، از خودم پرسیدم
-
1:44 - 1:47«چگونه میتوانم مکانیسمهای همدلی
را ترجمه کنم، -
1:47 - 1:51جنبههای شناختی، عاطفی و انگیزشی،
-
1:51 - 1:54داخل یک موتور که مواد روایی
را شبیه سازی میکند -
1:54 - 1:57و ما را به سمت عمل سوق میدهد؟»
-
1:57 - 2:01برای جواب دادن به این،
مجبورشدم ماشینی بسازم. -
2:01 - 2:02(خنده حضار)
-
2:02 - 2:05من در حال توسعه
آزمایشگاه بیومتریک منبعِ باز هستم، -
2:05 - 2:09یک سیستم هوشِ مصنوعی
که من به آن آزمایشگاه لیمبیک میگویم. -
2:09 - 2:10آزمایشگاهی که نه فقط پاسخِ
-
2:10 - 2:14ناخودآگاه مغز و بدن به رسانه و فناوری
-
2:14 - 2:17بلکه از ماشین برایِ یادگیری
تطبیق محتوا -
2:17 - 2:20بر اساس این پاسخهای بیولوژیکی
استفاده میکند. -
2:21 - 2:24هدف من این است که دریابم مواد سازنده
-
2:24 - 2:26جذابترین و گالوانیزهترین داستان
-
2:26 - 2:28در نظر مخاطبان خاص برای فعال کردن
-
2:28 - 2:33عدالت اجتماعی، فرهنگی
و سازمانهای آموزشی -
2:33 - 2:36برای ایجاد رسانه مؤثرتر چه چیزهایی هستند.
-
2:36 - 2:39آزمایشگاه لیمبیک
از دو مؤلفه تشکیل شده است: -
2:39 - 2:41یک موتور روایتگر و یک دستگاه رسانهای.
-
2:42 - 2:47در حالی که یک موضوع در حال مشاهده
یا تعامل با محتوای رسانه است، -
2:47 - 2:51موتور دادهها، زمان واقعی از
امواج مغزی را روایت و همگام سازی میکند، -
2:51 - 2:54دادههای بیوفیزیکی مانند ضربان قلب،
جریان خون، دمای بدن -
2:54 - 2:56و انقباض عضلات،
-
2:56 - 2:59و همچنین ردیابی چشم
و حالات چهره. -
3:00 - 3:04اطلاعات در مکانهای کلیدی ضبط میشوند
جایی که نقاط نقشه بحرانی -
3:04 - 3:07تعامل شخصیت
یا زوایای غیرعادی دوربین رخ میدهد. -
3:08 - 3:11مثل صحنه آخر
در «بازی تاج و تخت، عروسی سرخ» -
3:11 - 3:13وقتی در نهایت حیرت
-
3:13 - 3:15همه میمیرند.
-
3:15 - 3:16(خنده حضار)
-
3:17 - 3:20دادههای نظرسنجی در مورد
اعتقادات سیاسی آن شخص، -
3:20 - 3:23همراه با روانشناسی آنها
و دادههای جمعیتی، -
3:23 - 3:25در سیستم
-
3:25 - 3:29برای درک عمیقتر از آن فرد
ادغام شدهاند. -
3:29 - 3:32بگذارید برای شما مثالی بزنم.
-
3:32 - 3:37مطابق ترجیحات تلویزیونی مردم و نظراتشان
در مورد مسائل عدالت اجتماعی درمیابیم -
3:37 - 3:41آمریکاییها که مهاجرت را درمیان
سه نگرانی برترشان رتبهبندی میکنند -
3:41 - 3:44به احتمال زیاد
طرفدار سریال «مُردگان متحرک» هستند -
3:45 - 3:48و آنها را اغلب برای
تقویت آدرنالین تماشا میکنند، -
3:48 - 3:49که قابل اندازه گیری است.
-
3:50 - 3:54امضای بیولوژیکی شخص
و پاسخ نظرسنجی آنها -
3:54 - 3:58با یک بانک اطلاعاتی ترکیب میشوند تا اثر
رسانهای بینظیر خود را ایجاد کنند. -
3:59 - 4:03سپس مدل پیشبینی ما
الگوهای بین رسانهها را پیدا میکند -
4:03 - 4:05و به من میگوید کدام عناصر روایی
-
4:05 - 4:09به احتمال زیاد، رفتار نوع دوستانه را
-
4:09 - 4:11به جای استرس و بیتفاوتی منجر میشود.
-
4:11 - 4:14هرچه نشان بیشتری به پایگاه داده اضافه شود
-
4:14 - 4:17در سراسر رسانه، از برنامههایِ
تلویزیونی گرفته تا بازیها -
4:17 - 4:19مدلهای پیش بینی بهتر میشوند.
-
4:20 - 4:24بهطور خلاصه من در حال نقشه کردن
اولین ژنوم رسانه هستم. -
4:24 - 4:32(تشویق حضار)
-
4:32 - 4:35در حالی که ژنوم انسان
تمام ژنهای درگیر را در -
4:35 - 4:37توالی دیاناِی شناسایی میکند.
-
4:38 - 4:41پایگاه داده رو به رشد از رسانهها
سرانجام به من اجازه خواهد داد -
4:41 - 4:45که دیاناِی را برای یک شخص خاص تعیین کنم.
-
4:46 - 4:50موتور روایتگر آزمایشگاه لیمبیک از قبل
-
4:50 - 4:53به سازنگان محتوا در ساخت و
اصلاح داستان کمک میکند، -
4:53 - 4:59به طوری که در سطح فردی
با مخاطبان هدف آنها طنین انداز شود. -
4:59 - 5:01مؤلفه دیگر آزمایشگاه لیمبیک،
-
5:01 - 5:03دستگاه رسانهای،
-
5:03 - 5:08نحوه انتخاب پاسخ احساسی
و فیزیولوژیکی رسانه را ارزیابی میکند، -
5:08 - 5:10سپس صحنهها را از یک کتابخانه محتوا
-
5:10 - 5:13از دیانای شخص-محور رسانه بیرون می کشد.
-
5:14 - 5:18استفاده از هوش مصنوعی
به دادههای بیومتریک که -
5:18 - 5:21تجربهای واقعاً شخصی ایجاد میکند.
-
5:21 - 5:27تجربهای که محتوا را مبتنی بر پاسخهای
ناخودآگاه در زمان واقعی سازگار میکند. -
5:27 - 5:33تصور کنید افراد غیرذینفع و سازندگان
رسانه قادر به سنجش احساس مخاطبان باشند -
5:33 - 5:35آنها را تجربه کنند
-
5:35 - 5:37و محتوا را در حال اجرا تغییر دهند.
-
5:37 - 5:41من معتقدم این آینده رسانهها است.
-
5:41 - 5:44تا به امروز بیشتر رسانهها و
راهبردهای تغییر اجتماعی -
5:44 - 5:47سعی در تجدید نظر
به عموم مخاطبان را دارند، -
5:47 - 5:51اما آینده رسانه سفارشی
برای هر شخص است. -
5:51 - 5:54به عنوان اندازه گیری
بلادرنگ مصرف رسانه -
5:54 - 5:57و تولید خودکار رسانهها عادی میشود،
-
5:57 - 6:01ما به زودی مصرف رسانه را
با بهره گیریِ ترکیبی از -
6:01 - 6:05روانشناسی، بیومتریک و هوش مصنوعی
با هدفهایمان متناسب خواهیم کرد -
6:06 - 6:10مثل داروی شخصی
بر اساس دیاناِی ما است. -
6:10 - 6:12من آن را «زیست رسانه» مینامم.
-
6:13 - 6:16من هماکنون، درحال تست
آزمایشگاه لیمبیک در یک مطالعه مقدماتی هستم -
6:16 - 6:18با مرکز نورمَن لیر،
-
6:18 - 6:22که به بیش از۵۰ برنامه تلویزیونی مینگرد.
-
6:22 - 6:25اما من با معضلی اخلاقی
دست و پنجه نرم میکنم. -
6:25 - 6:29اگر ابزاری طراحیکنم
که بتواند به یک سلاح تبدیل شود، -
6:29 - 6:30آیا باید آن را بسازم؟
-
6:32 - 6:35من با بازکردن منبع آزمایشگاه
برای تشویق دسترسی و فراگیری، -
6:35 - 6:39من در معرض خطر
قادر کردن دولتهای قدرتمند -
6:39 - 6:42و شرکتهای سودمحور برای متناسب سازی بستر
-
6:42 - 6:46برای اخبار جعلی، بازاریابی
یا اشکال دیگر ترغیب جمعی هستم. -
6:47 - 6:51لذا، برای من بسیار مهم است این تحقیقات
-
6:51 - 6:55برای مخاطبان به اندازه، داشتن برچسب
ارگانسم اصلاح شدهی ژنتیکی شفاف باشد. -
6:55 - 6:58به هر حال، این کافی نیست.
-
6:59 - 7:01به عنوان تکنسینهای خلاق،
-
7:01 - 7:03ما یک مسئولیت داریم
-
7:03 - 7:08نه تنها به این نکته توجه کنیم که چگونه
فناوری موجود، شکل دهنده ارزشهای فرهنگی -
7:08 - 7:10و رفتارهای اجتماعی ما است،
-
7:10 - 7:15بلکه به طور جدی
به چالش کشیدن مسیر تکنولوژی آینده است. -
7:15 - 7:19امیدوارم که ما تعهد اخلاقی داشته باشیم
-
7:19 - 7:21برای جمعآوری هوش بدن
-
7:21 - 7:25برای خلق داستانهای معتبر و عادلانه
-
7:25 - 7:27که رسانه و فناوری را
-
7:27 - 7:31از سلاحهای مضر به داروی روایتگری
دگرگون کند. -
7:31 - 7:32سپاسگزارم.
-
7:32 - 7:34(تشویق حضار)
- Title:
- چگونه میتوانم از دادههای بیولوژیکی برای گفتن داستانهای بهتر -- و ایجاد تغییرات اجتماعی استفاده کنم
- Speaker:
- هایدی بویزورت
- Description:
-
هایدی بویزورت، تکنسین خلاق، میسنجد که چگونه مغز و بدن افراد به طور ناخودآگاه به رسانههای مختلف پاسخ میدهند. او نشان میدهد که چگونه از این دادهها برای تعیین عناصر روایی خاص که از همدلی و عدالت الهام میگیرند و تحولات اجتماعی گسترده ای را ایجاد می کنند، بهره میگیرد.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 07:49