No matter who you are or where you live,
I'm guessing that you have
at least one relative
that likes to forward those emails.
You know the ones I'm talking about --
the ones with dubious claims
or conspiracy videos.
And you've probably
already muted them on Facebook
for sharing social posts like this one.
It's an image of a banana
with a strange red cross
running through the center.
And the text around it is warning people
not to eat fruits that look like this,
suggesting they've been
injected with blood
contaminated with the HIV virus.
And the social share message
above it simply says,
"Please forward to save lives."
Now, fact-checkers have been debunking
this one for years,
but it's one of those rumors
that just won't die.
A zombie rumor.
And, of course, it's entirely false.
It might be tempting to laugh
at an example like this, to say,
"Well, who would believe this, anyway?"
But the reason it's a zombie rumor
is because it taps into people's
deepest fears about their own safety
and that of the people they love.
And if you spend as enough time
as I have looking at misinformation,
you know that this is just
one example of many
that taps into people's deepest
fears and vulnerabilities.
Every day, across the world,
we see scores of new memes on Instagram
encouraging parents
not to vaccinate their children.
We see new videos on YouTube
explaining that climate change is a hoax.
And across all platforms, we see
endless posts designed to demonize others
on the basis of their race,
religion or sexuality.
Welcome to one of the central
challenges of our time.
How can we maintain an internet
with freedom of expression at the core,
while also ensuring that the content
that's being disseminated
doesn't cause irreparable harms
to our democracies, our communities
and to our physical and mental well-being?
Because we live in the information age,
yet the central currency
upon which we all depend -- information --
is no longer deemed entirely trustworthy
and, at times, can appear
downright dangerous.
This is thanks in part to the runaway
growth of social sharing platforms
that allow us to scroll through,
where lies and facts sit side by side,
but with none of the traditional
signals of trustworthiness.
And goodness -- our language around this
is horribly muddled.
People are still obsessed
with the phrase "fake news,"
despite the fact that
it's extraordinarily unhelpful
and used to describe a number of things
that are actually very different:
lies, rumors, hoaxes,
conspiracies, propaganda.
And I really wish
we could stop using a phrase
that's been co-opted by politicians
right around the world,
from the left and the right,
used as a weapon to attack
a free and independent press.
(Applause)
Because we need our professional
news media now more than ever.
And besides, most of this content
doesn't even masquerade as news.
It's memes, videos, social posts.
And most of it is not fake;
it's misleading.
We tend to fixate on what's true or false.
But the biggest concern is actually
the weaponization of context.
Because the most effective disinformation
has always been that
which has a kernel of truth to it.
Let's take this example
from London, from March 2017,
a tweet that circulated widely
in the aftermath of a terrorist incident
on Westminster Bridge.
This is a genuine image, not fake.
The woman who appears in the photograph
was interviewed afterwards,
and she explained that
she was utterly traumatized.
She was on the phone to a loved one,
and she wasn't looking
at the victim out of respect.
But it still was circulated widely
with this Islamophobic framing,
with multiple hashtags,
including: #BanIslam.
Now, if you worked at Twitter,
what would you do?
Would you take that down,
or would you leave it up?
My gut reaction, my emotional reaction,
is to take this down.
I hate the framing of this image.
But freedom of expression
is a human right,
and if we start taking down speech
that makes us feel uncomfortable,
we're in trouble.
And this might look like a clear-cut case,
but, actually, most speech isn't.
These lines are incredibly
difficult to draw.
What's a well-meaning
decision by one person
is outright censorship to the next.
What we now know is that
this account, Texas Lone Star,
was part of a wider Russian
disinformation campaign,
one that has since been taken down.
Would that change your view?
It would mine,
because now it's a case
of a coordinated campaign
to sow discord.
And for those of you who'd like to think
that artificial intelligence
will solve all of our problems,
I think we can agree
that we're a long way away
from AI that's able to make sense
of posts like this.
So I'd like to explain
three interlocking issues
that make this so complex
and then think about some ways
we can consider these challenges.
First, we just don't have
a rational relationship to information,
we have an emotional one.
It's just not true that more facts
will make everything OK,
because the algorithms that determine
what content we see,
well, they're designed to reward
our emotional responses.
And when we're fearful,
oversimplified narratives,
conspiratorial explanations
and language that demonizes others
is far more effective.
And besides, many of these companies,
their business model
is attached to attention,
which means these algorithms
will always be skewed towards emotion.
Second, most of the speech
I'm talking about here is legal.
It would be a different matter
if I was talking about
child sexual abuse imagery
or content that incites violence.
It can be perfectly legal
to post an outright lie.
But people keep talking about taking down
"problematic" or "harmful" content,
but with no clear definition
of what they mean by that,
including Mark Zuckerberg,
who recently called for global
regulation to moderate speech.
And my concern is that
we're seeing governments
right around the world
rolling out hasty policy decisions
that might actually trigger
much more serious consequences
when it comes to our speech.
And even if we could decide
which speech to take up or take down,
we've never had so much speech.
Every second, millions
of pieces of content
are uploaded by people
right around the world
in different languages,
drawing on thousands
of different cultural contexts.
We've simply never had
effective mechanisms
to moderate speech at this scale,
whether powered by humans
or by technology.
And third, these companies --
Google, Twitter, Facebook, WhatsApp --
they're part of a wider
information ecosystem.
We like to lay all the blame
at their feet, but the truth is,
the mass media and elected officials
can also play an equal role
in amplifying rumors and conspiracies
when they want to.
As can we, when we mindlessly forward
divisive or misleading content
without trying.
We're adding to the pollution.
I know we're all looking for an easy fix.
But there just isn't one.
Any solution will have to be rolled out
at a massive scale, internet scale,
and yes, the platforms,
they're used to operating at that level.
But can and should we allow them
to fix these problems?
They're certainly trying.
But most of us would agree that, actually,
we don't want global corporations
to be the guardians of truth
and fairness online.
And I also think the platforms
would agree with that.
And at the moment,
they're marking their own homework.
They like to tell us
that the interventions
they're rolling out are working,
but because they write
their own transparency reports,
there's no way for us to independently
verify what's actually happening.
(Applause)
And let's also be clear
that most of the changes we see
only happen after journalists
undertake an investigation
and find evidence of bias
or content that breaks
their community guidelines.
So yes, these companies have to play
a really important role in this process,
but they can't control it.
So what about governments?
Many people believe
that global regulation is our last hope
in terms of cleaning up
our information ecosystem.
But what I see are lawmakers
who are struggling to keep up to date
with the rapid changes in technology.
And worse, they're working in the dark,
because they don't have access to data
to understand what's happening
on these platforms.
And anyway, which governments
would we trust to do this?
We need a global response,
not a national one.
So the missing link is us.
It's those people who use
these technologies every day.
Can we design a new infrastructure
to support quality information?
Well, I believe we can,
and I've got a few ideas about
what we might be able to actually do.
So firstly, if we're serious
about bringing the public into this,
can we take some inspiration
from Wikipedia?
They've shown us what's possible.
Yes, it's not perfect,
but they've demonstrated
that with the right structures,
with a global outlook
and lots and lots of transparency,
you can build something
that will earn the trust of most people.
Because we have to find a way
to tap into the collective wisdom
and experience of all users.
This is particularly the case
for women, people of color
and underrepresented groups.
Because guess what?
They are experts when it comes
to hate and disinformation,
because they have been the targets
of these campaigns for so long.
And over the years,
they've been raising flags,
and they haven't been listened to.
This has got to change.
So could we build a Wikipedia for trust?
Could we find a way that users
can actually provide insights?
They could offer insights around
difficult content-moderation decisions.
They could provide feedback
when platforms decide
they want to roll out new changes.
Second, people's experiences
with the information is personalized.
My Facebook news feed
is very different to yours.
Your YouTube recommendations
are very different to mine.
That makes it impossible for us
to actually examine
what information people are seeing.
So could we imagine
developing some kind of centralized
open repository for anonymized data,
with privacy and ethical
concerns built in?
Because imagine what we would learn
if we built out a global network
of concerned citizens
who wanted to donate
their social data to science.
Because we actually know very little
about the long-term consequences
of hate and disinformation
on people's attitudes and behaviors.
And what we do know,
most of that has been
carried out in the US,
despite the fact that
this is a global problem.
We need to work on that, too.
And third,
can we find a way to connect the dots?
No one sector, let alone nonprofit,
start-up or government,
is going to solve this.
But there are very smart people
right around the world
working on these challenges,
from newsrooms, civil society,
academia, activist groups.
And you can see some of them here.
Some are building out indicators
of content credibility.
Others are fact-checking,
so that false claims, videos and images
can be down-ranked by the platforms.
A nonprofit I helped
to found, First Draft,
is working with normally competitive
newsrooms around the world
to help them build out investigative,
collaborative programs.
And Danny Hillis, a software architect,
is designing a new system
called The Underlay,
which will be a record
of all public statements of fact
connected to their sources,
so that people and algorithms
can better judge what is credible.
And educators around the world
are testing different techniques
for finding ways to make people
critical of the content they consume.
All of these efforts are wonderful,
but they're working in silos,
and many of them are woefully underfunded.
There are also hundreds
of very smart people
working inside these companies,
but again, these efforts
can feel disjointed,
because they're actually developing
different solutions to the same problems.
How can we find a way
to bring people together
in one physical location
for days or weeks at a time,
so they can actually tackle
these problems together
but from their different perspectives?
So can we do this?
Can we build out a coordinated,
ambitious response,
one that matches the scale
and the complexity of the problem?
I really think we can.
Together, let's rebuild
our information commons.
Thank you.
(Applause)
بغض النظر عن هويتك أو أين تعيش،
أنا أتوقع أنه لديك على الأقل قريب واحد
يفضّل تمرير تلك الرسائل الإلكترونية.
تعرفون نوعية الرسائل التي أقصدها...
رسائل تحتوي على ادعاءات مشكوك فيها
أو فيديوهات المؤامرة.
وغالبًا قد تكون منعتهم
من الظهور على الفيسبوك
لمشاركة منشورات اجتماعية مثل هذه.
إنها صورة لموزة
يتواجد في مركزها صليب أحمر.
والنص حولها يحذر الجميع
بأن لا يأكلوا الفاكهة التي تبدو هكذا،
مدعين أنها محقونة بدم
ملوث بفيروس نقص المناعة المكتسبة.
ورسالة المشاركة الاجتماعية
الموجودة أعلاه تقول:
"رجاءً مرّرها لتنفذ الأرواح".
مدققو الحقائق كانوا يدحضون
هذا الادعاء لسنوات،
إلا أنها واحدة من تلك الإشاعات
التي لا تموت ببساطة.
كإشاعة الزومبي.
وبالطبع، فهي كاذبة تمامًا.
من الممكن أن يكون رد فعلك
الضحك على مثال كهذا وjقول:
"حسنًا، من يصدق هذا بأي حال؟"
ولكن سبب كونها كإشاعة الزومبي
هو أنها تتعامل مع أعمق المخاوف
لدى الأشخاص حول سلامتهم الشخصية
وسلامة أحبائهم.
وإذا أمضيت وقتًا كافيًا كالذي أمضيته
بالنظر في المعلومات الخاطئة،
ستعرف أن هذا مجرد مثال واحد
من أمثلة عديدة
تتلاعب في أعمق مخاوف الأشخاص ونقاط ضعفهم.
كل يوم، حول العالم، نرى أعدادًا مهولة
من الصور ذات التعليقات على الإنستغرام
تشجع الأهل على عدم إعطاء أولادهم
لقاحًا ما.
نرى فيديوهات جديدة على يوتيوب
تشرح أن التغير المناخي عبارة عن خدعة.
وعلى جميع المنصات، نرى منشورات
لا نهاية لها مصممة لتشويه صورة الآخرين
على أساس عرقهم أو دينهم أو جنسهم.
أهلاً بك في أحد التحديات الرئيسية
في عصرنا.
كيف يمكننا الحفاظ على إنترنت
يقوم في جوهره على حرية التعبير،
مع ضمان أن المحتوى الذي يجري نشره
لا يؤدي إلى ضرر دائم
لديمقراطيتنا ومجتمعاتنا
بالإضافة إلى سلامتنا الجسدية والنفسية؟
لأننا نعيش في عصر المعلومات،
إلا أن العنصر الرئيسي
الذي نعتمد عليه جميعًا...المعلومات...
لم تعد تُعتبر جديرة بالثقة بشكل مطلق
ويمكن أن تكون في بعض الأحيان خطيرة.
هذا بفضل منصات المشاركة الاجتماعية
التي انتشرت بشكل كبير
والتي تتيح لنا التصفح فيها،
حيث تتواجد الحقائق
والأكاذيب جنبًا إلى جنب،
ولكن بدون وجود أي من العلامات
التقليدية التي تعطي الثقة.
كما أن لغتنا بشأن هذا الموضوع
مشوشة بشكل كبير.
لا يزال الناس مهووسين
بعبارة "الأخبار الزائفة"،
بالرغم من حقيقة أن هذا الأمر
غير مفيد إطلاقًا
كما أنها تستخدم لوصف
عدة أشياء مختلفة عن بعضها البعض:
أكاذيب، وإشاعات، وخدع،
ومؤامرات، ودعاية التهويل.
وأتمنى فعلًا أن نتوقف عن استعمال تعبيرٍ
تبناه سياسيون في جميع أنحاء العالم،
من اليسار ومن اليمين،
يستخدم كسلاح لمهاجمة الصحافة الحرة
والمستقلة.
(تصفيق)
لأننا نحتاج قنواتنا الإخبارية المحترفة
الآن أكثر من أي وقت مضى.
كما أن معظم هذا المحتوى
لا يوضع في قوالب إخبارية.
فهي صور ذات تعليقات،
وفيديو، ومشاركات اجتماعية.
وأغلبها ليست بأكاذيب، ولكنها محتوى مضلل.
نميل للتركيز على ما هو صحيح وما هو خاطئ.
إلا أن خوفنا الأكبر
هو استخدام سياق الكلام كسلاح.
لأن التضليل الأكثر فعالية
هو الذي يحتوي في جوهره على الحقيقة.
لنأخذ هذا المثال من لندن، في مارس 2017،
تغريدة انتشرت على نطاق واسع
في أعقاب حادث إرهابي وقع على جسر وستمنستر.
هذه صورة حقيقية وليست مفبركة.
تم إجراء مقابلة لاحقًا
مع السيدة التي تظهر في الصورة،
حيث أخبرتنا أنها أصيبت بصدمة كبيرة.
كانت تتحدث مع أحد أفراد أسرتها،
ولم تكن تنظر للضحية من منطلق احترام.
إلا أن الصورة انتشرت على نطاق واسع
في إطار الإسلاموفوبيا،
مرفقة مع وسوم مختلفة
ومنها #امنعواـالإسلام.
تخيل نفسك تعمل لدى تويتر، ماذا ستفعل؟
هل ستترك الصورة لتنتشر،
أم تزيلها من التداول؟
ردة فعلي، ردة فعلي العاطفية،
هي إزالتها.
أكره الإطار الذي وُضعت فيه هذه الصورة.
لكن حرية التعبير حق بشري،
وإذا أزلنا الخطابات
التي لا نشعر بالراحة تجاهها،
فنحن في ورطة.
وربما بدت هذه الحالة واضحة بدون لبس،
ولكن الحقيقة عكس ذلك
في معظم الخطابات.
من الصعب الفصل فيها بوضوح.
ما قد يكون قرارًا واضحًا لشخص ما
يكون رقابة صارخة لشخص آخر.
ما نعرفه أن الحساب "تكساس لون ستار"،
كان جزءًا من حملة كبيرة
للتضليل أعدّتها روسيا،
وقد تمت إزالته من التداول منذ ذاك.
هل سيغير ذلك من نظرتكم؟
سيغير نظرتي،
لأن الوضع الآن أصبح عبارة عن حملة ممنهجة
لزرع الفتنة.
ولمن يظنون
أن الذكاء الاصطناعي سيحل جميع مشاكلكم،
أعتقد أننا جميعنا نتفق أن الطريق
ما زال طويلًا
لكي يتمكن الذكاء الاصطناعي
من تمييز معنى منشور كهذا.
لذا سأذكر ثلاثة مواضيع مترابطة
تجعل هذا الأمر معقدًا للغاية
ثم نناقش بعض الطرق
التي تمكننا من التعامل مع هذه التحديات.
أولاً، نحن لا تربطنا علاقة عقلانية
مع المعلومات،
بل تربطنا علاقة عاطفية.
ليس صحيحًا أن المزيد من الحقائق
سيجعل كل شيء طبيعيًا،
لأن الخوارزميات التي تحدد المحتوى
الذي نشاهده،
مصممة لكي تستجيب مع ردود أفعالنا العاطفية.
وعندما نخشى أمرًا ما،
فإن الروايات المبالغ في تبسيطها
والتفسيرات التآمرية
وخطاب شيطنة الآخرين، تصبح أكثر فاعلية.
كما أن العديد من تلك الشركات،
تقوم سياسات عملها على جذب الاهتمام،
ما يعني أن الخوارزميات تفضل العاطفة أكثر.
ثانيًا، معظم الخطابات
التي أتحدث عنها هنا قانونية.
سيكون الأمر مختلفًا تمامًا
لو ارتبط الأمر بصور اعتداءات جنسية
على الأطفال
أو محتوى يشجع على العنف.
يمكن أن يكون نشر كذبة واضحة
غير مخالف تمامًا للقانون.
إلا أن الناس لا يزالون يتحدثون عن إزالة
المحتوى "الضار" أو "الإشكالي"،
ولكن بدون تعريف واضح لما يعنيه ذلك،
بما فيهم مارك زكربورغ،
الذي طالب بقوانين عالمية لتقنين الخطاب.
وما أخشاه أننا نشاهد حكومات
في جميع أنحاء العالم
تقرّ سياسات مُتعجلة
يمكن أن تؤدي إلى عواقب أكثر خطورة
حين يتعلق الأمر بخطاباتنا.
وحتى إن تمكنا من تحديد
أي الخطابات نزيلها أو نبقي عليها،
فنحن لم نتعامل
مع هذا القدر من الخطابات سابقًا.
هنالك الملايين من المنشورات كل ثانية
يرفعها الناس حول العالم
بلغات مختلفة،
تستمد سياقاتها من آلاف
السياقات الثقافية المختلفة.
نحن ببساطة لم نمتلك سابقًا آلية فعالة
لمراقبة خطابات بهذه الكمية،
سواء آليات قائمة على البشر أو التكنولوجيا.
وثالثاً، هذه الشركات...جوجل،
وتويتر، وفيسبوك، وواتس آب...
هم جزء من نظام معلوماتي أكبر.
ونحن نحب أن نلقي باللوم عليهم،
إلا أن الحقيقة،
أن وسائل الإعلام والمسؤولين المنتخبين
يمكن أن يلعبوا دورًا مساويًا أيضًا
في تضخيم الإشاعات والمؤامرات
عندما يرغبون في ذلك.
نحن نقوم بذلك أيضًا حين نمرّر بلا مبالاة
مواد مضللة أو مسببة للخلاف
دون أي محاولة.
نحن نزيد من التلوث.
أعرف أننا جميعًا نبحث عن حل سهل.
ولكن لا يوجد مثل هذا الأمر.
أي حل ينبغي أن يكون
على نطاق واسع، على نطاق الإنترنت،
والمنصات معتادة على العمل في نطاق كهذا.
ولكن هل بوسعنا تركهم يصلحون هذه المشكلات؟
وهل ينبغي علينا السماح لهم بذلك؟
هم يحاولون بالتأكيد.
إلا أن أغلبنا يتفق في الحقيقة
أننا لا نرغب أن تكون الشركات العالمية
هم حماة الحقيقة والشفافية على الإنترنت.
وأعتقد أن تلك المنصات
ستوافق على ذلك أيضًا.
وهو يقومون حاليًا بتجهيز أنفسهم داخليًا.
هم يرغبون أن يقولوا لنا
أن الإجراءات التي يقومون بتطبيقها
بدأت تعطي ثمارها،
لكن ولأنهم يكتبون
تقارير النزاهة الخاصة بهم،
فلا توجد طريقة لكي نتحقق مما يجري
بشكل مستقل.
(تصفيق)
ولنكن واضحين كذلك،
أغلب التغيرات التي نراها
حدثت بعد إجراء صحفيين لتحقيقات
وعثورهم على أدلة تؤكد عدم الحيادية
أو محتوى يتعارض مع سياسات مجتمعاتهم.
ولذا، نعم، يجب على تلك الشركات
القيام بدور هام جدًا في تلك العملية،
ولكن لا يجب أن يتحكموا بها.
ماذا بشأن الحكومات؟
يعتقد الكثير من الناس
أن القوانين العالمية هي أملنا الأخير
لكي نتمكن من تطهير
نظامنا المعلوماتي المترابط.
إلا أن ما أراه هو أن المشرّعين
هم الذين يعانون لمواكبة
التغيرات المتسارعة في التكنولوجيا.
والأسوأ هو أنهم يعملون دون أي دراية،
لأنه لا توجد لديهم طريقة للوصول للبيانات
لكي يفهموا ما يجري على تلك المنصات.
وعلى أي حال، ما هي الحكومات
التي يمكن أن نثق بها للقيام بذلك؟
نريد فعلًا عالميًا وليس محليًا.
لذا الحلقة المفقودة هي نحن.
الناس الذين يستخدمون تلك التكنولوجيا
كل يوم.
هل يمكننا تصميم بنية تحتية جديدة
لدعم جودة المعلومات؟
حسنًا، أعتقد أنه يمكننا ذلك.
ولدي بعض الأفكار
عما يمكننا القيام به بالفعل.
أولاً، إن كنا جادين حقًا
بشأن إشراك الناس بهذا الأمر،
هل يمكن أن نستلهم من تجربة ويكيبيديا؟
هم أثبتوا أن الأمر ممكن.
أجل، التجربة ليست مثالية،
لكنهم أظهروا
أنه وباستخدام الهياكل الصحيحة،
ورقابة عالمية
ودرجة كبيرة جدًا من الشفافية،
يمكن بناء شيء يحظى بثقة أغلب الناس.
لأنه يتوجب علينا أن نجد طريقة
لكي نستفيد من الحكمة الجماعية
والخبرات التي يمتلكها كل المستخدمين.
وهذا ينطبق بالذات على النساء،
وذوي البشرة غير البيضاء
والمجموعات قليلة التمثيل.
هل تعرفون لماذا؟
لأنهم خبراء حين يتعلق الأمر
بالكراهية والتضليل،
لأنهم شكّلوا أهدافًا لتلك الحملات
منذ زمن بعيد.
ولقد رفعوا الكثير من علامات التحذير
على مر السنين،
ولم يتم الانتباه لأي منها.
يجب أن يتغير هذا الأمر.
فهل يمكننا بناء ويكيبيديا
من أجل الاستيثاق؟
هل يمكننا أن نجد طريقة
ليتمكن المستخدمون من إضافة رؤيتهم؟
يمكن أن يقدموا رؤاهم بخصوص
القرارات الصعبة لمراقبة المحتوى.
يمكنهم تقديم ملاحظاتهم
حين تقرر المنصات
تقديم تغيرات جديدة للمستخدمين.
ثانيًا، تجارب الناس مع المعلومات
لها طابعها الشخصي.
الأخبار التي تظهر لي على فيسبوك
تختلف عن تلك التي تظهر لك.
مفضَلاتك على يوتيوب
تختلف تمامًا عن مفضَلاتي.
وهو ما يعني أنه من المستحيل
أن نتمكن من مراجعة
المعلومات التي يطلع عليها الناس.
هل يمكننا تخيل
تطوير مستودع مركزي
ليكون متاحًا لأخذ البيانات المُجهّلة،
على أن يتضمن حلولًا
لهواجس الخصوصية والأخلاقية؟
تخيلوا ما يمكن أن نعرفه
إن أنشأنا شبكة عالمية من مواطنين مهتمين
يرغبون في التبرع ببياناتهم الاجتماعية
من أجل العِلم.
لأننا في الحقيقة نعلم القليل جدًا
عن الآثار الطويلة المدى
للكراهية والمعلومات المضللة
على سلوك الناس وتصرفاتهم.
وما نعرفه بالفعل،
أنه تم تنفيذ هذا في الولايات المتحدة،
بالرغم من أن هذه مشكلة عالمية.
يجب أن نهتم بهذا الجانب أيضًا.
وثالثًا،
هل يمكننا جمع جهات مختلفة معًا؟
لا يتمكن قطاع واحد أو حكومة
ناهيك عن منظمات غير ربحية،
من حل هذه المشكلة.
لكن يوجد الآن أناس أذكياء
في جميع أنحاء العالم
يعملون على حل هذه التحديات،
من غرف الأخبار، إلى المجتمعات المدنية،
والمجموعات الأكاديمية وكذلك الناشطون.
ويمكنكم أن تروا بعضهم هنا.
البعض منهم ينشئ مؤشرات
للدلالة على مصداقية المحتوى.
ويتأكد آخرون من المعلومات،
حتى تعطى الادعاءات والأفلام
والصور الكاذبة أولوية أقل في تلك المنصات.
توجد منظمة غير ربحية عملتُ على تأسيسها،
تدعى "فورست درافت"،
تعمل مع غرف أخبار متنافسة حول العالم
لمساعدتها في بناء برامج استقصائية تعاونية.
داني هيليس، مهندس برامج كمبيوتر،
يصمم برنامجًا جديدًا يسمى "ذي أندرلاي"،
سيوثّق لجميع الإصدارات العامة من الحقائق
مع ربطها بمصادرها،
لكي تتمكن الخوارزميات والناس
من تحديد ما هو حقيقي على نحو أدق.
كما يوجد مدربون حول العالم
يختبرون طرقًا متعددة
لجعل الناس أكثر حرصًا
عند اختيار المحتوى الذي يشاركونه.
جميعها جهود رائعة
إلا أنها تبقى منفصلة عن بعضها،
وكثير منها يعاني من نقص التمويل.
كما يوجد المئات من الأذكياء
الذين يعملون في تلك الشركات،
ولكن مرة أخرى،
يشعرون أنهم مفككون عن بعضهم،
لأنهم في حقيقة الأمر،
يطورون حلولًا مختلفة لذات المشكلة.
كيف يمكننا أن نجمع هؤلاء معًا
في مكانٍ واحدٍ لمدة أيام وأسابيع،
لكي يتباحثوا في تلك المشاكل معًا
ولكن من وجهات نظر مختلفة؟
هل يمكننا القيام بذلك؟
هل يمكننا صياغة استجابة منسقة وطموحة،
استجابة تتناسب مع تحديات وتعقيدات المشكلة؟
أعتقد بحق أنه يمكننا ذلك.
لنعمل معًا على إعادة بناء
معلوماتنا المشتركة.
شكرًا جزيلًا.
(تصفيق)
No importa quiénes son o dónde viven,
supongo que tienen al menos un pariente
al que le gusta reenviar
esos correos electrónicos.
Ya saben de los que estoy hablando...
los que tienen reclamos dudosos
o videos de conspiración.
Y probablemente
ya los han silenciado en Facebook
por compartir publicaciones sociales
como esta.
Es una imagen de un plátano
con una extraña cruz roja
corriendo por el centro.
Y el texto a su alrededor
advierte a las personas
de no comer frutas que se vean así,
sugiriendo que han sido
inyectadas con sangre
contaminada con el virus del VIH.
Y el mensaje social compartido arriba
simplemente dice:
"Por favor, reenvíe para salvar vidas".
Los verificadores de hechos
han desacreditado esto durante años,
pero es uno de esos rumores
que simplemente no morirán.
Un rumor zombie.
Y, por supuesto, es completamente falso.
Puede ser tentador reírse
de un ejemplo como este, decir:
"Bueno, ¿quién creería esto,
de todos modos?".
Pero es un rumor zombie
porque aprovecha los temores más profundos
de las personas sobre su propia seguridad
y la de las personas que aman.
Y si pasan tanto tiempo como yo
mirando información engañosa,
saben que este es solo
un ejemplo de muchos que se aprovechan
de los temores y vulnerabilidades
más profundos de las personas.
Todos los días, en todo el mundo,
vemos decenas de nuevos memes en Instagram
alentando a los padres
a no vacunar a sus hijos.
Vemos nuevos videos en YouTube que dicen
que el cambio climático es un engaño.
Y en todas las plataformas,
vemos un sinfín de publicaciones diseñadas
para demonizar a los demás.
sobre la base de su raza,
religión o sexualidad.
Bienvenidos a uno de los desafíos
centrales de nuestro tiempo.
¿Cómo mantener un Internet
con libertad de expresión en el núcleo,
a la vez de asegurar
de que el contenido que se difunde
no causa daños irreparables a
nuestras democracias, nuestras comunidades
y a nuestro bienestar físico y mental?
Porque vivimos
en la era de la información,
todavía la moneda central
de la que todos dependemos, información,
ya no se considera totalmente confiable
y, a veces, puede parecer
francamente peligrosa.
Esto se debe en parte
al crecimiento desbocado de
las plataformas de intercambio social.
que nos permiten ir allá
donde mentiras y hechos se sientan juntos,
pero sin ninguna de las señales
tradicionales de confiabilidad.
Y Dios, nuestro lenguaje en torno a esto
está terriblemente confuso.
La gente todavía está obsesionada
con la frase "noticias falsas"
a pesar del hecho de que
es extraordinariamente inútil
y solía describir una serie de cosas
que en realidad son muy diferentes:
mentiras, rumores, engaños,
conspiraciones, propaganda.
Realmente quiero que
podamos dejar de usar una frase
que ha sido cooptada
por políticos de todo el mundo,
de izquierda a derecha
utilizada como arma para atacar
a una prensa libre e independiente.
(Aplausos)
Porque necesitamos nuestros medios
profesionales ahora más que nunca.
Además, la mayor parte de este contenido
ni siquiera se disfraza de noticia.
Son memes, videos, publicaciones sociales.
Y la mayor parte no es falsa; es engañosa.
Tendemos a fijarnos
en lo que es verdadero o falso.
Pero la mayor preocupación es en realidad
la armamentización del contexto.
Porque la desinformación más efectiva
siempre ha sido la que tiene
un núcleo de verdad.
Tomemos este ejemplo de Londres,
de marzo de 2017,
un tuit que circuló ampliamente
tras un incidente terrorista
en el puente de Westminster.
Esta es una imagen genuina, no falsa.
La mujer que aparece en la fotografía
fue entrevistada después,
y explicó que estaba
completamente traumatizada.
Hablaba por teléfono con un ser querido,
y no miraba a la víctima por respeto.
Pero aún circulaba ampliamente
con este marco islamofóbico,
con múltiples etiquetas,
que incluyen: #BanIslam
Ahora, si trabajaran en Twitter,
¿qué harían?
¿Lo quitarían o lo dejarían?
Mi reacción intestinal,
mi reacción emocional, es bajar esto.
Odio el encuadre de esta imagen.
Pero la libertad de expresión
es un derecho humano,
y si comenzamos a hablar mal
de lo que nos hace sentir incómodos,
tenemos un problema.
Y esto podría parecer un caso claro,
pero, en realidad, la mayoría no lo son.
Estas líneas son
increíblemente difíciles de trazar.
Lo qué es una decisión
bien intencionada para uno
es una censura absoluta para la siguiente.
Lo que ahora sabemos es que
esta cuenta, Texas Lone Star,
fue parte de una campaña de
desinformación rusa más amplia,
una que desde entonces ha sido eliminada.
¿Eso cambiaría su punto de vista?
Cambiaría el mío,
porque ahora se trata
de una campaña coordinada
para sembrar discordia.
Y para quienes les gustaría pensar
que la IA resolverá
todos nuestros problemas,
creo que estaremos de acuerdo
que estamos muy lejos
de que la IA pueda dar sentido
a publicaciones como esta.
Así que me gustaría explicar
tres problemas entrelazados
que hacen que esto sea tan complejo
y que luego piensen en formas
para abordar estos desafíos.
Primero, simplemente no tenemos
una relación racional con la información,
Tenemos una emocional.
Simplemente, no es cierto que
más hechos harán que todo esté bien,
porque los algoritmos
que determinan qué contenido vemos
están diseñados para recompensar
nuestras respuestas emocionales.
Y cuando tenemos miedo,
narraciones demasiado simplificadas,
explicaciones conspirativas
y el lenguaje que demoniza a los demás
es mucho más efectivo.
Y además, muchas de estas empresas,
su modelo de negocio
está unido a la atención,
lo que significa que estos algoritmos
estarán sesgados hacia la emoción.
Segundo, la mayor parte del discurso
del que estoy hablando aquí es legal.
Seria un asunto diferente
si hablara de imágenes
de abuso sexual infantil
o contenido que incita a la violencia.
Puede ser perfectamente legal
publicar una mentira absoluta.
Pero la gente sigue hablando de eliminar
contenido "problemático" o "dañino",
pero sin una definición clara
de lo que quieren decir,
incluyendo a Mark Zuckerberg,
quien recientemente pidió una
regulación global para moderar el habla.
Y mi preocupación es que vemos gobiernos
en todo el mundo
implementar decisiones
políticas apresuradas
que podrían desencadenar
consecuencias mucho más graves
cuando se trata de nuestra charla.
E incluso si pudiéramos decidir
qué charla dejar o eliminar.
Nunca hemos tenido tantas charlas.
Cada segundo, se suben
millones de piezas de contenido
de personas de todo el mundo
en diferentes idiomas
aprovechando miles
de diferentes contextos culturales.
Simplemente nunca hemos tenido
mecanismos efectivos
para moderar la libre expresión
a esta escala,
ya sea impulsada por humanos
o por tecnología.
Y en tercer lugar, estas empresas
(Google, Twitter, Facebook, WhatsApp)
son parte de un ecosistema
de información más amplio.
Nos gusta echarles toda la culpa a ellos,
pero la verdad es que los medios
y los funcionarios electos también
pueden desempeñar un papel igual
en amplificar rumores
y conspiraciones cuando quieren.
Como podemos nosotros, al reenviar sin
pensar contenido divisivorio o engañoso
sin estar seguros.
Estamos agregando más a esa contaminación.
Sé que todos estamos buscando
una solución fácil.
Pero simplemente no la hay.
Cualquier solución
tendrá que implementarse
a gran escala, escala de Internet,
y sí, las plataformas, están acostumbradas
a operar a ese nivel.
pero ¿podemos y debemos permitirles
que solucionen estos problemas?
Ciertamente lo están intentando.
Estamos de acuerdo en que
no queremos que sean
las corporaciones globales las guardianas
de la verdad y equidad en línea.
Y también creo que las plataformas
estarían de acuerdo con eso.
Y en este momento,
están marcando su propia tarea.
Les gusta decirnos
que las intervenciones que están
implementando funcionan,
pero como hacen sus propios informes
de transparencia,
no se puede verificar independientemente
lo que realmente está sucediendo.
(Aplausos)
Y seamos claros que la mayoría
de los cambios que vemos
solo suceden después de que
los periodistas inicien una investigación
y encuentren evidencia de sesgo
o contenido que rompe
las pautas de su comunidad.
Sí, estas compañías tienen que jugar de
verdad un papel importante en el proceso,
pero no pueden controlarlo.
¿Y qué hay de los gobiernos?
Muchos creen que la regulación global
es nuestra última esperanza.
en términos de limpieza de
nuestro ecosistema de información.
Pero lo que veo son legisladores
que luchan por mantenerse al día
con los rápidos cambios en la tecnología.
Y peor, trabajan en la oscuridad,
porque no tienen acceso a los datos
para entender lo que está
sucediendo en estas plataformas.
Y de todos modos, ¿en qué gobiernos
confiaríamos para hacer esto?
Necesitamos una respuesta global,
no nacional.
Entonces el eslabón perdido
somos nosotros.
Son esas personas que usan
estas tecnologías todos los días.
¿Podemos diseñar una nueva infraestructura
para soportar información de calidad?
Bueno, creo que podemos
y tengo algunas ideas sobre lo que
realmente podríamos hacer.
En primer lugar, si nos tomamos
en serio atraer al público a esto,
¿podemos inspirarnos en Wikipedia?
Nos han mostrado lo que es posible.
Si, no es perfecto
pero han demostrado que
con las estructuras correctas,
con una perspectiva global
y mucha, mucha transparencia,
puedes construir algo que se ganará
la confianza de las personas.
Tenemos que encontrar una manera
de aprovechar la sabiduría colectiva
y la experiencia de todos los usuarios.
En particular las mujeres,
las personas de color
y los grupos subrepresentados.
¿Porque adivinen qué?
Son expertos en odio y desinformación,
porque han sido los objetivos de estas
campañas durante mucho tiempo.
Y a lo largo de los años,
han levantando banderas,
y no han sido escuchados
Esto tiene que cambiar.
¿Podríamos construir
una Wikipedia para la confianza?
¿Podríamos encontrar una forma en que
los usuarios realmente proporcionen ideas?
Podrían ofrecer ideas sobre decisiones
difíciles de moderación de contenido.
Podrían comentar
cuando las plataformas decidan
implementar nuevos cambios.
Segundo, las experiencias de las personas
con la información son personalizadas.
Mi fuente de noticias de Facebook
es diferente de la de Uds.
Igual sus recomendaciones de YouTube.
Eso hace que sea imposible
para nosotros examinar
qué información está viendo la gente.
Entonces ¿podríamos imaginar desarrollar
algún tipo de repositorio abierto
centralizado para datos anonimos,
con privacidad y
preocupaciones éticas incorporadas?
Porque imaginen lo que aprenderíamos
si construyeramos una red global
de ciudadanos preocupados
que quisieran donar
sus datos sociales a la ciencia.
Porque sabemos muy poco
sobre las consecuencias a largo plazo
del odio y la desinformación
sobre las actitudes
y comportamientos de las personas.
Y lo que sabemos,
la mayoría se ha llevado a cabo en EE. UU.
a pesar del hecho de que
es un problema global.
Necesitamos trabajar en eso también.
Y tercero,
¿podemos encontrar una manera
de conectar los puntos?
Ningún sector, y mucho menos
sin fines de lucro, start-up o gobierno,
va a resolver esto
Pero hay personas
muy inteligentes en todo el mundo.
trabajando en estos desafíos,
de redacciones, sociedad civil,
academia, grupos activistas.
Pueden ver algunos aquí.
Unos construyen
indicadores de credibilidad de contenido.
Otros verifican hechos,
para que las plataformas
puedan clasificar noticias falsas,
videos e imágenes
Una organización
sin fines de lucro, First Draft,
trabaja con redacciones normalmente
competitivas del mundo
para ayudarlos a desarrollar programas
de investigación y colaboración.
Danny Hillis, un arquitecto de software,
está diseñando un nuevo sistema
llamado The Underlay,
un registro de todas
las declaraciones públicas de hechos
conectado a sus fuentes,
para que las personas y los algoritmos
puedan juzgar mejor lo que es creíble.
Y los educadores de todo el mundo
están probando diferentes técnicas.
para encontrar formas de hacer que la
gente critique el contenido que consume.
Todos estos esfuerzos son maravillosos,
pero están trabajando en silos,
y muchos de ellos
no tienen fondos suficientes.
También hay cientos
de personas muy inteligentes.
trabajando en esas empresas,
pero de nuevo, esos esfuerzos
pueden sentirse desarticulados,
porque están desarrollando diferentes
soluciones a los mismos problemas.
¿Cómo encontrar
una manera de unir a las personas
en una ubicación física
por días o semanas,
para que puedan abordar
estos problemas juntos,
pero desde sus diferentes perspectivas?
¿Podemos hacer eso?
¿Podemos construir
una respuesta coordinada y ambiciosa,
una que coincida con la escala
y la complejidad del problema?
Realmente creo que podemos.
Juntos, reconstruyamos nuestros
bienes comunes de información.
Gracias.
(Aplausos)
مهم نیست چه کسی هستید
و یا کجا زندگی میکنید،
حدس میزنم شما هم
حداقل یک دوست یا آشنایی دارید که
دوست دارد چنین پیامهایی را
برای شما ارسال کند.
میدانید کدام پیامها را میگویم،
پیامهایی که شامل ادعاهای مشکوک
و فیلمهای توطئه آمیز هستند.
و احتمالاً به خاطرِ
به اشتراک گذاشتن چنین مطالبی،
آنها را در فیسبوکتان بی صدا کردهاید.
این تصویر یک موز است
که از وسط آن،
صلیب قرمز عجیبی گذشته است.
و متنی در بالای آن،
که به مردم هشدار میدهد
هرگز میوههایی مانند این را نخورند،
چراکه آنها را با خونی آلوده کردهاند،
که حاوی ویروس اچآیوی است.
و پیام نوشته شده در بالای آن
تأکید زیادی دارد که،
«برای نجات انسانها،
پیام را به اشتراک بگذارید.»
با اینکه محققان سالهاست
شایعه بودن این خبر را تائید کردهاند،
اما این یکی از آن شایعاتی است که
هرگز از بین نمیرود.
یک شایعهی زامبی!
و مطمئن هستیم که کاملاً اشتباه است.
ممکن است به چنین مثالی بخندید، و بگویید،
«به هر حال چه کسی این را باور میکند؟»
اما دلیل برگشتن دوباره این شایعه،
این است که
عمیقترین ترسهای انسانها را
در مورد سلامتی خودشان و عزیزانشان،
مورد هدف قرار میدهد.
و اگر به اندازهی من، زمانتان را
صرف بررسی اطلاعات جعلی کرده باشید،
میفهمید که این تنها
یک نمونه از بیشمار خبری است که
به ترسها و آسیبپذیریهای
عمیق مردم حمله میکند.
هر روزه در سراسر جهان،
شاهد جوکهای زیادی در اینستاگرام هستیم،
که والدین را تشویق میکند
به کودکانشان واکسن نزنند.
فیلمهای زیادی در یوتیوب توضیح میدهند که
چرا گرمایش زمین برای گول زدن ماست،
و در همهی شبکههای اجتماعی،
مطالب بیشماری میبینیم که ساختهشدهاند،
تا بر اساس نژاد، مذهب یا جنسیت،
دیگران را قضاوت و سرزنش کنند.
به یکی از اساسیترین
چالشهای عصر ما خوش آمدید.
چگونه میتوانیم اینترنتی بسازیم که
در بطن آن، آزادی بیان وجود داشته باشد،
اما مطمئن باشیم مطالبی که
در آن منتشر میشوند،
به دموکراسی، اقلیتها
و سلامت جسم و روانمان،
آسیبهای جبرانناپذیری نمیزنند؟
از آنجا که ما در عصر اطلاعات
زندگی میکنیم،
ارز رایجی هست که همه
به آن وابستهایم -یعنی اطلاعات-
اما دیگر، کاملاً قابل اعتماد
به نظر نمیرسد
و در مواقعی میتواند بسیار خطرناک عمل کند.
علت آن رشد غیرقابلکنترلِ
پلتفرمهای اجتماعی متعددی است که
به ما اجازه میدهند در میانِ
خبرهایی بگردیم که
حقیقت و دروغ در آنها مخلوط شدهاند،
اما هیچ یک از نشانههای مرسوم
اعتمادپذیری وجود ندارد.
و شکر خدا، اصطلاحاتمان هم در این زمینه
به طرز وحشتناکی بههمریخته است.
مردم هنوز به عبارت
«اخبار جعلی» توجه نشان میدهند،
با اینکه در اکثر مواقع هیچ کمکی نمیکند،
و برای توصیف چیزهای
بسیار متفاوتی استفاده میشود:
دروغ، شایعه، فریب، توطئه، پروپاگاندا.
و من آرزو میکنم که بتوانیم
استفاده از این عبارت را متوقف کنیم.
عبارتی که سیاستمداران همه احزاب
در سراسر دنیا
توافق کردهاند که از آن
برای حمله به رسانههای آزاد
و مستقل استفاده کنند.
(تشویق حضار)
چراکه ما بیش از هر زمان دیگری
به رسانههای خبری حرفهای نیاز داریم.
و علاوه بر آن، بیشتر این محتوا
حتی شبیه به اخبار هم نیست،
بلکه کمیک، ویدیو و پستهای اجتماعی است.
و بیشتر آنها کاملاً جعلی نیست؛
بلکه تنها گمراهکننده است.
ما سعی داریم ثابت کنیم
چه چیزی درست یا غلط است.
اما در واقع بزرگترین نگرانی،
تبدیل این مسئله به یک سلاح است.
چراکه مؤثرترین نمونههای شایعات،
همواره مواردی بودهاند که
در پوستهای از حقیقت قرار داشتهاند.
بیایید این مثال از ماه مارس سال ۲۰۱۷،
در لندن را ببینیم:
یک توییت، که بسیار هم دیده شد،
بعد از یک واقعهی تروریستی
بر روی پل «وستمینیستر».
این یک عکس واقعی است، و نه تقلبی.
زنی در این عکس دیده میشود،
که بعداً با او مصاحبه شد،
و توضیح داد که در زمان حادثه
کاملاً شوکه شده بود.
او در حال صحبت کردن
با یکی از عزیزانش بوده،
و به منظور حفظ احترام،
به قربانی نگاه نمیکرد.
اما این عکس، همچنان با نگاهی
اسلامستیزانِ در حال پخش شدن بود.
با چندین هشتک مانند #BanIslam.
خب اگر شما در توییتر کار میکردید
چه کار میکردید؟
آن را حذف میکردید؟
یا همینطور که هست رهایش میکردید؟
واکنش لحظهای و احساسی من
این است که آن را حذف کنم.
من طرز نگاه این تصویر را، نمیپسندم.
اما آزادی بیان یک حق انسانی است.
و اگر ما شروع کنیم به حذف کردنِ
هر سخنی که برایمان ناخوشایند است،
به مشکل برمیخوریم.
و در این نمونه، ممکن است
تصمیم واضح به نظر برسد،
اما، بیشتر موارد اینطور نیستند.
مشخص کردن مرزها کار بسیار سختی است.
تصمیم درست از نظر یک نفر،
ممکن است از نظر فرد دیگری
سانسور مطلق باشد.
چیزی که الآن میدانیم، این است که،
این کاربر «Texas Lone Star»
بخشی از یک کمپین بزرگ روسی
برای انتشار اطلاعات نادرست بوده،
که از آن زمان با آن مقابله شده است.
آیا این نظرتان را عوض میکند؟
نظر من را که عوض میکند،
زیرا حالا با یک کمپینِ
سازمانیافته طرف هستیم،
که هدفش ایجاد دعوا است.
و برای بعضی از شما،
که دوست دارید فکر کنید
که هوش مصنوعی
همه مشکلات را حل خواهد کرد،
فکر میکنم با هم توافق داریم که
تا سطحی از هوش مصنوعی
که قادر باشد چنین پستهایی را
تشخیص دهد، فاصلهی زیادی داریم.
من قصد دارم ۳ مشکل مرتبط را شرح دهم،
که این کار را بسیار پیچیده میکنند.
و سپس راهحلهایی برای فکر کردن
در مورد این مشکلات پیشنهاد دهم.
اول از همه، ما تنها
رابطهی منطقی با اطلاعات نداریم،
این یک ارتباط احساسی است.
مشاهده حقایق بیشتر، مشکل را حل نمیکند،
زیرا الگوریتمهایی که محتوایی را
که میبینیم، انتخاب میکنند،
طوری طراحی شدهاند که
به پاسخهای احساسی ما جایزه بدهند.
و زمانی که ما ترسیده باشیم،
روایتهای سادهشده، توضیحات توطئه آمیز،
و متهم کردن دیگران
بسیار مؤثرتر عمل میکنند.
علاوه بر آن، بسیاری از این کمپانیها،
حیاتی وابسته به توجه دارند.
و به این معناست که این الگوریتمها،
همواره به سمت احساسات متمایل خواهند بود.
دوم، بیشترِ مطالبی که من در موردشان
صحبت میکنم، موارد قانونی هستند.
اگر در موردِ مطالبی حرف میزدم که
مربوط به سوءاستفادهی جنسی از کودکان
یا ترویج کنندهی خشونت هستند،
اوضاع بسیار فرق میکرد.
اما انتشار دروغی آشکار، کاملاً قانونی است.
مردم همواره از حذف کردنِ
مطالب مشکلساز و آسیبزا صحبت میکنند،
اما تعریف دقیق و مشخصی
از آن ارائه نمیدهند،
ازجمله «مارک زاکربرگ»
که اخیراً خواستار وضع مقررات جهانی
برای تعدیل صحبتها شد.
و نگرانی من این است که میبینیم دولتها
در همه جای جهان
عجولانه در حال گرفتن تصمیمهایی هستند که
ممکن است تبعاتی بسیار جدی
در پی داشته باشد
بهخصوص اکنونکه موضوع،
صحبت کردن ماست.
و اگر میتوانستیم تصمیم بگیریم کدام سخن را
نگهداریم و کدامیک را حذف کنیم،
هرگز این حجم از مطالب را نداشتیم.
در هر ثانیه میلیونها عکس و متن
توسط افراد مختلف در جهان آپلود میشود
به زبانهای متفاوت،
و با هزاران زمینه فرهنگی متفاوت.
ما هرگز روش مناسبی
برای تعدیل کردن این حجم از صحبتها را
چه به وسیله انسان و
چه کامپیوتر، نداشتهایم.
و سوم، این کمپانیها
مانند گوگل، توییتر، فیسبوک و واتساپ
بخشی از اکوسیستم اطلاعاتی بزرگتری هستند.
ما علاقه داریم همهی تقصیرها را
گردن آنها بیندازیم،
اما در حقیقت رسانههای جمعی
و مقامات رسمی هنگامیکه بخواهند،
میتوانند نقشی به همان مقدار
در تشدید شایعات و توطئهها داشته باشند.
همانقدرهم، ما میتوانیم بدون هیچ تلاشی،
با بازپخش کردن چشمبسته مطالب گمراهکننده
نقش داشته باشیم.
ما هم داریم این آلودگی را اضافه میکنیم.
همهی ما به دنبال یک راهحل ساده هستیم.
اما چنین راهی وجود ندارد.
هر راهحلی لازم است در مقیاس بزرگی
بهاندازهی اینترنت اعمال شود.
و بله، پلتفرمها در این سطح عمل میکنند.
اما آیا میتوانیم و خوب است که
به آنها اجازه حل این مشکل را بدهیم؟
آنها در حال تلاش هستند.
اما بیشتر ما، مایل نیستیم
این شرکتهای بینالمللی
محافظان حقیقت و عدالت
در فضای آنلاین باشند.
و فکر میکنم خود این پلتفرمها هم
با من همنظر باشند.
هماکنون آنها در حالِ
نمره دادن به تکالیف خودشان هستند.
آنها دوست دارند بگویند که
مداخلههایشان تابهحال جواب داده است،
اما از آنجا که آنها
گزارش شفافیت خودشان را میدهند،
راهی نیست که ما مستقیماً بفهمیم
واقعاً چه اتفاقی در حال افتادن است.
(تشویق حضار)
و بگذارید این را هم صراحتاً بگویم
بیشتر تغییراتی که میبینیم،
زمانی اتفاق میافتند که
روزنامهنگاران دست به تحقیقات میزنند
و مدارکی نشاندهنده جانبداری
یا محتوای ناقض قواعد اجتماعی پیدا میکنند.
بله، این کمپانیها باید نقش مهمی
در این جریان داشته باشند،
اما نمیتوانند آن را کنترل کنند.
در مورد دولتها چطور؟
بسیاری از مردم فکر میکنند
که مقررات جهانی،
بهمنظور تمیز کردن فضای اطلاعاتی،
آخرین امید ما باشند.
اما قانونگذارانی که من میبینم،
قادر نیستند پابهپای تغییراتِ
سریع تکنولوژی حرکت کنند.
و بدتر اینکه آنها در تاریکی حرکت میکنند.
چراکه دسترسی کافی به دادهها ندارند
که بفهمند در این پلتفرمها
دقیقاً چه اتفاقی میافتند.
و از طرفی، ما به کدام دولت اعتماد میکنیم
که چنین کاری را انجام دهد؟
ما به یک پاسخ بینالمللی نیاز داریم،
نه یک پاسخ ملی.
پس حلقه گم شده خود ما هستیم.
ما مردمی که روزانه
از این تکنولوژیها استفاده میکنیم.
آیا میتوانیم زیرساخت تازهای بنا کنیم
که از کیفیت اطلاعات حمایت کند؟
من باور دارم که میتوانیم،
و چند ایده دارم که در عمل
چهکاری میتوانیم انجام دهیم.
اول از همه، اگر ما قصد داریم
مردم را در این کار داخل کنیم،
آیا میتوانیم از ویکیپدیا انگیزه بگیریم؟
آنها نشان دادند که چهکاری ممکن است.
بله، این کار بینقص نیست،
اما آنها نشان دادهاند با زیرساخت مناسب،
با چشماندازی جهانی،
و شفافیتی فوقالعاده،
میتوان چیزی ساخت که
اعتماد اکثر مردم را جلب کند.
زیرا ما باید راهی برای
کمک گرفتن از خِردِ جمعی
و تجربیات همهی کاربران پیدا کنیم.
بهخصوص از طریق زنان، رنگینپوستان
و گروههایی که در اقلیت هستند.
حدس میزنید چرا؟
چون این افراد متخصص اطلاعات نادرست
و نفرت پراکنی هستند،
چراکه سالهاست هدفِ
چنین کمپینهایی بودهاند.
و در طی سالها پرچمدارِ
این مبارزات بودهاند،
و به آنها گوش داده نشده است.
این باید تغییر کند.
آیا میتوانیم یک ویکیپدیا
از افراد مورد اعتماد بسازیم؟
آیا میتوانیم راهی پیدا کنیم که کاربران
در مورد تصمیمگیریهای دشوار
برای تعدیل محتوا نظر بدهند.
اگر پلتفرمی تصمیم بگیرد که
تغییرات جدیدی اعمال کند،
آنها میتوانند بازخورد بدهند.
دوم آنکه تجربه افراد از اطلاعات،
شخصیسازی شده است.
خبرهای فیسبوک من با شما بسیار تفاوت دارد.
پیشنهادهای یوتیوب شما با من متفاوت است.
بنابراین عملاً غیرممکن است بررسی کنیم که
چه کسی چه اطلاعاتی را مشاهده میکند.
پس آیا میتوانید تصور کنید
یک مجموعه متمرکز
و منبع باز از دادههای ناشناس
با رعایت محرمانگی
و حساسیتهای اخلاقی جمعآوری کنیم؟
فکر کنید چه چیزهایی میتوانیم بفهمیم،
اگر یک شبکهی جهانی،
از شهروندان نگرانی بسازیم که
دوست دارند دادههای
شبکههای اجتماعیشان را وقف علم کنند.
چراکه ما واقعاً خیلی کم
در مورد آثار درازمدتِ
نفرت پراکنی و اطلاعات اشتباه
روی دیدگاهها و رفتارهای مردم، میدانیم.
و آنچه میدانیم نیز،
عمدتاً در ایالاتمتحده بررسی شده است،
بدون توجه به اینکه
این یک مشکل جهانی است.
لازم است روی این مشکل هم کار کنیم.
و سوم،
راهی هست که نهادهای مختلف
را به هم متصل کنیم؟
هیچ نهادی، اعم از غیرانتفاعی،
استارتآپ و یا دولت،
این مشکل را حل نخواهد کرد.
اما افراد بسیار باهوشی سرتاسر جهان،
روی این مشکلات کار میکنند،
از خبرنگاران، جوامع مدنی،
دانشگاهیان و اکتیویستها
که تصویر تعدادی از آنها را
مشاهده میکنید.
بعضی از آنها در حال ایجاد
شاخصهای اعتبار محتوا هستند.
برخی در حال چک کردن حقایق،
تا ادعاها، تصاویر و فیلمهای نادرست
توسط پلتفرمها محدود شوند.
نهاد غیرانتفاعی به نام «فرست درفت»
که در تأسیس آن کمک کردم،
سعی میکند با کمک
خبرگزاریهای مختلف سراسر جهان،
برنامههای تحقیقاتی مشترکی راهاندازی کند.
و «دنی هیلیس»، یک معمار نرمافزار،
در حال طراحی یک سیستم جدید
به نام «آندرلی» است،
که یک بانک اطلاعاتی،
برای اظهارات عمومی از حقایق
و اتصال آنها به منبعشان خواهد بود.
تا انسانها و الگوریتمها بهتر بتوانند
موارد معتبر را تشخیص دهند.
و معلمانی از کشورهای مختلف
روشهای مختلفی را آزمایش میکنند،
تا به مردم یاد دهند نگاهی انتقادی
به مطالبی که مصرف میکنند داشته باشند.
همه این تلاشها عالیاند، اما هر کدام
به دور از سایرین انجام میشود،
و بسیاری از آنها کسری بودجه
قابلتوجهی دارند.
همچنین صدها انسان بسیار باهوش
در این کمپانیها کار میکنند،
اما باز هم، این تلاشها ممکن است
ایزوله احساس شوند،
زیرا به دنبال راهحلهای مختلفی
برای یک مشکل یکسان هستند.
چگونه میتوانیم راهی بیابیم که این افراد
برای چند روز یا چند هفته
در مکانی دور هم جمع شوند،
تا بتوانند به کمک یکدیگر
با این مشکل مقابله کنند
اما هر یک از دیدگاه خودشان؟
آیا از عهده این کار برمیآییم؟
میتوانیم یک پاسخ بلندپروازانِ همگانی،
متناسب برای مسئلهای
با این ابعاد و پیچیدگی پیدا کنیم؟
من فکر میکنم، بله.
بیایید با کمک همدیگر،
فضای اطلاعاتیمان را بازسازی کنیم.
متشکرم.
(تشویق حضار)
Peu importe qui vous êtes
ou où vous habitez,
je suis convaincue que vous avez
au moins un parent
qui adore transférer ces courriels.
Vous savez de quoi je parle,
ceux avec des affirmations douteuses
ou des vidéos de conspiration.
Vous les avez sans doute bloqués
sur Facebook
parce qu'ils partagent ce genre de posts.
C'est l'illustration d'une banane
avec une étrange croix rouge
en son cœur.
Le message avertit le lecteur
d'éviter de manger un fruit pareil
car on y aurait injecté du sang
contaminé par le virus du VIH.
L'intitulé du message est simplement :
« Transférez pour sauver des vies ! »
Les vérificateurs de faits tentent
de le désamorcer depuis des années
mais c'est le genre de rumeurs
qui ne veulent pas s'éteindre.
Une rumeur zombie.
Naturellement, totalement fausse.
Cela pourrait être risible
et on pourrait se demander
qui va bien pouvoir croire ça.
C'est précisément une rumeur zombie
car elle se nourrit des peurs les plus
profondes des gens quant à leur sécurité
et celles des personnes
qui leur sont chères.
Quand on passe autant de temps
que moi à étudier la désinformation,
on comprend vite qu'il s'agit d'un exemple
parmi tant d'autres
qui fait appel aux craintes
et vulnérabilités des gens.
Tous les jours, partout dans le monde,
des nouveaux mèmes sur Instagram
encouragent les parents
à ne pas vacciner leurs enfants,
des vidéos sur YouTube expliquent
que le changement climatique est un hoax.
Sur toutes les plateformes, un nombre
infini de messages diabolisent l'autre
sur base de leur race, de leur religion
ou de leur orientation sexuelle.
Bienvenue au cœur d'un des plus
grands défis de notre temps.
Comment perpétuer un Internet
fondé sur la liberté d'expression
tout en garantissant que le contenu
qui y est propagé
ne cause pas de préjudice irréversible
à nos démocraties, à nos communautés
et à notre bien-être physique et mental ?
Nous vivons en effet
dans l'ère de l'information
et pourtant notre devise principale,
celle dont on dépend tous, l'information,
n'est plus considérée totalement fiable
et semble parfois même
franchement dangereuse.
C'est partiellement dû à la croissance
monstrueuse des plateformes sociales
qui nous permettent de parcourir
contenus mensongers et des faits
l'un à côté de l'autre
mais sans les signaux traditionnels
de véracité.
Et bon dieu, notre langage à ce sujet
est affreusement confus.
On est encore obsédé
par le terme « intox »,
même s'il est particulièrement obscur
et utilisé pour décrire
des phénomènes très différents :
mensonges, rumeurs, hoax,
conspirations et propagande.
Je souhaite tant qu'on cesse
d'utiliser cette expression
adoptée par les politiciens
partout dans le monde,
de gauche comme de droite,
et brandie comme une arme
contre une presse libre et indépendante.
(Applaudissements)
Car un journalisme professionnel
est plus que jamais indispensable.
De plus, la plupart de ces contenus
ne se déguisent même pas en info.
Ce sont des mèmes, des vidéos
et des posts sociaux.
La plupart ne sont pas faux,
ils sont trompeurs.
On a tendance à se concentrer
sur ce qui est vrai ou faux.
Toutefois, la préoccupation principale
est le détournement abusif du contexte.
Car la désinformation la plus efficace
contient toujours une part de vérité.
Prenons l'exemple de Londres.
Un tweet circule largement
depuis mars 2017,
juste après l'attentat terroriste
sur le pont de Westminster.
Cette photo est vraie,
ce n'est pas un montage.
On a interviewé la femme
qui apparaît sur la photo par la suite
et elle a expliqué qu'elle était
tétanisée de peur.
Elle parlait à une personne chère
et détournait le regard
de la victime par respect.
Mais la photo a circulé largement
avec un titre islamophobe
et de multiples hashtags dont : #BanIslam.
Si vous étiez employé par Twitter,
comment réagiriez-vous ?
Vous le supprimeriez ou le laisseriez ?
Ma réaction viscérale et émotionnelle
serait de le supprimer.
Je déteste le choix de l'angle.
Mais la liberté d'expression
est un droit de l'homme.
Et si on commence à censurer
les propos qui nous mettent mal à l'aise,
c'est le début des problèmes.
Ce cas semble évident
mais la plupart ne le sont pas.
La ligne de démarcation est floue.
Qu'est-ce qui sépare
une décision bien intentionnée
de la censure ?
Nous savons à présent
que ce compte, Texas Lone Star,
faisait partie d'une campagne
russe de désinformation
qui a été démantelée depuis lors.
Cela change-t-il votre opinion ?
Ça influencerait la mienne
car il s'agit d'une campagne orchestrée
pour semer la zizanie.
Et pour ceux et celles qui pensent
que l'intelligence artificielle
va résoudre tous nos problèmes,
Nous sommes tous d'accord pour dire
que le temps où l'IA pourra comprendre ça
n'est pas encore venu.
Je vais d'abord vous présenter
trois enjeux entrelacés
qui rendent tout ça si compliqué.
Ensuite, je vous proposerai quelques
manières de réfléchir à ces défis.
D'abord, notre relation à l'information
n'est pas rationnelle,
elle est émotionnelle.
Il n'est pas vrai que davantage de faits
vont amender les choses
car les algorithmes déterminent
ce que nous voyons,
ils sont conçus pour récompenser
nos réactions émotionnelles.
Or, quand on a peur,
les narrations simplifiées à outrance,
les théories de conspiration
et les termes qui diabolisent l'autre
sont encore plus efficaces.
De surcroît, le modèle
de fonctionnement de ces plateformes
est basé sur l'attention.
Ça signifie que leurs algorithmes
sont conçus pour favoriser l'émotion.
Ensuite, la plupart des discours
que j'évoque sont légaux.
La situation serait différente
si on parlait d'images de pédophilie
ou de contenu incitant à la violence.
Il est parfaitement légal
de poster un mensonge patent.
Toutefois, on continue de censurer
les contenus problématiques ou nuisibles
sans définition claire
de ce que ça signifie.
Mark Zuckerberg n'y échappe pas
quand il plaide en faveur d'une
réglementation mondiale des discours.
Je crains que les gouvernements
partout dans le monde
mettent en place
des décisions politiques précipitées
qui pourraient en réalité générer
des conséquences bien plus graves
en matière d'expression.
Même si nous pouvions décider
quels contenus conserver ou éliminer,
nous n'avons jamais eu tant de contenus.
Chaque seconde, des millions de contenus
sont téléchargés partout dans le monde,
dans des langues différentes
et basés sur des contextes
culturels multiples.
Nous n'avons aucun mécanisme efficace
pour modérer les discours à cette échelle,
que ce soit avec des humains
ou de la technologie.
Troisièmement, ces sociétés,
Google, Twitter, Facebook, WhatsApp,
font part d'un écosystème
d'information plus vaste.
On a tendance à leur faire
porter le blâme mais en fait,
les médias et les représentants politiques
peuvent jouer un rôle aussi important
pour amplifier les rumeurs
et les conspirations qui les arrangent.
Nous aussi, nous sommes susceptibles
de diffuser du contenu trompeur
sans le vouloir.
On accentue la pollution.
Nous cherchons tous un remède miracle.
Mais ça n'existe pas.
Toute solution devra être mise en place
à une échelle massive, celle d'Internet,
et les plateformes en fait,
sont habituées à cette échelle.
Mais pouvons-nous et devrions-nous
les autoriser à gérer ces problèmes ?
Certes, elles essaient.
Nous sommes presque tous d'accord de
ne pas souhaiter voir des multinationales
devenir les gardiens de la vérité
et de l'équité sur Internet.
Les plateformes seront
d'accord aussi, je crois.
Actuellement, elles sont en train
de s'accorder des bons points.
Elles nous disent
que leurs interventions sont efficaces.
Mais elles rédigent elles-mêmes
leurs rapports sur leur transparence.
Il n'y a donc aucun moyen indépendant
pour vérifier les faits.
(Applaudissements)
Pour être franche, la plupart
des changements que nous observons
ont lieu après une enquête journalistique
et la mise à nu de preuves de biais
ou de contenus qui enfreignent
les règles de fonctionnement.
Bien sûr, ces entreprises doivent jouer
un rôle crucial dans le processus
mais elles ne peuvent pas le contrôler.
Qu'en est-il alors des gouvernements ?
Beaucoup fondent leur dernier espoir
dans une réglementation mondiale
pour rendre notre écosystème propre.
Mais les politiciens
peinent à rester à jour
avec la vélocité
de l'évolution technologique.
Pire, ils travaillent dans le noir
car ils n'ont pas accès aux données
pour comprendre ce qu'il se passe
sur ces plateformes.
Et puis, en quel gouvernement
pourrions-nous faire confiance ?
La réaction doit être mondiale
et pas au niveau national.
Le maillon manquant, c'est nous.
Nous, femmes et hommes qui
utilisons ces technologies tous les jours.
Saurons-nous concevoir
une nouvelle infrastructure
pour véhiculer
une information de qualité ?
Je pense que oui.
J'ai quelques idées pour y arriver.
D'abord, si nous sommes
déterminés à engager le public,
Wikipedia pourrait
être une source d'inspiration.
Ils ont montré que c'est faisable.
Ce n'est pas parfait
mais ils ont démontré
qu'avec les structures adéquates,
une vision mondiale
et une transparence totale,
on peut construire quelque chose
qui gagnera la confiance du public.
Nous devons trouver un moyen
de puiser dans la sagesse collective
et l'expérience de tous les utilisateurs,
particulièrement les femmes,
les personnes de couleur
et les minorités.
Pourquoi ?
Parce qu'ils sont spécialisés
dans la haine et la désinformation
dès lors qu'ils sont la cible
de ces campagnes depuis si longtemps.
Cela fait des années
qu'ils sonnent l'alarme
mais personne ne les écoute.
Cela doit changer.
Est-il possible de construire
un Wikipedia de la confiance ?
Comment les utilisateurs pourraient-ils
nous nourrir de leurs idées ?
Des idées au sujet des décisions complexes
de la modération de contenu.
Un retour quand les plateformes décident
de mettre en œuvre des changements.
Ensuite, l'expérience que les gens ont
de l'information est personnalisée.
Mon fil de Facebook
est différent du vôtre.
Vos recommandations Youtube
sont différentes des miennes.
Ceci rend impossible
l'analyse en profondeur
des informations vues par les gens.
On pourrait imaginer
de créer une sorte de répertoire ouvert
pour les données anonymisées
qui prenne en considération
vie privée et éthique.
Imaginez le potentiel de compréhension
issu de la création d'un réseau mondial
de citoyens engagés
qui souhaitent faire don
de leurs données sociales à la science.
Nous ignorons en effet
les conséquences à long terme
de la haine et de la désinformation
sur l'état d'esprit et les comportements.
Et ce que nous en savons
provient d'études
réalisées aux États-Unis,
alors que le problème est mondial.
Nous devons aussi remédier à ça.
Troisièmement,
comment relier toutes les parties ?
Aucun secteur seul, encore moins une ONG,
une start-up ou un gouvernement
ne pourra résoudre ça.
Mais de nombreuses personnes
intelligentes dans le monde
s'attaquent à ces défis
dans les salles de rédaction,
la société civile, le monde académique,
les communautés activistes.
En voici quelques-uns.
Certains élaborent des indicateurs
de crédibilité des contenus.
D'autres vérifient les faits
pour dégrader le taux de référencement
des allégations, vidéos et images fausses.
J'ai participé à la création
d'une ONG, First Draft,
qui collabore avec des salles
de rédaction dans le monde
pour les aider à élaborer des programmes
collaboratifs d'investigation.
Dennis Hillis, un programmateur,
conçoit un nouveau système appelé
The Underlay,
qui sera l'archive de toutes
les déclarations publiques de faits
reliées à leurs sources
afin que le public et les algorithmes
puissent mieux évaluer
ce qui est crédible.
Des éducateurs dans le monde
testent diverses techniques
pour aiguiser l'esprit critique des gens
par rapport aux contenus.
Tous ces efforts sont impressionnants
mais ils sont dans des silos
et la plupart sont lamentablement
sous-financés.
Des centaines de personnes brillantes
travaillent dans ces entreprises
mais à nouveau, leurs efforts
ne sont pas consolidés
car ils développent des solutions
différentes aux mêmes problèmes.
Comment associer ces personnes
dans un seul lieu physique,
pendant quelques jours ou semaines,
pour leur permettre de réfléchir
ensemble à ces problèmes
mais avec leur propre perspective ?
Est-ce possible ?
Est-il possible de créer une réponse
ambitieuse et coordonnée,
à la hauteur de l'échelle
et de la complexité de ce problème ?
J'en suis convaincue.
Ensemble, reconstruisons
nos fondations communes de l'information.
Merci.
(Applaudissements)
આ બાબતે કશુ લાગુ પડતુ નથી કે. તમે કોણ છો અથવા તમે કયા થી આવો છો
હું ધારું છું કે તમારે ત્યાં કોઈ એવો સંબંધી હશે જ જે
તમને ઈ મેઈલ આપવાનું પસંદ કરતો હશે.
તમે જાણો છો હું કોના વિશે વાત કરું છું.
એ જ જે શંકાસ્પદ દાવો કરનાર અથવા કાવતરું ધરાવનાર વિડિયો ફેલાવે છે.
અને તમે તેને ફેસબુક પર પણ મુંટ કર્યો જ હશે
તેવી પોસ્ટ શેર કરવા બદલ.
આ એક એવી કેળાની તસવીર છે
જે વચ્ચે વિચિત્ર લાલ ચિહ્ન ધરાવે છે.
એનુ લખાણ એની સાથે લોકોને સાવચેત કરે છે
કે આ પ્રકારનું ફળ ના ખાવું જોઈએ
એવું સૂચન કરે છે કે એ લોહીથી દાખલ કરેલ હોય છે
જે એચઆઈવી વાયરસથી દુષિત થયેલા છે.
અને એના ઉપરનો સામાજિક સંદેશ કહે છે કે
કૃપા કરીને કોઈનું જીવન બચાવવા આગળ પહોચાડો
હવે હકીકત શોધનારા પણ આ કલ્પિત વાતને ખુલ્લા પાડવા પ્રયત્ન કરી રહ્યા છે
પણ આ એક એવી અફવા છે જે ખતમ થતી નથી
એક ઝોમબી જેવી અફવા
અને ખરેખર આ આખી જ ખોટી છે
કદાચ કહેવામાં આ એક હસી કાઢવા જેવું ઉદાહરણ છે
સારુ હવે કોણ આમાં વિશ્વાસ કરી રહ્યા છે?
કેમ કે આ એક ઝોમબી જેવી અફવા છે
કારણ કે આ લોકોના સૌથી ખરાબ ડર કે જે સુરક્ષાનો છે
અને જેમને તેઓ પ્રેમ કરે છે
અને જો તમે મારી જેમ આ ખોટી માહિતી પર સમય પસાર કર્યો હશે તો
તમે જાણો છો કે આ ન્યાયી છે
ઘણા એક ઉદાહરણ
તે લોકોના સૌથી estંડાણમાં આવે છે
ભય અને નબળાઈઓ.
દરરોજ, સમગ્ર વિશ્વમાં,
આપણે ઇન્સ્ટાગ્રામ પર અનેક નવી મેમ્સ જોયે છે
માતા - પિતા પ્રોત્સાહિત
તેમના બાળકોને રસી ન આપવી.
અમે યુ ટ્યુબ પર નવી વિડિઓઝ જોયે છે
સમજાવવું કે હવામાન પલટો એ એક દગા છે.
અને બધા પ્લેટફોર્મ પર, આપણે જોઈએ છીએ
અન્યોને શેતાન કરવા માટે રચાયેલ અનંત પોસ્ટ્સ
તેમની જાતિના આધારે,
ધર્મ અથવા જાતિયતા.
એક કેન્દ્રીયમાં આપનું સ્વાગત છે
અમારા સમય પડકારો.
આપણે ઇન્ટરનેટ કેવી રીતે જાળવી શકીએ
મૂળમાં અભિવ્યક્તિની સ્વતંત્રતા સાથે,
સામગ્રીની ખાતરી કરતી વખતે
તે ફેલાવવામાં આવી રહી છે
બદલી ન શકાય તેવી હાનિનું કારણ નથી
આપણા લોકશાહી, આપણા સમુદાયોને
અને આપણી શારીરિક અને માનસિક સુખાકારી માટે?
કારણ કે આપણે માહિતી યુગમાં જીવીએ છીએ,
હજુ સુધી કેન્દ્રીય ચલણ
જેના પર આપણે બધા આધાર રાખીએ છીએ - માહિતી -
તે હવે સંપૂર્ણ રીતે વિશ્વસનીય માનવામાં આવતું નથી
અને, અમુક સમયે દેખાઈ શકે છે
એકદમ ખતરનાક.
આ ભાગેડુ ભાગ માટે આભાર છે
સામાજિક વહેંચણી પ્લેટફોર્મ વૃદ્ધિ
જે અમને દ્વારા સ્ક્રોલ કરવાની મંજૂરી આપે છે,
જ્યાં જુઠ્ઠાણા અને તથ્યો એક સાથે બેસે છે,
પરંતુ પરંપરાગત કંઈ સાથે
વિશ્વાસપાત્રતાના સંકેતો.
અને દેવતા - આની આસપાસ આપણી ભાષા
ભયાનક ગડબડ થયેલ છે.
લોકો હજી ઓબ્સેસ્ડ છે
"બનાવટી સમાચાર," વાક્ય સાથે
તે હકીકત હોવા છતાં
તે અસાધારણ મદદ વિનાનું છે
અને ઘણી વસ્તુઓનું વર્ણન કરવા માટે વપરાય છે
કે ખરેખર ખૂબ જ અલગ છે:
જૂઠ્ઠાણા, અફવાઓ, દગાબાજી,
કાવતરાં, પ્રચાર.
અને હું ખરેખર ઈચ્છું છું
આપણે કોઈ વાક્યનો ઉપયોગ કરવાનું બંધ કરી શકીએ
તે રાજકારણીઓ દ્વારા પસંદ કરવામાં આવી છે
વિશ્વભરમાં,
ડાબી અને જમણી બાજુથી,
હુમલો કરવા માટે એક હથિયાર તરીકે ઉપયોગ
મફત અને સ્વતંત્ર પ્રેસ.
(તાળીઓ)
કારણ કે આપણને આપણા વ્યાવસાયિકની જરૂર છે
ન્યૂઝ મીડિયા હવે કરતાં વધુ.
અને આ ઉપરાંત, આ મોટાભાગની સામગ્રી
સમાચાર તરીકે માસ્કરેડ પણ કરતું નથી.
તે મેમ્સ, વિડિઓઝ, સામાજિક પોસ્ટ્સ છે.
અને તેમાંના મોટાભાગના નકલી નથી;
તે ભ્રામક છે.
આપણે જે સાચું છે કે ખોટું તે નક્કી કરવાનું વલણ ધરાવે છે.
પરંતુ સૌથી મોટી ચિંતા ખરેખર છે
સંદર્ભનું શસ્ત્રકરણ.
કારણ કે સૌથી અસરકારક
ડિસઇન્ફોર્મેશન
હંમેશા કે કરવામાં આવી છે
જે તેની પાસે સત્યની કર્નલ છે.
ચાલો આ ઉદાહરણ લઈએ
લંડનથી, માર્ચ 2017 થી,
એક ટ્વીટ જે વ્યાપક રૂપે ફરતું થયું
આતંકવાદી ઘટના બાદ
વેસ્ટમિંસ્ટર બ્રિજ પર.
આ અસલી છબી છે, નકલી નથી.
ફોટોગ્રાફમાં દેખાતી મહિલા
પછી ઇન્ટરવ્યુ લેવામાં આવ્યો,
અને તે સમજાવી
તે એકદમ આઘાતજનક હતી.
તે કોઈ પ્રિય વ્યક્તિને ફોન પર હતી,
અને તે જોઈ રહ્યો ન હતો
આદર બહાર પીડિત પર.
પરંતુ તે હજી પણ વ્યાપક રૂપે ફરતું હતું
આ ઇસ્લામોફોબીક ફ્રેમિંગ સાથે,
બહુવિધ હેશટેગ્સ સાથે,
શામેલ: #BanIslam.
હવે, જો તમે ટ્વિટર પર કામ કર્યું હોય,
તમે શું કરશો?
તમે તેને નીચે લઈ જાઓ છો,
અથવા તમે તેને છોડી દો?
મારી આંતરડાની પ્રતિક્રિયા, મારી ભાવનાત્મક પ્રતિક્રિયા,
આ નીચે લેવાનું છે.
મને આ છબીના ઘડતરનો ધિક્કાર છે.
પરંતુ અભિવ્યક્તિની સ્વતંત્રતા
માનવ અધિકાર છે,
અને જો આપણે ભાષણ કરવાનું શરૂ કરીએ
જે આપણને અસ્વસ્થતા અનુભવે છે,
આપણે મુશ્કેલીમાં છીએ.
અને આ સ્પષ્ટ કેસ જેવા દેખાશે,
પરંતુ, ખરેખર, મોટાભાગના ભાષણ એવું નથી.
આ રેખાઓ અવિશ્વસનીય છે
દોરવા માટે મુશ્કેલ.
શું એક સારા અર્થમાં છે
એક વ્યક્તિ દ્વારા નિર્ણય
આગામી માટે સંપૂર્ણ સેન્સરશીપ છે.
આપણે હવે જે જાણીએ છીએ તે તે છે
આ એકાઉન્ટ, ટેક્સાસ લોન સ્ટાર,
એક વિશાળ રશિયન ભાગ હતો
ડિસઇન્ફોર્મેશન અભિયાન,
એક કે જે નીચે લેવામાં આવ્યું છે.
શું તે તમારો મત બદલી શકશે?
તે મારું હશે,
કારણ કે હવે તે એક કેસ છે
સંકલિત અભિયાનનો
to sow discord.
અને તમારામાંના માટે જે વિચારવાનું પસંદ કરે છે
કે કૃત્રિમ બુદ્ધિ
અમારી બધી સમસ્યાઓ હલ કરશે,
મને લાગે છે કે આપણે સહમત થઈ શકીએ
કે આપણે ઘણા લાંબા અંતરે છીએ
એ.આઇ.માંથી જે અર્થપૂર્ણ છે
આની જેમ પોસ્ટ્સ.
તેથી હું સમજાવવા માંગું છું
ત્રણ ઇન્ટરલોકિંગ મુદ્દાઓ
જે આટલું જટિલ બનાવે છે
અને પછી કેટલીક રીતો વિશે વિચારો
અમે આ પડકારો પર વિચાર કરી શકીએ છીએ.
પ્રથમ, અમારી પાસે ફક્ત નથી
માહિતી સાથેનો તર્કસંગત સંબંધ,
આપણી પાસે ભાવનાત્મક છે.
તે માત્ર એટલું સાચું નથી કે વધુ તથ્યો
બધું ઠીક કરશે,
કારણ કે એલ્ગોરિધમ્સ કે જે નક્કી કરે છે
આપણે કઈ સામગ્રી જોવી,
ઠીક છે, તેઓ ઇનામ માટે રચાયેલ છે
અમારા ભાવનાત્મક પ્રતિભાવો.
અને જ્યારે આપણે ભયભીત હોઈએ છીએ,
વધુ વર્ણનાત્મક કથાઓ,
કાવતરું સમજૂતીઓ
અને ભાષા કે જે અન્ય લોકોને ભૂત કરે છે
વધુ અસરકારક છે.
અને આ ઉપરાંત, આમાંની ઘણી કંપનીઓ,
તેમના વ્યવસાય મોડેલ
ધ્યાન સાથે જોડાયેલ છે,
જેનો અર્થ આ અલ્ગોરિધમ્સ છે
હંમેશા લાગણી તરફ વળેલું રહેશે.
બીજું, મોટાભાગનું ભાષણ
હું અહીં વાત કરું છું તે કાનૂની છે.
તે જુદી વાત હશે
જો હું વાત કરતો હોત
બાળ જાતીય શોષણની છબી
અથવા એવી સામગ્રી કે જે હિંસાને ભડકાવે છે.
તે સંપૂર્ણ કાનૂની હોઈ શકે છે
એકદમ અસત્ય પોસ્ટ કરવા માટે.
પરંતુ લોકો નીચે ઉતરવાની વાત કરતા રહે છે
"સમસ્યાવાળા" અથવા "હાનિકારક" સામગ્રી,
પરંતુ કોઈ સ્પષ્ટ વ્યાખ્યા સાથે
તેઓ તેનો અર્થ શું છે,
માર્ક ઝુકરબર્ગ સહિત,
જેમણે તાજેતરમાં વૈશ્વિક માટે હાકલ કરી છે
મધ્યમ વાણી માટેનું નિયમન.
અને મારી ચિંતા તે છે
આપણે સરકારો જોઈ રહ્યા છીએ
વિશ્વભરમાં
ઉતાવળમાં નીતિ વિષયક નિર્ણય લેવામાં આવે છે
તે ખરેખર ટ્રિગર કરી શકે છે
વધુ ગંભીર પરિણામો
જ્યારે તે આપણા ભાષણની વાત આવે છે.
અને જો આપણે નિર્ણય કરી શકીએ
કઈ ભાષણ લેવા અથવા ઉતારવા,
અમારે ક્યારેય આટલું ભાષણ કર્યું નથી.
દર સેકંડ, લાખો
સામગ્રી ટુકડાઓ
લોકો દ્વારા અપલોડ કરવામાં આવે છે
વિશ્વભરમાં
વિવિધ ભાષાઓમાં,
હજારો પર ચિત્રકામ
વિવિધ સાંસ્કૃતિક સંદર્ભો.
અમારી પાસે ક્યારેય નહોતું
અસરકારક પદ્ધતિઓ
આ સ્કેલ પર મધ્યમ ભાષણ કરવા માટે,
મનુષ્ય દ્વારા સંચાલિત છે કે કેમ
અથવા ટેકનોલોજી દ્વારા.
અને ત્રીજું, આ કંપનીઓ -
ગૂગલ, ટ્વિટર, ફેસબુક, વોટ્સએપ -
તેઓ વિશાળ ભાગ છે
માહિતી ઇકોસિસ્ટમ.
અમને બધા દોષો ગમવા ગમે છે
તેમના પગ પર, પરંતુ સત્ય એ છે કે,
સમૂહ માધ્યમો અને ચૂંટાયેલા અધિકારીઓ
પણ સમાન ભૂમિકા ભજવી શકે છે
અફવાઓ અને કાવતરાં વધારતા
જ્યારે તેઓ ઇચ્છે છે.
જેમ આપણે કરી શકીએ છીએ, જ્યારે આપણે બુદ્ધિહીનતાથી આગળ કરીએ છીએ
વિભાજીત અથવા ગેરમાર્ગે દોરતી સામગ્રી
પ્રયત્ન કર્યા વિના.
આપણે પ્રદૂષણમાં ઉમેરો કરી રહ્યા છીએ.
હું જાણું છું કે આપણે બધા એક સરળ ફિક્સ શોધી રહ્યા છીએ.
પરંતુ ત્યાં માત્ર એક નથી.
કોઈપણ સોલ્યુશન રોલ આઉટ કરવું પડશે
મોટા પાયે, ઇન્ટરનેટ સ્કેલ પર,
અને હા, પ્લેટફોર્મ,
તેઓ તે સ્તર પર operatingપરેટિંગ કરવા માટે વપરાય છે.
પરંતુ શું આપણે તેમને મંજૂરી આપી શકીએ?
આ સમસ્યાઓ સુધારવા માટે?
તેઓ ચોક્કસપણે પ્રયાસ કરી રહ્યાં છે.
પરંતુ આપણામાંના ઘણા સહમત થશે કે, ખરેખર,
અમને વૈશ્વિક કોર્પોરેશનો જોઈએ નહીં
સત્યના વાલીઓ બનવા માટે
fairનલાઇન.
અને મને લાગે છે કે પ્લેટફોર્મ્સ
તે સાથે સંમત થશો.
અને આ ક્ષણે,
તેઓ તેમના પોતાના હોમવર્કને ચિહ્નિત કરી રહ્યાં છે.
તેઓ અમને કહેવાનું પસંદ કરે છે
કે હસ્તક્ષેપો
તેઓ કામ કરી રહ્યા છે,
પરંતુ કારણ કે તેઓ લખે છે
તેમના પોતાના પારદર્શિતા અહેવાલો,
આપણા માટે સ્વતંત્ર રીતે રસ્તો નથી
ખરેખર શું થઈ રહ્યું છે તેની ચકાસણી કરો.
(તાળીઓ)
અને ચાલો પણ સ્પષ્ટ થઈએ
કે મોટાભાગના બદલાવ આપણે જોઈ રહ્યા છીએ
માત્ર પત્રકારો પછી થાય છે
તપાસ હાથ ધરી છે
અને પૂર્વગ્રહના પુરાવા શોધે છે
અથવા તૂટતી સામગ્રી
તેમના સમુદાય માર્ગદર્શિકા.
તો હા, આ કંપનીઓએ રમવાનું છે
આ પ્રક્રિયામાં ખરેખર મહત્વની ભૂમિકા,
પરંતુ તેઓ તેને નિયંત્રિત કરી શકતા નથી.
તો સરકારોનું શું?
ઘણા લોકો માને છે
વૈશ્વિક નિયમન અમારી છેલ્લી આશા છે
સફાઇ દ્રષ્ટિએ
આપણી માહિતી ઇકોસિસ્ટમ.
પરંતુ હું જે જોઉં છું તે ધારાસભ્યો છે
જે અદ્યતન રાખવા સંઘર્ષ કરી રહ્યા છે
તકનીકમાં ઝડપી ફેરફાર સાથે.
અને ખરાબ, તેઓ અંધારામાં કામ કરી રહ્યા છે,
કારણ કે તેમની પાસે ડેટાની .ક્સેસ નથી
શું થઈ રહ્યું છે તે સમજવા માટે
આ પ્લેટફોર્મ પર.
અને કોઈપણ રીતે, જે સરકારો છે
શું આપણે આ કરવા માટે વિશ્વાસ કરીશું?
અમને વૈશ્વિક પ્રતિસાદની જરૂર છે,
રાષ્ટ્રીય નથી.
તો ગુમ થયેલ કડી આપણી છે.
તે તે લોકો છે જેનો ઉપયોગ કરે છે
આ તકનીકો દરરોજ.
શું આપણે કોઈ નવી ઈન્ફ્રાસ્ટ્રક્ચરની રચના કરી શકીએ?
ગુણવત્તાની માહિતીને ટેકો આપવા માટે?
સારું, હું માનું છું કે આપણે કરી શકીએ,
અને મને તેના વિશે થોડા વિચારો મળ્યાં છે
અમે ખરેખર કરવા માટે સમર્થ હોઈ શકે છે.
તેથી પ્રથમ, જો આપણે ગંભીર હોય
લોકોને આમાં લાવવા વિશે,
શું આપણે થોડી પ્રેરણા લઈ શકીએ?
વિકિપીડિયાથી?
શક્ય છે તે તેઓએ અમને બતાવ્યું છે.
હા, તે સંપૂર્ણ નથી,
પરંતુ તેઓએ નિદર્શન કર્યું છે
તે યોગ્ય રચનાઓ સાથે,
વૈશ્વિક દૃષ્ટિકોણ સાથે
અને ઘણી બધી પારદર્શિતા,
તમે કંઈક બનાવી શકો છો
જે મોટાભાગના લોકોનો વિશ્વાસ કમાવશે.
કારણ કે આપણે કોઈ રસ્તો શોધવો પડશે
સામૂહિક શાણપણ માં ટેપ કરવા માટે
અને બધા વપરાશકર્તાઓનો અનુભવ.
આ ખાસ કરીને કેસ છે
સ્ત્રીઓ માટે, રંગ લોકો
અને રજૂઆત જૂથો.
કેમ કે ધારી શું?
જ્યારે આવે ત્યારે તેઓ નિષ્ણાતો હોય છે
નફરત અને વિઘટન,
કારણ કે તેઓ લક્ષ્યો રહ્યા છે
આ અભિયાનો ઘણા લાંબા સમય સુધી.
અને વર્ષોથી,
તેઓ ધ્વજ વધારતા રહ્યા છે,
અને તેઓની વાત સાંભળવામાં આવી નથી.
આ બદલવા માટે મળી છે.
તો શું આપણે વિશ્વાસ માટે વિકિપીડિયા બનાવી શકીએ?
અમે વપરાશકર્તાઓ કે જે રીતે શોધી શક્યા?
ખરેખર અંતદૃષ્ટિ આપી શકે છે?
તેઓ આસપાસની સમજ આપી શકે
મુશ્કેલ સામગ્રી-મધ્યસ્થતાના નિર્ણયો.
તેઓ પ્રતિસાદ આપી શકે છે
જ્યારે પ્લેટફોર્મ નક્કી કરે છે
તેઓ નવા ફેરફારો રોલ કરવા માંગે છે.
બીજું, લોકોના અનુભવો
માહિતી સાથે વ્યક્તિગત થયેલ છે.
મારી ફેસબુક ન્યૂઝ ફીડ
તમારા માટે ખૂબ જ અલગ છે.
તમારી YouTube ભલામણો
ખાણ માટે ખૂબ જ અલગ છે.
તે આપણા માટે અશક્ય બનાવે છે
ખરેખર પરીક્ષણ કરવા માટે
લોકો કઈ માહિતી જોઈ રહ્યા છે.
તેથી આપણે કલ્પના કરી શકીએ
કેન્દ્રીયકૃત અમુક પ્રકારના વિકાસ
અનામી ડેટા માટે ખોલો રીપોઝીટરી,
ગોપનીયતા અને નૈતિકતા સાથે
આંતરિક ચિંતા?
કારણ કે કલ્પના કરો કે આપણે શું શીખીશું
જો આપણે વૈશ્વિક નેટવર્ક બનાવ્યું હોય
સંબંધિત નાગરિકોની
જે દાન કરવા માગતો હતો
વિજ્ toાન માટે તેમના સામાજિક ડેટા.
કારણ કે આપણે ખરેખર બહુ ઓછા જાણીએ છીએ
લાંબા ગાળાના પરિણામો વિશે
નફરત અને ડિસઓનફોર્મેશનનો
લોકોના વલણ અને વર્તન પર.
અને આપણે શું જાણીએ છીએ,
કે મોટા ભાગના કરવામાં આવી છે
યુ.એસ. માં હાથ ધરવામાં,
તે હકીકત હોવા છતાં
આ વૈશ્વિક સમસ્યા છે.
આપણે પણ તેના પર કામ કરવાની જરૂર છે.
અને ત્રીજું,
શું આપણે બિંદુઓને કનેક્ટ કરવાનો કોઈ રસ્તો શોધી શકીએ?
કોઈ એક ક્ષેત્ર, એકલા નફાકારક દો,
શરૂઆત અથવા સરકાર,
આ હલ કરવા જઇ રહ્યો છે.
પરંતુ ત્યાં ખૂબ જ સ્માર્ટ લોકો છે
વિશ્વભરમાં
આ પડકારો પર કામ કરવું,
ન્યૂઝરૂમ્સમાંથી, નાગરિક સમાજ,
શિક્ષણ, કાર્યકર જૂથો.
અને તમે તેમાંથી કેટલાક અહીં જોઈ શકો છો.
કેટલાક સૂચકાંકો બનાવી રહ્યા છે
સામગ્રી વિશ્વસનીયતા.
અન્ય લોકો તથ્ય ચકાસી રહ્યા છે,
જેથી ખોટા દાવા, વિડિઓઝ અને છબીઓ
પ્લેટફોર્મ દ્વારા ડાઉન-રેન્ક કરી શકાય છે.
એક નફાકારક મેં મદદ કરી
શોધવા માટે, પ્રથમ ડ્રાફ્ટ,
સામાન્ય રીતે સ્પર્ધાત્મક સાથે કામ કરે છે
વિશ્વભરના ન્યૂઝરૂમ્સ
તેમને તપાસમાં વધારો કરવામાં મદદ કરવા માટે,
સહયોગી કાર્યક્રમો.
અને ડેની હિલિસ, એક સ softwareફ્ટવેર આર્કિટેક્ટ,
નવી સિસ્ટમ ડિઝાઇન કરી રહી છે
અન્ડરલે તરીકે ઓળખાતું,
તેમના સ્ત્રોતો સાથે જોડાયેલ
જેથી લોકો અને એલ્ગોરિધમ્સ
શું વિશ્વસનીય છે તે વધુ સારી રીતે નિર્ણય કરી શકે છે.
અને વિશ્વભરના શિક્ષકો
વિવિધ તકનીકોનું પરીક્ષણ કરી રહ્યા છે
લોકોને બનાવવાની રીતો શોધવા માટે
તેઓ જે સામગ્રીનો વપરાશ કરે છે તેની ટીકા કરે છે.
આ બધા પ્રયત્નો અદભૂત છે,
પરંતુ તેઓ સિલોસમાં કામ કરી રહ્યા છે,
અને તેમાંથી ઘણાને દુ: ખી રીતે નાણાં ચૂકવવામાં આવ્યા છે.
સેંકડો પણ છે
ખૂબ જ સ્માર્ટ લોકો
આ કંપનીઓની અંદર કામ કરી રહ્યા છીએ,
પરંતુ ફરીથી, આ પ્રયત્નો
નિરાશ લાગે છે,
કારણ કે તેઓ ખરેખર વિકાસશીલ છે
સમાન સમસ્યાઓના જુદા જુદા ઉકેલો
કેવી રીતે આપણે કોઈ રસ્તો શોધી શકીએ
લોકોને સાથે લાવવા માટે
એક ભૌતિક સ્થાન પર
એક સમયે દિવસો અથવા અઠવાડિયા માટે,
જેથી તેઓ ખરેખર હલ કરી શકે
આ સમસ્યાઓ મળીને
પરંતુ તેમના વિવિધ દ્રષ્ટિકોણથી?
તો શું આપણે આ કરી શકીએ?
અમે એક સંકલિત બનાવી શકો છો,
મહત્વાકાંક્ષી પ્રતિસાદ,
એક કે જે સ્કેલ સાથે મેળ ખાય છે
અને સમસ્યાની જટિલતા?
હું ખરેખર લાગે છે કે આપણે કરી શકીએ.
સાથે મળીને, ફરીથી બાંધીએ
અમારી માહિતી કોમન્સ.
સાથે મળીને, ફરીથી બાંધીએ
અમારી માહિતી કોમન્સ
આભાર
(તાળીઓ)
Bez obzira tko ste i gdje živite,
nagađam da imate barem jednog rođaka
koji voli prosljeđivati one poruke.
Znate o kojima govorim --
onima sa sumnjivim tvrdnjama
ili snimkama teorija urota.
I vjerojatno ste ih već
blokirali na Facebooku
zbog dijeljenja ovakvih objava.
To je slika banane
s neobičnim crvenim križem
koji se proteže kroz sredinu.
Tekst uokolo upozorava ljude
da ne jedu takvo voće,
napominjući da je injektirano krvlju
zagađenom virusom HIV-a.
A društveno dijeljena poruka iznad
jednostavno kaže,
"Molimo pošaljite dalje za spas života."
Stručnjaci za provjeru informacija
pokušavaju razotkriti ovo godinama,
ali to je jedan od tračeva koji
odbija umrijeti.
Zombijevski trač.
I naravno, potpuno je pogrešan.
Dolazimo u napast smijati se
primjerima poput ovoga, reći,
"Tko bi ionako povjerovao u to?"
Ali razlog zbog kojeg je to
zombijevski trač
jest jer zadire u najdublje ljudske
strahove o osobnoj sigurnosti
te sigurnosti ljudi koje vole.
A ako provedete toliko vremena koliko
i ja promatrajući dezinformacije,
znate da je ovo tek jedan
od mnogih primjera
koji zadire u najdublje ljudske
strahove i slabosti.
Svakog dana, svuda u svijetu, vidimo
desetke novih memeova na Instagramu
koji ohrabruju roditelje
da ne cijepe svoju djecu.
Vidimo nove videe na YouTubeu koji
tvrde da su klimatske promjene prevara.
A na svim platformama, vidimo bezbrojne
postove s ciljem demoniziranja drugih
na osnovi njihove rase,
vjere ili spolnosti.
Dobrodošli u jedan od središnjih
izazova našeg vremena.
Kako da zadržimo internet
sa slobodom izražavanja u svojoj srži,
a da osiguramo da sadržaj kojeg se širi
ne stvara nepovratnu štetu
našim demokracijama, našim zajednicama
te našem tjelesnom i umnom blagostanju?
Jer živimo u informacijskom dobu,
a ipak glavna valuta o kojoj
svi ovisimo -- informacija --
više se ne smatra posve vjerodostojnom
a ponekad se može činiti izravno opasnom.
Ovo se događa zahvaljujući brzom rastu
platformi za društveno dijeljenje
koje nam omogućuju da skrolamo dolje,
gdje laži i činjenice stoje
jedni uz druge,
ali bez ijednog od tradicionalnih
znakova vjerodostojnosti.
I zaboga -- naš govor koji okružuje
sve to je zastrašujuće zamagljen.
Ljudi su još uvijek opsjednuti
frazom "lažne vijesti",
unatoč činjenici da nam izuzetno odmaže
i koristi se za opis brojnih stvari
koje su zapravo vrlo različite:
laži, tračevi, prevare,
urote, promidžba.
I stvarno priželjkujem da
prestanemo koristiti tu frazu
koju su redom preuzeli političari
gotovo cijelog svijeta,
od ljevice do desnice,
i koriste se njome kao oružjem za napade
na slobodne i neovisne medije.
(Pljesak)
Jer sada više nego ikada trebaju nam
naši profesionalni informativni mediji.
Osim toga, većina takvog sadržaja se
niti ne prikriva pod viješću.
To su memeovi, videi, društveni postovi.
I većina toga nije lažna,
nego krivo navodi.
Mi se većinom fiksiramo na istinu ili laž.
Ali najveća opasnost je zapravo
pretvaranje konteksta u oružje.
Jer najučinkovitija dezinformacija
oduvijek je bila ona koja
u sebi sadrži zrnce istine.
Uzmimo ovaj primjer iz Londona
iz ožujka 2017. godine,
objava na Twitteru koja se jako proširila
u danima nakon terorističkog napada
na Westminsterskom mostu.
Ovo je prava slika, nije lažirana.
Žena koja se pojavljuje na slici
kasnije je bila intervjuirana
i objasnila je da je bila
krajnje preplašena.
Bila je na telefonu s voljenom osobom
i iz poštovanja nije gledala u žrtvu.
Ali svejedno je proširena uz
islamofobne implikacije,
uz brojne hashtagove, uključujući:
#ZabraniteIslam.
Da radite u Twitteru, što biste učinili?
Biste li ovo maknuli ili ostavili?
Moja instinktivna, emocionalna
reakcija jest da bih to maknula.
Mrzim implikacije ove slike.
Ali sloboda izražavanja je ljudsko pravo,
a ako počnemo micati govor koji
čini da se osjećamo nelagodno,
onda smo u nevolji.
Ovo može izgledati kao
kristalno jasan slučaj,
ali zapravo, većina govora nije takva.
Izuzetno je teško povući te crte.
Ono što je za jednu osobu
dobronamjerna odluka,
za drugu može biti otvorena cenzura.
Sada znamo da je ovaj Twitter-račun,
Texas Lone Star,
dio široke ruske kampanje dezinformiranja,
koja je otada odstranjena.
Bi li to promijenilo vaš stav?
Moj bi,
jer sada je to slučaj usmjerene kampanje
za sijanje nemira.
A vama koji volite misliti
kako će umjetna inteligencija
riješiti sve naše probleme,
mislim da se možemo složiti
kako je još dug put
do UI-ja koji bi mogao razlučiti
smisao ovakvih postova.
Želim objasniti tri isprepletena problema
koji ovo čine toliko složenim,
a zatim razmisliti o načinima kako
možemo razmotriti ove izazove.
Prvo, mi jednostavno nemamo
racionalan odnos s informacijama,
nego emocionalan.
Jednostavno nije točno da će više
činjenica sve popraviti,
jer algoritmi koji određuju
koji sadržaj gledamo
napravljeni su tako da
nagrade naše emocionalne reakcije.
A kada strahujemo,
pojednostavljene priče,
urotnička objašnjenja
i govor koji demonizira druge
su daleko učinkovitiji.
Usput, mnoge od ovih tvrtki,
njihov poslovni model
veže se na pozornost,
što znači da će ti algoritmi uvijek
biti naklonjeni prema emocijama.
Drugo, većina govora koji
ovdje opisujem je legalan.
Bila bi to druga stvar
ako bih govorila o slikama
spolnog zlostavljanja djece
ili o sadržaju koji poziva na nasilje.
Može biti posve legalno
objaviti besramnu laž.
A ljudi i dalje pričaju o skidanju
"problematičnog" ili "štetnog" sadržaja,
ali bez jasne definicije
što pod tim smatraju,
čak i Mark Zuckerberg,
koji je nedavno zatražio svjetsku
regulativu za moderiranje govora.
Vidim opasnost u tome što vlade
po cijelom svijetu
izbacuju žurne političke odluke
koje bi zapravo mogle izazvati
puno ozbiljnije posljedice
kada se radi o našem govoru.
Čak i ako bismo mogli odlučiti
koji govor postaviti ili maknuti,
nikada nije bilo toliko puno govora.
Svake sekunde, milijune
komadića sadržaja
postavljaju ljudi iz cijelog svijeta
na različitim jezicima,
pozivajući se na tisuće različitih
kulturnih konteksta.
Nikada nismo imali učinkovita sredstva
za moderiranje govora na ovoj razini,
bilo da ih pokreću ljudi ili tehnologija.
Treće, ove tvrtke -- Google, Twitter,
Facebook, WhatsApp --
dio su šireg informacijskog ekosustava.
Sviđa nam se svaliti sav
grijeh na njih, ali zapravo,
masovni mediji i dužnosnici na položajima
također igraju podjednaku ulogu
u preuveličavanju tračeva
i zavjera kada to žele.
Tu ulogu igramo i sami kada proslijedimo
huškajući ili neprovjeren sadržaj
a da se nismo ni potrudili.
Pridonosimo zagađenju.
Znam da svi tražimo lako rješenje.
Ali jednostavno ga nema.
Bilo koje rješenje trebalo bi biti
pokrenuto na visokoj razini, internetskoj,
i da, platforme su naviknute
raditi na toj razini.
Ali možemo li i trebamo li im dopustiti
da riješe ovaj problem?
Oni se svakako trude.
Ali većina nas će se složiti da, zapravo,
ne želimo da globalne korporacije
postanu čuvari istine
i poštenja na internetu.
Mislim da bi se i same platforme
složile s time.
A trenutno, oni ocjenjuju svoje
vlastite domaće zadaće.
Vole nam reći
kako intervencije koje poduzimaju
imaju učinak,
ali budući da sami pišu svoja
izvješća o transparentnosti,
nema načina da neovisno
utvrdimo što se zapravo događa.
(Pljesak)
Razjasnimo također kako se
većina promjena koje vidimo
dogode tek nakon što novinari
poduzmu istragu
te pronađu dokaze pristranosti
ili sadržaja koji krši njihove
društvene smjernice.
Da, te tvrtke moraju igrati
vrlo važnu ulogu u ovom procesu,
ali ga ne smiju kontrolirati.
Što je s vladama?
Mnogi ljudi vjeruju da je svjetska
regulativa posljednja nada
kada se radi o pročišćenju našeg
informacijskog ekosustava.
Ali vidim tek donositelje zakona
koji se bore da ostanu ukorak
s brzim promjenama u tehnologiji.
Još gore, oni djeluju u mraku,
jer nemaju pristup podacima
kako bi razumjeli što se događa
na ovim platformama.
A i kojim bismo vladama
povjerili da to učine?
Potrebna nam je svjetska,
ne nacionalna, reakcija.
Mi smo karika koja nedostaje.
Ljudi koji se služe ovim
tehnologijama svakodnevno.
Možemo li stvoriti novu infrastrukturu
za podršku kvalitetnim informacijama?
Vjerujem da možemo,
i imam par ideja o tome
što zapravo možemo učiniti.
Najprije, ako ozbiljno mislimo
uključiti javnost u ovo,
možemo li crpiti nadahnuće iz Wikipedije?
Oni su pokazali što je moguće.
Nije savršena,
ali prikazali su kako
pomoću pravih struktura,
globalnog pogleda te puno,
puno transparentnosti,
može se izgraditi nešto što će
steći povjerenje većine ljudi.
Jer moramo pronaći način da
zagrabimo u kolektivnu mudrost
te iskustvo svakog korisnika.
To je posebno bitno za žene, nebijelce,
i nedovoljno zastupljene skupine.
Jer pogodite?
Oni su stručnjaci kada se radi
o mržnji i dezinformiranju,
jer su oni toliko dugo
bili mete takvih kampanja.
Tijekom godina, podizali su zastavice,
a nismo ih slušali.
To se mora promijeniti.
Možemo li sagraditi
Wikipediju za povjerenje?
Možemo li pronaći način da nam
korisnici zapravo omoguće uvide?
Mogu ponuditi uvide pri teškim
odlukama o moderiranju sadržaja.
Mogu nam dati povratnu informaciju
kada platforme odluče
izbaciti nove promjene.
Drugo, ljudska iskustva s
informacijama su osobna.
Moj popis novosti na Facebooku
je vrlo različit od vašeg.
Vaše preporuke na YouTubeu su
vrlo različite od mojih.
To čini nemogućim da preispitamo
koje informacije ljudi vide.
Možemo li zamisliti
da razvijemo neku vrstu središnjeg
otvorenog skladišta za anonimne podatke,
s ugrađenom privatnošću
i etičkim ogradama?
Jer zamislite što bismo mogli naučiti
ako izgradimo svjetsku mrežu
angažiranih građana
koji žele donirati svoje
društvene podatke znanosti.
Jer zapravo znamo jako malo
o dugoročnim posljedicama
mržnje i dezinformacija
na ljudske stavove i ponašanja.
A ono što znamo
većinom je bilo izvedeno u SAD-u,
usprkos tome što je ovo svjetski problem.
I na tome moramo raditi.
Treće,
možemo li naći način da spojimo točke?
Nijedan sektor, posebno ne neprofitna
udruga, start-up tvrtka ili vlada
neće ovo riješiti.
Ali ima jako pametnih ljudi
svuda po svijetu
koji rade na ovim izazovima,
uredništva vijesti, civilno društvo,
akademski djelatnici, skupine aktivista.
Neke od njih možete vidjeti ovdje.
Neki grade pokazatelje za
vjerodostojnost sadržaja.
Drugi provjeravaju podatke,
kako bi lažne tvrdnje, videi i slike
bili nisko rangirani na platformama.
Pomogla sam osnovati neprofitnu
udrugu First Draft
koja radi s uobičajeno natjecateljskim
uredništvima vijesti po svijetu
da im pomogne u gradnji
istraživačkih, surađivačkih programa.
Danny Hillis, inženjer softvera,
gradi novi sustav imenom The Underlay,
koji će biti arhiv svih javnih činjenica
povezanih sa svojim izvorom,
kako bi ljudi i algoritmi bolje
procijenili što je vjerodostojno.
Edukatori diljem svijeta
testiraju različite tehnike
u nalaženju načina da ljudi postanu
kritični prema sadržaju koji koriste.
Svi ti pokušaji su divni,
ali oni rade nepovezano,
i mnogima od njih kronično
nedostaju financijska sredstva.
Ima i stotine vrlo pametnih ljudi
koji rade unutar ovih tvrtki,
ali opet, ta nastojanja su rascjepkana,
jer oni zapravo razvijaju različita
rješenja za isti problem.
Kako možemo naći način da spojimo ljude
na jednoj fizičkoj lokaciji
danima ili tjednima istodobno,
kako bi zajedno mogli
savladati ove probleme
ali s različitih gledišta?
Pa možemo li to učiniti?
Možemo li izgraditi koordiniranu,
ambicioznu reakciju
koja će se mjeriti s razinom i
kompleksnošću problema?
Stvarno mislim da možemo.
Zajedno, izgradimo ponovno
naš informacijski krajolik.
Hvala.
(Pljesak)
Mindegy, ki ön és hol él,
biztos, hogy van legalább egy
olyan ismerőse,
akitől időnként megkapja
ezeket az üzeneteket.
Tudják, melyekről beszélek.
Amik gyanús állításokat,
összeesküvés-elméleteket tartalmaznak.
Valószínűleg már blokkolta is
őket a Facebookon,
mert ilyesmiket posztoltak.
Ez a kép egy banánt ábrázol,
furcsa vörös kereszttel a közepén.
A hozzá tartozó szöveg arra figyelmeztet,
hogy ne együnk olyan gyümölcsöt,
ami így néz ki,
mert vért fecskendezhettek bele,
méghozzá HIV-vírussal fertőzöttet.
Legfelül pedig az üzenet egyszerűen ennyi:
"Továbbítsa, és életet ment!"
Tényellenőrzők már évek óta
cáfolják ezt a posztot,
de a szóbeszéd mégis makacsul tovább él.
Zombi szóbeszéd.
És persze valótlanság az egész.
Hajlamosak vagyunk
rálegyinteni egy ilyen példára:
"Ugyan már, ki dől be ennek?"
De a zombi szóbeszéd
pont azért nem hal ki,
mert az emberek
legmélyebb félelmeire játszik rá
saját maguk és szeretteik
biztonságával kapcsolatban.
Ha önök is ugyanannyit tanulmányozzák
a tévinformációkat, mint én,
akkor tudják, hogy ez csupán
egy példa a sok közül,
mely az emberek félelmeire,
sebezhetőségére épít.
Világszerte naponta újabb és újabb
mémek bukkannak fel az Instagramon,
melyek arra buzdítanak,
hogy ne oltassuk be gyerekünket.
YouTube-videókban elmagyarázzák,
hogy a klímaváltozás merő kitaláció.
És bárhova nézünk, posztok
tömkelege heccel mások ellen
faji, vallási vagy szexuális alapon.
Hadd mutassam be önöknek
korunk egyik legnagyobb kihívását!
Hogyan tartsuk meg az internetet
a szólásszabadság színhelyének,
miközben azt is biztosítjuk,
hogy az ott terjedő tartalmak
nem okoznak jóvátehetetlen károkat
demokráciáinkban, közösségeinkben,
fizikai és mentális egészségünkben?
Információs korban élünk,
ám a legfontosabb valuta, melytől
mind függünk – vagyis az információ –,
kezd megbízhatatlanná válni,
sőt, időnként kifejezetten
veszélyesnek tűnik.
Ez részben a közösségi platformok
rohamos terjedésének köszönhető,
amelyeket lapozgatva
egymás mellett jelennek meg
tények és hazugságok,
bármiféle megkülönböztető jelzés nélkül.
És Istenem, az ezzel kapcsolatos
szóhasználatunk is mennyire zűrzavaros!
Imádjuk az "álhír" kifejezést,
annak ellenére,
hogy rendkívül félrevezető!
Mégis számos jelenségre ráhúzzuk,
amelyek valójában mást jelentenek:
a hazugságra, a pletykára, a kitalációra,
az összeesküvésre, a propagandára.
Bárcsak ne használnánk többé
olyan kifejezést,
melyet a politikusok
világszerte magukévá tettek
pártállástól függetlenül,
hogy segítségével a szabad
és független sajtót támadják.
(Taps)
Szakértő sajtóra van szükségünk,
most jobban, mint eddig bármikor.
Ezek a tartalmak egyébként
még csak nem is hasonlítanak hírekre.
Ezek mémek, videók, közösségi posztok.
És legtöbbjük nem "ál",
hanem félrevezetés.
Hajlamosak vagyunk arra koncentrálni,
hogy mi igaz és mi hamis.
De ennél aggasztóbb az, hogy e posztok
fegyverként használhatók.
A leghatékonyabb tévinformáció ugyanis az,
aminek van némi igazságtartalma.
Nézzük példaként ezt a tweetet
Londonból 2017 márciusából,
a Westminster-hídon történt
terrorista támadás utánról.
Ez eredeti fotó, nem hamisítvány.
A képen szereplő nőt
később meginterjúvolták,
és elmagyarázta,
hogy nagyon megrázták az események.
Éppen egy szerettével beszélt telefonon,
és hogy tiszteletből
nem figyelt az áldozatra.
Mégis elterjedt az interneten a fotó,
mégpedig iszlámellenes feliratokkal,
olyan hashtagekkel, mint pl. #BanIslam.
Ha ön a Twitter
munkatársa lenne, mit tenne?
Levenné az oldalról, vagy fent hagyná?
Az én ösztönös, érzelmi reakcióm
az lenne: vegyük le.
Nem tetszik a körítése.
De a szólásszabadság alapvető emberi jog,
és ha minden, számunkra
kényelmetlen szöveget letörlünk,
akkor nagy a gond.
Ez egyértelmű ügynek tűnik,
de a legtöbb poszt nem az.
Hihetetlenül nehéz
meghúzni a határvonalat:
amit egyikünk jószándékú döntésnek tart,
az más számára egyértelmű cenzúrázás.
Már tudjuk, hogy ez a felhasználói fiók,
a Texas Lone Star,
egy orosz, tévinformációkat
terjesztő kampány része volt,
közben már törölték.
Ettől megváltozna a véleménye?
Az enyém biztosan,
hiszen most már szervezett
kampányról beszélünk,
amivel viszályt akarnak kelteni.
Azoknak üzenem, akik azt hiszik,
hogy a mesterséges intelligencia
majd megoldja minden problémánkat:
azt hiszem, egyetérthetünk,
hogy hosszú még az út,
amíg az MI értelmezni tudja
az ilyen posztokat.
Hadd fejtsek ki itt három
összetartozó gondolatot,
amik miatt a helyzet olyan bonyolult,
aztán pedig lássuk, hogyan nézhetünk
szembe ezekkel a kihívásokkal.
Először is: sosem észérvek alapján
közelítünk egy információhoz,
hanem érzelmi alapon.
Nem igaz, hogy a tények
mindent a helyükre tesznek,
mert az algoritmusok,
melyek meghatározzák, mit látunk,
úgy vannak beállítva, hogy érzelmi
reakcióinkat jutalmazzák.
Ha éppen félünk,
a lebutított történetek,
az összeesküvés-elméletek,
és a gyűlöletbeszéd
óriási hatást gyakorol ránk.
Ezenkívül e cégek üzleti modellje
a figyelemfelkeltésen alapul,
ezek az algoritmusok tehát mindig
az érzelmekre fognak építeni.
Másodszor: e tartalmak többsége
nem törvényellenes.
Más lenne a helyzet,
ha gyerekek szexuális
bántalmazását jelenítenék meg,
vagy ha erőszakra bujtanának.
Teljesen törvényes az,
ha valaki hazugságot posztol.
Sokat beszélünk a "problémás", "káros"
tartalmak törléséről,
anélkül, hogy meghatároznánk,
mit értünk ez alatt.
Mark Zuckerberg például nemrégiben
az internetes tartalmak világszintű
szabályozására hívott fel.
Ez azért aggályos,
mert láthatjuk, hogy a kormányok
világszerte elhamarkodott,
stratégiai alapú döntéseket
hoznak ez ügyben,
ami viszont súlyos következményekhez vezet
az internetes tartalmakat illetően.
Ha el is tudnánk dönteni,
mit jelentessünk meg és mit töröljünk,
még sosem volt dolgunk
ekkora mennyiségű tartalommal.
Másodpercenként több milliónyi
új poszt jelenik meg
szerte a világon,
különböző nyelveken,
különböző kulturális közegekben.
Egyszerűen nem létezik
hatékony módszerünk arra,
amivel ilyen mennyiségű
tartalmat moderáljunk,
akár emberi erőforrások,
akár a technológia segítségével.
Harmadszor: e cégek – a Google,
a Twitter, a Facebook, a WhatsApp –
egy tágabb információs
ökoszisztéma részei.
Csábító mindig őket hibáztatni,
de az az igazság,
hogy a tömegkommunikáció
és választott képviselőink
pont ugyanígy tudnak terjeszteni
tévinformációkat, ha akarnak.
Ahogy mi magunk is,
amikor gondolkozás nélkül továbbítunk
félrevezető, viszályt keltő posztokat.
Mi is növeljük
az információ-szennyeződést.
Tudom, hogy jó lenne
ezt egyszerűen megoldani.
De nem létezik egyszerű megoldás.
A megoldásnak nagyszabásúnak kell lennie,
az egész internetre kiterjedőnek,
és igen, e platformok
valóban ezen a szinten dolgoznak.
De vajon rájuk bízhatjuk
e problémák megoldását?
Próbálnak ők tökéletesedni, ez igaz.
Mégis legtöbben úgy véljük,
ne világcégek döntsenek
az igazság és méltányosság
kérdéseiről a világhálón.
És azt hiszem, ebben e platformok
is egyetértenének velünk.
Jelenleg amúgy is a saját
házi feladatukkal vannak elfoglalva.
Bár azt hangoztatják,
az általuk kidolgozott intervenciós
eljárások működnek,
mégis lehetetlen ezeket az állításokat
független módon megerősíteni,
hiszen ők maguk írják saját
átláthatósági jelentéseiket.
(Taps)
És szögezzük le, hogy a legtöbb
változtatás akkor történik,
miután újságírók oknyomozásba kezdenek,
és rámutatnak olyan torzulásokra
és tartalmakra,
melyek szemben állnak
a közösségi irányelvekkel.
Igen, e cégeknek fontos szerep jut
ebben a folyamatban,
de nem kell, hogy ők
végezzék az ellenőrzést.
És mi a helyzet a kormányokkal?
Sokan hiszik, hogy a világszintű
szabályozás az utolsó reményünk
információs környezetünk
megtisztítása érdekében.
De én csak törvényhozókat látok,
akik megpróbálnak lépést tartani
a gyors technológiai fejlődéssel.
És ami még rosszabb,
hogy sötétben tapogatóznak,
hisz nem férnek hozzá olyan adatokhoz,
amelyek segítségével megértenék,
mi történik e platformokon.
És különben is: melyik kormányra
bíznánk rá e munkát?
Világszinten kell cselekednünk,
nem nemzeti szinten.
A hiányzó láncszem tehát
mi magunk vagyunk.
Azok az emberek, akik naponta
használják e technológiát.
Létrehozható olyan infrastruktúra,
mely a minőségi információkat támogatja?
Én azt hiszem, igen,
és van is néhány ötletem,
mit tehetnénk ez ügyben.
Először is: ha valóban be akarjuk
vonni a nyilvánosságot,
forduljunk inspirációért a Wikipédiához.
Ott látjuk, mi minden lehetséges.
Nem tökéletes, ez igaz.
De itt bebizonyosodott,
hogy megfelelő struktúrával,
átfogó szemlélettel és átláthatósággal
olyasmit alkothatunk,
ami kivívja legtöbbünk bizalmát.
Meg kell találnunk az utat
a felhasználók kollektív tudásához
és tapasztalatához.
Különösen igaz ez a nők, a színes bőrűek
és a kisebbségek esetére.
Tudják, miért?
Mert ha gyűlöletkeltésről
és tévinformációkról van szó,
ők a szakértők,
hiszen volt ebben részük bőven.
És bár évek óta próbálják
felhívni a figyelmet a problémára,
mégsem hallgat rájuk senki.
Ennek meg kell változnia.
Ki tudunk tehát építeni egy Wikipédiát,
amiben mindenki megbízik?
Melyben a felhasználók
véleménye is kifejezésre jut?
E vélemények befolyásolhatnák
a nehéz moderálási döntéseket.
Visszajelzéseket adhatnának,
mikor változásokat
vezet be egy-egy platform.
Másodszor: az információkkal
kapcsolatos élményünk egyedi.
Az én Facebook hírfolyamom
nagyon más, mint az önöké.
Az önök YouTube videóajánlatai
mások, mint az enyémek.
Ezért gyakorlatilag
lehetetlen megvizsgálni,
ki milyen információt lát.
El tudnánk tehát képzelni
egy anonimizált adatokat tartalmazó
központi, nyílt adatbázis kiépítését,
mely adatvédelmi és etikai
alapelveket is figyelembe vesz?
Gondolják csak el,
mennyi mindent tanulhatnánk abból,
ha világszerte összefognának
a felelős állampolgárok,
és közösségi adataikat hozzáférhetővé
tennék tudományos célokra.
Mert igaziból nagyon keveset tudunk
a gyűlölködés
és a tévinformációk hosszú távú,
az attitűdöt és viselkedést
befolyásoló hatásairól.
És amit tudunk róla,
az is mind az Egyesült Államokban
szerzett adatokon alapul,
pedig a probléma világjelenség.
Ezen is dolgoznunk kell.
És harmadszor:
vajon össze tudnánk kötni a pontokat?
Egyetlen szektor, de még nonprofit,
start-up szervezet vagy kormány
sem fogja ezt megoldani.
De szerte a világban
okos emberek ezen dolgoznak,
hírszerkesztőségekben, civil
szervezetekben, az egyetemi életben.
Néhányukat itt láthatják.
Vannak, akik a tartalmak
hitelességének mutatóit kutatják.
Mások a tartalmak
megbízhatóságát ellenőrzik,
így a hamis tartalmak
lejjebb kerülnek a hírfolyamban.
Egy nonprofit szervezet, a First Draft,
melynek alapításában segédkeztem,
egymással versengő
hírszerkesztőségeknek segít világszerte
az együttműködésben
és az oknyomozó újságírásban.
Danny Hillis szoftvertervező
pedig új rendszert tervez
The Underlay néven,
mely nyilvános kijelentések tárháza lesz,
ellátva forráshivatkozásokkal,
így az olvasók és az algoritmusok
könnyebben dönthetnek a hitelességükről.
Pedagógusok világszerte
különböző technikákat tesztelnek,
hogy megtanuljuk kritikával fogadni
az internetes tartalmakat.
E teljesítmények csodálatraméltóak, de
ezek az emberek elszigetelten dolgoznak,
sokuk siralmasan alulfizetett.
És okos emberek százai
dolgoznak e cégeken belül,
de az ő erőfeszítéseik is
csak lógnak a levegőben,
hiszen különböző megoldásokat
fejlesztenek ki ugyanarra a problémára.
Hogyan tudnánk
ezeket az embereket összehozni
ugyanarra a helyre,
néhány napra vagy hétre,
hogy e problémákon együtt dolgozhassanak,
de mindegyikük a saját szemszögéből?
Képesek vagyunk erre?
Képesek vagyunk koordinált,
igényes választ adni,
mely megfelel a probléma
méretének és összetettségének?
Azt hiszem, képesek vagyunk.
Építsük újjá együtt
információs környezetünket!
Köszönöm.
(Taps)
Tidak peduli siapa Anda dan di mana Anda
tinggal,
saya rasa Anda pasti setidaknya
mengenal seseorang
yang suka meneruskan email-email itu.
Anda tahu yang saya bicarakan -
surel dengan klaim meragukan
atau video konspirasi.
Anda mungkin sudah
mendiamkan mereka di Facebook
karena telah
membagikan pos sosial seperti ini.
Ini adalah sebuah foto pisang
dengan bentuk salib merah yang aneh
di tengah-tengah
Dan teks di sekelilingnya
memperingatkan orang
untuk tidak memakan buah seperti ini,
menginfokan buah itu
telah disuntik
darah yang terkontaminasi oleh virus HIV.
Dan pesan sosial
di atasnya hanya mengatakan
"Sebarkan untuk menyelamatkan hidup."
Sekarang, pemeriksa fakta telah menyanggah
ini selama bertahun-tahun,
tapi itu salah satu rumor
yang tidak akan mati.
Rumor serupa zombie.
Dan, tentu saja, itu sepenuhnya salah.
Mungkin Anda tergoda menertawakan
contohnya, untuk bilang,
"Yah, siapa yang akan percaya ini?"
Alasan rumor itu menjadi zombie,
karena itu menyentuh ketakutan terdalam
orang tentang keamanan mereka sendiri
dan orang-orang yang mereka cintai.
Jika Anda telah sering
melihat informasi yang salah seperti saya,
Anda tahu bahwa ini hanya
satu dari banyak contoh
yang menyentuh ketakutan
terdalam dan terentan orang.
Setiap hari, di seluruh dunia, kita
melihat puluhan meme baru di Instagram
yang mendorong orang tua untuk
tidak memvaksinasi anak mereka.
Kita melihat video baru YouTube yang
menjelaskan perubahan iklim ialah tipuan.
Di seluruh platform, kita melihat banyak
unggahan yang menjelekkan orang lain
berdasarkan ras, agama atau
seksualitas mereka.
Selamat datang di salah satu
tantangan penting zaman kita.
Bagaimana kita bisa mempertahankan
kebebasan berekspresi di internet,
sambil memastikan
bahwa konten yang disebarluaskan
tidak menyebabkan kerusakan permanen
pada demokrasi kita, komunitas kita
serta kesehatan fisik dan mental kita?
Karena kita hidup dalam era informasi,
namun mata uang pusat yang menyangkut
kehidupan kita semua - informasi -
tidak lagi dianggap
dapat sepenuhnya dipercaya
dan, terkdadang dapat
tampak sangat berbahaya.
Sebagian ini berkat pertumbuhan
cepat dari platform berbagi sosial
yang memungkinkan kita menelusuri,
dimana kebohongan dan fakta
hidup bersisian,
tetapi tanpa sinyal
tradisional kepercayaan.
Dan kebaikan - bahasa kita di
sekitar ini sangat kacau.
Orang-orang masih terobsesi
dengan frasa "berita palsu,"
walaupun itu sangat tidak membantu dan
digunakan untuk menjabarkan beberapa
hal yang sebenarnya sangat berbeda:
kebohongan, rumor, tipuan,
konspirasi, propaganda.
Dan saya sangat berharap kita
bisa berhenti menggunakan frasa
yang telah dipahami berbeda
oleh politikus di seluruh dunia,
dari sayap kiri dan kanan,
digunakan sebagai senjata menyerang
pers yang bebas dan independen.
(Tepuk tangan)
sebab kita butuh media berita profesional
lebih dari sebelumnya.
Dan selain itu, sebagian besar konten
tidak menyamar sebagai berita.
Mereka berupa meme, video, pos sosial.
Dan sebagian besar dari mereka
tidak palsu; justru menyesatkan.
Kita cenderung terpaku pada apa
yang benar atau salah.
Tetapi kekhawatiran terbesar sebenarnya
adalah persenjataan konteks.
Karena disinformasi paling efektif
selalu berupa hal yang memiliki inti
kebenaran di dalamnya.
Mari kita ambil contoh ini dari London,
bulan Maret 2017,
tweet yang beredar luas
setelah insiden teroris di
Jembatan Westminster.
Ini adalah gambar asli, bukan palsu.
Wanita yang muncul di foto
diwawancarai setelah peristiwa itu,
dan dia menjelaskan bahwa
dia benar-benar trauma.
Dia menelepon
orang yang dicintai,
dan dia tidak memandang
korban atas rasa hormat.
Tapi kabar itu masih beredar luas dengan
sudut pandang Islamofobik ini,
dengan banyak tagar, termasuk: #BanIslam.
Jika Anda pegawai Twitter,
apa yang Anda lakukan?
Apa Anda akan menghapusnya atau
membiarkannya?
Reaksi naluriah dan emosional saya,
adalah menghapusnya.
Saya benci sudut pandang gambar ini.
Tapi kebebasan berekspresi
ialah HAM,
dan jika kita mulai menghapus ujaran
yang membuat kita tidak nyaman,
kita punya masalah.
Mungkin ini terlihat
seperti kasus yang jelas,
tapi, sebenarnya,
kebanyakan tidak.
Garis batas ini luar biasa
sulit untuk dibuat.
Keputusan dengan niat baik dari satu orang
ialah sensor terhadap hal berikutnya.
Apa yang sekarang kita tahu
ialah akun ini, Texas Lone Star,
adalah bagian dari kampanye
disinformasi Rusia yang lebih luas,
kampanye yang telah lama dihapus.
Apa itu mengubah
pandangan Anda?
Bagi saya, iya,
sebab kini, itu contoh
kampanye terkoordinasi
demi menabur perpecahan.
Dan bagi Anda yang ingin berpikir
bahwa kecerdasan buatan akan
selesaikan semua masalah kita,
Saya pikir bisa sepakat
bahwa kita masih jauh
dari AI yang bisa memahami
unggahan seperti ini.
Jadi saya ingin jelaskan
tiga masalah saling terkait
yang membuat hal ini sangat kompleks
dan memikirkan cara-cara untuk
mempertimbangkan tantangan ini.
Pertama, kita tidak hanya memiliki
hubungan rasional dengan informasi,
tapi juga hubungan emosional.
Pemikiran semakin banyak fakta membuat
semua lebih baik tidaklah benar,
karena algoritma yang menentukan
konten apa yang kita lihat,
yah, mereka dirancang untuk
menghargai respons emosional kita.
Dan ketika kita takut,
narasi yang terlalu disederhanakan,
penjelasan konspirasi
dan bahasa yang menjelekkan orang
lain jauh lebih efektif.
Selain itu, banyak dari perusahaan ini,
model bisnis mereka
berkaitan dengan perhatian,
yang berarti algoritma ini akan
selalu condong ke arah emosi.
Kedua, sebagian besar ujaran yang
saya bicarakan di sini bersifat sah.
Itu akan jadi kasus berbeda
jika saya membicarakan
konten pelecehan seksual
terhadap anak atau pemicu kekerasan.
Memposting kebohongan jelas ialah legal,
tapi orang terus bicara tentang menghapus
konten "bermasalah" atau "berbahaya",
tanpa adanya definisi jelas tentang
maksud mereka,
termasuk Mark Zuckerberg,
yang baru-baru ini menyerukan regulasi
global demi ujaran moderat.
Dan kekhawatiran saya
ialah melihat pemerintah
di seluruh dunia
meluncurkan keputusan
kebijakan yang tergesa-gesa
dan mungkin akan memicu
konsekuensi yang jauh lebih serius
bila berbicara
tentang ujaran kita.
Dan jika kita bisa memutuskan ujaran mana
yang akan kita naikkan atau hapus,
kita belum memiliki ujaran sebanyak ini.
Setiap detik, jutaan keping konten
diunggah oleh orang-orang di seluruh dunia
dalam berbagai bahasa,
berdasarkan ribuan konteks
budaya yang berbeda.
Kita belum pernah memiliki
mekanisme yang efektif
untuk memoderasi ujaran skala ini,
entah yang dilakukan oleh
manusia atau teknologi.
Dan ketiga, semua perusahaan ini -
Google, Twitter, Facebook, WhatsApp -
mereka ialah bagian dari ekosistem
informasi lebih luas.
Kita suka menyalahkan semua
pihak, tetapi kenyataannya adalah
media massa dan pejabat terpilih
juga dapat memainkan peran yang sama
dalam memperkuat rumor dan
konspirasi jika mereka ingin.
Seperti saat kita asal meneruskan
konten tak teratur atau menyesatkan
tanpa berusaha.
Kita menambah polusi.
Saya tahu kita semua mencari
solusi yang mudah.
Tapi sayangnya tidak ada.
Solusi apa pun harus diluncurkan dalam
skala besar, skala internet,
dan ya, platform, mereka sudah terbiasa
beroperasi di tingkat itu.
tapi bisakah dan haruskah kita izinkan
mereka perbaiki masalah ini?
Mereka tentu berusaha.
tapi sebagian kita akan setuju, faktanya,
kita tak ingin perusahaan global
menjadi penjaga kebenaran
dan keadilan online.
Dan saya juga pikir platform
akan setuju dengan itu.
Dan saat ini, mereka menandai
pekerjaan rumah sendiri.
Mereka suka bilang
bahwa intervensi yang
mereka jalankan bekerja,
tapi karena mereka ada
laporan transparansi sendiri,
sulit bagi kita untuk memverifikasi
kebenarannya secara mandiri.
(Tepuk tangan)
Dan mari kita pahami bahwa
kebanyakan perubahan kita lihat
hanya terjadi setelah wartawan
melakukan penyelidikan
dan menemukan bukti bias
atau konten yang melanggar
pedoman komunitas mereka.
Jadi ya, perusahaan ini harus berperan
sangat penting dalam proses ini, tapi
mereka tak boleh ambil kendali.
Lalu, pemerintah bagaimana?
Banyak orang percaya regulasi global
ialah harapan terakhir kita
dalam hal membersihkan
ekosistem informasi kita.
Tapi yang saya lihat adalah
anggota parlemen kesulitan
mengikuti perubahan teknologi yang cepat.
Parahnya, mereka kerja dalam kegelapan,
sebab mereka tidak
punya akses ke data
untuk memahami apa yang
terjadi pada platform ini.
Lagipula, pemerintah mana yang
kita percayakan dengan tugas ini?
Kita membutuhkan respons global,
bukan respons nasional.
Jadi hal penting yang tersisa adalah kita.
Orang-orang yang menggunakan
teknologi ini setiap hari.
Bisakah kita merancang infrastruktur baru
untuk mendukung informasi berkualitas?
Saya percaya kita bisa,
dan saya punya beberapa ide tentang apa
yang bisa kita lakukan.
Jadi pertama, jika kita serius membawa
masyarakat ke sini,
dapatkah kita mengambil
inspirasi dari Wikipedia?
Mereka telah menunjukkan yang mungkin.
Ya, itu tidak sempurna,
tapi mereka telah menunjukkan
dengan struktur tepat,
dengan pandangan global dan
banyak transparansi,
kamu bisa buat hal yang akan mendapat
kepercayaan banyak orang.
sebab kita harus mencari cara
memanfaatkan kebijaksanaan
dan pengalaman kolektif semua pengguna.
Ini khususnya terjadi pada wanita,
orang kulit berwarna
dan kelompok tak terwakili.
Karena tebak apa?
Mereka ahlinya dalam
kebencian dan disinformasi,
karena mereka telah lama menjadi sasaran
dari semua kampanye ini.
Mereka sudah bertahun-tahun
mengibarkan bendera,
dan mereka belum didengarkan.
Ini harus berubah.
Jadi bisakah kita membangun Wikipedia
untuk kepercayaan?
Bisakah kita temukan cara agar
pengguna dapat memberikan wawasan?
Mereka dapat menawarkan wawasan untuk
keputusan moderasi konten yang sulit.
Mereka bisa beri umpan balik
ketika platform memutuskan ingin
melakukan perubahan baru.
Kedua, pengalaman orang-orang
dengan informasi itu dipersonalisasi.
Umpan berita FB saya
sangat beda dengan milik Anda.
Rekomendasi YouTube Anda sangat
berbeda dengan saya.
Itu menyulitkan kita untuk memeriksa
informasi apa saja yang dilihat orang.
Jadi, terbayangkah kalau kita
mengembangkan semacam repositori
terbuka dan terpusat untuk data anonim,
dengan mempertimbangkan
masalah privasi dan etika?
Bayangkan apa yang bisa kita pelajari
jika kita membangun jaringan
global warga yang peduli,
yang ingin menyumbangkan
data sosial mereka demi sains.
Sebab kita hanya sedikit mengetahui
konsekuensi jangka panjang
dari kebencian dan disinformasi
pada sikap dan perilaku orang.
Dan apa yang kita tahu,
sebagian besar dari itu
telah dilakukan di AS,
terlepas dari fakta bahwa
ini masalah global.
Kita perlu bertindak juga.
Dan ketiga,
bisakah kita cari cara
menghubungkan segalanya?
Tidak ada satu sektor, apalagi nirlaba,
start-up atau pemerintah,
yang akan menyelesaikan ini.
Tapi ada orang teramat pintar
di seluruh dunia
yang menjawab tantangan ini,
dari ruang redaksi, masyarakat sipil,
akademisi, kelompok aktivis.
Dan Anda dapat melihatnya di sini.
Beberapa dari mereka membangun
indikator kredibilitas konten.
Yang lain memeriksa fakta,
supaya klaim palsu, video, & gambar
dapat diredam oleh platform.
Nirlaba yang saya bantu dirikan,
First Draft,
bekerja dengan ruang berita yang
kompetitif di dunia
untuk membantu mereka membangun
investigasi, program kolaboratif.
Dan Danny Hillis, arsitek perangkat lunak,
sedang merancang sistem baru bernama
The Underlay,
yang akan mencatat
semua pernyataan fakta publik
terhubung ke sumber mereka,
agar orang dan algoritma dapat
menilai lebih baik apa yang kredibel.
Dan pendidik di seluruh dunia sedang
menguji teknik yang berbeda
untuk mencari cara agar orang kritis
terhadap konten yang mereka konsumsi.
Semua upaya ini luar biasa,
tetapi mereka bekerja sendirian,
dan banyak dari mereka
sangat kekurangan dana.
Ada juga ratusan orang yang sangat pintar
bekerja di perusahaan-perusahaan,
tapi, upaya ini bisa terasa
tidak berhubungan,
karena mereka sebenarnya mengembangkan
solusi berbeda untuk masalah yang sama.
Bagaimana kita bisa cari cara
menyatukan orang
di satu lokasi fisik selama berhari-hari
atau berminggu-minggu,
hingga mereka dapat
mengatasi masalah bersama
tapi dari beragam sudut pandang?
Bisakah kita melakukannya?
Bisakah kita membangun respons
yang terkoordinasi dan ambisius,
yang cocok dengan skala dan
kompleksitas masalah ini?
Saya pikir kita bisa.
Bersama-sama, mari kita bangun kembali
sumber informasi kita.
Terima kasih.
(Tepuk tangan)
Non importa chi siete o dove vivete,
credo che voi abbiate almeno un parente
a cui piace inoltrare quelle email.
Sapete di quali mail sto parlando,
quelle con dichiarazioni dubbie
o video di complotti.
Probabilmente li avete
già silenziati su Facebook
proprio perché condividono
post \come questo.
È l'immagine di una banana
con una strana croce rossa
che attraversa il centro.
E il testo che l'accompagna
avverte la gente
di non mangiare la frutta
con quell'aspetto,
insinuando che vi abbiano
iniettato del sangue
contaminato con il virus dell'HIV.
Il messaggio da condividere
sopra la foto dice solamente:
"Per favore, inoltratelo
per salvare delle vite."
Ora, chi effettua le verifiche
l'ha smentito per anni,
ma è una di quelle dicerie
che non vogliono proprio morire.
La diceria zombi.
E naturalmente, è assolutamente falsa.
Potremmo essere tentati di ridere
per una cosa come questa e dire:
"Ma comunque, chi ci crederebbe?"
Ma la ragione per cui è una diceria zombi
è che tocca le paure più profonde
della gente sulla propria sicurezza
e la sicurezza di quelli che amano.
Se passate tanto tempo come me
a guardare la cattiva informazione,
sapete che questo
è solo uno dei molti esempi
che toccano le paure e le fragilità
più profonde delle persone.
Ogni giorno in tutto il mondo,
vediamo un sacco di meme su Instagram
che incoraggiano i genitori
a non vaccinare i loro bambini.
Sempre nuovi video su YouTube spiegano
che il cambiamento climatico è una bufala.
Su tutte le piattaforme vediamo
fiumi di post che demonizzano gli altri
sulla base della loro razza,
religione o sessualità.
Benvenuti in una delle sfide
fondamentali dei nostri tempi.
Come possiamo avere una rete
con al centro la libertà di espressione,
e assicurare allo stesso tempo
che il contenuto che viene diffuso
non causerà danni irreparabili
alle nostre democrazie, alle comunità
e al nostro benessere fisico e mentale?
Perché viviamo nell'era dell'informazione,
ma la valuta fondamentale
da cui tutti dipendiamo, l'informazione,
non è più ritenuta sempre affidabile
e, alle volte, può essere
veramente pericolosa.
In parte lo si deve alla rapida crescita
di piattaforme di condivisione
dove possiamo leggere velocemente,
e dove bugie e fatti
stanno fianco a fianco,
ma senza nessuno dei tradizionali
segnali di attendibilità.
E mamma mia, la nostra lingua
su questo è orribilmente confusa.
La gente è ancora ossessionata
dall'espressione "fake news",
nonostante il fatto
che sia incredibilmente inutile
e usata per descrivere cose
che in realtà sono molto diverse:
bugie, dicerie, bufale,
complotti, propaganda.
Vorrei davvero che la smettessimo
di usare un'espressione
che è stata cooptata
dai politici di tutto il mondo,
sia di destra che di sinistra,
usata come un'arma per attaccare
la stampa libera e indipendente.
(Applausi)
Perché abbiamo bisogno dei nostri
mezzi d'informazione, ora più che mai.
Oltretutto, molti di questi contenuti
non si travestono nemmeno da notizie.
Sono meme, video, post sui social.
E la maggior parte non sono falsi;
sono fuorvianti.
Tendiamo a fissarci
su ciò che è vero o falso.
Ma la più grande preoccupazione
è che il contesto si usa come un'arma.
Perché la disinformazione più efficace
è sempre stata quella
che contiene un nucleo di verità.
Prendiamo come esempio Londra
nel marzo del 2017,
un tweet che è circolato molto
dopo il disastroso attacco terroristico
sul Westminster Bridge.
Quest'immagine è vera, non è un falso.
La donna che appare nella foto
è stata intervistata subito dopo
e ha spiegato che era
assolutamente traumatizzata.
Era al telefono con una persona cara,
e non stava guardando la vittima
per un senso di rispetto.
Ma continuava a circolare diffusamente
con questa didascalia islamofobica,
con vari hashtag, incluso: #BanIslam.
Ora, se voi lavoraste
per Twitter, cosa fareste?
La cancellereste o la lascereste?
La mia reazione istintiva, una reazione
emotiva, sarebbe di cancellarla.
Odio la didascalia di quest'immagine.
Ma la libertà di espressione
è un diritto umano,
e se iniziamo a eliminare discorsi
che ci fanno sentire a disagio,
siamo nei guai.
Questo potrebbe sembrare un caso evidente,
ma molti discorsi non lo sono.
Lo spartiacque è
molto difficile da individuare.
Una decisione con buone
intenzioni per una persona
è una censura assoluta per un'altra.
Ora sappiamo che questo account,
Texas Lone Star,
fa parte di una campagna russa
di disinformazione più ampia,
una campagna che da allora è stata chiusa.
Questo vi farebbe cambiare idea?
A me si,
perché qui si tratta
di una campagna concertata
per seminare discordia.
E per tutti quelli
a cui piacerebbe pensare
che l'intelligenza artificiale
risolverà tutti i problemi,
penso siate d'accordo
nel ritenere che siamo lontani
da un'intelligenza artificiale
capace di analizzare un post come questo.
Vorrei spiegarvi
tre problematiche interconnesse
che rendono il tutto molto complesso,
e poi cercare dei modi
per affrontare queste sfide.
Primo, noi semplicemente non abbiamo
un rapporto razionale con l'informazione,
ne abbiamo uno emotivo.
Semplicemente non è vero che più fatti
metterebbero tutto a posto,
perché gli algoritmi che determinano
i contenuti che noi vediamo
sono concepiti per premiare
le nostre risposte emotive.
E quando abbiamo paura,
una narrativa semplificata,
la cospirazione come spiegazione,
e un linguaggio che demonizza gli altri
sono molto più efficaci.
Inoltre, molte di queste compagnie,
il loro modello imprenditoriale
richiede attenzione,
il che significa che questi logaritmi
saranno sempre deviati verso l'emozione.
Secondo, la maggior parte di quello
di cui sto parlando ora è legale.
Sarebbe tutta un'altra cosa
se parlassi di immagini
di violenza su minori
o di contenuti che incitano alla violenza.
Può essere perfettamente legale
pubblicare una palese bugia.
Ma si continua a parlare di oscurare
i contenuti "problematici" o "dannosi",
senza una chiara definizione
di ciò che si intende,
incluso Mark Zuckerberg,
che di recente ha chiesto delle regole
per la moderazione globale del linguaggio.
La mia preoccupazione è che stiamo vedendo
governi di tutto il mondo
presentare decisioni politiche frettolose
che potrebbero innescare
delle conseguenze molto più serie
relativamente al nostro discorso.
Anche se noi potessimo decidere
quale discorso lasciare e quale oscurare,
non ci sono mai stati così tanti messaggi.
Ogni secondo, milioni di contenuti
vengono caricati nel mondo
in diverse lingue,
e si riferiscono a migliaia
di contesti culturali diversi.
Non abbiamo mai avuto
dei meccanismi efficaci
per moderare interventi su questa scala,
che siano alimentati
dagli umani o dalla tecnologia.
E terzo, queste compagnie,
Google, Twitter, Facebook, WhatsApp,
sono parte di un ecosistema più ampio.
Ci piace dare tutta la colpa a loro,
ma la verità è che
i mass media e i politici possono giocare
un ruolo ugualmente importante
nell'amplificare le dicerie
e i complotti quando lo vogliono.
Come possiamo farlo noi,
quando senza pensarci
inoltriamo messaggi divisivi
o fuorvianti senza verificare.
Stiamo aumentando l'inquinamento.
So che stiamo cercando tutti
una facile soluzione.
Ma semplicemente non ce n'è una.
Qualsiasi soluzione dovrà essere lanciata
su scala enorme, su scala internet,
e certo, le piattaforme sono abituate
a operare a quei livelli.
Ma possiamo e dovremmo permettere
che loro risolvano questi problemi?
Sicuramente stanno provando.
Ma molti di noi in realtà direbbero
che non vogliono le corporazioni globali
a salvaguardia della verità
e della correttezza in rete.
Penso che anche le piattaforme
sarebbero d'accordo.
Al momento, loro stanno facendo
i loro compiti per casa.
Amano dirci
che gli interventi che operano
stanno funzionando,
ma dato che scrivono loro
le relazioni sulla trasparenza,
non c'è modo di verificare in modo
indipendente cosa sta realmente accadendo.
(Applausi)
E chiariamo che molti
dei cambiamenti che vediamo
avvengono solo dopo che
un indagine giornalistica
trova le prove di faziosità
o di contenuti che vanno contro
le linee guida della comunità.
Quindi sì, queste compagnie devono giocare
un ruolo importante in questo processo,
ma non possono controllarlo.
E che dire dei governi?
Molte persone credono che delle regole
globali siano l'ultima speranza
di pulire il nostro ecosistema
dell'informazione.
Ma quello che vedo sono legislatori
che faticano a tenersi al passo
con la rapida evoluzione tecnologica.
Ancor peggio, stanno lavorando al buio,
perché non hanno accesso ai dati
per capire cosa sta accadendo
su queste piattaforme.
E comunque, di quale governo ci fideremmo?
C'è bisogno di una risposta globale,
non nazionale.
Quindi, l'anello mancante siamo noi.
È la gente che usa
questa tecnologia ogni giorno.
Possiamo progettare
una nuova infrastruttura
per sostenere l'informazione di qualità?
Io penso di si,
e ho delle idee su cosa
potremmo veramente fare.
Per prima cosa, abbiamo intenzione
di coinvolgere il pubblico,
possiamo farci ispirare da Wikipedia?
Ci hanno dimostrato che è possibile.
Certo, non è perfetta,
ma ci hanno dimostrato
che con la struttura giusta,
una prospettiva globale
e moltissima trasparenza,
si può costruire qualcosa
che si guadagni la fiducia della gente.
Perché dobbiamo trovare il modo
di attingere alla saggezza collettiva
e all'esperienza di tutti gli utenti.
E in modo particolare per le donne,
la gente di colore
e i gruppi poco rappresentati.
Perché sapete una cosa?
Loro sono esperti
di odio e disinformazione,
perché sono stati per molto tempo
il bersaglio di queste campagne.
Negli anni hanno lanciato l'allarme
e non stati ascoltati.
Questo deve cambiare.
Potremmo quindi costruire
una Wikipedia per la fiducia?
Potremmo trovare un modo in cui gli utenti
possono fornire informazioni utili?
Potrebbero dare opinioni sulle difficili
decisioni sulla moderazione del contenuto.
Potrebbero offrire un riscontro
quando le piattaforme decidono
di approntare dei cambiamenti.
Secondo, l'esperienza della gente
con l'informazione è personalizzata.
Le notizie che mi arrivano su Facebook
sono diverse dalle vostre.
I vostri video consigliati su YouTube
sono diversi dei miei.
Questo ci rende veramente
impossibile controllare
che informazioni la gente vede.
Quindi potremmo immaginare
di sviluppare una sorta di deposito aperto
e centralizzato di dati resi anonimi,
con attenzione alla privacy e all'etica.
Perché immaginate
cosa potremmo imparare
se costruissimo una rete globale
di cittadini preoccupati
che vogliono donare
i loro dati social alla scienza.
Perché sappiamo veramente molto poco
delle conseguenze a lungo termine
di odio e disinformazione
sulla mentalità
e l'atteggiamento della gente.
E quello che sappiamo
viene quasi tutto dagli Stati Uniti,
anche se questo è un problema globale.
Dobbiamo lavorare anche su questo.
E terzo,
possiamo trovare un modo
di collegare i puntini?
Nessun settore, men che meno
nonprofit, start-up o un governo,
risolverà questo problema.
Ma si sono persone
veramente in gamba nel mondo
che lavorano su questi cambiamenti,
dalle redazioni, alla società civile,
l'università, i gruppi di attivisti.
Potete vederne alcuni qui.
Alcuni costruiscono indicatori
di credibilità del contenuto.
Altri controllano i fatti,
così che le false dichiarazioni,
video e immagini
siano declassate dalle piattaforme.
Una non profit che ho aiutato
a fondare, First Draft,
lavora con redazioni
competitive in tutto il mondo
per aiutarle a costruire dei programmi
investigativi e collaborativi.
Danny Hillis, un architetto del software,
sta programmando un nuovo sistema
chiamato The Underlay,
che sarà un registro
di tutte le dichiarazioni
connesse alla loro fonte,
così che la gente e gli algoritmi possano
giudicare meglio ciò che è credibile.
Gli educatori nel mondo
stanno verificando diverse tecniche
per trovare dei modi per rendere la gente
critica verso ciò che consumano.
Tutti questi sforzi sono meravigliosi,
ma si lavora in scomparti,
e tristemente molti di loro
hanno pochi fondi.
Inoltre, ci sono centinaia
di persone in gamba
che lavorano in queste compagnie,
ma anche questi sforzi
sembrano scollegati,
perché stanno sviluppando
diverse soluzioni per lo stesso problema.
Come si può trovare il modo
di riunire queste persone
in un unico luogo per giorni
o settimane di seguito,
di modo che affrontino
questi problemi assieme,
ma dalle loro prospettive diverse?
Siamo in grado di farlo?
Possiamo mettere insieme
un'ambiziosa risposta coordinata,
che metta assieme la vastità
e la complessità del problema?
Penso veramente che si possa.
Ricostruiranno assieme
le basi comuni dell'informazione.
Grazie.
(Applausi)
여러분이 누구든, 어디에서 살든
그런 이메일을 전달하기
좋아하는 친척이 적어도
한 명은 있을 거라 예상합니다.
제가 어떤 이메일 말하는지
아실 텐데요.
이상한 주장이나 음모론 영상을 담은
그런 이메일 말입니다.
그리고 여러분은 아마도
이런 게시글을 공유하는
그 친척을 페이스북에서
음소거 처리 하셨을 겁니다.
이상한 빨간 십자가가
중간을 가로지르고 있는
바나나의 사진입니다.
주변에 있는 텍스트를 보시면,
이렇게 생긴 과일을 먹지 말라고
경고하고 있는데요,
여기에 HIV 바이러스로 감염된
혈액이 주입되었다면서 말이죠.
그리고 사진 위의 사회적 공유
메시지에는 이렇게 되어 있습니다.
"널리 퍼뜨려 생명을 구해주세요."
팩트 체크하는 사람들이
이것을 몇 년째 바로잡고 있지만,
절대 사라지지 않고 있는
루머 중 하나입니다.
좀비 루머인 것이죠.
그리고, 당연하게도,
완전히 틀린 말이죠.
이런 예를 보고 비웃을 수도 있습니다.
"누가 이런걸 실제로 믿을까?"
하면서요.
하지만 이런 사진들이
좀비 루머인 이유는
사람들로 하여금
그들 자신의 안전, 그리고
사랑하는 이들의 안전에 대해
깊이 걱정하도록 만들기 때문입니다.
그리고 잘못된 정보를
살피는데 저만큼 시간을 쓰신다면,
이것이 사람들의 공포심과 취약점을
건드리는 수많은 잘못된 정보 중
하나일 뿐이라는 것을
알게 되실 겁니다.
매일 전 세계에서 수십 개의 인스타그램
밈(meme)이 올라오는데요,
자녀들 백신접종을 시키지 말라고
부모들을 부추기는 내용이죠.
기후변화가 거짓이라는 내용의
유튜브 영상도 매일 업로드됩니다.
또, 모든 소셜 미디어 플랫폼에서
타인을 인종, 종교, 성 정체성에 따라
악마취급하고자 작성된 글이
끝도 없이 올라옵니다.
우리 시대에 가장 핵심적인
문제 중 하나가 이것입니다.
어떻게 하면 표현의 자유에
중점을 두면서도
온라인상에서 퍼져나가는 내용들이
우리의 민주주의와 커뮤니티,
우리의 신체적, 정신적 건강의 안녕에
돌이킬 수 없는 해를 끼치지 하는
인터넷 환경을 유지할 수 있을까요?
우리는 정보화 시대에 살고 있지만,
우리 모두가 의존하는 중앙통화,
즉 정보는,
더 이상 전적으로 신뢰할 만하다고
여겨지지 않습니다.
어쩔 때는 완전
위험해보이기까지 하죠.
이는 걷잡을 수 없이 성장한
사회공유플랫폼에 일부 원인이 있는데요.
스크롤을 통해
이것 저것 볼 수 있게 되었지만,
이 곳엔 거짓과 사실이
나란히 공존하는 반면,
전통적인 신뢰의 흔적은 찾기 힘들죠.
그리고 우리의 언어는 이 현상을
정확하게 설명해 주지 못합니다.
사람들은 아직도 "가짜 뉴스"라는
말에 집착하고 있습니다.
이 말이 상황 설명에
특별히 도움이 되지 않을 뿐더러,
실제론 서로 다른 것들을 설명하는데
쓰이고 있음에도 말이죠.
거짓말, 루머, 날조, 음모,
프로파간다와 같은 개념들이요.
저는 우리가
전 세계 좌파, 우파 정치인들이
자유 독립 언론을 공격하기 위해
사용하기 시작한 이 문구를
그만 사용했으면 좋겠습니다.
(박수)
왜냐하면 지금 우리에겐 그 어느 때보다
전문 뉴스 미디어가 필요하기 때문입니다.
게다가, 이런 내용들은 뉴스로
둔갑하지도 않은 채 돌아다닙니다.
밈(meme), 비디오, 쇼셜미디어에
올라오는 게시물 같은 것들인데요.
대부분은 가짜가 아니라,
사람들을 호도하는 것들입니다.
우리는 주로 어떤 글의
진위여부를 가려내려고 합니다.
하지만 가장 큰 문제는
내용이 무기화된다는 것입니다.
왜냐하면 가장 효과적인 거짓 정보들은
항상 조금의 사실을
포함하고 있기 마련이죠.
이 예를 한번 들어 보죠.
2017년 3월, 런던에서
한 트윗이 널리 유포됐는데요,
웨스트민스터 다리에서 일어난
테러사건의 여파였죠.
이 사진은 진짜 사진입니다.
가짜가 아니라요.
이 사진에 등장한 여성은
이후에 인터뷰에 응했는데요,
완전히 정신적 충격을 받았다고
설명을 하더군요.
그녀는 애인과 통화하는 중이었고,
피해자를 제대로 보고 있지 않았습니다.
하지만 이 사진은 이슬람 혐오
프레임이 씌워진 채 유포되었습니다.
#BanIslam(이슬람금지) 등
여러 해시태그가 달린 채 말이죠.
여러분이 트위터 직원이라면,
어떤 조치를 취하실 건가요?
이 사진을 내리실 건가요,
아니면 내버려두실 것인가요?
제 본능적 반응, 감정적 반응은
사진을 내린다는 것입니다.
저는 이 사진에 씌워진
프레임이 싫습니다.
하지만 표현의 자유는 인권이며,
불편하다는 이유로
게시글을 내리기 시작한다면
이 또한 문제가 될 수 있습니다.
이 예시의 경우 명백해 보이지만,
대부분의 게시물은 그렇지 않습니다.
옳고 그름의 선을 긋기
매우 어렵습니다.
어떤 사람이 좋은 의도로
내려진 결정이
다른 사람에게는 완전한 검열로
될 수 있습니다.
이제 우리는 이 계정,
Texas Lone Star가
러시아의 거짓 정보 캠페인의 일부였고,
그 때 이후 내려진
상태라는 걸 압니다.
이것이 여러분의 관점을
바꿀 수 있을까요?
제 관점은 변화시킬 듯 합니다.
왜냐하면 이제 이 글은
불화를 초래하기 위해서
설계된 캠페인의 일부이기 때문입니다.
여러분 중에서 혹시
인공지능이 우리의 문제를 해결해 줄 수
있다고 믿으시는 분이 있다면,
아마 이런 사건을 해결할 수 있는
인공지능이 등장하기 전까지는
오랜 시간이 걸릴 것이라고
동의하실 겁니다.
그래서 저는 이 문제를
복잡하게 만드는
세 가지 서로 맞물린 이슈에 대해
설명하고자 합니다.
그리고 우리가 이 문제의
해결 방법을 생각해보도록 하죠.
첫째로, 우리는 정보를 이성적으로
받아들이지 않습니다.
감정으로 받아들이죠.
사실이 더 많아지면 모든 것이
괜찮아질 것이라는 건 사실이 아닙니다.
왜냐하면 우리가 어떤 콘텐츠를
볼지를 정하는 알고리즘은
우리의 감정적인 반응을
우선시하게 되어 있습니다.
그리고 우리가 공포를 느낄 때,
지나치게 축소된 이야기들,
음모론적인 설명들,
그리고 다른 사람을 탓하는 언어가
훨씬 효과적입니다.
게다가, 많은 이런 회사들의
비즈니스 모델은 관심을 받는
정도에 따라 결정됩니다.
따라서 이 알고리즘들은 감정 변화에
치우쳐서 반응하게 됩니다.
둘째로, 제가 말하는 대부분의
내용은 법적인 문제입니다.
아동 성범죄 관련 사진 혹은
폭력을 일으키는 내용이라면
다른 문제가 될 수 있습니다.
노골적인 거짓을 업로드하면
완벽히 법적인 문제가 될 수 있습니다.
하지만 사람들은 "문제가 되는" 또는
"해로운" 글을 내려야 한다고 합니다.
그 말이 무슨 뜻인지 명확한
정의를 내리지 못한 채 말이죠.
마크 저커버그를 포함해서요.
그는 최근에 온건한 표현에 대한
국제적 규제를 촉구했습니다.
제가 걱겅되는 것은,
전 세계 정부들이
우리가 올리는 게시물, 표현에 있어
훨씬 더 큰 결과를
촉발할수 있는 정책결정을
성급하게 내놓고 있다는 것입니다.
심지어 우리가 어떤 표현을 허용하고,
어떤 표현을 규제할지 정한다 해도
이보다 더 많았던 적이
없었다는 게 문제죠.
매 초 마다, 수 백만 개의 게시글이
세계 각지에서 업로드됩니다.
여러 언어로 말이죠.
수 천개의 다른
문화적 맥락이 들어간 것들이죠.
이런 규모의 표현을 제어할 수 있는
효율적인 방법이 현재로선 없습니다.
인간이 되었든,
기계가 되었든 간에 말이죠.
셋째로, 구글, 트위터,
페이스북, 왓츠앱과 같은 회사들은
정보 생태계의 일부분을
차지할 뿐이라는 겁니다.
우리는 이 회사들을 탓하기 쉽지만,
사실은, 매스미디어와 지도자들도
그들이 원할 때
루머와 음모론을 확산할 수
있다는 것입니다.
우리도 마찬가지로 생각없이
오해의 소지가 있는 글을 공유합니다.
우리도 정보 생태계의 오염에
한 몫을 하는 겁니다.
우리는 모두 쉬운 해결책을
갈구하고 있습니다.
하지만 그런 건 존재하지 않습니다.
어떤 해결책이든, 넓은 범위로,
인터넷 범위로 적용되어야 합니다.
그리고 소셜네트워크 플랫폼은
그 단계에 최적화되어 있습니다.
하지만 그렇다고 그들이 이 문제를 해결하도록
둘 수 있을까요? 그래야 할까요?
그들도 물론 노력하고 있긴 하죠.
하지만 우리 대부분은
글로벌 기업들이 온라인에서
진실과 공정의 수호자가 되는 것을
원치 않을 것입니다.
소셜플랫폼들도 이에 동의할 것입니다.
지금 그들은, 스스로에게
내 준 숙제를 채점하고 있습니다.
그들은 우리에게
그들이 설치한 제어 장치들이
작동하고 있다고 뻐기죠.
하지만 그들이 스스로
투명성 보고서를 쓰기 때문에,
무엇이 진짜로 일어나는지
우리가 확인할 길이 없습니다.
(박수)
또, 우리가 보는 변화의 대부분은
저널리스트들이 조사를 통해
편향되었다는 증거를 발견하거나,
커뮤니티 가이드라인을 위반하는
콘텐츠를
발견한 이후에나 나타납니다.
네, 이 회사들은 문제해결을 위해
아주 중요한 역할을 해야 하지만,
그것을 통제하지는 못합니다.
정부는 어떨까요?
많은 사람들은 우리의
정보 생태계를 정화시키기 위해서는
전세계적인 규율이 필요하다고
믿고 있습니다.
하지만 정책 입안자들은
빠른 기술의 발전을
따라가지 못하고 있습니다.
설상가상으로, 정부는
암흑 속에서 일하고 있습니다.
이런 플랫폼에서 무슨 일이
일어나는지 알 길이 없습니다.
알 수 있는 데이터에
접근할 수 없으니까요.
게다가, 어떤 정부를
믿을 수 있을까요?
우리는 국가적인 대응보다는
세계적인 대응이 필요합니다.
여기서 빠진 연결고리가
바로 우리입니다.
이 기술을 매일매일 사용하는
우리들이지요.
양질의 정보를 지지하기 위한
새로운 인프라를 만들 수 있을까요?
저는 가능하다고 믿습니다.
우리가 실제로 할 수 있는 일에 대한
몇 가지 아이디어가 있습니다.
첫째로, 사람들의 참여가
정말로 필요하다면,
위키피디아에서 영감을
얻을 수 없을까요?
그들은 무엇이 가능한지
우리에게 보여주었습니다.
네, 완벽하진 않지만,
위키피디아는 투명성이 보장되고
전 세계 사람들이 참여할 수 있는
기초적인 구조가 있다면
사람들이 신뢰할 수 있는 플랫폼을
만들 수 있다는 것을 보여주었습니다.
왜냐하면 우리는 집단적 지혜와
모든 사용자들의 경험을 활용할
방법을 찾아야 하기 때문입니다.
이는 여성, 유색인종들, 그리고
대표성을 갖지 못하는 소수자들에게
더욱 필요한 방법입니다.
왜냐하면
그들은 혐오와 허위 정보에
관해서라면 전문가니까요.
그들이야말로 오랫동안 혐오 캠페인의
표적이 되어왔기 때문이죠.
몇 년 전부터 그들은
의문을 제기하기 시작하였지만,
그들의 목소리는 아무도
듣지 않았습니다.
이는 바뀌어야 합니다.
신뢰의 위키피디아
같은 것을 우리가 만들 수 있을까요?
사용자들이 자신의 통찰을
제시하게끔 할 방법을 찾을 수 있을까요?
그들은 어떤 표현이 온건한지와 같은,
판단이 어려운 결정에 통찰을 줄 수 있습니다.
플랫폼들이 새로운
변경사항을 출시할 때,
피드백을 줄 수도 있습니다.
둘째로, 정보에 대한 사람들의 경험은
개인적이라는 것입니다.
저의 페이스북 피드는 여러분의 것과
아주 다릅니다.
여러분의 유튜브 추천목록은
제 것과 많이 다릅니다.
그래서 사람들이 무슨 정보를
보고 있는지 조사하는 것은
불가능합니다.
그렇다면
익명화된 데이터를 위한 일종의
개방형 중앙 저장소를 개발해서
개인 정보와 윤리를 보호할 수 있도록
할 수 있을까요?
예를 들어, 이런 경우 우리가 무엇을
배울 수 있을지 상상해볼까요.
이런 문제에 관심이 있고,
자신의 소셜데이터를 연구에 기부하려는
시민들로 구성된
글로벌 네트워크를 만든다면 말이죠.
혐오와 허위 정보가
장기적으로 사람들의 태도와 행동에
어떤 영향을 미치는지,
우리는 잘 알고 있지 못합니다..
우리가 아는 것들은
미국 한정으로 밝혀진 연구입니다.
이 문제는 전 세계적인
문제인데 말이죠.
이 문제도 해결해야 합니다.
세 번째로,
점과 점을 서로 이을 방법을
찾을 수 있을까요?
어떤 한 비영리단체, 스타트업, 정부도
이 문제를
스스로 해결할 수는 없습니다.
하지만 이 문제를 해결하기 위해
일하고 있는 아주 똑똑한 사람들이
전 세계에 있습니다.
뉴스 편집국에서부터 시민 사회,
학계, 권익 보호 운동 단체까지요.
여기 그들 중 일부를 보실 수 있습니다.
몇 명은 콘텐츠 신뢰성을 나타내는
지표를 개발 중입니다.
몇 명은 팩트체크를 하고 있습니다.
거짓 정보, 비디오와 사진들이
순위에서 멀어질 수 있게 말이죠.
제가 설립을 도운 비영리단체인
퍼스트 드래프트(First Draft)는
평균적으로 경쟁력있는
뉴스 편집국들과 함께 일하며
그들이 협력할 수 있는
프로그램을 세울 수 있도록 돕습니다.
소프트웨어 설계자인
대니 힐즈(Danny Hillls)는
언더레이(The Underlay)라고 불리는
새로운 시스템을 만들고 있습니다.
이는 인터넷 상의
모든 발언들과 그 출처를 엮은
기록물입니다.
사람들과 알고리즘이 믿을 만한 정보를
가려내는 것을 도와주죠.
전 세계의 교육자들은
사람들이 접하는 정보들을
비판적으로 받아들일 수 있게
교육하는 방법을 찾고 있습니다.
이 모든 노력들은 대단하지만
그들은 지하에서 일하고 있습니다.
대부분은 자금 부족을 겪고 있죠.
또한 수백 명의 정말 똑똑한 인재들이
이들 회사에서 일하고 있지만,
이들의 노력이 서로 연결되고 있지
않은 느낌입니다.
같은 문제에 대해 서로 다른
해결책을 만들고 있기 때문이죠.
어떻게 하면 이 사람들을
며칠 혹은 몇 주 간,
하나의 물리적인 공간에 모아서,
그들이 자신들의 견해와 관점을 제시하며
이 문제를 함께 해결하도록
할 수 있을까요?
이것이 가능할까요?
우리의 문제가 복잡하고 큰 만큼
우리도 잘 설계된 해결 방법을
야심차게 내놓을 수 있을까요?
저는 이것이 가능하다고 믿습니다.
함께 안전한 정보 공동체를
재구축해 봅시다.
감사합니다.
(박수)
گرنگ نییە کێیت یان لەکوێ ئەژیت،
پێموابێت بەلایەنی کەمەوە
یەک خزمتان هەیە کە
یەکسەر ئەم ئیمەیڵانەت بۆ بنێرێتەوە.
ئەزانن باسی کێ ئەکەم --
ئەوانەی بانگەشەی گومانلێکراو یان
ڤیدیۆکانی بیردۆزی پلانگێڕی ئەکەن.
لەوانەشە هەتا ئێستا
بێدەنگت کردبێتن لەسەر فەیسبووک
لەسەر بڵاوکردنەوەی ئەم جۆرە پۆستانە.
وێنەی مۆزێکە
بە خاچێکی سوور کە
بە ناوەڕاستیا ئەڕوات.
نوسینەکەی چواردەوریشی ئاگادارییە بۆ خەڵک
ئەو میوانە نەخۆن کە بەم شێوەیەن،
کە گوایە خوێنیان تێکراوە
پیسکراون بە ڤایرۆسی ئایدز.
پەیامە نووسراوەکەی سەریشی
بە کورتی ئەڵێت،
"تکایە ئەمە بۆ هاوڕێکانت بنێرە
بۆ ڕزگارکردنی ژیانیان."
ئێستا، ئەوانەی بۆ ڕاستی ئەگەڕێن
چەندین ساڵە بەدوای ئەمەوەن،
بەڵام یەکێکە لەو دەنگۆیانەی
کە نامرێت.
دەنگۆیەکی زۆمبی.
بێگومان، بە تەواوەتیش هەڵەیە.
لەوانەیە حەز بکەیت پێبکەنیت
بە نموونەیەکی ئاواهی، بڵێیت،
"باشە، خۆ کێ باوەڕ بەمە ئەکات؟"
بەڵام هۆکاری ئەوەی کە
دەنگۆیەکی زۆمبییە
لەبەر ئەوەیە کە ئەچێتە ناو قوڵایی
ترسەکانی کەسەکە بۆ سەلامەتی خۆیان و
سەلامەتی کەسە خۆشەویستەکانیان.
ئەگەر هێندەی منیش کات بەسەر بەریت
لە سەیرکردنی زانیارییە هەڵەکاندا،
ئەزانیت ئەمە تەنیا نموونەیەکە
لە زۆرێک
کە ئەچێتە ناو قوڵترین ترسەکان و
لاوازییەکانی مرۆڤەوە.
هەموو ڕۆژێک، لە سەرانسەری جیهاندا، بڵاوکردنەوەی
بیروباوەڕی نوێ ئەبینین لەسەر ئینستاگرام
هانی دایکان و باوکان ئەیات
منداڵەکانی خۆیان نەکووتن.
ڤیدیۆی نوێ ئەبینین لەسەر یوتیوب
ڕوونی ئەکاتەوە کە گۆڕانی کەشوهەوا درۆیە.
لەهەموو سەکۆکانیشدا ئەبینین، ژمارەیەکی زۆر
پۆست ئەکرێت بۆ لەکەدارکردنی خەڵکی تر
لەسەر بنچینەی ڕەچەڵەک،
ئاین یان باری سێکسیان.
بەخێربێن بۆ یەکێک لە ململانێ
گرنگەکانی ئەم سەردەمەمان.
چۆن بتوانین ئینتەرنێتێک ڕابگرین
بە هەبوونی ئازادی دەربڕین لە بناغەیدا،
هەروەها دڵنیابینەوە لەوەی بابەتەکانی
بڵاو ئەکرێنەوە
زیانێکی چاکنەکراوە درووست نەکەن بۆ
دیموکراسییەتەکانمان، کۆمەڵگاکانمان و
سەلامەتی جەستەیی و دەروونیمان؟
چونکە ئێمە لە سەردەمی زانیاریدا ئەژین،
لەهەمان کاتدا دراوە بنچینەییەکەی
کە هەموو پشتی پێئەبەستین -- زانیارییە --
چیتر جێگەی متمانە نەماوە، و
هەندێک جار، ئەکرێت مەترسیدار دەرکەون.
ئەمە بەشێکی بەهۆی گەشەکردنی پێگەکانی
بڵاوکردنەوەی بابەتە کۆمەڵایەتییەکانە
کە ڕێگەمان پێئەیات بگەڕێین،
بەسەر درۆ و ڕاستییەکاندا
شان بەشانی یەکتری،
بەڵام بێ ئەوەی هیچ کامێکیان ئاماژە
باوەکانی متمانەپێکردنیان هەبێت.
ئای خوایە ئینجا -- زمانەکەی بەکاریئەهێنین
بۆ ئەم بڵاوکراوانە تەواو تێکدراوە.
هێشتا خەڵک خویان گرتووە بە
دەستەواژەی "هەواڵی ساختە"ەوە
سەرەڕای ئەو ڕاستیەی کە
بە تەواوەتی هیچ یارمەتیدەر نییە و
بەکاریەت بۆ باسکردنی ژمارەیەک شت
کە زۆر جیاوازن لە یەکتری:
درۆکان، دەنگۆکان، فێڵەکان،
پلانگێڕییەکان، پڕوپاگەندەکان.
بەڕاستی هیواداریشم بوەستین
لە بەکارهێنانی ئەم دەستەواژەیە
کە سیاسەتمەداران لە سەرانسەری
جیهاندا کردویانە بە هی خۆیان،
لە چەپەوە و لە ڕاستەوە،
وەک چەکێک بەکاری ئەهێنن بۆ
هێرشکردنە سەر ڕۆژنامەوانی ئازاد.
(چەپڵەلێدان)
چونکە ئێستا لەهەموو کات زیاتر پێویستمان
بە میدیا پرۆفێشناڵە. و
جگە لەوەش، ئەم بابەتانە تەنانەت
وەک هەواڵیش بڵاوناکرێنەوە.
بیرۆکەی کۆمەڵایەتی، ڤیدیۆ، پۆستی
کۆمەڵایەتین. و
زۆربەی ساختە نین؛
بەهەڵەدا بەرن.
مەیلمان هەیە لەسەر ئەوە بچەسپین
کە ڕاستە یان هەڵەیە.
بەڵام گەورەترین نیگەرانی کردن بە چەکی
ئەم بوارەیە.
چونکە کاراترین زانیاری پێدانی هەڵە
هەمووکات ئەوە بووە کە بڕێک
ڕاستیشی لەگەڵ خۆیدا هەڵگرتووە.
با ئەمە بە نموونە وەرگرین
هی لەندەنە، ئازاری ٢٠١٧،
بڵاوکراوەیەکی تویتەر کە زۆر بڵاوبۆوە
دوای ڕووداوێکی تیرۆرستی
لەسەر پردی وێستمینیستەر.
ئەمە وێنەیەکی ڕاستەقینەیە،
نەک ساختە.
ژنەکەی لە وێنەکەیا دەرئەکەوێت
دواتر چاوپێکەوتنی لەگەڵدا کرا، و
ڕوونی کردەوە کە بە تەواوەتی
داخوورپاوە بە ڕووداوەکە.
لەو کاتەیا تەلەفوونی کردووە
لەگەڵ کەسێکی نزیکیا، و
لەپای ڕێزی خۆیەوە سەیری
قوربانییەکەی نەکردووە.
بەڵام بە ئینتەرنێتا بڵاوکرایەوە بە
چوارچێوەیەکی فۆبیای ئیسلامییەوە،
بە چەندین هاشتاگی هەمەجۆرەوە،
وەک: ئیسلامبوون قەدەغەکەن.
ئێستا، ئەگەر تۆ لە تویتەر کار بکەیت،
چی ئەکەیت؟
ئەوە ئەسڕیتەوە،
یان وازیلێئەهێنیت؟
کاردانەوەی ناوەکیم، کاردانەوەی سۆزیم،
یەکسەر سڕینەوەی ئەبێت.
ڕقم لەو چوارچێوەیەیە
دراوە بەم وێنەیە.
بەڵام ئازادی دەربڕین
مافێکی مرۆڤە، و
ئەگەر دەستبکەین بە لابردنی قسەکانی
کە وامان لێئەکات نائاسوودە بین،
ئەوا لە کێشەیاین. و
ئەمەش لەوانەیە لە دۆسیەیەکی ڕوون بچێت،
بەڵام ڕاستییەکەی، زۆربەی قسەکان وا نین.
ئەم هێڵانە کێشانیان زۆر قورسە.
ئەوەی بڕیارێکی پڕ واتایە
لەلایەن کەسێکەوە
سانسۆرکردنێکی ئاشکرایە
لەلایەن ئەوی ترەوە.
ئەوەی ئێستا ئەیزانین ئەوەیە
ئەم هەژمارە، تێکساس لۆن ستار،
بەشێک بووە لە هەڵمەتێکی فراونتری
زانیاری هەڵە بڵاوکردنەوەی ڕووسی،
یەکێک لەوانەی لەوکاتەوە کۆتایی پێهێنراوە.
ئەوە بۆچوونت ئەگۆڕێت؟
هی من ئەگۆڕێت،
چونکە ئێستا بەلامەوە بووە
بە مەسەلەی هەڵمەتێکی ڕێکخراو
بۆ نانەوەی ئاژاوە.
بۆ هەموو ئەوانەشتان کە وا بیر ئەکەنەوە
زیرەکی دەستکرد بتوانێت
هەموو کێشەکانتان چارەسەر بکات،
پێموابێت ئەتوانین هاوڕا بین کە
هەموومان زۆرمان ماوە
بۆ زیرەکییەکی دەستکرد کە بتوانێت
لەم جۆرە بڵاوکراوانە تێبگات.
بۆیە ئەمەوێت سێ پرسی
پێکەوە بەستراو ڕوونکەمەوە
کە ئەمەی زۆر ئاڵۆزکردووە و
ئینجا بیر لە چەند ڕێگایەک بکەینەوە
بۆ ئەوەی ئەم ململانێیانە لەبەرچاو بگرین.
یەکەم، پەیوەندییەکی زیرەکانەمان
نییە لەگەڵ زانیارییەکە،
پەیوەندییەکی سۆزدارییانەیە.
ئەوە ڕاست نییە کە ڕاستی زیاتر
هەموو شتێک باش ئەکات،
چونکە ئەلگۆریتمەکەی ئەو
بابەتانە دیاری ئەکات کە ئەیانبینین،
وا درووستکراون کە پاداشتی
کاردانەوە سۆزدارییەکانمان بەنەوە.
کاتێکیش لە ترساین،
گێڕانەوەی زیاد لە پێویست سادەکراو،
ڕوونکردنەوەی پلانگێڕییانە و
زمانەکەی ئەوانی تر لەکەدار ئەکات
زۆر کاراتریشە.
جگە لەوەش، زۆرێک
لەم کۆمپانیایانە،
مۆدێلی بزنسەکەیان بەستراوە
بە ڕاکێشانی سەرنجەوە،
واتا ئەم ئەلگۆریتمانە هەمووکات
بەلای جوڵاندنی سۆزدا دەگۆڕدرێت.
دووەم، زۆربەی قسەکانی لێرەیا
باسی ئەکەم یاسایین.
بابەتێکی جیا ئەبێت ئەگەر
باسی مەسەلەی دەستدرێژی سێکسی
بۆسەر منداڵانم بکردایە
یان ئەو بابەتانەی دەبنە هۆی توندوتیژی.
دەکرێت بە تەواوەتی یاسایی بێت
بابەتێکی تەواو درۆ بڵاوکەیتەوە.
بەڵام خەڵک بەردەوام باسی ئەوە ئەکەن
بابەتە "سەربەکێشەکان" یان "زیانبەخشەکان" لاببرێن،
بەڵام بەبێ پێناسەیەکی ڕوونی
ئەوەی مەبەست چییە بەوە،
بە مارک زووکەربێرگیشەوە،
کە بەم دواییە داوای ڕێکخستنی جیهانی
کرد بۆ هێواشکردنەوەی وتارە توندەکان.
ئەوەشی مایەی نیگەرانیمە ئەبینین
حکومەتە جیاجیاکان
لە هەموو جیهاندا
بڕیاری بەپەلە ئەیەن
کە ئەکرێت دەرئەنجامی زۆر
خراپتری لێبکەوێتەوە
کاتێک یەتە سەر توانای وتاردانمان.
تەنانەت ئەگەر بشتوانین بڕیار بەین
کام وتارە بهێڵینەوە و کامە لابەرین،
هێشتا چەندین لێداونمان ئەبێت.
هەموو چرکەیەک، ملیۆنەها
پارچە نوسراو
لەلایەن خەڵکی سەرانسەری
جیهانەوە بڵاو ئەکرێتەوە
بە زمانی جیاواز،
باسی هەزارەها بواری
کلتوری هەمەجۆر ئەکرێت.
بە سادەیی میکانیزمێکی کارامان نەبووە
بۆ هێورکردنەوەی وتاردانێک بەم قەبارەیە،
ئەگەر لەلایەن مرۆڤەوە بێت یان تەکنەلۆجیا.
سێیەمیش، ئەم کۆمپانیایانە، گووگڵ، تویتەر
فەیسبووک، واتساپ --
بەشێکن لە سیستمێکی ژینگەیی
زانیاری فراوانتر.
حەز ئەکەین هەموو خەتاکە بخەینە
ئەستۆی ئەوان، بەڵام ڕاستییەکەی،
ڕاگەیاندن بەگشتی و بەرپرسە هەڵبژێردراوەکانیش
ئەکرێت ڕۆڵێکی یەکسان بگێڕن
لە گەورەکردنی دەنگۆکان و بیردۆزی
پلانگێڕییەکان کاتێک ئەیانەوێت.
هەروەها ئێمەش، کاتێک بێمێشکانە بابەتی
هەڵە یان بەهەڵەدابەر ئەنێرین بۆ هاوڕێکانمان
بێ ئەوەی سەیریشی بکەین.
پیسبوونی تۆڕەکان زیاد ئەکەین.
ئەزانم هەموو بۆ چارەسەرێکی ئاسان ئەگەڕێین.
بەڵام هیچ شتێکی وامان نییە.
هەر چارەسەرێک بێت پێویستە ئاستێکی
فراوان، هەموو ئینتەرنێت، بگرێتەوە، و
بەڵێ، پێگەکان، هەموو بەکاریەن
بۆ کارکردن لەو ئاستەیا.
بەڵام ئەتوانین و پێویست ئەکات
ڕێگەبەین ئەم کێشانە چارەسەر بکرێت؟
بەدڵنیاییەوە تاقی ناکەنەوە.
بەڵام هەموومان هاوڕاین ڕاستییەکەی،
هیچ دامەزراوەیەکی جیهانیمان ناوێت
پارێزەری ڕاستی و دادپەروەری
سەر ئینتەرنێت بێت. و
هەروەها پێشموابێت هەموو پێگەکان
هاوڕان لەگەڵ ئەوەیا.
لەم ساتەشدا،
ئەرکی ماڵەوەی خۆیان نیشانە ئەکەن.
حەز ئەکەن پێمان بڵێن
کە دەستوەردانەکانی ئەیکەن خەریکە
سوودیان ئەبێت،
بەڵام لەبەر ئەوەی ڕاپۆرتەکانی
شەفافیەتی خۆیان ئەنوسن،
هیچ ڕێگایەکمان نییە سەربەخۆیانە
دڵنیابینەوە لەوەی بەڕاستی ڕووئەیات.
(چەپڵەلێدان)
هەروەها با ڕوونیش بین کە
زۆربەی گۆڕانکارییەکانی ئەیبینین
تەنیا دووای ئەوە ڕووئەیەن کە
ڕۆژنامەنووسەکان لێکۆڵینەوە ئەکەن و
بەڵگەی لایەنگری کردن ئەدۆزنەوە
یان بابەتەکانی پەیڕەوەکانی
کۆمەڵگاکەیان ئەشکێنێت.
بۆیە بەڵێ، ئەم کۆمپانیایانە پێویستە
ڕۆڵێکی زۆر گرنگ بگێڕن لەم پرۆسەیەیا،
بەڵام ناتوانن کۆنترۆڵی بکەن.
ئەی کەواتە چی دەربارەی حکومەتەکان؟
زۆر کەس باوەڕیان وایە کە
ڕێکخستنی جیهانی دوا هیوامانە
لەڕووی پاکردنەوەی ژینگەی
زانیارییەکانمان.
بەڵام ئەوەی ئەیبینم یاسا دانەرەکانە
کە هەتا ئێستاش ئەناڵێنن بەدەست
گۆڕانکارییە خێراکانی تەکنەلۆجیا.
لەوەش خراپتر، لە تاریکیا کار ئەکەن،
چونکە زانیارییان بۆ بەردەست نییە
هەتا تێبگەن چی ڕووئەیات
لەم پێگانەیا. و
بەهەرحاڵیش، متمانە بە کام
حکومەت بکەین بۆ ئەم کارە؟
پێویستمان بە بەدەمەوەچوونی جیهانییە،
نەک تەنیا وڵاتێک.
کەواتە بەستەرە ونەکە ئێمەین.
ئەو کەسانەی هەموو ڕۆژێک
ئەم تەکنەلۆجیایانە بەکارئەهێنن.
ئەتوانین پێکهاتەیەکی بناغەیی نوێ
دروستکەین بۆ پشتیوانی ئەم زانیارییە دروستانە؟
بەڵێ، لەو باوەڕەیام بتوانین، و
چەند بیرۆکەیەکم هەیە دەربارەی ئەوەی
لەوانەیە بتوانین بیکەین.
بۆیە یەکەم شت، ئەگەر بەڕاستمان بێت و
بمانەوێت خەڵکی گشتی بێنینە ناو ئەمەوە،
ئەتوانین هەندێک ئیلهام لە
ویکیپیدیاوە وەرگرین؟
نیشانیان یاین چی ئەکرێ ئەنجام بدرێت.
بەڵێ، بێ کەموکوڕی نییە،
بەڵام بە پێکهاتەیەکی ڕاستەوە
ئەوەیان نیشان یاوین،
بە دیمەنێکی جیهانی و
شەفافییەتێکی زۆر زۆر،
ئەتوانیت شتێک بنیات بنێیت
کە متمانەی زۆرینەی خەڵک بەدەست ئەهێنێت.
چونکە پێویستە ڕێگایەک بدۆزینەوە
بۆ گەشتن بە دانایی و
ئەزموونی هەموو بەکارهێنەران.
ئەمە بەتایبەتی ڕاستە بۆ
ژنان، و ڕەچەڵەکە هەمەجۆرەکان و
کۆمەڵەکانی کەمتر نوێنەرایەتی ئەکرێن.
چونکە ئەزانن چی؟
ئەوان پسپۆڕن کاتێک یەتە سەر
ڕق و پێدانی زانیاری هەڵە،
چونکە ماوەیەکی زۆر ئەبێت ئەوان
بوون بە ئامانجی ئەم هەڵمەتانە.
بەدرێژایی ساڵەکانیش
ئاڵا بەرز ئەکەنەوە، و
گوێیان لێنەگیراوە.
پێویستە ئەمە بگۆڕێت.
کەواتە ئەتوانین ویکیپیدیایەک
بۆ متمانە بنیات بنێین؟
ئەتوانین ڕێگایەک بدۆزینەوە کە بەکارهێنەران
بتوانن دووربینی خۆیان دابینکەن؟
ئەتوانن دووربینی پێشکەشکەن لەبارەی
بڕیاردان لەسەر هێواشکردنەوەی بابەتە توندەکان.
ئەتوانن سەرنج بدەن
کاتێک پێگەکان بڕیار ئەیەن
گۆڕانکاری نوێ بێننە کایەوە.
دووەم، ئەزموونەکانی خەڵک لەگەڵ
زانیارییەکان بەکەسی کراون.
پەڕەی سەرەکی فەیسبووکەکەی من
زۆر جیاوازە لە هی ئێوە.
پێشنیارەکانی لە یوتیوب بۆ ئێوە
یەت زۆر جیاوازە لەوەی من.
ئەوەش وائەکات مەحاڵ بێت بۆمان
بتوانین بزانین
خەڵک چی زانیارییەک ئەبینن.
کەواتە ئەیهێنینە بەرچاومان
پەرەدان بە جۆرە هەڵگرێکی ناوەندی
زانیاری بێ سەرچاوە،
بە پاراستنی نهێنی و
زانیاری کەسی؟
چونکە بیهێننە بەرچاوتان
چی فێر ئەبین
ئەگەر تۆڕێکی جیهانی
دانیشتووی خەمخۆر بنیات بنێین
کە بیانەوێت زانیاری کۆمەڵایەتی
خۆیان پێشکەشی زانست بکەن.
چونکە ڕاستییەکەی کەم ئەزانین
دەربارەی دەرئەنجامە درێژخایەنەکانی
ڕق و پێدانی زانیاری هەڵە
لەسەر هەڵسوکەوت و هەڵوێستی خەڵک.
ئەوەشی ئەیزانین،
زۆربەی ئەوە لە ئەمریکا ئەنجامدراوە،
سەرەڕای ئەوەی ئەمە
کێشەیەکی جیهانییە.
پێویستە کار لەسەر ئەوەش بکەین.
سێیەمیش،
ئەتوانین ڕێگایەک بدۆزینەوە
بۆ بەیەک گەیاندنی خاڵەکان؟
نەک یەک کەرت، ڕێکخراو، و
بزنسی نوێ یان حکومەتیش
ناتوانێت بەتەنیا ئەمە چارەسەرکات.
بەڵام خەڵکی زۆر زیرەک هەن
لە سەرانسەری جیهاندا
کار لەسەر ئەم ململانێیانە ئەکەن،
لە ژوورەکانی ڕاگەیاندن، کۆمەڵگای شارستانی،
ئەکادیمیاکان، و گروپە چالاکەوانەکان.
هەندێکیشیان ئەبینیت لێرە.
هەندێکیان ئاماژەپێدەری ڕاستی
بابەتەکان بنیات ئەنێن.
هەندێکیان سەیری ڕاستییەکان ئەکەن،
بۆ ئەوەی جاڕدانە هەڵەکان، ڤیدیۆ و
وێنەکان لەلایەن پێگەکانەوە پەکبخرێت.
بەرنامەیەک کە یارمەتیدەر بووم
لە پەرەپێدانیا، مسۆدەکەی،
کارکردنە لەگەڵ ژوورە ڕاگەیاندنە
پێشبڕکێدارەکانی جیهاندا
بۆ ئەوەی پرۆگرامە لێکۆڵەرە
پێکەوە کارکەرەکان بنیات بنێن.
دانی هیڵسیش، تەلارسازی سۆفتوێر،
سیستمێکی نوێ بنیات ئەنێت
بەناوی ئەندەرلەی،
کە تۆماری هەموو بڵاوکراوە
گشتییەکان بێت و
بەسترابێتنەوە بە سەرچاوەکانەوە،
بۆ ئەوەی خەڵک و ئەلگۆریتمەکانیش
بڕیار بەن کامە جێی متمانەیە.
فێرکەرەکانیش لە سەرانسەری جیهاندا
تاقیکردنەوە بۆ تەکنیکی جیاجیا ئەکەن
بۆ دۆزینەوەی ڕێگاکانی ئەوەی خەڵک
گومان بکەن پێش باوەڕکردن.
هەموو ئەم هەوڵانە باشن،
بەڵام پێکەوە کار ئەکەن، و
زۆریشیان پارەی کەمیان بۆ دانراوە.
هەروەها سەدان کەسی
زۆر زیرەکیش هەن
لەناو ئەم کۆمپانیایانە کار ئەکەن،
بەڵام دووبارە، ئەم هەوڵانە دەکرێ
هەست بکرێت پێکەوە نین،
چونکە ڕاستییەکەی پەرە بە چارەسەری
جیا ئەیەن بۆ هەمان کێشە.
چۆن بتوانین ڕێگایەک بدۆزینەوە
بۆ کۆکردنەوەی خەڵک
لە یەک کاتدا لە یەک شوێن
بۆ چەندین ڕۆژ یان هەفتە،
بۆ ئەوەی پێکەوە بەرەنگاری
ئەم کێشانە ببنەوە
بەڵام لە ڕوانگەی جیاجیای خۆیانەوە؟
کەواتە ئەتوانین ئەمە بکەین؟
ئەتوانین بەدەمەوەچوونێکی
ڕێکخراو بنیات بنێین،
یەکێک کە لە ئاست گەورەیی و
ئاڵۆزی کێشەکەدا بێت؟
بەڕاستی پێموابێت ئەتوانین.
پێکەوە، با ئەو زانیارییانە بنیات بنێینەوە
کە ڕۆژانە بۆمان یەت.
زۆر سوپاس
(چەپڵەلێدان)
Wie je ook bent of waar je ook woont,
ik denk dat je tenminste
één familielid hebt
dat van die emails doorstuurt.
Je weet dewelke ik bedoel,
die met rare theorieën
of complotvideo's.
En je volgt hen waarschijnlijk
al niet meer op Facebook
omdat ze dit soort berichten delen.
Een foto van een banaan
met een vreemd, rood kruis in het midden.
En de tekst erbij waarschuwt mensen
om dit fruit niet te eten,
omdat het geïnjecteerd zou zijn met bloed
besmet met het hiv-virus.
En de gedeelde boodschap
erboven zegt simpelweg:
"Alsjeblieft delen om levens te redden."
Feitcheckers hebben deze
al jaren geleden ontkracht,
maar het is zo'n roddel
die maar niet wil uitdoven.
Een zombieroddel.
En het is natuurlijk helemaal niet waar.
Het is misschien verleidelijk
hierom te lachen, om te zeggen:
"Wie gelooft er nu zoiets?"
Maar het is net een zombieroddel,
omdat het spreekt tot de diepste angsten
over mensen hun eigen veiligheid
en die van de mensen waar ze van houden.
En als je genoeg tijd spendeert
aan kijken naar misinformatie,
dan weet je dat dit
een van de vele voorbeelden is
dat mensen hun diepste
angsten en zwaktes oproept.
Elke dag zien we wereldwijd
een hoop nieuwe memes op Instagram
die ouders aanmoedigen
om hun kinderen niet te vaccineren.
We zien nieuwe video's op YouTube
die klimaatverandering een hoax noemen.
En over alle platformen heen
zien we posts die anderen demoniseren
op basis van hun kleur,
religie of seksualiteit.
Welkom bij een van
de kernuitdagingen van onze tijd.
Hoe kunnen we een internet behouden
gebaseerd op vrijheid van meningsuiting,
maar ook verzekeren
dat de verspreide informatie
geen onomkeerbare schade toebrengt
aan onze democratieën, gemeenschappen
en aan ons fysiek en mentaal welzijn?
We leven wel in het informatietijdperk,
maar de belangrijkste munteenheid
waar we van afhangen -- informatie --
blijkt niet meer helemaal betrouwbaar
en soms zelfs ronduit gevaarlijk.
Dit is deels te danken
aan de onstuitbare groei van social media,
die ons er laten door scrollen,
waar leugen en feit zij aan zij zitten,
maar met geen enkel traditioneel
kenmerk van betrouwbaarheid.
En, o god, onze taal hierover
is verschrikkelijk verwarrend.
Mensen zijn nog steeds geobsedeerd
met het begrip 'fake news',
hoewel het buitengewoon onbehulpzaam is
en gebruikt wordt om eigenlijk
totaal andere dingen te beschrijven:
leugens, roddels, hoaxen,
samenzweringen, propaganda.
En ik zou willen dat we geen begrip
meer zouden gebruiken
dat ingelijfd is door politici wereldwijd,
zowel links als rechts,
gebruikt als wapen om
vrije, onafhankelijke pers aan te vallen.
(Applaus)
Want we hebben onze professionele
nieuwsmedia meer dan ooit nodig.
Het meeste van deze informatie
vermomt zich zelfs niet als nieuws.
Het zijn memes, video's,
social-mediaberichten.
En het meeste is niet vals;
het is misleidend.
We fixeren vaker op waar of niet waar.
Maar de grootste zorg is eigenlijk
bewapening van de context.
Want de meest effectieve desinformatie
is altijd al datgene geweest
waar een korrel waarheid in zit.
Neem nu dit voorbeeld
van Londen, maart 2017,
een tweet die overal circuleerde
in de nasleep van een terreuraanslag
op Westminster Bridge.
Dit is een echte foto, niet vals.
De vrouw op de foto
werd nadien geïnterviewd
en zij verklaarde
erg getraumatiseerd te zijn.
Zij was aan de lijn met een dierbare
en uit respect keek ze niet
naar het slachtoffer.
En toch werd het verspreid
met deze islamofobe tekst,
met meerdere hashtags,
waaronder: #BanIslam.
Moest jij bij Twitter werken,
wat zou jij doen?
Zou je het weghalen of laten staan?
Mijn instinct, mijn emotionele reflex
is dit verwijderen.
Ik haat de suggestiviteit van deze foto.
Maar vrije meningsuiting
is een mensenrecht
en als we meningen weghalen
die ons ongemakkelijk doen voelen,
hebben we een probleem.
En al lijkt dit een duidelijke zaak,
meestal is een mening dat niet.
Deze lijnen trekken is enorm moeilijk.
Wat voor de één
een goedbedoelde beslissing is,
is ronduit censuur voor de ander.
Wat we wel weten is
dat dit account, Texas Lone Star,
deel uitmaakte van een weidse,
Russische desinformatie-campagne
en ondertussen verwijderd is.
Zou dat je mening veranderen?
De mijne wel,
want dan is het
een georganiseerde campagne
om verdeeldheid te zaaien.
En zij die zouden denken
dat artificiële intelligentie
alle problemen zal oplossen,
zullen het met me eens zijn
dat we veraf staan
van AI die berichten als deze
kan begrijpen.
Dus zou ik graag drie
samenhangende problemen uitleggen
die dit zo complex maken,
om dan over manieren na te denken
om ze op te lossen.
Ten eerste hebben we gewoon
geen rationele relatie met informatie,
maar een emotionele.
Het is niet waar dat meer feiten
alles goed maken,
want algoritmes
die bepalen wat we zien,
zijn ontworpen om onze
emotionele reacties te belonen.
En wanneer we angst hebben,
zijn sterk vereenvoudigde verhalen,
verklaringen met complotten
en demoniserende taal
over anderen veel effectiever.
Bij veel van deze bedrijven
is het businessmodel gelinkt aan aandacht,
wat betekent dat deze algoritmes
altijd neigen naar emotie.
Ten tweede zijn de meeste berichten
die ik hier vernoem legaal.
Het zou een andere zaak zijn
als ik sprak over
beelden van kindermisbruik
of inhoud die tot geweld aanspoort.
Het kan perfect legaal zijn
om een regelrechte leugen te posten.
Mensen praten over 'problematische'
of 'schadelijke' informatie verwijderen
zonder duidelijke definitie
van wat ze daarmee bedoelen,
inclusief Mark Zuckerberg,
die net nog opriep tot globale
controle van meningsuiting.
En mijn zorg is dat we regeringen zien
over de hele wereld
die haastig een beleid invoeren
wat eigenlijk veel ergere
gevolgen kan veroorzaken
voor onze meningsuiting.
En ook al konden we beslissen
welke meningen te houden of verwijderen,
we hebben nog nooit zoveel geuit.
Elke seconde worden miljoenen meningen
geüpload door mensen over de hele wereld
in verschillende talen,
gebaseerd op duizenden
verschillende culturele contexten.
We hebben simpelweg
nooit efficiënte mechanismes gehad
om taal te controleren op deze schaal,
of het nu van mensen
of van technologie komt.
Ten derde zijn deze bedrijven --
Google, Twitter, Facebook, WhatsApp --
deel van een breder informatie-ecosysteem.
We geven hen graag alle schuld,
maar de waarheid is
dat massamedia en verkozen ambtenaren
een even grote rol kunnen spelen
in het versterken van gerucht
en complot, als ze dit willen.
En wij ook, als we hersenloos
verdeelde of misleidende informatie delen
zonder moeite te doen.
We vervuilen het alleen maar meer.
Ik weet dat we zoeken
naar een makkelijke oplossing.
Maar er is er geen.
Elke oplossing zal uitgerold moeten worden
op een gigantische schaal, internetschaal.
En ja, de platformen zijn gewend
op dat niveau te opereren,
maar kunnen ze deze problemen oplossen
en moeten we het toelaten?
Proberen doen ze zeker.
Maar de meesten zouden ermee akkoord gaan
dat we geen globale ondernemingen willen
als bewakers van waarheid
en eerlijkheid online.
En ik denk dat ook
de platformen dat vinden.
Momenteel beoordelen ze
hun eigen huiswerk.
Ze vertellen graag
dat de maatregelen
die ze nemen resultaat opleveren,
maar omdat ze hun eigen
transparantieverslag schrijven,
kunnen we op geen enkele manier
echt controleren wat er eigenlijk gebeurt.
(Applaus)
En laat het ook duidelijk zijn
dat de meeste veranderingen enkel gebeuren
nadat onderzoek van journalisten
vooroordelen aan het licht brengen,
of inhoud die de regels
van de platformen breekt.
Dus ja, deze bedrijven moeten een
heel belangrijke rol spelen in dit proces,
maar je kunt het ze niet
laten controleren.
En hoe zit het met regeringen?
Velen geloven dat globale wetten
onze laatste hoop zijn
als het gaat om de opkuis
van ons informatie-ecosysteem.
Maar ik zie wetgevers
die worstelen om bij te blijven
met de snel veranderende technologie.
Nog erger, ze tasten in het duister,
omdat ze geen toegang hebben tot data
om te begrijpen wat er gebeurt
op deze platformen.
Trouwens, welke regeringen
zouden we hiermee vertrouwen?
We hebben een globaal
antwoord nodig, geen nationaal.
Dus zijn wij de ontbrekende schakel.
Het zijn de mensen die
deze technologie elke dag gebruiken.
Kunnen we een nieuwe infrastructuur
bouwen om kwaliteitsinformatie te bieden?
Wel, ik denk van wel,
en ik heb enkele ideeën
over wat we echt zouden kunnen doen.
Ten eerste, als we het grote publiek
er echt bij willen betrekken,
kunnen we dan inspiratie
opdoen van Wikipedia?
Zij hebben getoond wat mogelijk is.
Het is niet perfect,
maar ze hebben getoond
dat met de juiste structuren,
met een globale aanpak
en heel veel transparantie,
je iets kan bouwen dat het vertrouwen
zal winnen van de meesten.
Want we moeten een manier vinden
om de collectieve wijsheid en ervaring
van alle gebruikers in te zetten.
Dit is vooral het geval
voor vrouwen, gekleurde mensen
en minderheden.
Want weet je?
Zij zijn experten
in haat en desinformatie,
omdat zij al zo lang het doelwit
zijn van deze campagnes.
En door de jaren heen
hebben ze vaak gewaarschuwd,
maar er werd niet naar geluisterd.
Dit moet veranderen.
Dus kunnen we een Wikipedia
bouwen van vertrouwen?
Kunnen we een manier vinden
om gebruikers hun inzicht te laten geven?
Zij zouden inzicht kunnen bieden
bij moeilijke beslissingen over inhoud.
Ze zouden feedback kunnen geven
wanneer platformen beslissen
om veranderingen door te voeren.
Ten tweede zijn ervaringen
met informatie gepersonaliseerd.
Mijn Facebook nieuwsoverzicht
is anders dan het jouwe.
Jouw YouTube aanbevelingen
zijn anders dan de mijne.
Dat maakt het onmogelijk
om echt te onderzoeken
welke informatie mensen te zien krijgen.
Dus kunnen we ons inbeelden
dat een gecentraliseerd, open geheugen
voor anonieme data ontwikkeld wordt,
met privacy en ethische bezwaren erin?
Want stel je voor wat we zouden leren
als we een globaal netwerk
uitbouwden met betrokken burgers
die hun sociale data
zouden doneren aan de wetenschap.
Want we weten eigenlijk erg weinig
over de gevolgen op lange termijn
van haat en desinformatie
voor mensen hun houding en gedrag.
En wat we wel weten,
is dat dit het vaakst gebeurt in de VS,
ondanks het feit
dat dit een globaal probleem is.
Daar moeten we ook aan werken.
En ten derde,
kunnen we dan geen ketting maken?
Niet één sector, laat staan nonprofit,
start-up of regering
gaat dit oplossen.
Maar er zijn erg slimme mensen
over de hele wereld
die de uitdaging aangaan,
bij nieuwsredacties, de burgers,
academici, activisten.
En sommigen ervan zie je hier.
Sommigen bouwen aan indicators
van geloofwaardigheid.
Anderen checken de feiten,
zodat valse beweringen, video's
en afbeeldingen verdwijnen van platformen.
Een nonprofit die ik
geholpen heb, First Draft,
werkt met competitieve
nieuwsredacties wereldwijd
om samen met hen onderzoekende
samenwerkingsprogramma's te bouwen.
En Danny Hillis, een software architect,
ontwerpt een nieuw systeem
genaamd The Underlay,
wat een geheugen zal zijn
van elke openbare verklaring van feiten,
verbonden aan hun bronnen,
zodat mensen en algoritmes beter
kunnen oordelen over wat geloofwaardig is.
En opvoeders wereldwijd
testen verschillende technieken
om mensen kritisch te laten kijken
naar de informatie die ze opnemen.
Al deze inspanningen zijn fantastisch,
maar ze werken afgezonderd
en vele krijgen
pijnlijk weinig financiering.
Er zijn ook honderden erg slimme mensen
die in deze bedrijven werken,
maar deze inspanningen
kunnen ontwricht voelen,
omdat ze verschillende oplossingen
ontwikkelen voor dezelfde problemen.
Hoe zouden we mensen kunnen samenbrengen
op één fysieke locatie
voor dagen of weken na elkaar,
zodat ze deze problemen
samen kunnen aanpakken
maar vanuit hun eigen perspectieven?
Kunnen we dit?
Kunnen we een gecoördineerde,
ambitieuze oplossing opzetten
van dezelfde schaal en complexiteit
als het probleem zelf?
Ik denk echt dat het kan.
Laten we samen onze publieke
bronnen heropbouwen.
Dankjewel.
(Applaus)
Quem quer que sejam
ou onde quer que morem,
aposto que vocês têm,
pelo menos um parente
que gosta de encaminhar aqueles "e-mails"
— vocês sabem de quais estou a falar —
aqueles com afirmações duvidosas
ou vídeos sobre conspirações.
Vocês provavelmente
já os calaram no Facebook,
por partilharem "posts" sociais como este:
É a imagem de uma banana
com uma estranha cruz vermelha
passando pelo centro.
O texto está a avisar as pessoas
para não comerem frutas
parecidas com aquela,
sugerindo que lhes injetaram sangue
contaminado com VIH.
A mensagem, por cima, diz simplesmente:
"Por favor, encaminhe para salvar vidas."
Os verificadores de factos
vêm desmistificando isto há anos.
Mas este é um daqueles rumores
que não morrem.
Um rumor sobre zombies.
E, claro, é inteiramente falso.
Pode ser tentador rir de um exemplo
como este, e dizer:
"Bom, afinal quem acredita nisto?"
Mas é um rumor sobre zombies
que atinge o medo mais profundo
das pessoas, sobre a sua segurança
e a das pessoas que amam.
Se vocês gastam tanto tempo como eu
a procurar informações falsas,
sabem que este é apenas
um exemplo entre muitos
que atingem o medo mais profundo
e a vulnerabilidade das pessoas.
Todos os dias, no mundo inteiro,
vemos novos memes no Instagram,
a encorajar os pais
a não vacinarem os filhos.
Vemos novos vídeos no YouTube a explicar
que a alteração climática é uma fraude.
Em todas as plataformas,
vemos inúmeros "posts"
concebidos para demonizar outras pessoas
segundo a sua etnia, a sua religião
ou a sua sexualidade.
Bem-vindos a um dos problemas
centrais do nosso tempo.
Como conseguiremos manter
uma Internet com liberdade de expressão
enquanto também asseguramos
que o conteúdo disseminado
não cause irreversíveis danos nas nossas
democracias, nas nossas comunidades
e no nosso bem-estar físico e mental?
Porque vivemos na era da informação,
Porém, a moeda central de que
todos dependemos — a informação —
já não é considerada totalmente fiável.
E, às vezes, pode ser
francamente perigosa.
Isto é graças, em parte, ao crescimento
das plataformas de partilha social
que podemos percorrer,
onde mentiras e factos estão lado a lado,
mas sem nenhum dos tradicionais
sinais de credibilidade.
E bem... a nossa linguagem em volta disto
é horrivelmente confusa.
As pessoas continuam obcecadas
pela expressão "fake news",
apesar do facto de ela ser
extraordinariamente inútil
e de ser usada para descrever
coisas que são muito diferentes:
Mentiras, boatos, fraudes,
conspirações, propaganda.
Eu espero que nós possamos
deixar de usar uma expressão
que foi adotada por políticos
do mundo inteiro,
da esquerda até à direita,
tem sido usada como arma para atacar
uma imprensa livre e independente,
(Aplausos)
Precisamos dos "media" profissionais
agora mais do que nunca.
Além disso, na maioria, estes conteúdos
nem vêm mascarados como notícias.
São memes, vídeos, "posts" sociais.
A maioria deles não são falsos,
são enganadores.
Nós tendemos a fixar-nos
no que é verdadeiro ou falso.
Mas a maior preocupação
é fazer do contexto uma arma.
Porque a desinformação mais eficaz
sempre foi aquela que contém
uma parte de verdade.
Vamos ver este exemplo, de Londres,
de março de 2017.
Um "tweet" que circulou amplamente
na sequência de um incidente
terrorista na ponte de Westminster.
Esta é uma imagem real, não é falsa.
A mulher que aparece na fotografia
foi entrevistada depois
e explicou que estava totalmente
traumatizada.
Estava a falar ao telemóvel
com um ente querido
e não estava a olhar
para a vítima, por respeito.
Mesmo assim, circulou amplamente
retratado como islamofobia,
com múltiplas "hashtags",
incluindo: #BanIslam.
Se vocês trabalhassem no Twitter,
o que é que fariam?
Eliminavam-no ou deixavam-no?
A minha reação intuitiva,
emocional, é eliminar.
Odeio o enquadramento desta imagem.
Mas a liberdade de expressão
é um direito dos homens,
E se começarmos a eliminar discursos
que nos deixam desconfortáveis,
vamos arranjar problemas.
Este pode parecer um caso claro,
mas a maioria não é assim.
Estas linhas são extremamente
difíceis de traçar.
O que é uma decisão
bem intencionada de uma pessoa
é pura censura para outra.
Sabemos agora que esta conta,
Texas Lone Star,
fez parte de uma ampla campanha
de desinformação russa,
uma que, a partir daí, foi eliminada.
Isso mudaria a vossa opinião?
Mudou a minha,
Porque agora é um caso
de uma campanha coordenada
para semear a discórdia.
Para quem goste de pensar
que a inteligência artificial
vai resolver os nossos problemas,
eu acho que podemos concordar
que estamos muito longe
de uma IA que consiga
interpretar "posts" como este.
Gostava de explicar
três problemas interligados
que tornam isto muito complexo
e depois pensar nalgumas formas
de considerar esses problemas.
Primeiro, não temos
uma relação racional com a informação,
temos uma relação emocional.
Não é verdade que mais factos
façam tudo ficar Ok,
porque os algoritmos que determinam
os conteúdos que vemos
são concebidos para recompensar
as nossas reações emocionais.
Quando estamos com medo,
as narrativas simplificadas,
as explicações conspiratórias
e uma linguagem que demoniza
outras pessoas são muito mais eficazes.
Além disso, em muitas destas empresas,
os modelos de negócios
estão ligados à atenção.
Ou seja, estes algoritmos
serão sempre virados para as emoções.
Segundo, a maioria dos discursos
de que estou a falar, é legal.
Seria uma questão diferente
se falasse de imagens
de abuso sexual infantil
ou de conteúdos que incitam à violência.
É perfeitamente legal publicar
uma mentira descarada.
Mas continuamos a falar de eliminar
conteúdos problemáticos ou prejudiciais,
sem uma clara definição
do que queremos dizer com isso,
incluindo Mark Zuckerberg
que pediu uma regulamentação
mundial para moderar o discurso.
A minha preocupação é que vemos governos
pelo mundo inteiro
a tomar decisões políticas precipitadas
que podem desencadear
consequências muito mais graves
quando se trata do nosso discurso.
E mesmo que pudéssemos decidir
qual o discurso a manter ou a eliminar,
nunca tivemos tantos discursos.
A cada segundo, milhões
de peças de conteúdos
são descarregadas no mundo inteiro,
em idiomas diferentes,
com milhares de diferentes
contextos culturais.
Nós nunca tivemos
mecanismos eficazes
para moderar discursos a esta escala,
sejam feitos por seres humanos
ou por tecnologia.
E terceiro, essas empresas — a Google,
o Twitter, o Facebook, o Whatsapp —
fazem parte de um ecossistema
mais amplo de informações.
Nós gostamos de lhes atribuir
todas as culpas,
mas os "media" de massas
e os funcionários eleitos
também ampliam rumores
e conspirações, quando querem.
Tal como nós, quando encaminhamos,
sem pensar,
conteúdos facciosos ou enganadores,
sem os testarmos.
Estamos a contribuir para a poluição.
Eu sei que todos procuramos
um remédio fácil.
Mas não há nenhum.
Qualquer solução terá de ser desenvolvida
a uma escala enorme, à escala da Internet,
E sim, as plataformas estão acostumadas
a trabalhar a esse nível.
Mas podemos ou devemos deixar
que elas resolvam estes problemas?
Certamente estão a tentar
mas muitos de nós concordará
que não queremos empresas globais
que sejam guardiãs
da verdade e da justiça "online".
Também acho que as plataformas
concordarão com isso.
Neste momento, elas estão
a fazer o seu trabalho.
Elas gostam de nos dizer
que as intervenções que implementam,
estão a funcionar
mas, como são eles que escrevem
os seus relatórios,
não há maneira de verificarmos,
independentemente, o que acontece.
(Aplausos)
E sejamos claros, a maioria
das mudanças que vemos
somente acontece depois
de os jornalistas investigarem
e encontrarem provas de preconceitos
ou conteúdos que violam
as orientações da comunidade.
Estas empresas têm de desempenhar
um papel importante neste processo
mas não podem controlá-lo.
Então e os governos?
Muitos acreditam que a regulamentação
global é a nossa última esperança
em termos de limpar o nosso
ecossistema de informações.
Mas só vejo legisladores
a lutar para se manterem atualizados
com as rápidas mudanças na tecnologia.
E pior, estão a trabalhar no escuro,
porque não têm acesso aos dados
para perceberem o que está a acontecer
nessas plataformas.
De qualquer modo, em que governos
confiaríamos para fazer isso?
Precisamos de uma resposta mundial,
não uma resposta nacional.
Portanto, a ligação em falta somos nós.
são as pessoas que usam as tecnologias
todos os dias.
Podemos conceber uma nova infraestrutura
para suportar informações de qualidade?
Eu acredito que sim
e tenho algumas ideias
sobre o que podemos fazer.
Primeiro, se quisermos mesmo
que o público participe nisto,
podemos tirar alguma inspiração
da Wikipedia?
Eles mostraram-nos o que é possível.
Sim, não é perfeito,
Mas demonstraram
que, com as estruturas certas,
com uma perspetiva global,
e muito mais transparência,
podemos construir algo
que ganhe a confiança da maioria.
Porque temos de achar uma forma
de explorar a sabedoria coletiva
e a experiência de todos os utilizadores.
Isso é especialmente o caso
das mulheres,
das pessoas de cor,
dos grupos mal representados.
Sabem que mais?
Eles são especialistas quando
se fala de ódio e desinformação,
porque têm sido o alvo
dessas campanhas há muito tempo.
Ao longo dos anos,
ergueram as suas bandeiras
mas não têm sido escutados.
Isto tem de mudar.
Então podemos construir
uma Wikipedia para a confiança?
Haverá uma forma de os utilizadores
contribuírem com ideias?
Podem contribuir com ideias sobre difíceis
decisões para moderação de conteúdos.
Podem fornecer "feedback"
quando as plataformas decidirem
querer lançar novas mudanças.
Segundo, as experiências das pessoas
com a informação são personalizadas.
O meu "feed" de notícias do Facebook
é diferente do vosso.
As vossas recomendações do YouTube
são diferentes das minhas.
Isso impossibilita-nos de examinar
que informações é que
as pessoas estão a ver.
Então, podemos imaginar
desenvolver algum tipo de repositório
aberto centralizado para dados anónimos,
com privacidade e preocupações éticas
nele incluídas?
Porque imaginem o que aprenderíamos
se construíssemos uma rede global
de cidadãos preocupados
que quisessem doar os seus dados
sociais para a ciência.
Porque nós sabemos muito pouco
sobre as consequências a longo prazo
do ódio e da desinformação
nas atitudes e comportamentos das pessoas.
E a maior parte do que sabemos,
tem sido realizada nos EUA,
apesar do facto de ser
um problema mundial.
Precisamos de trabalhar nisto também.
E terceiro, podemos achar
uma forma de juntar os pontos?
Nenhum setor, muito menos o não-lucrativo,
as "startups" ou os governos,
vão solucionar isto.
Mas há pessoas muito inteligentes
em todo o mundo
a trabalhar nestes problemas,
nas salas de imprensa,
na sociedade civil, na academia,
em grupos de ativistas.
Podemos ver alguns deles aqui.
Alguns estão a criar indicadores
de credibilidade de conteúdos.
Outros, verificam factos,
para retirar das plataformas
as afirmações, os vídeos
e as imagens falsas.
A First Draft, uma organização
sem fins lucrativos,
está a trabalhar com redações
competitivas do mundo inteiro,
para as ajudar a criar programas
investigativos e colaborativos.
Danny Hills, uma arquiteta de "software"
está a conceber um novo sistema,
chamado The Underlay
que vai ser um registo
das declarações públicas de factos
relacionados com as suas fontes,
para as pessoas e os algoritmos
avaliarem melhor o que é credível.
Educadores do mundo inteiro
estão a testar diferentes técnicas
para encontrar maneiras
de ensinar as pessoas
a serem críticas
dos conteúdos que consomem.
Todos estes esforços são ótimos,
mas estão a trabalhar isoladamente.
Muitos deles, infelizmente,
têm falta de fundos.
Também há centenas de pessoas
muito inteligentes
a trabalhar nestas empresas,
mas, de novo, estes esforços
podem parecer desligados,
pois estão a desenvolver diferentes
soluções para os mesmos problemas.
Como podemos achar uma forma
de reunir as pessoas
num local físico, durante dias
ou semanas, ao mesmo tempo,
para eles poderem abordar
estes problemas juntos
mas segundo as suas diferentes
perspetivas?
Então, podemos fazer isto?
Podemos construir uma resposta
coordenada e ambiciosa?
Uma resposta que iguale a escala
e a complexidade do problema?
Acho que podemos.
Juntos, vamos reconstruir
as nossas informações comuns.
Obrigada.
(Aplausos)
Não importa quem seja ou onde more,
eu chutaria que você tem
pelo menos um parente
que gosta de encaminhar aqueles e-mails.
Sabem do que estou falando,
aqueles com alegações duvidosas
ou vídeos conspiratórios.
E vocês provavelmente já
não os seguem mais no Facebook
por compartilhar publicações como esta.
É uma imagem de uma banana
com uma estranha cruz vermelha
passando pelo centro.
E o texto advertindo as pessoas
a não comerem frutas
que tenham essa aparência,
sugerindo que foram injetadas
com sangue contaminado com HIV.
E a mensagem compartilhada só diz:
"Compartilhe para salvar vidas."
Verificadores de fatos
já desmentem essa há anos,
mas é um daqueles boatos
que simplesmente não acabam.
Um boato zumbi.
E, óbvio, é completamente falso.
Pode ser tentador rir
de um exemplo desses,
dizer: "Bem, quem acreditaria nisso?"
Mas a razão para ser um boato zumbi
é que explora nossos medos
mais profundos sobre a própria segurança
e a das pessoas que amamos.
E quando se passa tanto tempo
quanto eu vendo desinformação,
você sabe que esse
é só um exemplo de muitos
que exploram nossos medos
e vulnerabilidades mais profundos.
Todo dia, ao redor do mundo,
vemos muitos novos memes no Instagram
incentivando os pais
a não vacinarem os filhos.
Vemos novos vídeos no YouTube
explicando que a mudança
climática é uma farsa.
E em todas as plataformas,
vemos inúmeras publicações
feitas para demonizar pessoas
baseado em raça, religião ou sexualidade.
Bem-vindos a um dos principais
desafios do nosso tempo.
Como podemos manter uma Internet
com liberdade de expressão em foco,
e ao mesmo tempo garantir
que o conteúdo sendo disseminado
não cause danos irreparáveis
às nossas democracias, comunidades
e nosso bem-estar físico e mental?
Porque vivemos na era da informação,
porém, a moeda central de que
todos dependemos, informação,
já não é mais considerada
totalmente confiável
e às vezes pode parecer
completamente perigosa.
Isso se dá em parte graças
ao crescimento desenfreado
de plataformas de compartilhamento
que nos permitem ir rolando,
onde mentiras e fatos estão lado a lado,
mas sem nenhum dos sinais
tradicionais de credibilidade.
E puxa vida! Nossa linguagem disso
é horrivelmente atrapalhada.
As pessoas ainda estão obcecadas
com o termo "fake news",
apesar do fato de ser
extremamente desnecessário
e usado para descrever muitas coisas
que são, na verdade, bem diferentes:
mentiras, boatos, farsas,
conspirações, campanhas.
Queria que parássemos de usar um termo
que foi adotado por políticos
de todo o mundo,
de esquerda e de direita,
usado como arma para atacar
uma imprensa livre e independente.
(Aplausos)
Pois precisamos dos nossos
noticiários profissionais
agora mais do que nunca.
E além disso, a maioria desse conteúdo
nem disfarça ser notícia.
São memes, vídeos, publicações.
E a maior parte não é falsa; é enganosa.
Temos a tendência de focar
o que é verdadeiro ou falso.
Mas a maior preocupação
é o contexto usado como arma.
Porque a desinformação mais eficaz
sempre foi aquela que tem
uma pitada de verdade.
Usemos esse exemplo de Londres,
de março de 2017,
Um tuíte que circulou bastante
na sequência de um incidente terrorista
na Ponte de Westminster.
Essa imagem é genuína, não falsa.
A mulher que aparece na foto
foi entrevistada em seguida
e explicou que ficou
profundamente traumatizada.
Ela estava no telefone com um ente querido
e não olhava para a vítima por respeito.
Mas ainda assim circulou abertamente
com um enquadramento islamofóbico,
com diversas hashtags,
incluindo: #BanIslam.
E se você trabalhasse
no Twitter, o que faria?
Você o apagaria ou deixaria lá?
Meu instinto, minha reação
emocional, seria de apagar.
Eu detesto o enquadramento dessa imagem.
Mas liberdade de expressão
é um direito humano
e se começarmos a apagar discursos
que nos deixam desconfortáveis,
aí teremos problemas.
E esse pode parecer um caso nítido,
mas a maioria dos discursos não é.
Essa linha é incrivelmente
difícil de definir.
O que é uma decisão
bem-intencionada de uma pessoa
é censura indiscutível para a outra.
O que sabemos agora
é que essa conta, Texas Lone Star,
foi parte de uma campanha russa
mais ampla de desinformação,
uma que já foi derrubada.
Será que isso mudaria sua opinião?
A minha sim,
porque agora é o caso
de uma campanha coordenada
para semear discórdia.
E para vocês que gostariam de pensar
que a inteligência artificial resolverá
todos os nossos problemas,
concordemos que estamos bem longe
de IA que consiga entender
publicações como esta.
Então eu gostaria de explicar
três questões interligadas
que complicam muito essa questão
e pensar em algumas maneiras
para considerar esses desafios.
Primeiro, não temos um relacionamento
racional com a informação,
e sim um emocional.
Não é verdade que mais fatos
farão tudo ficar bem,
porque os algoritmos que determinam
que conteúdo nós vemos
são projetados para recompensar
nossa resposta emocional.
E quando temos medo,
narrativas simplistas,
explicações conspiratórias
e linguagem que demoniza os outros
são muito mais eficazes.
E além disso, muitas dessas empresas
têm um modelo de negócios
vinculado à atenção,
o que significa que esses algoritmos serão
sempre enviesados para o lado emocional.
Segundo, grande parte do discurso
de que estou falando aqui é legal.
Seria um problema diferente
se eu falasse de imagens
de abuso sexual infantil
ou conteúdo que incite violência.
Pode ser perfeitamente legal
postar uma mentira descarada.
As pessoas continuam falando de apagar
conteúdo "problemático" ou "nocivo",
mas sem definição clara
do que querem dizer com isso,
como Mark Zuckerberg,
que recentemente reivindicou
uma regulação global
para moderar o discurso.
E minha preocupação
é estarmos vendo governos
ao redor do mundo todo
lançando decisões
precipitadas de políticas
que podem, de fato, provocar
consequências muito mais sérias
quando se trata do nosso discurso.
E mesmo se pudéssemos decidir
quais discursos publicar ou apagar,
nunca tivemos tanto discurso.
A cada segundo, milhões de conteúdos
são publicados por pessoas do mundo todo
em diferentes idiomas, recorrendo
a milhares de contextos diferentes.
Nunca tivemos mecanismos eficazes
para moderar discurso a essa escala,
seja impulsionado por humano
ou por tecnologia.
E terceiro, essas empresas:
Google, Twitter, Facebook, WhatsApp;
são parte de um ecossistema
de informação mais amplo.
Gostamos de pôr toda a culpa nelas,
mas os meios de comunicação
e os representantes eleitos
podem ter um papel equivalente
para amplificar boatos
e conspirações se quiserem.
Assim como nós, quando
compartilhamos cegamente
conteúdo polêmico
ou enganoso sem querer.
Estamos criando mais poluição.
Sei que todos buscamos uma solução fácil.
Mas não há nenhuma.
Qualquer solução teria que ser lançada
numa escala massiva, escala de Internet,
e sim, as plataformas estão acostumadas
a operar nesse nível.
Mas será que podemos e devemos
permiti-las reparar esses problemas?
Certamente estão tentando,
mas a maioria de nós concordaria
que não queremos multinacionais
como guardiãs da verdade
e da justiça on-line.
E também acho que
as plataformas concordariam.
E agora elas mesmas estão
determinando sua nota.
Gostam de nos dizer que as intervenções
que estão aplicando funcionam,
mas como elas mesmas escrevem
os relatórios de transparência,
não conseguimos verificar
o que está acontecendo de fato.
(Aplausos)
E sejamos claros que a maioria
das mudanças que vemos
só acontecem depois
que jornalistas investigam
e acham evidência de parcialidade
ou conteúdo que viola
suas diretrizes de comunidade.
Então sim, essa empresas têm que ter
um papel fundamental no processo,
mas elas não podem controlá-lo.
E que tal os governos?
Muita gente acredita
que regulamentação global
é nossa última esperança
em termos de sanear
nosso ecossistema de informação.
Mas o que vejo são legisladores
que têm dificuldade de acompanhar
as mudanças rápidas em tecnologia.
E pior, estão trabalhando no escuro,
porque não têm acesso aos dados
para entender o que está acontecendo
nessas plataformas.
E afinal, a quais governos
confiaríamos essas tarefas?
Precisamos de uma resposta
global, não nacional.
Nós somos o elemento que falta.
São aquelas pessoas que usam
essas tecnologias todo dia.
Será que podemos criar uma infraestrutura
que reforce a qualidade da informação?
Bem, acho que sim,
E tenho algumas ideias
do que podemos conseguir fazer.
Primeiro, se quisermos mesmo
envolver o público,
será que conseguimos
nos inspirar na Wikipedia?
Eles nos mostraram o que é possível.
Sim, não é perfeito,
mas demonstraram que,
com as estruturas corretas,
com uma perspectiva global
e muita transparência,
dá para construir algo que
mereça a confiança de muita gente.
Porque é preciso achar um jeito
de explorar o conhecimento coletivo
e a experiência de todos os usuários.
Esse é o caso particularmente
para mulheres, negros
e grupos sub-representados.
E adivinhem por quê?
Eles são especialistas
em ódio e desinformação,
pois já foram o alvo
dessas campanhas por muito tempo.
E ao longo dos anos, eles vêm alertando
e nunca foram escutados.
Isso tem que mudar.
Será que podemos criar
uma Wikipedia da credibilidade?
Será que podemos encontrar um jeito
dos usuários darem ideias?
Podem dar ideias sobre decisões difíceis
de moderação de conteúdo.
Podem fornecer feedback
quando as plataformas decidirem
que querem aplicar novas mudanças.
Segundo, a experiência das pessoas
com informação é personalizada.
Minha linha do tempo no Facebook
é bem diferente da sua.
Suas recomendações no YouTube
são bem diferentes das minhas.
Isso impossibilita que analisemos
quais informações as pessoas estão vendo.
Será que podemos imaginar
o desenvolvimento de um tipo
de repositório aberto e centralizado
para dados anonimizados,
com questões éticas
e de privacidade integradas?
Pois imaginem o que descobriríamos
se construíssemos uma rede global
de cidadãos interessados
que quisessem doar
dados sociais para a ciência.
Porque sabemos mesmo muito pouco
sobre as consequências de longo prazo
do ódio e da desinformação
nas atitudes e comportamento das pessoas.
E o que de fato sabemos,
quase tudo foi elaborado nos EUA,
apesar de esse ser um problema global.
Temos que trabalhar nisso também.
E terceiro, será que encontramos
um jeito de ligar os pontos?
Nenhum setor, especialmente
o não-lucrativo, start-ups ou governos,
vai resolver isso sozinho.
Mas há pessoas muito inteligentes
no mundo todo todo
trabalhando nesses desafios,
de salas de imprensa, sociedade civil,
meio acadêmico, grupos ativistas.
E podem ver alguns aqui.
Alguns estão criando indicadores
de credibilidade de conteúdo.
Outros verificam fatos, para que
declarações, vídeo e imagens falsas
sejam ofuscados pelas plataformas.
Uma não-lucrativa
que ajudei a fundar, a First Draft,
está trabalhando com salas
de imprensa em todo o mundo
para ajudar a construir programas
investigativos e colaborativos.
E Danny Hills, um arquiteto de software,
está projetando um novo sistema
chamado "The Underlay",
que será um arquivo
de todas as constatações públicas
conectadas às suas fontes,
para que as pessoas e os algoritmos
possam julgar melhor o que é confiável.
E educadores de todo o mundo
estão testando técnicas diferentes
de fazer com que as pessoas sejam
mais críticas do conteúdo que consomem.
Todo esse trabalho é maravilhoso,
mas estão trabalhando isoladamente
e muitos não têm financiamento suficiente.
Há também centenas
de pessoas muito inteligentes
trabalhando nessas empresas,
mas esses esforços parecem desconexos,
porque estão desenvolvendo
soluções diferentes para o mesmo problema.
Como podemos encontrar um jeito
de aproximar as pessoas
em um local físico por dias ou semanas,
para que possam abordar
esses problemas em conjunto,
mas de diferentes perspectivas?
Então, será que conseguimos?
Conseguimos criar uma resposta
coordenada e ambiciosa,
que se adeque à escala
e à complexidade do problema?
Eu acho mesmo que sim.
Juntos vamos reconstruir
nosso acervo de informações.
Obrigada.
(Aplausos)
Indiferent cine ești sau unde locuiești,
cred că ai cel puțin o rudă
căreia îi place
să distribuie acele postări.
Știți despre ce vorbesc:
cele cu afirmații dubioase
sau videoclipuri despre conspirații.
Și probabil le-ați dat „mute” pe Facebook
pentru distribuirea postărilor ca aceasta.
Este imaginea unei banane
cu o cruce roșie ciudată în mijloc.
Iar textul avertizează oamenii
să nu mănânce fructe care arată așa,
sugerând că ar fi fost injectate cu sânge
contaminat cu virusul HIV.
Și mesajul de deasupra spune:
„Vă rog distribuiți pentru a salva vieți”.
Cei care verifică faptele au demitizat
astfel de știri acum mulți ani,
dar e unul din acele zvonuri
care nu vrea să moară.
Un zvon zombie.
Și, bineînțeles, e total fals.
Ai putea fi tentat să râzi
la un asemenea exemplu, să spui:
„Cine ar putea crede asta?”
Motivul pentru care e un zvon zombie
e pentru că atinge cele mai mari temeri
ale oamenilor privind propria siguranță
și a celor pe care îi iubesc.
Iar dacă petreci la fel de mult timp
ca mine analizând dezinformarea,
știi că acesta e doar un exemplu
din multele
care ating cele mai adânci
frici și vulnerabilități.
În fiecare zi vedem un număr
mare de noi meme pe Instagram
care încurajează părinții
să nu își vaccineze copiii.
Vedem videoclipuri pe YouTube explicând
că schimbările climaterice sunt o farsă.
Pe toate platformele vedem nenumărate
postări care îi demonizează pe alții
pe baza rasei, religiei sau sexualității.
Bine ați venit la una din marile
provocări ale zilelor noastre.
Cum putem să menținem
un internet cu libertate de expresie,
asigurându-ne totodată că conținutul
nu cauzează prejudicii ireparabile
democrației, comunităților
și bunăstării noastre fizice și psihice?
Deși trăim în era informației,
totuși elementul cheie
de care depindem toți: informația,
nu mai e considerată de încredere
și câteodată poate fi chiar periculoasă.
Asta se datorează în mare parte creșterii
necontrolate a platformelor sociale
care ne permit să citim
minciuni și adevăruri alăturate,
fără niciun semnal
tradițional al încrederii.
Și, Doamne, limbajul folosit
e îngrozitor de confuz.
Oamenii încă sunt obsedați
de expresia „știri false”,
în ciuda faptului
că e extraordinar de inutilă
și folosită pentru a descrie
multe lucruri care sunt foarte diferite:
minciuni, zvonuri, farse,
conspirații, propagandă.
Și chiar îmi doresc
să nu mai folosim o expresie
care a fost folosită
de politicienii din întreaga lume,
de stânga și de dreapta,
ca să atace presă liberă și independentă.
(Aplauze)
Deoarece avem nevoie de o presă
profesionistă mai mult ca niciodată.
Și pe lângă asta, majoritatea acestui
conținut nu pretinde a fi știri.
Sunt meme, videoclipuri, postări.
Și majoritatea nu sunt false;
sunt înșelătoare.
Tindem să ne fixăm
pe ce e adevărat sau fals.
Dar cea mai mare problemă
e de fapt folosirea contextului.
Pentru că cea mai eficientă dezinformare
a fost întotdeauna cea care are
un sâmbure de adevăr în ea.
Să luam un exemplu din Londra,
din martie 2017,
un tweet care a circulat la scară largă
în urma unui incident terorist
pe podul Westminster.
Aceasta e o imagine reală, nu falsă.
Femeia care apare în poză
a fost intervievată după aceea
și a explicat că a fost
extrem de traumatizată.
Era la telefon cu o persoană iubită,
și nu se uita la victimă din respect.
Dar a circulat la scară largă
cu această descriere islamofobă,
cu multiple hashtag-uri,
printre care #InterzicețiIslamul.
Acum, dacă ai lucra la Twitter,
ce ai face?
Ai da-o jos sau ai lăsa-o?
Instinctiv, emoțional, aș da-o jos.
Urăsc descrierea acestei imagini.
Dar libertatea de expresie
e un drept al omului,
și dacă începem să interzicem
părerile inconfortabile,
avem probleme.
Și acesta poate părea un caz clar,
dar, de fapt, majoritatea nu sunt.
Liniile sunt incredibil de greu de trasat.
Ce e o decizie bine intenționată
pentru o persoană
e cenzură pentru alta.
Ceea ce știm e că acest cont,
Texas Lone Star,
a făcut parte dintr-o largă campanie
rusească de dezinformare
care a fost demascată.
Vă schimba asta punctul de vedere?
Pe al meu îl schimbă,
pentru că face parte
dintr-o campanie coordonată
pentru a semăna discordie.
Iar pentru cei care cred
că inteligența artificială va rezolva
toate problemele noastre,
cred că putem fi de acord
că suntem departe
de acea IA care e capabilă să dea sens
postărilor ca aceasta.
Aș vrea să vă explic
trei aspecte interconectate
care fac problema atât de complexă
și să vă gândiți la câteva moduri
de a privi aceste provocări.
În primul rând, noi pur și simplu nu avem
o relație rațională cu informația,
ci una emoțională.
Nu e adevărat că mai multe informații
vor rezolva totul,
pentru că algoritimii care determină
ce conținut vedem,
sunt făcuți să recompenseze
răspunsul nostru emoțional.
Iar când ne temem,
poveștile simplificate,
explicațiile conspirative
și limbajul ce îi demonizează pe ceilalți
sunt mult mai eficiente.
În plus, multe din aceste companii
au modelul de afaceri bazat pe atenție,
ceea ce înseamnă că acești algoritmi
vor fi întotdeauna atrași spre emoții.
În al doilea rând, majoritatea limbajului
despre care vă vorbesc este legal.
Ar fi cu totul altceva
dacă aș fi vorbit
despre copii abuzați sexual
sau conținut care incită la violență.
E perfect legal să postezi o minciună.
Dar oamenii vorbesc despre interzicerea
subiectelor „problematice” sau „nocive”,
dar fără o definiție clară
a ce înseamnă asta,
inclusiv Mark Zuckerberg,
care a cerut recent o reglementare
globală a limbajului.
Teama mea e că vedem guverne
în toată lumea
care iau decizii politice pripite,
care chiar ar putea declanșa
consecințe mult mai grave
când vine vorba de libertatea de expresie.
Chiar dacă am putea decide
care părere e interzisă sau nu,
nu am avut niciodată atâtea păreri.
În fiecare secundă milioane de materiale
sunt încărcate de oameni din toată lumea,
în diferite limbi,
influențând mii de oameni
din contexte culturale diferite.
Pur și simplu nu am avut
niciodată mecanisme eficiente
pentru a modera limbajul
la această scară,
indiferent dacă sunt alimentate
de oameni sau tehnologie.
În al treilea rând, aceste companii,
Google, Twitter, Facebook, WhatsApp,
fac parte dintr-un ecosistem
informațional mai mare.
Ne place să dăm vina pe ei,
dar adevărul e
că mass media și reprezentanții aleși
pot juca un rol la fel de important
în amplificarea zvonurilor
și conspirațiilor atunci când vor.
La fel și noi, când distribuim inconștient
subiecte dezbinatoare și înșelătoare
fără încetare.
Contribuim la problemă.
Știu că noi toți
căutăm o rezolvare ușoară.
Dar pur și simplu nu există una.
Orice soluție ar trebui aplicată
la scară masivă, la scară de internet,
și, da, platformele sunt obișnuite
să funcționeze la acel nivel.
Dar putem și ar trebui să le permitem
să rezolve aceste probleme?
Cu siguranță încearcă.
Dar majoritatea dintre noi ar fi de acord
că, de fapt, nu vrem corporațiile globale
să fie apărătorii adevărului
și corectitudinii online.
Și cred că platformele
sunt de acord cu asta.
Iar în prezent își evaluează
propriile soluții.
Le place să ne spună
că intervențiile
pe care le derulează funcționează,
dar deoarece își scriu
propriile rapoarte de transparență,
nu e nicio metodă ca noi să verificăm
independent ce se întâmplă de fapt.
(Aplauze)
Și să fie clar, majoritatea
schimbărilor pe care le vedem
apar după ce jurnaliștii investighează
și găsesc dovezi de părtinire
sau conținut care încalcă
regulile comunității.
Deci da, aceste companii trebuie să joace
un rol important în acest proces,
dar nu pot să îl controleze.
Dar guvernele?
Mulți cred că reglementarea globală
e ultima noastră speranță.
în ce privește curățarea
ecosistemului nostru informațional.
Dar eu văd doar legislatori
care se luptă să țină pasul
cu schimbările rapide ale tehnologiei.
Mai rău, lucrează în întuneric,
deoarece nu au acces la informații
pentru a înțelege ce se întâmplă
pe aceste platforme.
Și oricum, în care guvern putem avea
încredere să facă asta?
Avem nevoie de un răspuns global,
nu de unul național.
Deci veriga lipsă suntem noi,
oameni care folosesc
aceste tehnologii în fiecare zi.
Putem proiecta o nouă infrastructură
pentru a susține informațiile de calitate?
Ei bine, cred că da,
și am câteva idei despre ce am putea face.
Mai întâi, dacă chiar vrem
să implicăm publicul în asta,
nu putem să ne inspirăm din Wikipedia?
Ne-au arătat ce e posibil.
Da, nu e perfect,
dar ne-au demonstrat
că având structurile potrivite,
cu o perspectivă globală
și foarte multă transparență,
putem construi ceva care să câștige
încrederea majorității oamenilor.
Pentru că trebuie să găsim o cale
de a accesa înțelepciunea colectivă
și experiența tuturor utilizatorilor.
E în special cazul femeilor,
oamenilor de culoare
și grupurilor subreprezentate.
Ghiciți de ce?
Ei sunt experți când vine vorba
de ură și dezinformare,
pentru că au fost țintele
acestor campanii pentru mult timp.
Și de-a lungul anilor ne-au avertizat
și nu au fost ascultați.
Asta trebuie să se schimbe.
Deci, am putea construi
o Wikipedia pentru încredere?
Am putea găsi o modalitate prin care
utilizatorii să ofere o perspectivă?
Ar putea oferi o perspectivă
despre deciziile de moderare.
Ar putea oferi feedback
când platformele decid
că vor să facă schimbări.
În a doilea rând, experiențele oamenilor
cu informația sunt personalizate.
Fluxul meu de știri pe Facebook
e diferit de al vostru.
Recomandările voastre pe YouTube
sunt diferite de ale mele.
Asta face imposibil pentru noi să examinăm
ce informații văd oamenii.
Așadar, am putea
să dezvoltăm un fel de depozit centralizat
deschis pentru date anonimizate,
cu preocupări incorporate
privind intimitatea și etica?
Imaginați-vă câte am putea învăța
dacă vom construi o rețea globală
de cetățeni
care vor să doneze științei
datele lor sociale.
Pentru că de fapt știm foarte puține
despre consecințele pe termen lung
ale urii și dezinformării
asupra atitudinii
și comportamentului oamenilor.
Și din ceea ce știm,
cele mai multe s-au desfășurat în SUA,
în ciuda faptului că e o problemă globală.
Trebuie să lucrăm și la asta.
Și în al treilea rând,
putem găsi o modalitate de a uni punctele?
Niciun sector, ONG, start-up sau guvern
nu va rezolva problema.
Dar în lume sunt oameni foarte deștepți
care lucrează la aceste provocări,
agenții de presă, societatea civilă,
academicieni, grupuri activiste.
Iar unii dintre ei pot fi văzuți aici.
Unii realizează indicatori
de credibilitate a conținutului.
Alții verifică faptele,
astfel încât afirmațiile, videoclipurile
și imaginile false să fie date jos.
Un ONG la al cărui înființare
am ajutat, First Draft,
lucrează cu agențiile de presă
din întreaga lume
pentru a-i ajuta să construiască programe
de investigație colaborative.
Și Danny Hillis, un arhitect de software,
creează un sistem nou, numit The Underlay,
care va fi o înregistrare a tuturor
declarațiilor publice
conectate cu sursele lor,
astfel încât oamenii și algoritmii
să poată judeca mai bine ce e credibil.
Și profesorii din întreaga lume
testează diferite tehnici
pentru a-i face pe oameni mai critici
în legătură cu ceea ce citesc.
Toate aceste eforturi sunt minunate,
dar ei lucrează separat
și mulți dintre ei sunt subfinanțați.
Sunt și sute de oameni foarte deștepți
care lucrează în aceste companii,
dar, din nou, aceste eforturi
sunt neconectate,
deoarece de fapt dezvoltă diverse
soluții la aceleași probleme.
Cum putem găsi o modalitate
de a aduce oamenii împreună,
într-un singur loc,
pentru zile sau săptămâni,
pentru a aborda aceste probleme împreună,
dar din diferite perspective?
Putem face asta?
Putem construi un răspuns
coordonat și ambițios,
unul pe măsura mărimii
și complexității problemei?
Eu cred că putem.
Să reconstruim împreună
mediul informațional!
Vă mulțumesc!
(Aplauze)
Неважно, кто вы и где вы живёте,
я думаю, что у вас есть
хотя бы один родственник,
который любит рассылать
те самые сообщения.
Вы понимаете, какие я имею в виду —
те самые со спорными заявлениями
и видео о теориях заговора.
И, возможно, вы уже скрыли
их публикации в Facebook
из-за постов, которыми они делятся.
Здесь изображён банан,
в центре которого странное красное пятно.
И текст над ним предупреждает людей,
чтобы они не ели подобного рода фрукты,
предполагая, что в них впрыснули кровь,
заражённую ВИЧ-инфекцией.
И сверху в репосте просто написано:
«Разошлите всем, чтобы спасти жизни».
Фактчекеры развенчивают
этот слух уже годами,
но он из тех, что просто
так не забываются.
Зомби-слух.
И, конечно же, он совершенно ложный.
И, может быть, сложно не засмеяться
над подобным примером:
«Ну кто в такое поверит?»
Но слух этот зомбирует потому,
что пробуждает самые потаённые
страхи людей за свою безопасность
и безопасность тех, кого они любят.
А если вы прочитаете так же много
ложной информации, как и я,
вы увидите, что это
лишь один пример из многих,
что пробуждают самые
потаённые страхи и слабости людей.
Каждый день по всему миру публикуются
всё новые и новые посты в Instagram,
которые призывают родителей
не делать прививки своим детям.
А в новых видео на Youtube объясняют,
что изменения климата — это «утка».
И на всех платформах мы видим
бесконечные посты, оскорбляющие других
по признаку их расы, религии
или сексуальной ориентации.
Представляю вам одну
из ключевых задач нашего времени.
Как мы можем сохранить в основе
интернета свободу слова
и при этом сделать так,
чтобы распространяемый контент
не причинял непоправимый вред
нашей демократии, нашему обществу
и нашему физическому
и душевному благополучию?
Поскольку мы живём в век информации,
основная валюта, от которой
все мы зависим, — информация —
больше не считается
в полной мере надёжной,
а порой она может быть просто опасной.
Отчасти это благодаря стремительному
росту обмена в соцсетях,
который позволяет нам пролистывать
ленту, где ложь и правда стоят бок о бок,
без единого привычного
признака надёжности.
И о боже — наш язык
в этой теме ужасно запутан.
Люди одержимы этой фразой
«фейковые новости»,
несмотря на то, что она
абсолютно бесполезная
и обозначает несколько понятий,
которые на самом деле сильно различаются:
ложь, слухи, «утки», заговоры, пропаганда.
И я бы хотела, чтобы мы
перестали использовать фразу,
которую применяют политики по всему миру,
от левых до правых,
в качестве оружия против
свободной и независимой прессы.
(Аплодисменты)
Ведь сейчас мы нуждаемся в наших
профессиональных СМИ как никогда.
И кроме того, бóльшую часть
контента не маскируют под новости.
Это мемы, видео, посты.
И бóльшая часть из них не фейк;
они просто вводят нас в заблуждение.
Мы привыкли заострять внимание
на том, что верно или неверно.
Но самая большая проблема — это
применение контекста в качестве оружия.
Потому что самой эффективной
дезинформацией всегда была та,
в которой есть доля правды.
Возьмём вот этот пример
из Лондона, март 2017 года,
твит, широко распространённый
вследствие теракта
на Вестминстерском мосту.
Это настоящая фотография, не фейк.
Потом у женщины с этой
фотографии взяли интервью,
и она объяснила,
что была глубоко шокирована.
По телефону она говорила с близкими
и не смотрела на жертву из уважения.
Но этот твит по-прежнему
распространяли в исламофобском ключе
с множеством хэштегов, включая
#BanIslam («Запретить ислам»).
Если бы вы работали в Твиттере,
что бы вы сделали?
Вы бы его удалили или оставили?
Моей инстинктивной, эмоциональной
реакцией было бы удалить это.
Я против того, в каком
ключе это представлено.
Но свобода слова — это право человека,
и если мы начнём удалять высказывания,
от которых нам некомфортно,
то мы окажемся в беде.
И этот случай может показаться очевидным,
но чаще всего это не так.
И границы невероятно сложно провести.
То, что для одного человека
решение во благо,
для другого — явная цензура.
Мы знаем, что аккаунт Texas Lone Star
был частью более широкой
российской кампании по дезинформации,
который после этого был удалён.
Изменило бы это ваш взгляд?
Мой бы изменило,
потому что теперь это случай
намеренной кампании
с целью сеять распри.
А те из вас, кому хотелось бы думать,
что искусственный интеллект
решит все наши проблемы,
думаю, вы согласитесь,
что нам ещё далеко
до ИИ, который бы смог
осмыслить подобные посты.
Я хотела бы объяснить
три взаимосвязанных аспекта,
которые всё это сильно усложняют,
и затем поразмышлять о том,
как мы можем эти задачи решить.
Во-первых, у нас нет рациональных
взаимоотношений с информацией,
а есть лишь эмоциональные.
И большее количество фактов
ситуацию не улучшит,
ведь алгоритмы, которые
определяют контент в нашей ленте, —
что ж, они призваны поощрять
наши эмоциональные порывы.
А когда мы напуганы,
поверхностная информация,
объяснения заговоров
и уничижающие других слова
более чем эффективны.
Кроме того, у многих из этих компаний
бизнес-модель связана с вниманием,
что означает: эти алгоритмы всегда
будут склоняться в сторону эмоций.
Во-вторых, бóльшая часть высказываний,
о которых я говорю, законны.
И было бы совсем другое дело,
если бы я говорила о растлении детей
или о контенте, провоцирующем насилие.
Публиковать откровенную ложь
может быть совершенно законно.
Но люди продолжают говорить об удалении
«проблемного» или «вредоносного» контента,
причём не давая чёткого
определения тому, о чём говорят,
включая Марка Цукерберга,
который недавно призывал разработать
единые правила регулирования сети.
И я обеспокоена тем, что у нас на глазах
государства по всему миру
принимают поспешные
политические решения,
которые могут повлечь намного
более серьёзные последствия
в отношении свободы слова.
И даже если бы мы могли решить,
какое высказывание удалить или оставить,
у нас никогда их не было
в таком количестве.
Каждую секунду люди со всего мира
загружают миллионы единиц контента
на разных языках,
относящихся к тысячам разных
культурных контекстов.
У нас просто никогда не было
эффективных механизмов
проверки постов в таком масштабе,
с которыми бы справились
люди или технологии.
И в-третьих, эти компании —
Google, Twitter, Facebook, WhatsApp —
являются частью более широкой
информационной экосистемы.
Мы любим возлагать всю вину
на них, но правда в том,
что СМИ и депутаты могут
играть такую же роль
в распространении слухов и заговоров,
когда они этого захотят.
Как и мы, когда бездумно рассылаем
спорный или недостоверный контент
без особых усилий.
Мы способствуем засорению.
Я знаю, что все мы ищем простое решение.
Но такого нет.
Любое решение должно применяться
глобально в масштабе интернета,
и да, эти платформы привыкли
действовать на этом уровне.
Но можем ли и должны ли мы
позволять им решать эти проблемы?
Они, безусловно, стараются.
Но большинство из нас согласится,
мы не хотим, чтобы всемирные корпорации
стояли на страже правды
и справедливости в сети.
И я также думаю, что платформы
с этим согласятся.
И в настоящий момент они
выполняют своё домашнее задание.
Они любят говорить нам,
что изменения, которые
они проводят, работают,
но они пишут собственные
отчёты о прозрачности,
и у нас нет возможности самим проверить,
как обстоят дела в действительности.
(Аплодисменты)
И будем честны, бóльшую
часть изменений мы видим
лишь после того, как журналисты
предпринимают расследование
и находят доказательства
предвзятости или контент,
нарушающий правила их платформы.
Так что да, эти компании должны
сыграть очень важную роль в этом процессе,
но они не должны им управлять.
Что насчёт государств?
Многие верят, что единое регулирование —
наша последняя надежда
в рамках очищения нашей
информационной экосистемы.
Но что я вижу, так это законотворцев,
пытающихся идти в ногу
с быстрым развитием технологий.
И что хуже, они работают вслепую,
потому что у них нет доступа к данным,
чтобы понять, что происходит
на этих платформах.
К тому же, каким государствам
мы бы доверились в этом вопросе?
Нам нужно действовать
на мировом уровне, а не национальном.
Так что недостающее звено — это мы.
Те люди, что используют
эти технологии каждый день.
Можем ли мы создать новую инфраструктуру,
чтобы защитить качественную информацию?
Что ж, я верю в это,
и у меня есть несколько идей
о том, что мы могли бы сделать.
Во-первых, если мы всерьёз
хотим вовлечь в это общественность,
почему бы не взять пример с Википедии?
Они показали нам, что возможно.
Да, она не идеальна,
но они показали,
что с правильными структурами,
глобальным видением
и высокой степенью прозрачности
можно создать то, что заслужит
доверие многих людей.
Ведь мы должны найти способ
проникнуть в коллективную мудрость
и опыт всех пользователей.
Особенно это актуально
для женщин, «цветных» людей
и недопредставленных групп.
Потому что знаете что?
Они эксперты по части
ненависти и дезинформации,
потому что они так долго были
мишенями этих кампаний.
И в течение этих лет они поднимали флаги,
но никто их не слушал.
Это должно измениться.
Так смогли бы мы создать
Википедию, основанную на доверии?
Смогли бы мы найти способ, чтобы
пользователи могли предлагать идеи?
Они могли бы предлагать идеи
по сложным решениям в модерации контента.
Они могли бы давать отклик,
когда платформы решат,
что хотят внести новые изменения.
Во-вторых, у людей индивидуальные
отношения с информацией.
Моя лента в Facebook
сильно отличается от вашей.
Ваши рекомендации в Youtube
сильно отличаются от моих.
Из-за этого мы не можем
по-настоящему проверить,
какую информацию видят люди.
Но что если бы мы
разработали что-то вроде централизованной
открытой базы анонимных данных
с сохранением конфиденциальности
и соблюдением этики?
Ведь представьте, что мы узнали бы,
создай мы всемирную сеть
заинтересованных граждан,
желающих пожертвовать
свои социальные данные науке.
Ведь на самом деле мы мало знаем
о долгосрочных последствиях
ненависти и дезинформации
в отношениях и поведении людей.
А то, что нам известно,
по большей части исследовано в США,
несмотря на то, что это
всемирная проблема.
Нам тоже нужно работать над этим.
И в-третьих,
можно ли найти способ
связать всё это воедино?
Ни один сектор, тем более некоммерческий,
стартап или государство,
не решат эту проблему.
Но по всему миру находятся
очень умные люди,
работающие над этим,
из редакций, гражданского общества,
академии, групп активистов.
Некоторых из них вы видите здесь.
Одни определяют факторы
надёжности контента.
Другие проверяют факты,
чтобы платформы могли снизить охват
ложных утверждений, видео и картинок.
НКО First Draft, которую
я помогла основать,
работает с конкурентноспособными
редакциями по всему миру,
чтобы помочь им создать
исследовательские коллективные программы.
И Дэнни Хиллис, разработчик структуры ПО,
работает над новой системой The Underlay,
которая будет содержать записи
всех публичных утверждений
с указанием их источника,
так люди и алгоритмы смогут лучше
оценить, чему можно доверять.
А эксперты по образованию во всём мире
тестируют разные методы,
чтобы научить людей критически
относиться к потребляемому контенту.
Все эти усилия чудесны,
но они действуют разрозненно,
и многие из них крайне мало финансируются.
К тому же есть сотни очень умных людей,
работающих внутри этих компаний,
но опять же, эти усилия разрозненны,
потому что по сути они предлагают разные
решения для одной и той же проблемы.
Как нам найти способ собрать людей вместе
в одном физическом пространстве
на дни и недели за раз,
чтобы они могли решать
эти проблемы вместе,
но с разных точек зрения?
Так можем ли мы это сделать?
Можем ли мы создать совместное
перспективное решение,
которое бы соотносилось
с масштабом и сложностью проблемы?
Я думаю, что мы можем.
Давайте вместе изменим
нашу общую информационную систему.
Спасибо.
(Аплодисменты)
Bez obzira na to ko ste ili gde živite,
pretpostavljam da imate
barem jednog rođaka
koji voli da prosleđuje one mejlove.
Znate o kojima govorim -
one sa sumnjivim tvrdnjama
ili video-snimcima zavera.
I verovatno ste ih već
blokirali na Fejsbuku
zbog toga što dele objave poput ove.
Ovo je slika banane
kroz čiju sredinu ide čudan crveni krst.
A tekst oko slike upozorava ljude
da ne jedu voće koje ovako izgleda,
jer je navodno u njega ubrizgana krv
zaražena virusom HIV-a.
A poruka iznad jednostavno kaže:
„Molim vas, prosledite
da biste spasili živote.“
Ljudi koji se bave proveravanjem činjenica
opovrgavaju to godinama,
ali ovo je jedna od onih glasina
koja jednostavno ne nestaje.
Zombi glasina.
I naravno, potpuno je lažna.
Možda vas vuče da se nasmejete
ovakvom primeru i kažete:
„Ko bi uopšte poverovao u to?“
Ali ovo je zombi glasina
zbog toga što zadire u najdublje
ljudske strahove o ličnoj bezbednosti,
kao i o bezbednosti onih koje vole.
I ako posmatrate dezinformacije
onoliko dugo koliko ih ja posmatram,
znate da je ovo samo jedan
od mnogih primera
koji zadiru u najdublje
ljudske strahove i osetljivosti.
Svakog dana širom sveta
vidimo gomile novih memova na Instagramu
koji podstiču roditelje
da ne vakcinišu svoju decu.
Na Jutjubu vidimo snimke koji govore
da su klimatske promene prevara.
Na svim platformama viđamo objave
koje su napravljene da demonizuju druge
na osnovu njihove rase,
religije ili seksualnosti.
Dobro došli u jedan od glavnih
izazova našeg vremena.
Kako da održimo internet
koji u srži nosi slobodu govora,
dok u isto vreme vodimo računa
da sadržaj koji se plasira
ne uzrokuje nepopravljivu štetu
našim demokratijama, zajednicama,
i našem fizičkom i mentalnom blagostanju?
Živimo u informacijskom dobu,
a ipak, glavna valuta
od koje svi zavisimo - informacija -
se više ne smatra vrednom poverenja
i ponekad deluje potpuno opasno.
To je delom zbog neobuzdanog rasta
društvenih platformi
koje nam omogućavaju da listamo,
gde se laži i činjenice
nalaze jedne pored drugih,
bez ikakvih uvreženih znakova sigurnosti.
I zaboga, i naš jezik oko ovoga
je neverovatno haotičan.
Ljudi su još uvek opsednuti
frazom „lažne vesti“,
uprkos činjenici da ona uopšte ne pomaže
i koristi se da objasni nekoliko stvari
koje su zapravo veoma različite:
laži, tračeve, prevare,
zavere, propagandu.
I volela bih da prestanemo
da koristimo frazu
koju su političari širom sveta prisvojili,
i levica i desnica,
i koriste je kao oružje
da napadaju slobodnu i nezavisnu štampu.
(Aplauz)
Sada su nam profesionalni mediji
potrebniji nego ikad.
Osim toga, većina ovih sadržaja
se ne i pretvara da su vesti.
To su memovi, snimci, društvene objave.
I većina nije lažna nego obmanjujuća.
Imamo tendenciju da se uhvatimo
za lažno ili istinito.
Ali najveća briga je zapravo
pretvaranje konteksta u oružje.
Jer najubedljivija dezinformacija
je oduvek bila ona
koja u sebi sadrži zrno istine.
Uzmimo ovaj primer iz Londona,
iz marta 2017. godine.
Proširio se jedan tvit
nakon terorističkog incidenta
na mostu Vestminster.
Ovo je prava fotografija, nije lažna.
Žena koja se pojavljuje na slici
je kasnije intervjuisana
i objasnila je da bila potpuno traumirana.
Razgovarala je sa voljenom osobom
i nije gledala u žrtvu iz poštovanja.
Ali ipak je tvit proširen
u ovom kontekstu islamofobije,
sa mnogim heštegovima,
uključujući #BanIslam.
Sad, da radite u Tviteru,
šta biste učinili?
Da li biste to skinuli ili ostavili?
Moja prva, emocionalna reakcija
je da se to skine.
Mrzim kako je ova slika predstavljena.
Ali sloboda izražavanja je ljudsko pravo
i ako počnemo da uklanjamo sadržaje
zbog kojih se osećamo neprijatno,
bićemo u nevolji.
Ovo možda izgleda kao jasan slučaj,
ali većina govora to nije.
Veoma je teško postaviti granice.
Ono što je za jednu osobu
dobronamerna odluka,
za drugu je direktna cenzura.
Sada znamo da je ovaj nalog,
Texas Lone Star,
bio deo šire ruske
kampanje dezinformisanja,
koja je od tada skinuta.
Da li bi to promenilo vaše mišljenje?
Promenilo bi moje,
jer sad je to slučaj organizovane kampanje
da se napravi razdor.
Za vas koji mislite
da će veštačka inteligencija
rešiti sve naše probleme,
mislim da možemo
da se složimo da smo daleko
od veštačke inteligencije koja može
da razume ovakve objave.
Želim da objasnim tri
međusobno prepletena problema
koji ovo čine tako složenim
i onda da razmotrimo načine
na koje možemo misliti o ovim izazovima.
Prvo, mi jednostavno nemamo
racionalan odnos sa informacijama,
taj odnos je emotivan.
Nije istina da će više
činjenica popraviti sve,
jer algoritmi koji određuju
koji sadržaj vidimo,
pa, oni su programirani
da nagrade naše emotivne odgovore.
A kada se plašimo,
pojednostavljene priče,
zaverenička objašnjenja
i jezik koji demonizuje druge
su mnogo učinkovitiji.
Osim toga, za mnoge od ovih kompanija
je poslovni model povezan sa pažnjom,
što znači da će algoritmi
uvek biti naklonjeni emocijama.
Drugo, većina govora
o kojima govorim ovde su legalni.
Bilo bi drugačije da govorim o slikama
seksualnog zlostavljanja dece,
ili o sadržaju koji podstiče nasilje.
Može biti savršeno legalno
objaviti potpunu laž.
Ali ljudi govore o uklanjanju
„problematičnog“ ili „štetnog“ sadržaja,
bez jasne definicije
šta pod tim podrazumevaju,
uključujući i Marka Zakerberga,
koji je nedavno zatražio globalnu
regulaciju za kontrolisanje javnog govora.
Mene zabrinjava što vidimo vlade
širom sveta
kako donose ishitrene odluke
koje će možda pokrenuti
mnogo ozbiljnije posledice
kada se radi o našem govoru.
Čak i kada bismo mogli da odlučimo
kakav govor da skinemo ili ostavimo,
nikada nije bilo toliko javnog govora.
Svake sekunde, širom sveta,
ljudi objavljuju milione sadržaja
na različitim jezicima,
u različitim kulturnim kontekstima.
Jednostavno nikad nismo imali
dobre mehanizme
da proveravamo toliko sadržaja,
bilo da ga kreiraju ljudi ili tehnologija.
I treće, ove kompanije -
Gugl, Tviter, Fejsbuk, Votsap -
one su deo šireg informacionog ekosistema.
Volimo da ih okrivimo za sve, ali zapravo,
masovni mediji i odabrani političari
mogu imati jednaku ulogu
u podsticanju glasina
i zavera kada to žele.
Kao i mi, kada bez razmišljanja
prosledimo obmanjujuć ili razdoran sadržaj
bez truda.
Dodajemo zagađenju.
Znam da svi tražimo jednostavno rešenje.
Ali takvo ne postoji.
Bilo kakvo rešenje će morati da se primeni
na ogromnom nivou, na nivou interneta,
i da, platforme su navikle
da rade na tom nivou.
Ali da li možemo i da li bi trebalo
da im dozvolimo da reše ove probleme?
Svakako da pokušavaju.
Ali većina nas bi se složila da zapravo
ne želimo da globalne korporacije
budu čuvari istine i pravde na internetu.
Mislim da bi se i platforme
složile sa tim.
A trenutno oni sami sebe ocenjuju.
Vole da nam govore
kako njihove intervencije funkcionišu,
ali oni pišu svoje izveštaje
o transparentnosti,
pa mi ne možemo nezavisno
da proverimo šta se zapravo dešava.
(Aplauz)
I neka bude jasno
da se većina promena koje vidimo
dešava tek pošto novinari pokrenu istrage
i pronađu dokaze o pristrasnosti
ili sadržaj koji krši njihove pravilnike.
Dakle, da, ove kompanije moraju imati
važnu ulogu u ovom procesu,
ali ne mogu da ga kontrolišu.
A šta je sa vladama?
Mnogi veruju da je globalna regulacija
naša poslednja nada,
u smislu raščišćavanja
našeg informacionog ekosistema.
Ali ja vidim zakonodavce
koji se muče da budu u toku
sa brzim promenama u tehnologiji.
I još gore, oni rade u mraku,
jer nemaju pristup podacima
da bi razumeli šta se dešava
na ovim platformama.
Uostalom, kojim vladama
bismo verovali da ovo rade?
Potreban nam je globalni,
a ne nacionalni dogovor.
Karika koja nedostaje smo mi.
Ljudi koji svakog dana
koriste te tehnologije.
Da li možemo da napravimo
novu infrastrukturu
koja će da podrži kvalitetne informacije?
Pa, ja verujem da možemo,
i imam nekoliko ideja
šta bismo mogli da uradimo.
Prvo, ako ozbiljno želimo
da u ovo uključimo javnost,
da li možemo da uzmemo
Vikipediju kao inspiraciju?
Oni su pokazali šta je moguće.
Da, nije savršeno,
ali pokazali su da sa pravim strukturama,
sa globalnim stavom i mnogo,
mnogo transparentnosti,
možete da napravite nešto
čemu će mnogo ljudi verovati.
Moramo da pronađemo način
da iskoristimo kolektivnu mudrost
i iskustvo svih korisnika.
Ovo naročito važi za žene,
ljude tamne kože,
i marginalizovane grupe.
Jer, znate šta?
Oni su stručnjaci kad se radi
o mržnji i dezinformacijama,
jer oni su već dugo mete ovih kampanja.
Tokom godina skreću pažnju,
ali niko ih ne sluša.
To mora da se promeni.
Da li bismo mogli da napravimo
Vikipediju za poverenje?
Da li možemo da pronađemo način
da korisnici daju predloge?
Mogli bi da daju predloge u vezi sa
teškim odlukama o upravljanju sadržajem.
Mogli bi da daju povratnu informaciju
kada platforme odluče da unesu promene.
Drugo, iskustva ljudi
sa informacijama su lična.
Moje vesti na Fejsbuku
su mnogo drugačije od vaših.
Vaši predlozi na Jutjubu
su veoma drugačiji od mojih.
To nam onemogućava da pregledamo
koje informacije ljudi vide.
Da li bismo mogli da zamislimo
da razvijemo nekakvo centralizovano
otvoreno skladište anonimnih podataka
u koje su već ugrađene
privatnost i etičke norme?
Zamislite šta bismo mogli da saznamo
ako bismo izgradili globalnu mrežu
zainteresovanih građana
koji žele da doniraju
svoje društvene podatke nauci.
Jer mi veoma malo znamo
o dugoročnim posledicama
mržnje i dezinformacija
na stavove i ponašanja ljudi.
A većina onoga što znamo
je sprovedena u SAD-u,
uprkos činjenici
da je ovo globalni problem.
Moramo i na tome da radimo.
I treće,
možemo li da pronađemo način
da složimo kockice?
Nijedan sektor, a kamoli
nevladina organizacija, startap ili vlada
neće ovo rešiti.
Ali širom sveta postoje
veoma pametni ljudi
koji rade na ovim izazovima,
od novinskih redakcija, civilnog društva,
akademaca, grupa aktivista.
Neke možete videti ovde.
Neki prave indikatore
kredibilnosti sadržaja.
Drugi proveravaju činjenice,
kako bi platforme mogle da potisnu
lažne tvrdnje, snimke i slike.
Neprofitna organizacija
čije sam osnivanje pomogla, First Draft,
radi sa novinskim redakcijama
širom sveta koje su inače konkurenti
i pomaže da izgrade
istraživačke programe koji sarađuju.
A Deni Hilis, softverski arhitekta,
programira novi sistem
koji se zove The Underlay,
koji će biti baza svih
javnih izjava činjenica
povezanih sa izvorima,
kako bi ljudi i algoritmi
bolje prosudili šta je pouzdano.
A edukatori širom sveta
testiraju razne tehnike
za nalaženje načina da ljudi kritički
razmatraju sadržaj koju konzumiraju.
Svi ovi napori su izuzetni,
ali svi rade izolovano
i mnogi nisu dovoljno finansirani.
Postoje takođe stotine
veoma pametnih ljudi
koji rade u ovim kompanijama,
ali opet, ovi napori deluju nepovezano
jer razvijaju različita rešenja
za iste probleme.
Kako možemo dovesti ljude
na jedno fizičko mesto
na nekoliko dana ili nedelja,
kako bi radili zajedno na ovim problemima,
ali iz svojih drugačijih perspektiva?
Možemo li to da uradimo?
Da li možemo da napravimo
koordinisani, ambiciozni odgovor,
koji odgovara veličini
i složenosti problema?
Stvarno mislim da možemo.
Hajde da zajedno ponovo izgradimo
naše informaciono zajedničko dobro.
Hvala vam.
(Aplauz)
Kim olursanız olun ya da
nerede yaşarsanız yaşayın,
sanıyorum şu gönderileri iletmeyi seven
en az bir tanıdığınız vardır.
Hangilerinden bahsettiğimi biliyorsunuz
şüpheli iddiaları veya
alt metinli videoları olanlar.
Muhtemelen, böyle gönderiler
paylaştıkları için
onları çoktan Facebook'ta
sessize almışsınızdır.
Bu ortasından garip kırmızı
çarpı işaretinin geçtiği
bir muz görseli.
Ve etrafındaki metin,
böyle görünen meyveleri
yememeleri konusunda uyarıyor,
çünkü bunlara HIV virüsü bulaşmış
kan enjekte edildiğini iddia ediyor.
Ve en üstteki mesaj diyor ki,
"İnsanları kurtarmak için
lütfen paylaşın."
Gerçek denetleyiciler
bunu yıllardır çürütüyorlar
ama bu asla yok olmayacak
söylentilerden biri.
Bir zombi söylentisi.
Elbette ki tamamen yanlış.
Böyle bir örneğe gülmek cazip gelebilir,
"İyi de buna kim inanır ki?"
Bunun bir zombi söylentisi
olmasının sebebi,
insanların kendileri ve sevdiklerinin
güvenliği hakkındaki
en derin korkularına dokunması.
Eğer siz de yanıltıcı bilgileri
incelemeye benim kadar zaman harcıyorsanız
bunun, insanların en derin korkularına
ve kırılganlıklarına dokunan gönderilerin
sıradan bir örneği olduğunu
biliyorsunuzdur.
Instagramda her gün, tüm dünya çapında,
ebeveynleri çocuklarına aşı yaptırmamaya
teşvik eden çok sayıda gönderi görüyoruz.
YouTube'da iklim değişikliğinin aldatmaca
olduğunu söyleyen yeni videolar görüyoruz.
Ve tüm platformlarda, ırk, din
veya cinsellik temelinde
başkalarını şeytanlaştırmak için
tasarlanmış sayısız paylaşım görüyoruz.
Zamanımızın başlıca zorluklarından
birine hoş geldiniz.
Bir yandan yayılan içeriğin
demokrasimize, topluluklarımıza,
fiziksel ve zihinsel sağlığımıza
onarılamaz zararlara
neden olmasını engellerken
diğer yandan da özünde ifade özgürlüğü
olan internet alemini nasıl koruyabiliriz?
Çünkü bilgi çağında yaşıyoruz,
ancak hepimizin dayandığı
temel değer, bilgi,
artık tamamen güvenilir sayılmıyor.
Ve bazen düpedüz tehlikeli görünebiliyor.
Bu, kısmen, yalanların
ve gerçeklerin yan yana durduğu
fakat hiçbir alışılmış güven işaretinin
bulunmadığı yerlerde gezinmemizi sağlayan
sosyal paylaşım platformlarının
kontrolsuz büyümesi yüzünden.
Ve Tanrım- bu konudaki sözcüklerimiz!
korkunç bir şekilde karıştı.
İnsanlar, "sahte haberler"
ifadesine hâlâ takıntılı durumda,
üstelik son derece yararsız olmasına
ve çok farklı şeyleri tanımlamak
için kullanılmasına rağmen;
yalanlar, söylentiler, aldatmacalar,
komplolar ve propaganda gibi.
Dünyanın dört bir yanındaki politikacılar
tarafından ortaklaşa karar kılınmış,
soldan ve sağdan, özgür ve bağımsız
basına saldırmak için
silah olarak kullanılan bu ifadenin
kullanılmasını durdurabilmeyi
gerçekten çok isterdim.
(Alkış)
Çünkü artık profesyonel medyamıza
her zamankinden daha çok ihtiyacımız var.
Üstelik, bu içeriğin çoğu
haber kılığına bile girmiyor.
Memler, videolar ve sosyal paylaşımlar
olarak servis ediliyor.
Ve çoğu sahte değil; yanıltıcı.
Biz neyin doğru neyin yanlış olduğunu
saptama eğilimindeyiz.
Ama en büyük endişe aslında
bağlamın silahlandırılması.
Çünkü en etkili yanlış bilgilendirme,
her zaman bir parça yanlışlık
payının olmasıdır.
Mesela, Mart 2017'de, Londra'da
Westminster Köprüsü'ndeki
bir terör olayının ardından
geniş kitlelere yayılan
bir tweet'i örnek olarak ele alalım.
Bu sahte bir fotoğraf değil
gerçek bi fotoğraf.
Fotoğrafta görünen kadınla
daha sonra röportaj yapıldı
ve ciddi bir travma geçirdiğini açıkladı.
Sevdiği birisiyle telefonda görüşüyordu,
rahatsız etmemek için
mağduru seyretmiyordu.
Ama yine de bu fotoğraf
İslamofobi çatısı altında
#İslamıYasaklayın gibi birden fazla
etiketle geniş kitlelere yayıldı.
Twitter'da çalışsaydınız ne yapardınız?
Bu gönderiyi kaldırır mıydınız
yoksa bırakır mısınız?
Benim içinden bu gönderiyi
yok etmek geçiyor.
Bu gönderinin temelindeki
zihniyetten nefret ediyorum.
Fakat ifade özgürlüğü bir insan hakkı
ve bizi rahatsız hissettiren
sesleri bastırmaya başlarsak
başımız belada demektir.
Bu örnek apaçık bir algı
operasyonu gibi görünebilir
fakat çoğu rahatsız edici ses
bu kadar net anlaşılamıyor.
Aradaki sınırın çizilmesi
inanılmaz derecede zordur.
Bir kişiye iyi niyetli gelen bir karar,
bir başkası için katıksız bir sansürdür.
Fakat daha sonra,
''Texas Lone Star'' hesabının,
yayımladığı bu gönderiden
sonra çökmeye başlayan
daha geniş bir Rus yanlış bilgilendirme
sisteminin parçası olduğunu öğrendik.
Bu görüşünüzü değiştirir mi?
Benimkini değiştirir
çünkü şimdi bunun insanlığa nifak tohumu
ekmek amacıyla planlanan
bir harekat olduğunun farkına varıyoruz.
Yapay zekanın tüm sorunlarımızı
çözeceğini düşünenlerinizle
bu gibi gönderileri anlamlandırabilecek
yapay zekalardan çok uzak olduğumuz
noktasında anlaşabileceğimizi düşünüyorum.
Bunu çok karmaşık yapan
üç tane iç içe geçmiş sorunu
ve bu sorunları değerlendirebileceğimiz
bazı yöntemleri açıklamak istiyorum.
İlk olarak, bilgiyle sadece
rasyonel bir ilişkimiz yok
duygusal bir ilişkimiz de var.
Daha fazla gerçeğin her şeyi geçer
kabul ettirdiği doğru değildir.
Çünkü gördüğümüz içeriği
belirleyen algoritmalar
duygusal tepkilerimizin
karşılığını vermek için tasarlandı.
Ve korktuğumuz zaman,
basitleştirilmiş anlatılar,
komplocu açıklamalar
ve başkalarını şeytanlaştıran dil
çok daha etkili olur.
Ayrıca bu şirketlerin çoğunun iş modelinin
insan ilgilerine dayandırılması
bu algoritmaların her zaman
duygulara zıt düşeceği demektir.
İkincisi, yaptığım konuşmanın
çoğu kanuna uygun.
Cinsel çocuk istismarı görüntüleri
veya şiddete teşvik eden içerikler
hakkında konuşsaydım
çok daha farklı olurdu.
Açıkca yalan paylaşım yapmak
tamamen kanuna uygun olabilir.
Son zamanlarda söylevleri yumuşatmak adına
küresel bir düzenleme çağrısı yapan
Mark Zuckerberg de dahil olmak üzere
insanlar, bunların ne olduklarına dair
açık bir tanımları bile olmadan
''sorun yaratan,'' ''zararlı'' içerikleri
kaldırmak hakkında konuşuyorlar.
Ve endişem şu ki
dünyanın dört bir yanında
bizim bağlamımızda çok daha
ciddi sonuçları tetikleyebilecek,
düşüncesizce alınmış politika
kararlarını halka açıklayan
hükûmetler görüyoruz.
Ve eğer hangi söylevi kaldıracağımıza,
hangisine müsade edeceğimize
karar verebilseydik hiç bu kadar
konuşmamış olacaktık.
Her saniye, dünyanın her yerinde insanlar
farklı kültürel bağlamlara sürüklenen,
farklı dillerde
milyonlarca içerik yüklüyorlar.
Basit bir şekilde, söylevleri bu ölçekte
yumuşatabilmek amacıyla
insanlar tarafından ya da teknoloji
tarafından çalıştırılan
etkili bir düzeneğe hiçbir zaman
sahip olamadık.
Üçüncüsü, bu şirketler -
Google, Twitter, Facebook, WhatsApp -
daha geniş bir bilgi
ekosisteminin parçası.
Tüm suçu onların üzerine atmayı seviyoruz
fakat gerçek şu ki
kitlesel medya ve seçimle başa gelen
yetkililer istediklerinde
söylentileri ve gizli planları
derinleştirmekte eşit rol oynayabilirler.
Ve bizler de bölücü ya da yanıltıcı
içerikleri başkalarına gönderdiğimizde
hiç zahmet çekmeden bu rolü oynuyoruz.
Kirliliği arttırıyoruz.
Hepimizin kolay bir çözüm
aradığını biliyorum.
Fakat sadece bir tane çözüm yolu yok.
Herhangi bir çözümün internette
büyük ölçekte halka duyurulması gerekiyor.
Ve evet bahsettiğimiz platformlar
bu ölçekte faaliyetler yapmaya alışıklar.
Fakat sorunumuzu çözmesi için
bu platformlara izin verebilir miyiz?
Vermeli miyiz?
Kesinlikle deniyorlar.
Ama çoğumuz, çevrim içi doğruluğun
ve adaletin gardiyanı olmak için
küresel bir ortaklık istemediğimizi
kabul edecektir.
Ve bahsettiğimiz platformların da
buna katılacağını düşünüyorum.
Şu anda, kendi performanslarını
değerlendiriyorlar.
Bize, açıkladıkları müdahalelerin
çalıştığını söylemekten hoşlanıyorlar
fakat kendi şeffaflık raporlarını
kendileri yazdığı için
bizim gerçekte neler olduğunu bağımsızca
sorgulamamıza imkan bırakmıyorlar.
(Alkış)
Ayrıca açık olalım ki gördüğümüz
değişikliklerin çoğu,
sadece gazeteciler bir araştırmaya girişip
taraflılık delili ortaya çıkardıktan
ya da kendi yönetmenliklerini çiğneyecek
bir içerik bulduktan sonra gerçekleşiyor.
Ve evet, bu şirketler bu süreçte gerçekten
çok önemli bir rol oynamak zorunda.
Ama bunu idare edemiyorlar.
Peki ya hükûmetler?
Birçok insan küresel bir düzenlemenin
bilgi ekosistemimizi temizleyebilmek için
son umudumuz olduğuna inanıyor.
Ama benim gördüğüm
teknolojideki ani gelişmelere ayak uydurma
mücadelesi veren konun koyucular.
Daha da kötüsü, karanlıkta çalışıyorlar
çünkü bu platformlarda neler yaşandığını
anlayabilecekleri verilere erişimleri yok.
Ve yine de bu verilere erişmeleri için
hangi hükûmetlere güvenebiliriz?
Bu soru için ulusal değil,
küresel bir yanıta ihtiyacımız var.
İşte buradaki kayıp halka biziz.
Bu teknolojileri her gün
kullanan insanlar.
Nitelikli bilgileri destekleyebilmek için
yeni bir altyapı tasarlayabilir miyiz?
Yapabileceğimize inanıyorum
ve gerçekte ne yapabileceğimize
dair bir kaç fikrim var.
İlk olarak, toplumu buna dahil etme
konusunda ciddiysek
Wikipedia'dan biraz ilham alabilir miyiz?
Bize neyin mümkün olduğunu gösterdiler.
Evet, mükemmel değiller
ama doğru yapılarla,
küresel bir bakış açısıyla
ve çok ama çok fazla şeffaflıkla
çoğu insanın güvenini kazanabileceğimiz
bir yapı inşa edebileceğimizi gösterdiler.
Çünkü ortak akıldan ve tüm kullanıcıların
deneyimlerinden yararlanabilmek için
bir yol bulmak zorundayız.
Bu durum özellikle kadınlar,
beyaz olmayan kişiler
ve yetersiz temsil edilen
gruplar için geçerli.
Tahmin edin neden?
Söz konusu nefret ve ayrımcılık
olduğunda bu insanlar birer uzman
çünkü çok uzun zamandır
bu söylevlerin hedefindeler.
Ve yıllardır bu sorunu masaya
yatırmak istiyorlar
fakat kimse kulak vermiyor.
Bu durum değişmek zorunda.
Güvenli bir yer oluşturmak için bir çeşit
Wikipedia inşa edebilir miyiz?
Kullanıcıların içgörü kazanabilmelerinin
bir yolunu bulabilir miyiz?
Kullanıcılar uygunsuz içerikleri denetleme
kararlarında içgörü sağlayabilirler.
Platformlar yeni değişiklikler yapmak
istediğinde geri bildirim sağlayabilirler.
İkincisi, insanların bilgiyle olan
deneyimleri kişiselleşti.
Benim Facebook haber akışım
sizinkinden çok farklı.
Sizin YouTube önerileriniz
benimkinden çok farklı.
Bu aslında insanların gördüğü bilgileri
irdelememizi imkansız hale getiriyor.
Öyleyse anonim veriler için
gizlilik ve etik kaygıların yer aldığı,
merkezileştirilmiş bir çeşit açık veri
havuzu geliştirmeyi hayal edebilir miyiz?
Çünkü sosyal verilerini bilime bağışlamak
isteyen ilgili vatandaşlar için
küresel bir ağ oluştursak
neler öğrenebileceğimizi bir hayal edin.
Çünkü insanların tutumları
ve davranışları üzerindeki
nefret ve yanlış bilgilendirmenin
uzun vadeli sonuçları hakkında
aslında çok az şey biliyoruz.
Ve bildiğimiz şey,
bunun küresel bir sorun olmasına rağmen
çoğu nefret ve yanlış bilgilendirmenin
ABD'de yürütülüyor olduğu.
Bunun üzerinde de çalışmamız gerekiyor.
Üçüncüsü, noktaları birleştirmenin
bir yolunu bulabilir miyiz?
Bırakın kâr amacı gütmeyen kuruluşları,
girişimcileri ya da hükûmetleri
hiçbir sektör bunu çözemeyecek.
Fakat dünyanın her yerinde,
basın mensuplarından, sivil toplumdan,
akademisyenlerden ve aktivist
gruplardan bu zorluklar üzerine çalışan
çok zeki insanlar var.
Bazılarını işte burada görebilirsiniz.
Bazıları içerik güvenilirliği
göstergeleri oluşturuyor,
diğerleri bilgilerin doğruluklarını
kontrol ediyorlar ve böylece
yanlış iddialar, videolar ve resimler
platformlar tarafından düşürülüyor.
Kurulmasına yardımcı olduğum,
kar amacı gütmeyen First Draft
araştırmacı ve iş birlikçi programlar
oluşturmak için
tüm dünya genelinde genellikle rekabetçi
haber ajanslarıyla çalışıyor.
Ve bir yazılım mimarı olan Danny Hillis,
insanların ve algoritmaların,
hangi bilginin güvenilir olduğunu
daha iyi yargılayabilmeleri için
gerçek bilgilerin tüm duyurularının
kaynaklarıyla kaydedileceği
The Underlay adında yeni
bir sistem tasarlıyor.
Ve tüm dünyadaki eğitimciler, insanlar
tükettikleri bilgileri eleştirebilsin diye
farklı teknikler deniyorlar.
Tüm bu çabalar harika,
ama bu insanlar tek başlarına çalışıyorlar
ve birçoğu ne yazık ki
yetersiz finanse ediliyorlar.
Ayrıca bu şirketlerde çalışan
çok zeki yüzlerce insan var.
Fakat bu çaba yine de tutarsız gelebiliyor
çünkü aslında hepsi aynı soruna
farklı çözümler geliştiriyorlar.
Peki bu insanları,
bu sorunları hep beraber ama kendi farklı
bakış açılarından ele alabilecekleri
günlerce ya da haftalarca
aynı fiziksel ortamda
bir araya getirmenin yolunu
nasıl bulabiliriz?
Peki bunu yapabilir miyiz?
Ölçeklere ve problemin
karmaşıklığıyla uyuşan
koordineli ve hırslı bir cevap
bulabilir miyiz?
Gerçekten yapabileceğimizi düşünüyorum.
Birlikte bilgi arşivimizi
yeniden inşa edelim.
Teşekkür ederim.
(Alkış)
Незалежно від того, хто ви,
і де ви мешкаєте,
припускаю, що у вас
є принаймні один родич,
який любить поширювати
такі повідомлення.
Ви знаєте, що я маю на увазі –
сумнівні повідомлення чи відео
в стилі теорії змови.
Можливо, ви вже відключили
його сповіщення на Фейсбуці,
не бажаючи бачити репостів,
подібних до цього.
На цій картинці банан
із дивним червоним хрестиком всередині.
Текст, що супроводжує картинку,
застерігає не їсти такі фрукти,
припускаючи, що у ці фрукти ввели кров,
заражену вірусом СНІДу.
А повідомлення вгорі містить
просте прохання:
"Поширте це, щоб врятувати життя".
Хоча факт-чекери вже кілька років
розвінчують це хибне вкидання,
але воно належить до тих чуток,
які все ще живуть і далі.
Це чутка-зомбі.
І, звісно, вона цілком неправдива.
Хтось може просто посміятися
над такими прикладами, кажучи:
"Ну, хіба хтось цьому повірить?"
Але ці чутки-зомбі існують тому,
що вони пробуджують найглибші
страхи щодо власної безпеки,
і безпеки найближчих людей.
Якщо ви витратите на вивчення
дезінформації стільки ж часу, скільки я,
ви побачите, що цей приклад
лише один із багатьох,
які спираються на найглибші
страхи і побоювання.
Щодня по всьому світу в Інстаграмі
поширюються нові меми,
які спонукають батьків
відмовитись від вакцинації дітей.
Ми бачимо на YouTube нові відео,
де кажуть, що зміна клімату – це неправда.
І на всіх платформах ми бачимо
незліченні дописи, де інших демонізують
на підставі їхньої раси, релігії
чи сексуальної належності.
Ласкаво прошу до одного з головних
викликів нашого часу.
Як можна забезпечити свободу
вираження в Інтернеті,
гарантуючи при цьому,
що поширюваний контент
не завдасть непоправної шкоди
нашій демократії, нашим спільнотам
і нашому фізичному
й психічному благополуччю?
Оскільки ми живемо в інформаційну епоху,
інформація стала головною валютою,
від якої ми всі залежимо,
але на неї більше не можна
цілковито покладатись,
а іноді вона може становити
пряму небезпеку.
Однією із причин цього є нестримне
зростання соціальних мереж,
коли у нашій стрічці
брехня може сусідити із фактами,
але при цьому відсутні традиційні
маркери достовірності.
І, як на зло, у нас дуже заплутана
мова, якою ми це описуємо.
Люди ще досі мусолять фразу
"фейкові новини",
незважаючи на те, що від неї
дуже мало користі,
вона позначає чимало
дуже відмінних між собою речей:
брехню, чутки, містифікації,
змови, пропаганду.
І я дуже хотіла б,
щоб ми перестали вживати фразу,
яку використовують політики
в усьому світі,
праві і ліві,
як зброю для атаки на
вільну й незалежну пресу.
(Оплески)
Тому що зараз професійні ЗМІ
нам потрібні як ніколи.
Крім того, більшість такого контенту
навіть не маскується під новини.
Це меми, відео, дописи із соцмереж.
І чимало з них не є фейками,
але вони вводять в оману.
Ми зосереджуємось на питанні
про істинність чи хибність.
Однак найбільше нас має непокоїти
маніпуляція контекстом.
Адже найбільш дієва дезінформація –
це та, яка містить зерно правди.
Розгляньмо цей приклад,
Лондон, березень 2017-го,
масово поширюваний твіт
після теракту на Вестмінстерському мосту.
Це справжнє фото, не фейк.
Пізніше жінка на фотографії
пояснила в інтерв'ю,
що вона була дуже шокована.
Вона розмовляла з коханим,
і, з поваги до жертв,
уникала дивитись на них.
Але фото широко циркулювало,
у ісламофобському контексті,
з численними хештегами,
включно з #BanIslam.
Що б ви зробили
на місці команди Твіттера?
Ви б заблокували це фото,
чи дозволили його поширювати?
Моя інтуїтивна, емоційна реакція –
таке фото слід заблокувати.
Я ненавиджу контекст,
в якому його використали.
Але свобода самовираження
належить до прав людини,
і якщо ми почнемо усувати дописи,
які в нас викликають дискомфорт,
це небезпечний симптом.
Я навела дуже явний, очевидний приклад,
але більшість дописів не такі.
Дуже важко провести чітку межу.
Те, що для когось є цілком
виправданим рішенням,
для іншого є відвертою цензурою.
Зараз ми знаємо, що цей акаунт,
Техаська Самотня Зірка,
був частиною ширшої російської
дезінформаційної кампанії,
це один із акаунтів,
які зрештою ліквідували.
Це змінює вашу думку?
Мою змінює,
бо це вже інша річ,
тут скоординована кампанія,
щоб сіяти розбрат.
Ті ж із вас, хто вважає,
що штучний інтелект
вирішить всі наші проблеми,
думаю, погодяться, що ми ще дуже далеко
від ШІ, який здатний буде
розуміти такі дописи, як цей.
Тож я хочу висвітлити
три взаємопов'язані проблеми,
які роблять це завдання таким складним,
і також обміркувати декотрі
можливі підходи до цих викликів.
Насамперед, наше ставлення
до інформації є не раціональним,
а емоційним.
Ідея, що потрібно більше фактів,
просто не відповідає дійсності,
бо алгоритми, що визначають,
який контент ми побачимо,
розраховані на наші емоційні потреби.
І коли ми відчуваємо страх,
то спрощені пояснення,
конспіративні теорії
і ярлики, що демонізують інших,
виявляються значно дієвішими.
Крім того, чимало компаній
використовують бізнес-модель,
розраховану на емоції,
що означає, що в цих алгоритмах
завжди буде перекіс на користь емоцій.
По-друге, більшість із того, про що я
тут розповідаю, не порушує закон.
Інша річ, якби йшлося
про дитячу порнографію
чи заклики до насильства.
Поширення ж відвертої брехні
може ніяк не суперечити закону.
Але люди подумують про блокування
"проблемного" чи "шкідливого" контенту,
не наводячи при цьому
чіткого визначення цих термінів.
Як-от Марк Цукерберг,
який недавно закликав створити
глобальні принципи модерації.
Мене непокоїть, що владні інституції
по всьому світу
приймають поквапні політичні рішення,
які можуть викликати
значно серйозніші наслідки,
коли йдеться про свободу слова.
Та навіть якби ми могли вирішувати,
які повідомлення блокувати,
ми б ніколи не змогли з цим впоратись.
Щосекунди люди у всьому світі
розміщують мільйони нових повідомлень,
різними мовами,
вплетені в тисячі різних
культурних контекстів.
У нас просто ніколи б не було
ефективних механізмів,
для модерації в такому масштабі,
це завдання було б не під силу
ні людям, ні технологіям.
І, по-третє, ці компанії –
Google, Twitter, Facebook, WhatsApp –
є частиною ширшої
інформаційної екосистеми.
Ми любимо перекладати всю провину
на них, але правда полягає в тому,
що ЗМІ й урядовці при владі
можуть відігравати не меншу роль
у поширенні чуток і конспіративних
теорій, коли їм це вигідно.
І ми так само, коли бездумно репостимо
образливу чи оманливу інформацію,
не перевіряючи її.
Ми сприяємо забрудненню.
Я знаю, нам всім хочеться
знайти простий вихід.
Але його просто не існує.
Будь-яке із пропонованих рішень має
впроваджуватись у масовому масштабі,
на рівні Інтернету, і так, платформи
теж діють на цьому рівні.
Але чи можемо і чи маємо ми їм дозволити
вирішувати такі проблеми?
Звісно, вони намагаються.
Та більшість із нас згодні, що насправді
ми не хочемо, щоб глобальні корпорації
здійснювали нагляд
за правдивістю онлайн.
Я думаю, що з цим погодяться
і платформи.
На даний момент, вони працюють
над своїми уроками.
Вони люблять запевняти,
що втручання, до яких вони вдаються,
є дієвими,
але оскільки вони спираються
на власні внутрішні дані,
у нас немає можливості незалежної
перевірки, якою ж ситуація є насправді.
(Оплески)
Також слід усвідомлювати,
що більшість змін стаються
лише після того,
коли журналісти здійснять розслідування
і знайдуть упереджену інформацію,
чи контент, який порушує
правила їхньої спільноти.
Тож так, компанії мають відігравати
значну роль у цьому процесі, але вони
не можуть його контролювати.
А як щодо влади?
Багато хто вважає, що глобальне
регулювання – наша остання надія,
коли йдеться про очистку
нашої інформаційної екосистеми.
Але, за моїми спостереженнями,
законодавці намагаються
бігти навздогін за
швидкими змінами в технології.
Гірше того, вони діють всліпу,
бо їм бракує даних,
щоб зрозуміти,
що ж діється на цих платформах.
До того ж, урядам яких держав
ми б це довірили?
Потрібна глобальна відповідь,
а не національна.
Отож, ланка, якої бракує – це ми.
Це ми використовуємо
дані технології щодня.
Можемо ми створити нову інфраструктуру,
щоб дбати про якість інформації?
Я вірю, що можемо,
і в мене є кілька ідей,
що ми справді можемо зробити.
По-перше, якщо ми хочемо
залучити до цього публіку,
чи не могли б ми скористатись
досвідом Вікіпедії?
Вона демонструє, що для нас можливо.
Так, вона не досконала,
але вона показує, що хороша структура,
глобальний масштаб
і значна, дуже значна прозорість
дозволяє створити продукт,
якому довірятиме більшість людей.
Адже нам потрібно знайти спосіб
залучити колективну мудрість
і досвід усіх користувачів.
Особливо це стосується жінок,
представників расових
та інших меншин.
Здогадуєтесь, чому?
Вони експерти, коли йдеться
про ненависть і дезінформацію,
адже вони тривалий час
були жертвами таких кампаній.
Вони боролись роками,
але їх не слухали.
Це потрібно змінити.
Хіба нам не вдалось створити Вікіпедію
на принципі довіри?
Хіба не можна знайти спосіб
справді враховувати думку користувачів?
В тому числі й думку щодо складних
рішень з приводу модерації змісту.
Зворотній зв'язок користувачів
міг би впливати на зміни,
які впроваджуються на платформах.
По-друге, наш досвід взаємодії
з інформацією персоналізований.
Моя новинна стрічка у Фейсбуці
дуже відмінна від вашої.
Вам YouTube рекомендує для перегляду
інші відео, ніж мені.
Це унеможливлює для нас перевірку того,
яку інформацію люди бачать.
Тож чи не могли б ми уявити
певний тип централізованого відкритого
репозитарію анонімних даних,
у якому враховано принципи
етики й приватності?
Адже уявіть, що б нам відкрилось,
якби ми створили глобальну мережу
небайдужих громадян,
які б хотіли передати свої соціальні
дані для наукового використання.
Наразі нам дуже мало відомо
про довготривалий вплив
ненависті й дезінформації
на установки й поведінку людей.
А те, що нам відомо,
спирається переважно на дані зі США,
попри те, що йдеться
про глобальну проблему.
Тож нам треба працювати і над цим.
І, по-третє,
чи можемо ми поєднати всіх?
Жодний сектор, чи то громадський,
чи стартапи, чи урядовий,
не може вирішити цю проблему.
Але по всьому світу є дуже розумні люди,
яких турбують ці виклики,
це журналісти, громадські діячі,
науковці, активісти.
Ви бачите тут декотрих із них.
Декотрі розробляють індикатори
надійності контенту.
Інші є факт-чекерами,
вони допомагають платформам знижувати
рейтинги хибних заяв, відео і зображень.
Я співзасновниця громадської
організації First Draft,
мета якої – допомогти редакціям
з різних куточків світу
створити дослідницькі програми,
націлені на співпрацю.
А Денні Гілліс, архітектор
програмного забезпечення,
працює над новою системою
під назвою The Underlay,
яка стане підбіркою всіх публічно
озвучених фактів,
з посиланням на джерела,
тож люди й алгоритми зможуть краще
визначати, що заслуговує на довіру.
А освітяни по всьому світу
випробовують різні техніки,
щоб підвищити здатність людей
критично сприймати інформацію.
Вони роблять чудову роботу,
але вони працюють розрізнено,
і чимало з них жахливо недофінансовані.
А також сотні дуже розумних людей
працюють в цих компаніях,
та, знову ж таки,
їхні зусилля нескоординовані,
бо вони насправді працюють над різними
рішеннями одних і тих же проблем.
Чи можемо ми знайти спосіб
зібрати цих людей
в одному просторі,
на кілька днів чи тижнів,
щоб вони змогли взятись за ці
проблеми разом,
але виходячи зі своїх різних перспектив?
Чи можемо ми це зробити?
Чи можемо ми запропонувати
узгоджену, масштабну відповідь,
яка відповідатиме розмаху
і складності проблеми?
Я вважаю, ми справді можемо.
Тож давайте разом перебудовувати
наш інформаційний простір.
Дякую.
(Оплески)
无论你是谁或者住在哪,
我猜你们身边至少有一位
喜欢转发那些电子邮件的亲戚。
你们知道我说的那些邮件
是带有可疑声明
或阴谋论录像的邮件。
而且你们可能已经在
Facebook 上屏蔽了他们,
不想收到这种信息,像这个。
这是一张香蕉的图片,
香蕉中间有一个奇怪的红色十字。
旁边的文字在警告人们
不要吃这样的水果,
指出了它们已经被注射了
被 HIV 病毒污染的血液。
而且它上面的分享消息写着:
“为了拯救生命,请转发。”
事实审查员多年来
一直在揭露这一说法的真相,
但这只是那些
永远不会消失的传闻之一。
一个僵尸谣言。
当然它是完全虚假的。
去嘲笑这样一个例子可能很诱人,
大家会说:
“反正,谁会相信这个呢?”
但说这是僵尸谣言的原因是
它利用了关于人们对自身安全
和他们所爱之人的
最深层次的恐惧。
而且如果你们花费和我一样多
的时间来看这个误传,
你们会知道这只是众多
利用人们最深层的
恐惧和脆弱的例子之一。
每一天,在世界范围内,
我们都能看到 Instagram 上出现的
大量新表情包在鼓励父母
不要给孩子接种疫苗。
我们看到 YoutTube 上的新视频
在解释说气候变化问题是个骗局。
在所有平台上,我们看见了
因为种族、宗教或性取向的不同,
而妖魔化他人的无穷无尽的帖子。
欢迎来到我们这个时代
的主要挑战之一。
我们如何在维护互联网
言论自由核心的同时,
也能确保正在传播的内容
不会对我们的民主、我们的社区
和我们的身心健康
造成不可弥补的伤害?
因为我们生活在信息时代,
但是我们所有人都依赖的
中央货币——信息——
不再完全值得信赖,
而且有时会显得非常危险。
这部分“归功”于
社交共享媒体的迅猛发展,
让我们可以在谎言和真相
并存的世界里滑屏浏览,
但是没有任何
传统的可信赖的信号。
天啊——我们关于这方面
的语言极其混乱。
人们仍然沉迷于“假新闻”这一短语,
尽管事实是,该短语毫无帮助,
并且被用来描述一系列实际上
非常不同的东西:
谎言、谣言、恶作剧、
阴谋、宣传鼓吹……
我非常希望我们可以停止使用
这一世界各地的政治家
共同选择的一个短语,
从左派到右派,
停止将它作为武器来攻击
自由和独立的新闻媒体。
(掌声)
因为我们比以往任何时候
都更需要我们的专业新闻媒体。
而且除此之外,大多数内容
甚至都没有被伪装成新闻,
而是以表情包、视频、
社交帖子的形式存在。
而且大部分内容
不是假的,而是误导。
我们倾向于专注在真假上。
但是最大的担忧实际上是
语境的武器化。
因为最有效的虚假信息
一直是具有真实内核的那些。
举一个 2017 年 3 月伦敦的例子,
在威斯敏斯特桥
恐怖袭击事件发生后
的一个广为流传的推文。
这是个真实的图片,不是假的。
照片里的女子在事后接受了采访,
她解释到
她精神上完全受到了打击。
事件发生当时
她和爱人在打电话,
出于尊重,
她没有看向身旁的受害者。
但是它仍然以
伊斯兰恐惧症为主题广为流传,
并带有多个主题标签,
包括:#BanIslam(禁止伊斯兰人)。
如果你在推特工作,
你会怎么做?
你会把它撤下平台,
还是让它留在那?
我的直觉和情感反应
是把它撤下来。
我讨厌对这个图片的“包装”。
但是言论自由是人类的权力,
如果我们开始
把让我们感到不舒服的言论撤下,
我们就有麻烦了。
而且这个可能看起来是
一个清晰明了的案例,
但实际上,大多数言论不是。
这些边界很难描绘。
一个人的善意决定
是对下一个人的公然审查。
现在我们知道的是,
这个账户,德克萨斯孤星,
是一个更大的
俄罗斯造谣运动的一部分,
此后已经被扳倒。
这会改变你的看法吗?
会改变我的,
因为现在这个案子的性质
变成了一场播种不和谐种子的
协作运动。
而对于你们中那些认为
人工智能将会解决我们
所有问题的人来说,
我认为我们可以同意
在人工智能能够理解这种帖子前
我们还有很长的一段路要走。
所以我想解释一下
让这事变得如此复杂的
三个环环相扣的问题,
然后琢磨出些方法来思考这些挑战。
首先,我们只是没有
与信息建立起理性关系,
我们的关系是感性的。
并非更多的事实真相
会让一切顺利,
因为决定我们
能看见什么内容的算法,
是被设计来
奖励我们的情感反应。
而当我们恐惧时,
过于简化的叙述、阴谋论解释,
和妖魔化事物的语言
更加有效。
此外,有很多公司,
他们的商业模式
与人们的关注度息息相关,
这意味着这些算法
总是会偏向情感。
第二,我现在谈论的
大多数言论是合法的。
如果我在说的是
儿童性虐待图片,
或者是煽动暴力的内容,
就是另外一回事。
公开撒谎可以是完全合法的。
但是人们一直在讨论撤下
“有问题的”或“有害的”内容,
但是并没有对它们是什么
有明确的定义,
包括马克·扎克伯格,
他最近呼吁
全球监管来缓和言论。
而我的担心是,我们看见了
世界各地的政府
推出仓促的政策决定,
但是它可能实际上触发了
对于我们的言论更严重的后果。
而且即使我们可以决定
哪个言论留住或撤下来,
我们从来没有过
现在这么多的言论。
每一秒,几百万的内容,
以不同的语言
被世界各地的人上传,
吸取了上千种不同的文化背景。
我们根本没有有效的机制,
无论是通过人工还是技术手段
去缓和这种规模的言论内容,
然后第三,这些公司——
谷歌,推特,脸书,WhatsApp ——
它们是广阔的
信息生态系统的一部分。
我们喜欢把所有责任
都推到他们身上,但事实是,
大众媒体和民选官员
只要他们想,
也可以在扩大谣言和阴谋上
发挥同等作用。
我们也一样,当我们漫不经心地
转发分裂性或误导性的内容时,
甚至没有费力。
我们正在加剧这种“污染”。
我知道我们都在
寻找简单的解决方法。
但就是一个都没有。
任何解决方案都必须
以大规模推出,互联网的规模,
而且的确,这些平台
已经习惯在那种级别的规模上运行。
但是我们可以并应该
允许他们来解决这些问题吗?
他们当然在努力。
但是我们大多数人都会同意,
实际上,我们不希望跨国公司
成为网上真理与公平的守护者。
我也认为这些平台也会同意。
此时此刻,
他们正在展现属于自己的成果。
他们想告诉我们
他们实施的干预措施正在奏效,
但是因为他们编写的是
他们自己的透明度报告,
我们无法独立验证实际的情况。
(掌声)
我们也要清楚,
大多数我们看到的变化
只发生在记者进行了调查
并找到了存在
违反社区规则的偏见
和内容的证据之后。
所以是的,这些公司必须
在这个过程中扮演重要角色,
但是他们无法控制它。
那么政府呢?
很多人相信全球监管
是清理我们信息生态系统的
最后希望。
但是我看见的是正在努力跟上
技术迅速变革的立法者。
更糟的是,
他们在黑暗中摸索工作,
因为他们没有获取数据的权限
来了解这些平台上
正在发生些什么。
更何况,我们会相信
哪个政府来做这件事呢?
我们需要全球的回应,
不是国家的。
所以缺少的环节是我们。
是每天使用这些技术的那些人。
我们能不能设计一个新的基础设施
来支持高质量信息?
我相信我们可以,
我已经有了一些想法,
关于我们实际上可以做什么。
所以首先,如果认真考虑
让公众参与进来,
我们可以从维基百科
汲取一些灵感吗?
他们已经向我们展示了可能的方法。
是的,它并不完美,
但是他们已经用正确的结构,
全球的视野
和很高很高的透明度证明了
你们可以建立一些
将赢得大多数人信任的东西。
因为我们必须找到一种方法,
充分利用集体的智慧
和所有用户的经验。
妇女,有色人种和
未能充分代表大众的群体
尤其如此。
猜猜为什么?
他们是仇恨和虚假信息方面的专家,
因为他们很久以来都是
这些信息运动的目标。
多年来,他们一直摇旗呐喊,
但是从来没有被听见。
这必须改变。
所以我们能否为信任
创建一个维基百科?
我们能否找到一种
用户可以真正提供见解的方法?
他们可以对有难度的
内容审核决定提出见解。
当平台决定要推出新变更时,
他们可以提出反馈。
第二,人们对信息的体验
是个性化的。
我脸书上的新闻推荐
与你们的非常不同。
你们的 YouTube 推荐
与我的也很不同。
这使得我们无法实际检查
大家看到的是什么信息。
那么,我们是否可以想象
为匿名数据
开发某种集中式开放存储库,
并内置隐私和道德问题?
因为想象一下,
如果我们建立一个
由关心且忧虑的
公民组成的全球网络,
他们希望将其社交数据捐赠给科学,
那么我们将学到什么?
因为我们实际上对
仇恨和虚假信息对
人们态度和行为产生的
长期后果知之甚少。
而我们知道的是,
其中大部分是在美国进行的,
尽管这是一个全球性问题。
我们也需要为此努力。
第三点,
我们可以找到方法来连接个体吗?
没有一个部门可以解决这个问题,
更不用说非营利组织,初创企业
或政府部门了。
但是世界各地有
那些非常聪明的人们
在应对这些挑战,
包括新闻编辑部,民间社会组织,
学术界和维权组织。
你们在这可以看见其中的一些。
有些正在建立内容可信度的指标。
其他人在做事实核查,
以至于虚假声明,视频和图像
可以被平台撤下。
我协助建立的一个非营利组织,
名叫“初稿”(First Draft),
正在与世界各地通常竞争激烈的
新闻编辑室合作,
以帮助他们建立调查性协作项目。
丹尼·希利斯, 一个软件设计师,
正在设计一个
叫做 The Underlay 的新系统,
它将记录所有与其来源相连接的
公开事实陈述,
以便人们和算法可以
更好地判断什么是可信的。
而且世界各地的教育者
在测试不同的技术,
以找到能使人们对所看到内容
产生批判的方法。
所有的这些努力都很棒,
但是他们埋头各自为战,
而且很多都严重资金不足。
在这些公司内部
也有成百上千的聪明人在努力,
但是同样,
这些努力让人感到不够连贯,
因为他们正在为同样的问题
建立不同的解决方案。
我们怎么能找到一种方法,
把这些人同时
聚集在同一个地点几天或几周,
这样他们可以真正从不同角度
共同解决这些问题?
那么我们能做到吗?
我们能否建立一种协调一致,
雄心勃勃的应对措施,
使其与问题的规模和复杂性相匹配?
我真的认为我们可以。
加入我们,重建我们的信息共享吧。
谢谢。
(掌声)
不論你是誰,不論你住在哪裡,
我猜想你應該至少有一位親戚
會喜歡轉傳那些電子郵件。
你們知道,我指的是那種
內容可疑的郵件或陰謀論的影片。
你可能已經因為他們
會分享這類社交貼文
而在臉書上取消追蹤他們了。
像這張圖片中的香蕉
中間有個奇怪的紅色十字。
周圍的文字則是在警告大家
不要吃這樣的食物,
指出這類食物已經被注入了
感染愛滋病病毒的血液。
分享這個資訊的社群只是說:
「請轉傳,以拯救人命。」
事實查核早在數年前
就揭穿這則假消息了,
但有些謠言就是殺不死,
這是其中之一。
喪屍級謠言。
當然,這完全是錯誤資訊。
我們會很想笑看這種例子,並說:
「反正,誰會相信啊?」
但,它之所以是喪屍級謠言,
就是因為它觸及了
人們最深的恐懼,
擔心他們自己和愛人的安全。
如果你跟我一樣花足夠
時間去研究錯誤資訊,
你會就知道,還有很多像這樣的例子,
都會觸及人們最深的恐懼和弱點。
每天,在全世界都會在 IG 上
看到許多新的網路迷因,
鼓勵父母不要帶孩子去接種疫苗。
在 YouTube 上會有新的影片出來,
解釋氣候變遷只是個騙局。
在各平台上,都有無數貼文
目的是在將某些種族、宗教,
或性向的人給妖魔化。
歡迎來到這個時代的核心挑戰之一。
我們要如何讓網路保有
自由發表意見的核心價值,
同時確保被散播出去的內容
不會對我們的民主、我們的社會、
我們的身心安康,
造成無法修復的傷害?
因為我們生活在資訊的時代,
但我們所有人仰賴的
中心貨幣——即,資訊——
已經不再能被完全信任,
有些時候,甚至會造成危險。
這背後有部分原因是因為
社交分享平台的脫韁成長,
在那裡,謊言和事實
混在一起供我們瀏覽,
傳統的信任價值已蕩然無存。
且,老天,我們
在這方面的用語是一團亂。
大家對「假新聞」上癮,
這些新聞不但沒有幫助,
且常被用來包裝各式各樣的東西:
謊言、謠言、騙局、陰謀、洗腦文。
我真希望我們能不要
再用「假新聞」這詞了,
它已經被全世界政治人物汙染,
從左派到右派都一樣,
用來當作武器,
攻擊自由、獨立的媒體。
(掌聲)
因為,比起過去,現在我們
更需要專業的新聞媒體。
此外,這類內容根本
還稱不上是新聞。
它們只是迷因、影片、社群貼文。
且它們大部分不是假的,
而是會誤導的。
我們總是想把事情二分為對或錯。
但最讓人擔憂的,
是把情境變成武器。
因為,最有效的虛假資訊
通常在核心還是有某些真相。
舉個倫敦的例子,2017 年三月,
在西敏橋的恐攻事件之後,
出現了一則廣為流傳的推文。
這是真實的照片,不是假的。
照片中的女子後來有被訪問,
她解釋說她心理受到很大的創傷。
她當時在和愛人講電話,
去被誤會成對受害者毫無同情心。
但這張照片仍然被扣上了
恐伊斯蘭的誣陷文字
之後廣為流傳,
還附上許多主題標籤,
包括 #禁伊斯蘭。
如果你在推特工作,你會怎麼做?
你會把這則推文拿掉?
還是留在上面?
我的直覺反應,我的
情緒反應,是把它拿掉。
我很不喜歡這張照片的說明。
但人權本來就包括表達的自由,
如果我們開始把讓我們不舒服的
言論都拿掉,就會有麻煩了。
這可能看起來是個很明確的案例,
但,大部分的言論沒這麼清楚。
因為那條界線非常難拿捏。
一個出於善意的舉動,
對其它人來說,可能就是無情的審查。
我們知道,Texas Lone Star
(德州孤星)這個帳號
曾經是俄國用來散播
虛假資訊活動的帳號,
雖然事後被下架了。
但會改變你的觀點嗎?
會改變我的,
因為它是一個製造爭端的協作案例。
如果你認為人工智慧將會
解決我們所有的問題,
我想大家都同意,
我們還有很長的路要走,
才能讓人工智慧能夠
理解像這樣的貼文。
所以我想解釋一下,
讓這件事變得如此複雜的
三個相關議題,
接著,想想我們要
如何處理這些挑戰。
首先,我們只是沒有和資訊
建立起理性的關係,
我們建立的是情緒化的關係。
並非有越多事實就能搞定一切,
因為,那些用來判定
我們想看什麼內容的演算法,
它們是設計來獎勵
我們的情緒反應。
當我們恐懼時,過度簡化的說詞、
陰謀論的解釋,
將他人妖魔化的用語,
都會更有效許多。
此外,許多這類公司的商業模型
和注意力息息相關,
也就是說,這些演算法
一定都會偏向情緒那一邊。
第二,我所說的這些言論,
大部分是合法的。
這完全不像是談論兒童性侵的意象
或者煽動暴力的內容。
張貼徹頭徹尾的謊言並不違法。
但大家不斷地討論「有問題的」
或「會造成傷害」的內容,
卻無法清楚定義他們指的是什麼,
就連最近呼籲建立全球規制
來管理言論的馬克祖柏格也一樣。
我擔心的是,我們看到
世界各地的政府
趕著推出政策決定,
在言論方面,這些決定
可能會觸發更嚴重的後果。
就算我們能判定哪些言論
可以放上網,哪些要拿掉,
我們以前也從未有這麼多言論。
每秒鐘就有數百萬則內容
被世界各地的人上傳到網路上,
用的是不同語言,背景是
數以千計不同的文化情境。
我們實在沒有任何有效的機制
可以管理這麼大規模的言論,
不論用人力或技術都辦不到。
第三,這些公司——Google、
推特、臉書、WhatsApp——
它們都是廣闊資訊生態系統的一部分。
我們喜歡把所有責任
都推到它們身上,但事實是,
大眾媒體和民選官員
也都有同樣的影響力,
只要他們想,也可以在放大謠言和
陰謀上,發揮等同的影響力。
我們也是,
我們會無心且毫不費力地轉傳
造成分化或誤導的內容。
我們也在助長污染。
我知道大家都想要
有簡單的解決方式。
但就是沒有。
要推出解決方式,就要以
極大的規模推出,網路的規模,
是的,平台就是在網路
這麼大的規模下運作的。
但我們能讓它們去解決這些問題嗎?
他們肯定有在試。
但我們大部分人都認同,
其實,我們並不希望全球大企業
成為網路真相和公平的守護者。
我認為平台也不希望如此。
此刻,他們是球員兼裁判。
他們想要告訴我們,
他們推出的干預方式奏效了,
但,因為他們的透明度
報告是自己撰寫的,
我們沒有辦法獨立地
去驗證發生了什麼事。
(掌聲)
另外要說清楚一件事,
我們看到的大部分改變發生的時機,
都是在記者進行調查
並找到偏見的證據
或違反業界原則的內容之後。
所以,是的,在這個過程中,
這些企業扮演了很重要的角色,
但他們不能控制言論。
那政府呢?
許多人認為,全球規制
是我們最後的希望,
清理資訊生態系統的最後希望。
但我看到立法者
非常難跟上科技的快速改變。
更糟的是,他們還在瞎子摸象,
因為他們無法取得資料
來了解這些平台發生了什麼事。
總之,在這件事情上,
我們能相信哪個政府?
我們需要的是全球性的
因應,而非全國性的。
這當中遺失的環節就是我們。
就是每天使用這些科技的人。
我們能否設計新的基礎結構
來支持有品質的資訊?
我相信可以,
對於我們能做什麼,
我有幾個想法。
首先,如果我們當真
想要讓大眾介入,
我們能否從維基百科來找靈感?
他們讓我們看到了可能性。
是的,它並不完美,但它證明了
有對的架構,有全球的目光,
有很高的透明度,
就能建造出讓多數人信賴的東西。
因為我們得要找到方法,去挖掘
所有使用者的集體智慧和經驗。
對於女性、有色人種,
及少數弱勢族群更是如此。
因為,你猜如何?他們是
仇恨和虛假資訊的專家,
因為長久以來他們都是
這些活動的目標對象。
這些年來,他們一直
都在小心提防,
但沒有人傾聽他們。
這點必須要改變。
我們能建造出信任的維基百科嗎?
我們能否找到方法,
讓使用者真正提供洞見?
他們可以針對很困難的
內容管理決策來提供洞見。
當平台決定想要推出新改變時,
他們可以回饋意見。
第二,人對於資訊的體驗
是很個人化的。
我的臉書新聞饋送內容
和你的非常不一樣。
你的 YouTube 推薦
和我的非常不一樣。
因此我們不可能去真正檢查
大家看到了什麼資訊。
我們能否想像開發一種
中央化的開放貯藏庫,
用來存放匿名的資料,
且把隱私和倫理考量
都內建在其中?
想想我們能夠學到多少,
若我們能打造一個全球網路,
由在乎的公民構成,
他們想要把他們的
社交資料貢獻給科學。
因為我們幾乎不了解
仇恨和虛假資訊對於人的態度
和行為會有什麼長期後果。
我們確實知道的是,
雖然這是個全球性的問題,
卻大部分發生在美國。
我們也得處理這一點。
第三,我們能不能
想辦法把點連起來?
這個問題不是單一部門能解決的,
更別說非營利組織、
新創公司、政府。
但全世界都有非常聰明的人
在處理這些難題,
他們可能在新聞編輯部、
公民社會、學術圈、活動團體裡。
在這裡也有一些。
有些人在建造內容可信度指標。
也有人在做事實查核,
讓虛假的主張、影片,
和影像在平台上的排名下降。
我協助成立了非營利組織
「第一版草稿」,
它和全球各地平時會互相
競爭的新聞編輯室合作,
目的在協助他們建造
調查性的協同作業方案。
軟體架構工程師丹尼希利斯
在設計一個新系統,
叫做「The Underlay」,
它能記錄事實的所有公開陳述,
並和其源頭連結,
供人及演算法參考,
更能判斷資訊的可信度。
世界各地的教育家
正在測試不同的技術,
找方法讓大家可以對自己
觀看的內容進行批判。
這些做法都很棒,但他們
都在自己的地窖中努力,
很遺憾的是,很多人還資金不足。
還有數百名非常聰明的人
在這些公司中工作,
但,同樣的,他們做的努力
似乎也沒有相連結,
因為他們是針對同樣的問題
在開發不同的解決方案。
我們要如何想辦法集合大家,
於特定時間,在實體地點
聚會幾天或幾週,
讓他們能真正從他們不同的觀點
來一起處理這些問題?
我們能做到嗎?
我們能否建造一個組織良好
且有野心的因應方式,
且能夠符合問題的規模和複雜度?
我真心認為可以。
讓我們同心協力一起重建
我們對資訊的共識。
謝謝。
(掌聲)