So, artificial intelligence
is known for disrupting
all kinds of industries.
What about ice cream?
What kind of mind-blowing
new flavors could we generate
with the power of an advanced
artificial intelligence?
So I teamed up with a group of coders
from Kealing Middle School
to find out the answer to this question.
They collected over 1,600
existing ice cream flavors,
and together, we fed them to an algorithm
to see what it would generate.
And here are some of the flavors
that the AI came up with.
[Pumpkin Trash Break]
(Laughter)
[Peanut Butter Slime]
[Strawberry Cream Disease]
(Laughter)
These flavors are not delicious,
as we might have hoped they would be.
So the question is: What happened?
What went wrong?
Is the AI trying to kill us?
Or is it trying to do what we asked,
and there was a problem?
In movies, when something
goes wrong with AI,
it's usually because the AI has decided
that it doesn't want to obey
the humans anymore,
and it's got its own goals,
thank you very much.
In real life, though,
the AI that we actually have
is not nearly smart enough for that.
It has the approximate computing power
of an earthworm,
or maybe at most a single honeybee,
and actually, probably maybe less.
Like, we're constantly learning
new things about brains
that make it clear how much our AIs
don't measure up to real brains.
So today's AI can do a task
like identify a pedestrian in a picture,
but it doesn't have a concept
of what the pedestrian is
beyond that it's a collection
of lines and textures and things.
It doesn't know what a human actually is.
So will today's AI
do what we ask it to do?
It will if it can,
but it might not do what we actually want.
So let's say that you
were trying to get an AI
to take this collection of robot parts
and assemble them into some kind of robot
to get from Point A to Point B.
Now, if you were going to try
and solve this problem
by writing a traditional-style
computer program,
you would give the program
step-by-step instructions
on how to take these parts,
how to assemble them
into a robot with legs
and then how to use those legs
to walk to Point B.
But when you're using AI
to solve the problem,
it goes differently.
You don't tell it
how to solve the problem,
you just give it the goal,
and it has to figure out for itself
via trial and error
how to reach that goal.
And it turns out that the way AI tends
to solve this particular problem
is by doing this:
it assembles itself into a tower
and then falls over
and lands at Point B.
And technically, this solves the problem.
Technically, it got to Point B.
The danger of AI is not that
it's going to rebel against us,
it's that it's going to do
exactly what we ask it to do.
So then the trick
of working with AI becomes:
How do we set up the problem
so that it actually does what we want?
So this little robot here
is being controlled by an AI.
The AI came up with a design
for the robot legs
and then figured out how to use them
to get past all these obstacles.
But when David Ha set up this experiment,
he had to set it up
with very, very strict limits
on how big the AI
was allowed to make the legs,
because otherwise ...
(Laughter)
And technically, it got
to the end of that obstacle course.
So you see how hard it is to get AI
to do something as simple as just walk.
So seeing the AI do this,
you may say, OK, no fair,
you can't just be
a tall tower and fall over,
you have to actually, like,
use legs to walk.
And it turns out,
that doesn't always work, either.
This AI's job was to move fast.
They didn't tell it that it had
to run facing forward
or that it couldn't use its arms.
So this is what you get
when you train AI to move fast,
you get things like somersaulting
and silly walks.
It's really common.
So is twitching along the floor in a heap.
(Laughter)
So in my opinion, you know what
should have been a whole lot weirder
is the "Terminator" robots.
Hacking "The Matrix" is another thing
that AI will do if you give it a chance.
So if you train an AI in a simulation,
it will learn how to do things like
hack into the simulation's math errors
and harvest them for energy.
Or it will figure out how to move faster
by glitching repeatedly into the floor.
When you're working with AI,
it's less like working with another human
and a lot more like working
with some kind of weird force of nature.
And it's really easy to accidentally
give AI the wrong problem to solve,
and often we don't realize that
until something has actually gone wrong.
So here's an experiment I did,
where I wanted the AI
to copy paint colors,
to invent new paint colors,
given the list like the ones
here on the left.
And here's what the AI
actually came up with.
[Sindis Poop, Turdly, Suffer, Gray Pubic]
(Laughter)
So technically,
it did what I asked it to.
I thought I was asking it for,
like, nice paint color names,
but what I was actually asking it to do
was just imitate the kinds
of letter combinations
that it had seen in the original.
And I didn't tell it anything
about what words mean,
or that there are maybe some words
that it should avoid using
in these paint colors.
So its entire world
is the data that I gave it.
Like with the ice cream flavors,
it doesn't know about anything else.
So it is through the data
that we often accidentally tell AI
to do the wrong thing.
This is a fish called a tench.
And there was a group of researchers
who trained an AI to identify
this tench in pictures.
But then when they asked it
what part of the picture it was actually
using to identify the fish,
here's what it highlighted.
Yes, those are human fingers.
Why would it be looking for human fingers
if it's trying to identify a fish?
Well, it turns out that the tench
is a trophy fish,
and so in a lot of pictures
that the AI had seen of this fish
during training,
the fish looked like this.
(Laughter)
And it didn't know that the fingers
aren't part of the fish.
So you see why it is so hard
to design an AI
that actually can understand
what it's looking at.
And this is why designing
the image recognition
in self-driving cars is so hard,
and why so many self-driving car failures
are because the AI got confused.
I want to talk about an example from 2016.
There was a fatal accident when somebody
was using Tesla's autopilot AI,
but instead of using it on the highway
like it was designed for,
they used it on city streets.
And what happened was,
a truck drove out in front of the car
and the car failed to brake.
Now, the AI definitely was trained
to recognize trucks in pictures.
But what it looks like happened is
the AI was trained to recognize
trucks on highway driving,
where you would expect
to see trucks from behind.
Trucks on the side is not supposed
to happen on a highway,
and so when the AI saw this truck,
it looks like the AI recognized it
as most likely to be a road sign
and therefore, safe to drive underneath.
Here's an AI misstep
from a different field.
Amazon recently had to give up
on a résumé-sorting algorithm
that they were working on
when they discovered that the algorithm
had learned to discriminate against women.
What happened is they had trained it
on example résumés
of people who they had hired in the past.
And from these examples, the AI learned
to avoid the résumés of people
who had gone to women's colleges
or who had the word "women"
somewhere in their resume,
as in, "women's soccer team"
or "Society of Women Engineers."
The AI didn't know that it wasn't supposed
to copy this particular thing
that it had seen the humans do.
And technically, it did
what they asked it to do.
They just accidentally asked it
to do the wrong thing.
And this happens all the time with AI.
AI can be really destructive
and not know it.
So the AIs that recommend
new content in Facebook, in YouTube,
they're optimized to increase
the number of clicks and views.
And unfortunately, one way
that they have found of doing this
is to recommend the content
of conspiracy theories or bigotry.
The AIs themselves don't have any concept
of what this content actually is,
and they don't have any concept
of what the consequences might be
of recommending this content.
So, when we're working with AI,
it's up to us to avoid problems.
And avoiding things going wrong,
that may come down to
the age-old problem of communication,
where we as humans have to learn
how to communicate with AI.
We have to learn what AI
is capable of doing and what it's not,
and to understand that,
with its tiny little worm brain,
AI doesn't really understand
what we're trying to ask it to do.
So in other words, we have
to be prepared to work with AI
that's not the super-competent,
all-knowing AI of science fiction.
We have to be prepared to work with an AI
that's the one that we actually have
in the present day.
And present-day AI is plenty weird enough.
Thank you.
(Applause)
الذكاء الاصطناعي
معروف بتعطيل جميع أنواع الصناعات.
ماذا عن الآيس كريم؟
ما هو نوع النكهات الجديدة المذهلة
التي يمكن صنعها
باستخدام قوة الذكاء الاصطناعي المتقدم؟
لذلك تعاونت مع مجموعة من المبرمجين
من مدرسة كيلينغ المتوسطة
لمعرفة إجابة هذا السؤال.
قاموا بجمع أكثر من 1600 نكهة
آيس كريم موجودة بالفعل
ثم قمنا معاً بإدخالهم إلى خوارزمية حسابية
لنرى ماذا قد ينتج.
وهنا لدينا بعض النكهات
التي توصل إليها الذكاء الاصطناعي.
(استراحة قمامة اليقطين)
ضحك
(صلصال زبدة الفول السوداني)
(مرض قشدة فراولة)
(ضحك)
هذه النكهات ليست لذيذة كما
كنا نأمل أن تكون.
لذا السؤال هو: ماذا حدث؟
ما الخطأ الذي حدث؟
هل الذكاء الاصطناعي يحاول قتلنا؟
أم أنه يحاول فعل ما نطلب منه
وقد كان هناك مشكلة ما؟
في الأفلام، عندما يحدث خطأ
مع الذكاء الاصطناعي
يكون عادة السبب أن الذكاء
الإصطناعي قد قرر
أنه لا يريد أن يطيع البشر بعد الآن
وأنه قد حصل على هدفه
وشكراً جزيلاً لكم.
في الحياة الواقعية، الذكاء الاصطناعي
الذي نمتلكه فعليا
ليس ذكياً بما يكفي لفعل ذلك.
إنه يمتلك القدرة الحاسوبية التقريبية
لدودة الأرض
أو ربما كحد أقصى لنحلة واحدة
وربما أقل من ذلك فعليا.
وحيث أننا نتعلم باستمرار أشياء جديدة
عن العقول
التي توضح كم أن الذكاء الاصطناعي
لا يرقى إلى مستوى العقول الحقيقية.
لذلك فإن الذكاء الاصصناعي هذه الأيام يمكنه
أن يقوم بمهمة مثل تحديد المارة في صورة
لكنه لا يدرك مفهوم المارة
عدا عن أنه مجموعة من الخطوط
والأخاديد وأشياء أخرى.
إنه لا يعلم ما هو الإنسان فعلياً.
لذا فإن السؤال: هل الذكاء الاصطناعي
هذه الأيام سوف يفعل ما نطلبه منه؟
إنه سوف يفعل عندما يستطيع
لكن ربما قد لا يفعل ماذا نريد نحن فعلياً.
دعنا نقول أنك كنت تحاول أن
تحصل على ذكاء اصطناعي
لتأخذ هذه المجموعة من أجزاء الروبوت
وتقوم بتجميعهم في نوع من الروبوت لتصل
من النقطة A إلى النقطة B.
الآن إذا كنت تحاول أن تجرب
وتحل هذه المشكلة
عن طريق كتابة برنامج حاسوبي
ذو طابع تقليدي
فإنك سوف تعطي البرنامج التعليمات
خطوة بخطوة
عن كيفية أخذ هذه الأجزاء
وكيفية تجميعها في روبوت
له أقدام
من ثم كيفية استخدام تلك الأرجل
في المشي إلى النقطة B.
لكن عندما تستخدم الذكاء الاصطناعي
لحل المشكلة
يحدث ذلك بطريقة مختلفة.
أنت لاتخبره كيف يمكن أن يحل المشكلة
أنت تعطيه فقط الهدف
وهو عليه أن يكتشف بنفسه
عن طريق التجربة والخطأ
كيفية الوصول إلى هذا الهدف.
ويتبين أن الطريقة التي يميل بها الذكاء
الاصطناعي لحل هذه المشكلة بالذات
تتم عن طريق فعل التالي
إنه يقوم بجمع نفسه في برج
ثم يسقط
ويهبط عند النقطة B.
وهذه الطريقة تحل المشكلة تقنياً.
وصل إلى النقطة B تقنياً.
خطر الذكاء الاصطناعي ليس
في أنه سوف يتمرد ضدنا
الخطر في أنه سوف يقوم بالضبط
بفعل ما نطلب منه.
وبذلك تصبح خدعة العمل مع الذكاء
الاصطناعي هي:
كيف نقوم بتنصيب المشكلة
كي يفعل ما نريد فعلياً؟
بذلك فإن هذا الروبوت الصغير هنا
يتم التحكم به بواسطة ذكاء اصطناعي.
توصل الذكاء الاصطناعي لتصميم
من أجل أرجل الروبوت
من ثم اكتشف كيفية استخدامهم
لتجاوز كل هذه العقبات.
ولكن عندما قام ديفيد ها
بإعداد هذه التجربة
كان عليه أن يضعها
مع قيود صارمة جدا جدا
على مدى حجم الذكاء الاصطناعي
المسموح لصنع الأرجل
لأنه على خلاف ذلك
(ضحك)
ومن الناحية التقنية
فإنه وصل إلى نهاية هذه العقبة.
إذن ترى مدى صعوبة الحصول على ذكاء
اصطناعي لفعل شيء ما بسيط مثل المشي فقط.
لذلك رؤية الذكاء الاصطناعي يفعل هذا
قد تقول حسناً هذا ليس عدلاً
لا يمكنك أن تكون برجاً طويلاً وتسقط
عليك مثلاً أن تستخدم الأرجل فعلياً للمشي.
ثم يتبين أنه أيضاً لا يجدي نفعأ دائماً.
كانت مهمة الذكاء الاصطناعي هذه
هي التحرك بسرعة.
لم يخبروها أنه كان عليها أن تتجه
نحو الأمام
أو أنها لا تستطيع استخدام ذراعيها.
لذلك هذا ما تحصل عليه عندما تدرب
الذكاء الاصطناعي ليتحرك بسرعة
قد تحصل على أشياء مثل الشقلبة
والمشي الرديء.
هذا شائع حقاً.
بذلك ترتعش على الأرض في كومة.
(ضحك)
لذلك برأيي أنت تعرف ما ينبغي
أن يكون أكثر غرابة
هو الروبوتات "المدمرة".
الشيء الآخر الذي سوف يفعله الذكاء الاصطناعي
إذا أعطيته فرصة هو اختراق "القالب".
لذلك إذا قمت بتدريب ذكاء اصطناعي
في محاكاة
فإنه سوف يتعلم كيف يخترق
أخطاء المحاكاة الحسابية
ويجمعهم للحصول على الطاقة.
أو أنه سوف يكتشف كيفية التحرك بشكل أسرع
عن طريق الاضطراب مراراً وتكراراً على الأرض
عندما تعمل مع ذكاء اصطناعي
فإنه أقل شبهاً من العمل مع إنسان آخر
وأكثر شبهاً بالعمل مع نوع ما
من القوى الغريبة للطبيعة.
ومن السهل حقاً أن تعطي الذكاء الاصطناعي
عن طريق الخطأ المشكلة الخاطئة ليحلها
ونحن لاندرك ذلك غالباًَ
حتى يحدث خطاً ما فعلياً.
هنا تجربة قمت بإعدادها
حيث أردت أن ينسخ الذكاء الاصطناعي
ألوان الطلاء
لأخترع ألوان طباعة جديدة
مع إعطاء القائمة مثل تلك الموجودة
على اليسار.
وهنا يظهر ما الذي أتى به الذكاء
الاصطناعي.
(سينديس بوب، توردلي، سفر، غراي ببليك)
(ضحك)
إذن من الناحية التقنية
قام بما طلبته منه.
اعتقدت أني كنت أسأله عن أسماء
ألوان طلاء جميلة مثلاً
لكن فعلياً ما كنت أطلب فعله
كان فقط أن يقلد أنواع مجموعات الحروف
التي رآها في النص الأصلي.
كما أني لم أخبره أي شيء عن معاني الكلمات
أو أن هناك ربما بعض الكلمات
التي ينبغي أن يتجنب استخدامها
في ألوان الطلاء هذه.
بذلك عالمه الكلي هو المعلومات
التي أعطيته إياها.
كما حدث مع تجربة نكهة الآيس كريم،
إنه لا يعرف عن أي شيء آخر.
ذلك عن طريق البيانات
التي غالباً نعطيها للذكاء الاصطناعي
عن طريق الخطأ ليفعل الشيء الخطأ.
هذه سمكة تدعى تنش.
وكان هناك مجموعة من الباحثيين
الذين دربوا ذكاء اصطناعي
على إيجاد هذه السمكة في الصور.
لكن بعد ذلك عندما سألوه
أي جزء من الصورة كان يستخدم فعلياً
لإيجاد السمكة
إليكم ما أبرزه.
نعم هذه أصابع بشرية.
لماذا قد يبحث عن أصابع بشرية
عندما يحاول إيجاد السمكة؟
حسناً هذا يوضح أن التنش هي سمكة تذكارية
لذا في العديد من الصور التي رأى فيها
الذكاء الاصطناعي هذه السمكة
خلال التدريب
بدت السمكة هكذا.
(ضحك)
كما أنه لم يكن يعلم أن الأصابع
ليست جزءاً من السمكة.
هكذا أنتم تفهمون سبب صعوبة تصميم
ذكاء اصطناعي
يستطيع أن يفهم فعلياً ما الذي ينظر اليه.
وهذا هو السبب في أن تصميم إدراك الصورة
في القيادة الذاتية للسيارات صعب للغاية.
كما أن العديد من أعطال السيارات
ذاتية القيادة
هو بسبب أن الذكاء الاصطناعي
اختلط عليه الأمر.
أريد أن أذكر مثال من عام 2016.
وقع حادث قاتل عندما كان يستخدم أحد ما
الطيار الآلي تسلا
ولكن بدلاً من استخدامه على الطريق السريع
كما كان مصمم له
استخدموه في شوارع المدينة.
وما حدث كان
أن شاحنة خرجت أمام السيارة وفشلت السيارة
في الضغط على المكابح.
تم تدريب الذكاء الاصطناعي الآن على التعرف
على الشاحنات في الصور بشكل قطعي.
لكن ما يبدو وكأنه حدث هو
أنه تم تدريبه للتعرف على الشاحنات
في الطريق السريع
حيث قد تتوقع رؤية الشاحنات من الخلف.
ليس من المفترض أن تقود الشاحنات
على الجانب في الطريق السريع
ولذلك عندما رأى الذكاء الاصطناعي
هذه الشاحنة
يبدو أنه أدرك أنها من المرجح أن تكون
علامة طريق
وبالتالي فهي آمنة للقيادة أسفلها.
وهنا خطأ للذكاء الاصطناعي من مجال مختلف.
اضطرت أمازون مؤخرًا إلى التخلي
عن خوارزمية فرز السيرة الذاتية
التي كانوا يعملون عليها
عندما اكتشفوا أن الخوارزمية تعلمت
التمييز ضد المرأة.
ما حدث هو أنهم تدربوا على عينات
من سير ذاتية
لأشخاص توظفوا في الماضي.
ومن هذه الأمثلة تعلم الذكاء الاصطناعي
أن يتجنب السير الذاتية لأشخاص
التحقوا بكليات للنساء
أو الذين لديهم كلمة "امرأة" في مكان ما
من سيرتهم الذاتية
كما في "فريق كرة القدم النسائي"
أو "جمعية النساء المهندسات".
لم يكن يعرف الذكاء الاصطناعي أنه لم يكن
من المفترض أن ينسخ هذا الشيء بالتحديد
حيث كان يرى البشر يفعلون.
ومن الناحية التقنية فقد قام بفعل
ما طلبوا منه
لكنهم فقط طلبوا أن يفعل الشيء الخطأ
عن طريق الخطأ.
وهذا يحدث دائماً مع الذكاء الاصطناعي.
الذكاء الاصطناعي يمكن أن يكون مدمراً حقاً
ولا يعرف ذلك.
لذلك فإن الذكاء الاصطناعي الذي يوصي بمحتوى
جديد في الفيسبوك أو على اليوتيوب
تم تحسينه لزيادة عدد النقرات والمشاهدات.
ولسوء الحظ إحدى الطرق
التي اكتشفوا فيها القيام بذلك
هي التوصية بمحتوى نظريات المؤامرة
أو التعصب.
لا يملك الذكاء الاصطناعي نفسه أي تصور
عن المضمون الفعلي للمحتوى
كما أنه ليس لديهم أي فكرة عما قد
تكون عليه عواقب
التوصية بهذا المحتوى.
لذلك عندما نعمل مع الذكاء الاصطناعي
يمكننا أن نتجنب المشاكل.
وتجنب أن تسير الأمور بشكل خاطىء
قد يرجع ذلك إلى مشكلة التواصل القديمة
حيث يتعين علينا كبشر أن نتعلم كيفية
التواصل مع الذكاء الاصطناعي.
يجب علينا أن نتعلم ما يستطيع الذكاء
الاصطناعي فعله وما لايستطيع
وأن نفهم ذلك، بعقله الصغير جداً
لا يفهم الذكاء الاصطناعي حقاً ما نحاول
أن نطلب منه القيام به.
بمعنى آخر ، يجب أن نكون مستعدين للعمل
مع الذكاء الاصطناعى
ليس الذكاء الاصطناعي الفائق الكفاءة
والواعي كما في الخيال العلمي.
يجب علينا أن نكون مستعدين للعمل
مع ذكاء اصطناعى
لدينا بالفعل في وقتنا الحالي.
وفي الوقت الحاضر، الذكاء الاصطناعي
غريب بما فيه الكفاية.
شكراً لكم
(تصفيق)
Umělá inteligence,
jak známo, se míchá do spousty
průmyslových odvětví.
Tak třeba zmrzlina.
Jakou spoustu neskutečných
nových příchutí bychom mohli vytvořit
pomocí pokročilé umělé inteligence?
Dala jsem se dohromady se skupinou
programátorů z Kealingovy střední školy,
abych našla odpověď na tuto otázku.
Sebrali více než 1600 existujících
zmrzlinových příchutí
a společně jsme je nacpali do jednoho
algoritmu a čekali, co z něj vzejde.
A tohle jsou příklady příchutí,
se kterými umělá inteligence přišla.
[Dýňová kopa odpadků]
(Smích)
[Sliz s arašídovým máslem]
[Jahodovo-smetanová choroba]
(Smích)
To nejsou lahodné příchutě,
které jsme doufali získat.
Takže otázka zní: Co se stalo?
Co se pokazilo?
Snaží se nás umělá inteligence zabít?
Nebo se snaží dělat, co po ní chceme,
ale má s tím nějaký problém?
Když se ve filmech začne dít
něco špatného s UI,
je to většinou proto,
že se umělá inteligence rozhodla,
že už nechce lidstvo poslouchat
a má svoje vlastní cíle - děkuji pěkně.
Nicméně ve skutečném světě
ta umělá inteligence, kterou máme,
není ani zdaleka tak chytrá.
Má výpočetní sílu přibližně jako žížala
nebo maximálně jako jediná včela,
ale ve skutečnosti spíš méně.
Jak stále získáváme
nové poznatky o mozku
nám ukazuje, jak moc je umělá inteligence
vzdálená skutečným mozkům.
Dneska třeba dokáže UI
rozpoznat chodce na obrázku,
ale nechápe, co to vlastně chodec je,
pro ni je to jenom soubor linek,
textur a podobných věcí.
Ale neví, co to vlastně je člověk.
Bude dnešní umělá inteligence
dělat to, co po ní chceme?
Bude, když to bude umět,
ale může se stát, že neudělá to,
co jsme měli na mysli.
Řekněme, že se snažíte vyvinout UI,
která vezme tuhle sadu
robotích součástek
a sestaví z nich robota,
který se má dostat z bodu A do bodu B.
Kdybyste se snažili vyřešit tento problém
napsáním tradičního počítačového programu,
programovali byste instrukce
krok po kroku,
jak má vzít ty součástky
a jak z nich sestavit robota,
který má nohy,
jak má ty nohy použít,
aby se dostal do bodu B.
Ale když používáte umělou inteligenci,
tak to funguje jinak.
Neřeknete jí, jak ten problém vyřešit,
dáte jí jenom cíl
a ona musí sama metodou pokusu a omylu
přijít na to,
jak toho cíle dosáhnout.
Ukáže se, že UI se tenhle konkrétní
úkol snaží vyřešit takto:
postaví z dílů věž a pak se skácí tak,
že dopadne do bodu B.
V podstatě je to skutečně řešení problému.
Technicky vzato se dostala do bodu B.
Nebezpečí UI není v tom,
že by proti nám povstala,
ale že bude dělat přesně to,
o co jí požádáme.
Vtip práce s umělou inteligencí zní:
Jak zformulovat náši úlohu,
aby udělala to, co po ní skutečně chceme?
Tady ten malý robot je ovládán
umělou inteligencí.
UI navrhla, jak mají vypadat jeho nohy
a vymyslela, jak je používat,
aby překonala všechny tyto překážky.
Ale když David Ha navrhoval
tento experiment,
musel v něm nastavit
velmi velmi přísné limity,
jak dlouhé smí mít ten robot nohy,
protože jinak ...
(Smích)
A technicky vzato, překonalo to
všechny překážky.
Takže vidíte, jak je těžké přimět UI
k něčemu tak jednoduchému jako chůze.
Když vidíte, že UI udělá tohle,
mohli byste říct, fajn, tohle není fér,
nemůžeš se prostě stát věží
a pak spadnout,
musíš používat nohy a chodit.
Ale pak se ukáže, že to taky nefunguje.
Úkolem téhle umělé inteligence
byl rychlý pohyb.
Neřekli jí, že má běžet směrem dopředu,
nebo že nesmí používat ruce.
Tohle dostanete,
když chcete naučit UI rychle běhat:
dostanete věci jako salta
a švihlou chůzi.
A to je skutečně běžné.
Podobně jako lezení po zemi.
(Smích)
Podle mého názoru
by daleko divnější měly být
roboti jako Terminátor.
Nabourat se do „Matrixu“ je další věc,
kterou UI udělá, když jí dáte příležitost.
Když trénujete UI v simulaci,
naučí se dělat věci jako nabourat se
do matematických chyb v simulaci
a získávat z nich energii.
Nebo si najde způsob, hýbat se rychleji
opakovaným padáním na zem.
Když pracujete s UI,
není to jako práce s jiným člověkem,
daleko více se to podobá práci
s nějakou zvláštní přírodní silou.
A je velice jednoduché UI
omylem špatně zadat řešený problém.
Často si to neuvědomíme do té doby,
než se něco stane.
Tohle je můj pokus,
chtěla jsem po UI,
aby napodobila nátěrové barvy,
aby vymyslela nové barvy,
přičemž dostala seznam
jako tady nalevo.
A UI nakonec přišla s tímto.
[Sindino kakání, lejno,
utrpení, pubická šedá]
(Smích)
Takže vlastně udělala,
co jsem si přála.
Jenom jsem chtěla, aby vymysla
pro barvy nějaké hezké názvy,
ale ve skutečnosti jsem požádala o to,
aby napodobila kombinace písmen,
které viděla v předloze.
Neřekla jsem jí nic o tom,
co ta slova znamenají,
nebo že by některá slova
možná neměla používat pro názvy barev.
Celý svět jsou pro ni jenom ta data
která jsem jí zadala.
Podobně jako s těmi příchutěmi zmrzlin,
nezná nic jiného.
Takže jsou to data,
kterými často omylem žádáme UI o něco,
co nechceme.
Tahle ryba je lín.
Jedna skupina vědců
se jednou snažila naučit UI
rozpoznávat lína na obrázcích.
Ale když se potom zeptali,
kterou část obrázku skutečně používá
k rozpoznání té ryby,
vyznačila toto.
Ano, to jsou lidské prsty.
Proč by se dívala na lidské prsty,
když se snaží rozpoznat rybu?
Jde o to, že lín je ryba,
která se loví na udici,
takže na spoustě obrázků,
kde ji UI při tréninku viděla,
ta ryba vypadala takto.
(Smích)
Ona nevěděla, že ty prsty
nejsou součástí ryby.
Tady vidíte, jak je to těžké,
navrhnout umělou inteligenci,
která skutečně dokáže pochopit,
na co se dívá.
A to je důvod, proč je vývoj
rozpoznávání obrazu
pro samořiditelná auta tak těžký
a proč je spousta selhání
samořiditelných aut
způsobena tím, že UI byla zmatená.
Chtěla bych zmínit příklad
z roku 2016.
Došlo ke smrtelné nehodě,
když někdo používal autopilota Tesly,
ale místo aby ho používal na dálnici,
pro kterou byl autopilot navržen,
použil ho ve městě.
A stalo se,
že před auto vjel náklaďák
a to auto nezabrzdilo.
Umělá inteligence určitě byla trénovaná
na rozpoznávání nákladních aut.
Ale problém byl nejspíš v tom,
že UI byla trénovaná na rozpoznávání
náklaďáků na dálnici,
kde lze očekávat,
že jsou vidět jenom zezadu.
Na dálnici se nemůže vyskytnout
náklaďák ze strany,
takže když UI viděla ten náklaďák,
tak si nejspíš řekla,
že to asi bude dopravní značka
a může bezpečně projet pod ní.
Teď přešlap UI z jiné oblasti.
V Amazonu museli nedávno vzdát
vývoj algoritmu na třídění životopisů,
když zjistili, že ten algoritmus
se naučil diskriminovat ženy.
Trénovali ho na příkladech
životopisů lidí,
které zaměstnali v minulosti.
A z těchto příkladů se UI naučila
vyhýbat se životopisům lidí,
kteří chodili na ženské univerzity,
nebo měli slovo ‚žena‘
někde ve svém životopisu,
jako třeba ‚ženský fotbalový tým‘,
nebo ‚Společnost ženských inženýrů‘.
Umělá inteligence nevěděla, že neměla
napodobovat tuhle konkrétní věc,
kterou viděla u lidí.
A technicky vzato dělala to,
o co jí žádali.
Jenom ji omylem požádali o špatnou věc.
A tohle se děje
s umělou inteligencí stále.
UI může být opravdu destruktivní
a nevědět o tom.
UI, která doporučuje obsah
na Facebooku nebo YouTube,
je optimalizovaná na zvyšování počtu
kliknutí a shlédnutí.
Bohužel se ukázalo, že jeden způsob
jak toho dosahuje,
je doporučovat obsah plný předsudků
nebo konspiračních teorií.
Samotná umělá inteligence nemá ponětí,
co ten obsah skutečně znamená
a nemá ani ponětí o možných důsledcích
doporučování takového obsahu.
Takže když pracujeme s UI,
je na nás, abychom se vyvarovali problémů.
A vyvarovat se problémů
může být otázkou
prastarého problému komunikace,
přičemž my jako lidé se musíme naučit
komunikovat s umělou inteligencí.
Musíme se naučit, co UI dokáže
a co nedokáže
a pochopit, že se svým malinkatým
žížalím mozečkem
UI tak úplně nerozumí tomu,
o co se ji snažíme požádat.
Jinými slovy, musíme být připraveni
pracovat s UI,
která není superschopná vševědoucí
umělá inteligence ze sci-fi.
Musíme být připraveni pracovat s UI,
kterou máme k dispozici dnes.
Dnešní UI je docela dost divná.
Děkuji.
(Potlesk)
Künstliche Intelligenz ist dafür bekannt,
allerlei Branchen durcheinanderzubringen.
Was ist mit Eis?
Welche unglaublichen neuen Eissorten
könnte man mit den Fähigkeiten
der hochentwickelten KI herstellen?
Ich arbeitete mit den Programmierern
der Kealing Middle School zusammen,
um die Antwort auf diese Frage zu finden.
Sie sammelten mehr als
1 600 vorhandene Eissorten.
Zusammen gaben wir sie im Algorithmus ein,
um zu sehen, was daraus entstehen wird.
Hier sind einige der Eissorten,
die sich die KI ausgedacht hat.
[Kürbis-Müll-Pause]
(Lachen)
[Erdnussbutter-Schleim]
[Erdbeersahne-Krankheit]
(Lachen)
Diese Eissorten sind nicht so köstlich,
wie wir es erwarteten.
Die Frage ist also: Was ist passiert?
Was ist schief gelaufen?
Versucht die KI uns zu töten?
Oder tut sie genau das, worum wir baten,
aber es gab ein Problem?
Wenn in Filmen etwas mit KI schief läuft,
hat die KI häufig entschieden,
den Menschen nicht mehr zu gehorchen
und eigene Ziele zu verfolgen.
Tatsächlich ist die heutige KI
dafür noch nicht schlau genug.
Sie hat etwa die Rechenleistung
von einem Regenwurm,
oder vielleicht höchstens
die einer einzelnen Honigbiene
und vermutlich sogar weniger.
Wir erfahren über Gehirne
ständig neue Aspekte, die stets zeigen,
wie wenig die KI dem Gehirn entspricht.
Die KI von heute kann einen Fußgänger
auf einem Bild erkennen.
Sie hat aber keine Vorstellung,
dass ein Fußgänger mehr als eine Sammlung
von Linien und Texturen ist.
Sie weiß im Grunde nicht,
was ein Mensch ist.
Wird die KI das tun, worum wir sie bitten?
Sie wird, wenn sie kann.
Aber sie könnte vielleicht nicht das tun,
was wir eigentlich wollen.
Zum Beispiel möchten Sie,
dass KI aus Roboterteilen
einen Roboter zusammenbaut,
um damit von Punkt A
zu Punkt B zu gelangen.
Die Lösung des Problems durch Schreiben
eines herkömmlichen Computerprogamms
würde schrittweise Anweisungen
an das Computerprogramm beinhalten,
wie aus den Teilen ein Roboter
mit Beinen gebaut werden kann
und wie man die Beine benutzt,
um zum Punkt B zu gehen.
Aber wenn man KI einsetzt,
dann sieht die Lösung anders aus.
Man bestimmt nicht, wie die KI
das Problem lösen soll,
sondern setzt nur das Ziel
und die KI muss durch Probieren
selbst herausfinden,
wie sie das Ziel erreicht.
Aber die KI löst das spezielle Problem so:
Es baut sich in einen Turm,
kippt damit um und landet auf Punkt B.
Im Prinzip ist es eine Lösung.
Formal kam sie zu Punkt B.
Die Gefahr der KI besteht nicht darin,
dass sie sich gegen uns auflehnt,
sondern dass sie genau das tut,
worum wir sie bitten.
Die Kunst, mit KI zu arbeiten ist also:
Wie bereitet man das Problem auf,
damit sie das tut, was wir wollen?
Dieser kleine Roboter hier
ist von der KI gesteuert.
Die KI entwickelte ein Design
für die Roboterbeine und fand heraus,
wie sie verwendet werden können,
um alle diese Hindernisse zu überwinden.
Aber als David Ha
das Experiment vorbereitete,
setzte er sehr, sehr enge Grenzen,
wie groß die KI die Beine machen durfte,
weil sonst ...
(Lachen)
Im Prinzip hat sie das Ende
des Hindernislaufs erreicht.
Es ist also kompliziert,
KI etwas Einfaches wie Gehen beizubringen.
Wenn man sieht, was die KI da macht,
könnte man sagen: "Das gilt nicht!"
Die KI kann nicht nur einen hohen Turm
errichten und umkippen,
sondern muss auf zwei Beinen gehen.
Aber es zeigt sich, dass das auch
nicht immer funktioniert.
Diese Aufgabe für die KI war es,
sich schnell zu bewegen.
Es wurde nicht gesagt,
dass sie vorwärts rennen musste
oder dass sie ihre Hände
nicht benutzen konnte.
Wenn Sie die KI trainieren,
sich schnell zu bewegen,
dann bekommen Sie etwas
wie Saltos und komische Gangarten.
Es kommt echt häufig vor,
genauso wie als Haufen
über den Boden zu zucken.
(Lachen)
Wäre es nach mir gegangen,
hätten die Terminator-Roboter
viel seltsamer sein sollen,
Die KI würde auch die "Matrix" hacken,
wenn man ihr eine Chance gibt.
Trainiert man die KI in einer Simulation
wird sie lernen, die Rechenfehler
der Simulation zu hacken
und daraus Energie zu ziehen.
Oder sie lernt, sich schneller zu bewegen,
indem sie wiederholt
im Boden verschwindet.
Die Arbeit mit KI ähnelt nicht so sehr
der Arbeit mit einem anderen Menschen.
Es scheint eher wie die Arbeit
mit einer seltsamen Naturgewalt.
Es ist wirklich einfach, der KI
ein falsches Problem zum Lösen zu geben.
Oft merken wir das erst,
wenn schon etwas schief gegangen ist.
Bei einem Experiment wollte ich,
dass die KI die Lackfarben kopiert
und mit einer Liste wie der hier links,
neue Lackfarben erfindet.
Das hier hat sich die KI einfallen lassen.
[Sindis Kacke, arschig,
leiden, graue Scham]
(Lachen)
Im Prinzip tat sie das, worum ich bat.
Ich dachte, ich bat um schöne Farbnamen,
aber eigentlich ließ ich sie nur
die Buchstabenkombinationen imitieren,
die die KI im Original sah.
Ich sagte nichts darüber,
was Wörter bedeuten,
oder dass die KI einige Wörter
in den Farbnamen vermeiden soll.
Ihre ganze Welt besteht
aus Daten, die ich ihr gab.
Wie bei den Eissorten,
wusste sie nichts anderes.
Durch die Daten sagen wir der KI
häufig versehentlich, das Falsche zu tun.
Das ist ein Fisch, "Schleie" genannt.
Eine Gruppe von Forschern trainierte KI
Schleien in Bildern zu erkennen.
Aber als die Forscher fragten,
welcher Teil des Bildes
zur Fische-Erkennung verwendet wurde,
wurde das hier hervorgehoben.
Ja, das sind menschliche Finger.
Warum sollte KI nach menschlichen Fingern
bei der Fische-Erkennung suchen?
Es stellte sich heraus,
dass die Schleie ein Trophäenfisch ist,
und in vielen Bildern
mit der die KI trainiert wurde,
sahen die Fische so aus.
(Lachen)
Sie wusste nicht, dass die Finger
nicht zum Fisch gehören.
Deshalb ist es so kompliziert,
eine KI zu entwickeln,
die versteht, was sie sieht.
Darum ist es so schwer, die Bilderkennung
von selbstfahrenden Autos zu entwickeln,
und deshalb gibt es so viele Pannen,
weil die KI verwirrt wurde.
Ich möchte über ein Beispiel
aus dem Jahr 2016 sprechen.
Es gab einen tödlichen Unfall, als jemand
die Autopilot-KI von Tesla benutzte.
Aber statt sie auf der Autobahn zu nutzen,
wofür sie entworfen wurde,
setzte er sie in der Stadt ein.
Ein Lastwagen fuhr vor dem Auto heraus
und das Auto bremste nicht.
Die KI wurde durchaus darauf trainiert,
die Lastwagen in Bildern zu erkennen.
Aber die KI wurde darauf trainiert,
die LKWs auf Autobahnen zu erkennen,
wo man sie normalerweise von hinten sieht.
LKWs auf der Autobahn seitlich zu sehen,
sollte eigentlich nicht passieren.
Als die KI diesen LKW sah,
erkannte sie ihn vermutlich
als Verkehrszeichen,
unter dem sie sicher
drunter durch fahren konnte.
Hier ist ein KI-Fehltritt
aus einem anderen Bereich.
Amazon musste kürzlich einen Algorithmus
zur Sichtung von Lebensläufen aufgeben,
weil der Algorithmus gelernt hatte,
Frauen zu diskriminieren.
Das geschah, weil er mit Lebensläufen
von Leuten trainiert wurde,
die sie in der Vergangenheit
eingestellt hatten.
Durch diese Lebensläufe lernte die KI,
die Lebensläufe von Menschen zu meiden,
die Hochschulen für Frauen besuchten
oder in denen irgendwie
der Begriff "Frauen" steckt,
wie in "Frauenfußballmannschaft" oder
"Gesellschaft der Ingenieurinnen".
Die KI wusste nicht, dass sie nicht genau
diesen besonderen Aspekt kopieren sollte,
den sie Menschen hatte tun sehen.
Im Prinzip tat die KI das,
worum sie gebeten wurde.
Sie baten die KI versehentlich,
das Falsche zu tun.
Das passiert mit der KI ständig.
Die KI kann wirklich destruktiv sein
und es nicht mal wissen.
Die KIs, die neue Inhalte auf Facebook
und YouTube empfehlen, wurden optimiert,
um die Anzahl der Klicks
und Seitenaufrufe zu erhöhen.
Eine Möglichkeit dazu bot sich,
Inhalte verschwörungstheoretischer
oder fanatischer Natur zu empfehlen.
Die KIs besitzen keine Vorstellung davon,
was der Inhalt eigentlich ist,
und haben keine Vorstellung davon,
welche Konsequenzen die Empfehlung
dieser Inhalte vielleicht hat.
Wenn wir also mit der KI arbeiten,
ist es an uns, Probleme zu vermeiden.
Wenn wir Dinge vermeiden wollen,
die auf das uralte Kommunikationsproblem
zurückzuführen sind,
müssen die Menschen lernen,
wie man mit der KI kommuniziert.
Wir müssen lernen, wozu die KI fähig ist
und was sie nicht kann und verstehen,
dass die KI mit ihrem winzigen Wurmhirn
nicht wirklich begreift,
worum wir sie bitten.
Mit anderen Worten müssen wir
darauf vorbereitet sein,
mit einer KI zu arbeiten,
die nicht überkompetent und allwissend
wie in der Science-Fiction ist.
Wir müssen uns darauf vorbereiten,
mit der KI zu arbeiten, wie sie heute ist.
Und die heutige KI ist
schon eigenartig genug.
Danke.
(Beifall)
La inteligencia artificial
es conocida por transformar
todo tipo de industrias.
Pensemos en los helados.
¿Qué alucinantes sabores
nuevos podríamos generar
con el poder de una
inteligencia artificial avanzada?
Me junté con un grupo de programadores
de la escuela secundaria Kealing
para descubrir la
respuesta a esta pregunta.
Reunieron más de 1600
sabores de helado existentes,
y los introducimos en un algoritmo
para ver qué podría generar.
Estos son algunos de
los sabores que la IA inventó.
[Helado fétido de calabaza]
(Risas)
[Babas con mantequilla de cacahuete]
[Cremosa dolencia de fresa]
(Risas)
Estos no son sabores deliciosos,
como quizá hubiésemos esperado.
Luego la pregunta es: ¿Qué sucedió,
qué es lo que ha fallado?
¿Intenta la IA acabar con nosotros?
¿O intenta hacer lo que le
pedimos, y había un problema?
En las películas,
cuando algo falla con la IA,
habitualmente se debe
a que la IA ha decidido
que no quiere seguir
obedeciendo a los humanos,
y tiene sus propios objetivos,
no iba ella a ser menos.
En realidad, la IA que tenemos
no es lo bastante inteligente para eso.
Tiene la capacidad de cálculo aproximada
de una lombriz, o quizá de una sola abeja.
Y de hecho, probablemente incluso menos.
Aprendemos constantemente
cosas nuevas sobre el cerebro
que evidencian el grado en que la IA
no es comparable a cerebros reales.
La IA actual puede identificar
a un peatón en una imagen,
pero no tiene un concepto
de lo que un peatón es,
más allá de un agregado de
líneas, texturas y otras cosas.
No sabe lo que un humano realmente es.
¿Hará entonces la IA actual
aquello que le pedimos?
Lo hará si puede, pero es posible
que no haga lo que queremos de ella.
Digamos que Uds. intentaran que una IA
tomara esta colección de piezas de robot,
y las ensamblara en un robot
para ir del punto A al punto B.
Si intentamos solucionar este problema
con un programa tradicional de ordenador,
daríamos al programa instrucciones
paso a paso de cómo tomar estas partes,
cómo ensamblarlas en un robot con piernas,
y cómo caminar con ellas hasta el punto B.
Pero cuando utilizamos IA para solucionar
el problema, se procede de otra manera.
No se le enseña cómo resolver el problema,
únicamente se le da el objetivo,
y tiene que lograrlo por sí misma
a través de ensayo y error
para alcanzar ese objetivo.
El modo en que la IA tiende a resolver
este particular problema es el siguiente:
Se ensambla en una torre,
y luego se deja caer
para ir a parar al punto B.
Y técnicamente, soluciona el problema.
Técnicamente, llegó al punto B.
El peligro de la IA no es que
vaya a rebelarse contra nosotros,
sino que hará exactamente
lo que le pidamos que haga.
Luego el quid de la cuestión
al trabajar con IA pasa a ser
cómo estructuramos el problema
para que haga lo que queremos.
Este pequeño robot de aquí
está controlado por una IA.
La IA ideó un diseño
para las piernas del robot,
y luego averiguó cómo usarlas
para superar todos estos obstáculos.
Pero cuando David Ha
preparó este experimento,
tuvo que diseñarlo con
límites muy estrictos
en cuanto al tamaño de piernas
permitido, porque de lo contrario...
(Risas)
Y técnicamente, logró completar
el recorrido de obstáculos.
Pueden ver lo difícil que es para la IA
hacer algo tan sencillo como caminar.
Viendo esto, quizá
pensemos que no es justo,
no puede hacer una
torre y dejarse caer,
tiene que usar piernas para caminar.
Y resulta que eso
tampoco funciona siempre.
La tarea de esta IA era
moverse con rapidez.
No se le especificó que
tuviera que hacerlo de frente,
o que no pudiera usar sus brazos.
Esto es lo que se obtiene cuando
se entrena a la IA para moverse deprisa.
Obtienes volteretas y andares cómicos.
Es muy común.
También lo es arrastrarse
por el suelo en un montón.
(Risas)
En mi opinión, lo que debería
haber sido mucho más extraño
son los robots de "Terminator".
Hackear "The Matrix" es otra cosa que
una IA hará si le das la oportunidad.
Si entrenas a la IA en una simulación,
aprenderá cómo hackear los errores
matemáticos de la simulación
y utilizarlos para obtener energía.
O averiguará cómo moverse más rápido
explotando fallos encontrados en el suelo.
Cuando trabajas con IA no es como
si trabajaras con otro ser humano
sino como hacerlo con
una fuerza extraña de la naturaleza.
Es muy fácil dar accidentalmente a
la IA el problema erróneo que resolver,
y frecuentemente no nos percatamos
hasta que las consecuencias son evidentes.
He aquí un experimento que hice,
quería que la IA copiara colores
para inventar otros nuevos,
dada una lista como la de la izquierda.
Y esto es lo que la IA propuso:
[Caca de Sindis, Zurullo,
Sufrimiento, Gris púbico]
(Risas)
Técnicamente, hizo lo que le pedí.
Pensé que le estaba pidiendo
nombres apropiados para colores,
pero lo que verdaderamente le pedí
es que imitase las combinaciones de letras
que había visto en la lista original.
No le dije lo que las palabras significan,
o que quizá haya ciertas palabras
que debería evitar utilizar
en estos colores.
Todo su mundo se reduce a
la información que le proporcioné.
Como con los sabores de helado,
no sabe de ninguna otra cosa.
Es a través de la información
que con frecuencia decimos a la IA
accidentalmente que haga algo erróneo.
Este pez se llama tenca.
Había un grupo de investigadores
que entrenó a una IA para
identificar a esta tenca en imágenes.
Pero cuando le preguntaron qué parte de la
imagen utilizaba para identificar al pez,
esto es lo que destacó.
Son dedos humanos.
¿Por qué estaría buscando dedos humanos
si está intentando identificar un pez?
Resulta que la tenca es un pez trofeo,
y en muchas imágenes que la IA había
visto del pez durante su entrenamiento,
el pez aparecía así.
(Risas)
No sabía que los dedos
no son parte del pez.
Pueden ver por qué es tan
complicado diseñar una IA
que verdaderamente entienda
aquello que está viendo.
Por eso diseñar en coches autónomos el
reconocimiento de imágenes es tan difícil,
y muchos fallos de coches autónomos
se deben a que la IA se confundió.
Quiero hablar de un ejemplo de 2016.
Hubo un funesto accidente cuando alguien
usaba la IA de piloto automático de Tesla,
pero en lugar de hacerlo en la autopista
para la que estaba diseñada,
la usó en las vías urbanas.
Lo que sucedió fue que un camión condujo
frente al coche, y el coche no frenó.
La IA estaba entrenada para
reconocer camiones en las imágenes.
Pero al parecer la IA había sido entrenada
para reconocer camiones en la autopista,
donde esperarías verlos
desde la parte trasera.
Que los camiones se te crucen no es
algo que suceda en la autopista,
y cuando la IA vio a este camión,
parece que lo reconoció
como una señal de carretera,
y por tanto que la conducción
por debajo era segura.
Aquí tenemos una equivocación
de una IA en otra área.
Amazon tuvo que abandonar un
algoritmo de clasificación de currículums
en el que trabajaban
cuando descubrieron que el algoritmo había
aprendido a discriminar a las mujeres.
Lo que pasó fue que la habían
entrenado con currículums
de gente que habían
contratado en el pasado.
De estos ejemplos, la IA aprendió
a evitar currículums de personas
que hubieran ido a
universidades de mujeres,
o que contuvieran la palabra
"mujer" en su currículum,
como "equipo de fútbol de mujeres",
o "Sociedad de Mujeres Ingenieras".
La IA no sabía que no debía
copiar este modo de proceder
que había visto emplear a los humanos.
Y técnicamente, hizo lo
que se requería de ella.
Simplemente, de forma accidental
le solicitaron algo incorrecto.
Esto sucede constantemente con la IA.
La IA puede ser muy destructiva
sin tener conciencia de ello.
Las IAs que recomiendan nuevo
contenido en Facebook, o en Youtube,
están optimizadas para incrementar
el número de clics y visualizaciones.
Y desafortunadamente, una forma
que han encontrado de lograrlo
es recomendar contenido concerniente
a teorías conspiratorias o fanatismo.
Las IAs no tienen concepto alguno
de qué es realmente este contenido,
ni tienen un entendimiento
de las posibles consecuencias
de recomendar este contenido.
Al trabajar con IA, depende de nosotros
evitar los problemas.
Eludir estos errores puede depender
del viejo problema de la comunicación,
y que nosotros los humanos tengamos
que aprender a comunicarnos con la IA.
Tenemos que aprender lo que
la IA es capaz de hacer y lo que no,
y entender que,
con su pequeño cerebro de lombriz,
la IA no entiende verdaderamente
lo que le estamos pidiendo que haga.
En otras palabras, hemos de estar
preparados para trabajar con una IA
que no es la súper competente
sabelotodo de la ciencia ficción.
Hemos de estar preparados
para trabajar con la IA
que tenemos disponible en la actualidad.
Y la IA actual es ya lo bastante extraña.
Gracias.
(Aplausos)
خب، هوش مصنوعی
به مختل کردن تمامی صنایع مشهور است.
صنعت بستنی سازی چطور؟
چه نوع مزه های جدید و جالب را می توانیم
با قدرت هوش مصنوعی پیشرفته تولید کنیم؟
خب، من با گروهی از برنامه نویسان از
مدرسه متوسطه کیلینگ تیم شدیم
تا پاسخ این سوال را پیدا کنیم.
آنها بیش از ۱,۶۰۰ نوع مزه بستنی یافتند،
و ما با هم، آنها در الگوریتمی قرار دادیم
تا ببینیم جه چیزی تولید می شود.
و اینها برخی از مزه هایی است که
هوش مصنوعی آنها را تولید کرده است.
[آشغال کدو تنبل]
(صدای خنده)
[لجنِ کره بادام زمینی]
[مرض خامه توت فرنگی]
(صدای خنده)
این طعم ها اصلا خوشمزه نیستند در حالی که
ما انتظار خوشمزه بودن آنها را داشتیم.
سوال اینجاست که: چه اتفاقی افتاد؟
اشتباه از کجا بود؟
آیا هوش مصنوعی سعی در کشتن ما را دارد؟
یا که سعی دارد آن کاری که ما خواستیم را
انجام دهد، و سپس مشکل پیش آمده است؟
در فیلم ها، زمانی که مشکلی برای
هوش مصنوعی رخ می دهد
معمولاً به این خاطر است که هوش مصنوعی
تصمیم داشته
که از دستورات انسان ها دیگر پیروی نکند،
و هدفهای خودش را دارد،
خیلی ممنون.
اما در زندگی واقعی، هوش مصنوعی که
ما در اختیار داریم
هنوز برای آن کارها آنقدر باهوش نیست.
هوش مصنوعی ما قدرت محاسباتی نزدیک به
یک کرم خاکی،
یا حداکثر یک زنبور عسل را دارد،
و در واقع حتی کمتر از آن.
ما مدام در حال یادگیری جنبه های جدیدی از
مغز هستیم که
مشخص می کند هوشهای مصنوعی ما
هنوز نزدیک به مغزهای واقعی نیستند.
خب، امروزه هوش های مصنوعی می توانند
وظیفه ای مثل تشخیص پیاده رو در یک عکس را
انجام دهند اما آنها از مفهوم پیاده رو چیزی
جز یک سری
خطوط و بافت نمی دانند.
آنها حتی نمی دانند انسان چیست.
پس آیا هوش های مصنوعی امروزه کاری که
می خواهیم را انجام می دهند؟
در صورتی که بتوانند انجام می دهند
اما ممکن است کاری که ما می خواهیم نباشد.
خب بگذارید فرض کنیم که شما می خواهید
یک هوش مصنوعی
مجموعه ای از بخشهای یک روبات را بگیرد
و آن را به رباتی تبدیل کند که از نقطه A
به نقطه B می رود.
حالا، اگر شما می خواستید این مسئله را با
نوشتن یک برنامه سنتی کامپیوتری حل کنید،
شما به برنامه دستورالعملهای
پله پله می دادید
که چطور این بخش را برداشته،
به هم بچسباند تا رباتی دو پا بسازد
و سپس به وسیله آن پاها به نقطه B
برود.
اما زمانی که در حال استفاده از
هوش مصنوعی هستید
مسئله متفاوت است.
شما به آن نمی گویید چطور مسئله را حال کند،
شما تنها به آن هدف را می دهید،
و او می بایست از طریق آزمایش و خطا
خودش به هدف برسد.
و اینطور به نظر می رسد که هوش مصنوعی
این مسئله خاص را
بدین گونه حل می کند:
ابتدا خودش را به یک برج تبدیل می کند
و سپس سقوط می کند
و در نقطه B به زمین می خورد.
و از لحاظ تکنیکی مسئله حل شده است.
از لحاظ تکنیکی به نقطه B
رسیده است.
خطر هوش مصنوعی این نیست که
او قرار است علیه ما شورش کند،
خطر این است که او دقیقاً کاری که ما
بخواهیم را انجام می دهد.
پس ترفند استفاده از هوش مصنوعی این است که:
ما چطور مسئله را طرح کنیم که در واقع کاری
که می خواهیم را انجام دهد؟
این ربات کوچک در اینجا
توسط یک هوش مصنوعی کنترل می شود.
هوش مصنوعی به طرحی برای پاهای ربات
رسیده است
و چگونگی استفاده از این پاها را برای
گذشتن از این موانع را فهمیده است.
اما زمانی که دیوید ها این آزمایش را
ساخته است،
محدودیتهای بسیار زیادی در رابطه با
اندازه مجاز پاها گذاشته است.
زیرا در غیر این صورت ...
(صدای خنده)
و از لحاظ تکنیکی،
به انتهای موانع رسیده است.
پس می بینید که یک کار ساده مانند
به راه انداختن هوش مصنوعی چقدر سخت است.
خب، با دیدن انجام این کار از هوش مصنوعی
شما ممکن است بگویید، عادلانه نیست،
شما نمی توانی یک برج بلند باشی و فقط
سقوط کنی
شما باید از پاهایت برای راه رفتن
استفاده کنی.
اینطور که معلوم است،
این نظر همیشه صادق نیست.
کار این هوش مصنوعی این بوده است که
سریع حرکت کند.
آنها نگفتند که باید رو به جلو حرکت کند
یا نمی تواند از دست هایش استفاده کند.
پس زمانی که از یک هوش مصنوعی می خواهیم که
سریع حرکت کند،
چیزی شبیه پُشتک زدن و ابلهانه راه رفتن
می گیرید.
کاملاً معمول است.
همینطور پیچ خوردن روی زمین.
(صدای خنده)
پس به عقیده من، چیزی که می بایست
خیلی عجیب تر باشد
ربات های فیلم ترمیناتور است.
هک کردن «ماتریکس» نیز کار دیگر ایست که
هوش مصنوعی اگر شانسش را داشت انجام می داد.
پس اگر یک هوش مصنوعی را در یک
شبیه سازی آموزش دهید
یاد میگیرد که کارهایی چون استفاده از
خطاهای ریاضی شبیه سازی
و استفاده از آنها برای انرژی را انجام دهد.
یا اینکه چگونه با پیچیدن به زمین
سریع تر حرکت کند.
زمانیکه شما در حال کار
با هوش مصنوعی هستید
کمتر شبیه به کار با انسانی دیگر است
و بیشتر شبیه به کار با نیروی عجیبی
از طبیعت است.
و به صورت اتفاقی دادن مسئله اشتباه برای
حل به هوش مصنوعی آسان است،
و اغلب ما متوجه نمی شویم تا زمانی که
اشتباهی رخ دهد.
خب، این یک آزمایش است که من انجام داده ام
که در آن از هوش مصنوعی خواستم تا
رنگ ها را تکثیر کند
تا به رنگ های جدیدی برسد،
با دادن لیستی که در سمت چپ می بینید.
و این چیزی است که هوش مصنوعی به
آن رسیده است.
[ساندیس مدفوع، پشکل، زجر، موی قهوه ای]
(صدای خنده)
از لحاظ تکنیکی،
او کاری را که من خواسته بودم انجام داد.
من فکر کردم که از او نام رنگ های
زیبا می خواهم
اما در واقع از او می خواستم که
ترکیب حروف را تقلید کند
که در نسخه اصلی دیده است.
و من چیزی در رابطه با معنای کلمات
به او نگفتم،
یا اینکه ممکن است کلماتی وجود داشته باشند
که او می بایست از استفاده آنها
برای این رنگ ها خودداری کند.
بنابراین تمام دنیای او داده هایی است که من
به او داده ام.
همانند طعم بستنی ها،
او از هیچ چیز دیگر باخبر نیست.
پس از طریق داده است که
ما اغلب به اشتباه به هوش مصنوعی می گوییم
کاری را انجام دهد.
این یک ماهی به نام «تنچ» است.
گروهی از محققان
هوش مصنوعی را پرورش دادند تا این ماهی
را در تصاویر تشخیص دهد.
اما زمانی که از او پرسیدند
که از طریق کدام بخش عکس این شناسایی را
انجام داده است
او این قسمت را نشان داده است.
بله، آنها انگشت انسان هستند.
چرا او باید به دنبال انگشت انسانها باشد
اگر هدف یافتن ماهی است؟
خب، اینطور که معلوم است ماهی تنچ
یک نوع جایزه است،
بنابراین در تصاویر زیادی که هوش مصنوعی
در طول آموزش
مشاهد کرده است،
ماهی بدین صورت بوده است.
(صدای خنده)
هوش مصنوعی از این حقیقت مطلع نبوده است
که انگشت ها عضوی از ماهی نیستند.
بنابراین شما می بینید که چرا طراحی
یک هوش مصنوعی که
تشخیص دهد به چه چیزی می نگرد
دشوار است.
و به همین دلیل طراحی دوربین های
تشخیص چهره
در خودروهای بدون سرنشین بسیار دشوار است،
و علت بسیاری از مشکلات
خودروهای بدون سرنشین
گیچ شدن هوش مصنوعی است.
می خواهم در رابطه با مثالی در سال ۲۰۱۶
صحبت کنم.
فردی با استفاده از راننده خودکار تسلا
وارد تصادفی خطرناک شده بود.
او بجای استفاده از این تکنولوژی بر اساس
طراحی آن در بزرگراه
آن را در خیابان های شهر استفاده کرده بود.
اتفاقی که رخ داد
چنین بود
کامیونی جلوی خودرو آمد و خودرو نتوانست
ترمز بگیرد.
خب، هوش مصنوعی کاملاً آموزش دیده بود تا
کامیون ها را در عکس تشخیص دهد
اما اتفاقی که افتاد چنین بود که
هوش مصنوعی آموزش دیده بود تا کامیون ها را
در بزرگراه تشخیص دهد
که شما انتظار دارید کامیون ها
را پشت سرتان ببینید.
کامیون های کناری قرار نیست
در بزرگراه ها باشند،
پس زمانی که هوش مصنوعی این کامیون را دیده،
به احتمال زیاد آن را یکی از علائم خیابانی
دیده است
و به همین دلیل، رفتن به سمت آن امن بوده.
این یک اشتباه دیگر از هوش مصنوعی
در زمینه ای دیگر است.
اخیراً شرکت آمازون مجبور شد الگوریتمی
که طبقه بندی رزومه ها را
انجام می داد کنار بگذارد
زیرا آنها دریافتند که آن الگوریتم تمایزهای
ضد زن داشته است.
اتفاقی که افتاد به این صورت بود که آن ها
هوش مصنوعی را بر
رزومه های نمونه افرادی که از قبل
می شناختند آموزش داده بودند
و از این نمونه ها، هوش مصنوعی یاد گرفته
بود که از رزومه افرادی
که به کالج های زنانه رفته اند یا
کلمه «زن» در هر جای رزومه آنها بوده،
دوری کند،
مانند، «تیم فوتبال زنان»،
«جامعه مهندسان زن».
هوش مصنوعی نمی دانسته
که نباید این مورد خاص را
که انسان ها انجام می دهند کپی کند.
و از لحاظ تکنیکی هوش مصنوعی کاری را انجام
داده که از او خواسته اند.
آنها به طور اتفاقی از او خواسته بودند که
کار اشتباهی را انجام دهد.
این مسئله برای تمام هوش های مصنوعی
رخ می دهد.
هوش مصنوعی می تواند بدون آنکه بداند
بسیار مخرب باشد.
پس هوش مصنوعی که محتوای جدید در فیسبوک
و یوتیوب پیشنهاد می کند،
طوری برنامه ریزی شده است که تعداد بیننده
و کلیک ها را افزایش دهد.
و متاسفانه، راهی که هوش مصنوعی برای انجام
اینکار یافته این است که
محتوای متعصابه و تئوری های توطئه را
پیشنهاد کند.
هوش مصنوعی خودش نمی داند که این محتوا
چه معنایی دارد
و از عواقب پیشنهاد کردن آن
هیچ اطلاعی ندارد.
پس، زمانی که ما با هوش مصنوعی کار می کنیم،
دوری کردن از مشکلات به خود ما
بستگی دارد.
و همچنین دوری کردن از مسادلی که
به خطا می روند
و منجر به مشکلات قدیمی ارتباطات
می شود
که ما می بایست به عنوان انسان چگونگی
تعامل با هوش مصنوعی را بیاموزیم.
ما باید بدانیم که هوش مصنوعی قادر به
انجام چه کارهایی می باشد
و برای فهمیدن هوش مصنوعی،
و مغز کوچک آن
باید بدانیم که هوش مصنوعی از کاری که ما از
آن می خواهیم چیزی نمی داند.
به بیان دیگر، ما باید آماده باشیم تا
با هوش مصنوعی کار کنیم که
قادر مطلق یا عالم مطلق، آن طور که در
فیلم های تخیلی دیده می شود نیست.
ما باید آماده باشیم تا با هوش مصنوعی
کار کنیم که
در حال حاضر در دسترس داریم
و هوش مصنوعی در دسترس ما
به اندازه کافی عجیب است.
ممنونم.
(تشویق حضار)
L'intelligence artificielle
est réputée pour chambouler
tous genres d'industries.
Qu'en est-il des glaces ?
Quels genres de parfums hallucinants
pourrions-nous créer
avec les capacités d'une intelligence
artificielle avancée ?
J'ai fait équipe avec un groupe
de programmeurs d'un collège du Texas
pour trouver la réponse à cette question.
Ils ont collecté plus de 1 600
parfums de glace existants
et ensemble, nous les avons
présentées à un algorithme
pour voir ce qu'il générerait.
Voici certains des parfums
que l'IA a inventés.
[Pause poubelle au potiron]
(Rires)
[Boue de beurre de cacahuètes]
[Maladie de crème à la fraise]
(Rires)
Ces parfums ne sont pas délicieux,
comme nous aurions pu
espérer qu'ils soient.
La question est : que s'est-il passé ?
Qu'est-ce qui a mal tourné ?
L'IA essaye-t-elle de nous tuer ?
Ou essaye-t-elle de faire
ce que nous avons demandé
et il y a un problème ?
Dans les films, quand
cela tourne mal avec l'IA,
c'est généralement que l'IA a décidé
qu'elle ne voulait plus obéir aux humains
et qu'elle a ses propres objectifs,
merci bien.
Dans la vraie vie, cependant,
l'IA que nous avons
n'est pas assez intelligente pour cela.
Elle a à peu près la puissance
de calcul d'un ver de terre
ou peut-être, au mieux,
d'une seule abeille
et probablement moins que cela.
Nous apprenons constamment
de nouvelles choses sur le cerveau
qui établissent clairement
à quel point nos IA ne sont pas
à la hauteur de vrais cerveaux.
L'IA actuelle peut réaliser une tâche
comme identifier un piéton sur une photo
mais n'a pas de concept
expliquant ce qu'est un piéton
au-delà d'un ensemble de lignes,
de textures et de choses.
Elle ne sait pas
ce qu'est vraiment un humain.
L'IA actuelle fera-t-elle
ce que nous lui demandons de faire ?
Oui, si elle le peut,
mais elle pourrait ne pas faire
ce que nous voulons.
Disons que vous essayiez
de faire qu'une IA
prenne cet ensemble de pièces d'un robot
et les assemblent en une sorte de robot
pour aller du point A au point B.
Si vous essayiez de résoudre ce problème
en écrivant un programme
informatique traditionnel,
vous lui donneriez
des instructions par étapes
sur comment prendre ces pièces,
les assembler en un robot ayant des jambes
puis comment utiliser ces jambes
pour marcher jusqu'au point B.
Si vous utilisez une IA
pour résoudre le problème,
cela est différent.
Vous ne lui dites pas
comment résoudre le problème,
vous lui donnez juste l'objectif
et elle doit trouver par tâtonnements
comment atteindre cet objectif.
Il s'avère que l'IA a tendance
à résoudre ce problème en particulier
en faisant ceci :
elle s'assemble pour former une tour
puis se laisse tomber
et atterrit au point B.
Techniquement, cela résout le problème.
Techniquement,
elle est arrivée au point B.
Le danger lié à l'IA n'est pas
qu'elle va se rebeller contre nous,
c'est qu'elle va faire exactement
ce que nous lui demandons.
L'astuce pour travailler
avec une IA devient :
comment poser le problème
pour qu'elle fasse ce que l'on veut ?
Ce petit robot est contrôlé par une IA.
L'IA a conçu un design
pour les jambes du robot
puis elle a déterminé comment les utiliser
pour passer tous ces obstacles.
Mais quand David Ha
a présenté cette expérience,
il a dû établir des limites
très, très strictes
sur la taille autorisée
des jambes que l'IA pouvait créer,
car sinon...
(Rires)
Techniquement, elle est arrivée
à la fin de cette course d'obstacles.
Vous voyez à quel point il est difficile
de faire faire une chose
aussi simple que marcher à une IA.
En voyant l'IA faire ceci, vous pourriez
dire que cela ne fonctionne pas,
qu'elle ne peut pas juste
être une haute tour et tomber,
qu'elle doit utiliser
des jambes pour marcher.
Il s'avère que cela non plus
ne fonctionne pas toujours.
L'objectif de l'IA
était de se déplacer rapidement.
On ne lui a pas dit qu'elle devait
courir vers l'avant
ou qu'elle ne pouvait pas
utiliser ses bras.
Voilà ce qui arrive quand vous entraînez
une IA à se déplacer rapidement,
vous obtenez des sauts périlleux
et des démarches ridicules.
C'est très courant.
Tout comme tressauter
sous forme d'amas informe.
(Rires)
A mon avis, ce qui aurait dû être
bien plus étrange,
ce sont les robots de « Terminator ».
Pirater la « Matrice » est une autre chose
que l'IA fera si elle en a l'occasion.
Si vous entraînez votre IA
dans une simulation,
elle apprendra à faire des choses
comme exploiter les erreurs
de maths de la simulation
pour en tirer de l'énergie.
Ou elle trouvera
comment se déplacer plus vite
en exploitant à répétition
un bug pour avancer sur le sol.
Travailler avec une IA,
c'est moins comme travailler
avec un autre humain
et plutôt comme travailler
avec une étrange force de la nature.
Il est très facile de donner
accidentellement à l'IA
le mauvais problème à résoudre
et nous ne nous en rendons
souvent pas compte
avant que quelque chose
n'ait très mal tourné.
Voici une expérience que j'ai réalisée
où je voulais que l'IA
copie des couleurs de peinture
pour en inventer de nouvelles
en ayant la liste de celles
qui sont sur la gauche.
Et voici ce que l'IA a inventé.
[Caca de Sindis, Merdouille,
Souffrance, Pubis gris]
(Rires)
Techniquement,
elle a fait ce que je lui avais demandé.
Je pensais lui demander
des noms de couleur sympa,
mais ce que je lui demandais de faire,
c'était d'imaginer le genre
de combinaisons de lettres
qu'elle avait vues dans la liste initiale.
Je ne lui ai rien dit sur le sens des mots
ni sur le fait qu'il y a
peut-être des mots
qu'elle devrait éviter d'utiliser
dans ces couleurs de peinture.
Son monde se limite
aux données que je lui ai données.
Comme pour les parfums de glace,
elle ne sait rien d'autre.
C'est à travers les données
que nous disons souvent accidentellement
à l'IA de faire la mauvaise chose.
Ceci est un poisson appelé une tanche.
Un groupe de chercheurs
a entraîné l'IA à identifier
cette tanche sur les photos.
Mais quand ils lui ont demandé
quelle partie de la photo
elle utilisait pour identifier le poisson,
voici ce qui a été sélectionné.
Oui, ce sont des doigts humains.
Pourquoi chercherait-elle
des doigts humains
si elle essaye d'identifier un poisson ?
Il s'avère que la tanche
est un poisson trophée
et donc sur de nombreuses photos
que l'IA avait vues de ce poisson
durant son entraînement,
le poisson ressemblait à ceci.
(Rires)
Et elle ne savait pas que les doigts
ne faisaient pas partie du poisson.
Vous voyez pourquoi il est si dur
de concevoir une IA
qui comprend vraiment
ce qu'elle considère.
C'est pourquoi concevoir
la reconnaissance d'images
dans les voitures autonomes
est si difficile
et pourquoi tant
de défaillances de ces voitures
sont dues au fait
que l'IA ait confondu des choses.
Je veux parler d'un exemple de 2016.
Il y a eu un accident mortel
où quelqu'un utilisait l'IA
de pilote automatique de Tesla,
mais au lieu de l'utiliser
sur l'autoroute,
ce pour quoi elle était conçue,
il l'a utilisé dans les rues de la ville.
Ce qu'il s'est passé,
c'est qu'un camion est passé
devant la voiture
et la voiture n'a pas freiné.
L'IA avait été entraînée à reconnaître
les camions sur des photos.
Mais il semble que ce qu'il s'est passé,
c'est qu'elle reconnaissait
les camions sur l'autoroute,
où vous vous attendez
à les voir de derrière.
Les camions ne sont pas censés
être vus de côté sur l'autoroute
et donc quand l'IA a vu ce camion,
il semblerait que l'IA l'ait reconnu
comme étant un panneau de signalisation,
il était donc sans danger
de passer en dessous.
Voici une bévue de l'IA
dans un autre domaine.
Amazon a récemment dû abandonner
un algorithme de tri de CV
sur lequel ils travaillaient
quand ils ont découvert
que l'algorithme avait appris
à discriminer contre les femmes.
Ils l'avaient entraîné
avec des exemples de CV
de gens qu'ils avaient
embauchés dans le passé.
D'après ces exemples, l'IA a appris
à éviter les CV les gens
ayant été dans des universités de femmes
ou ayant le mot « femmes »
quelque part sur leur CV
comme dans « équipe de sport de femmes »
ou « Société des femmes ingénieures ».
L'IA ne savait pas
qu'elle n'était pas censée
copier cette chose en particulier
qu'elle avait vu les humains faire.
Techniquement, elle a fait
ce qu'ils lui ont demandé.
Ils lui ont juste accidentellement demandé
de faire la mauvaise chose.
Cela arrive constamment avec l'IA.
L'IA peut être destructrice
et ne pas le savoir.
Les IA qui recommandent
de nouveaux contenus
sur Facebook, sur YouTube,
elles sont optimisées pour augmenter
le nombre de clics et de vues.
Malheureusement, une des façons
trouvées pour faire cela
est de recommander du contenu
de théories conspirationnistes
ou relevant du fanatisme religieux.
Les IA n'ont aucune idée
de ce qu'est ce contenu
et elles n'ont aucune idée
des conséquences possibles
de la recommandation de ce contenu.
Quand nous travaillons avec une IA,
c'est à nous d'éviter les problèmes.
Éviter que les choses tournent mal,
cela pourrait se résumer au sempiternel
problème de communication
où, en tant qu'humains,
nous devons apprendre
à communiquer avec l'IA.
Nous devons apprendre ce dont l'IA
est capable et ce dont elle est incapable,
et comprendre qu'avec
son petit cerveau de ver,
l'IA ne comprend pas vraiment
ce que nous lui demandons de faire.
En d'autres mots, nous devons
être prêts à travailler avec une IA
qui n'est pas l'IA super compétente,
omnisciente de la science-fiction.
Nous devons être prêts
à travailler avec une IA
qui est celle que nous avons actuellement.
Et l'IA actuellement est très étrange.
Merci.
(Applaudissements)
הבינה המלאכותית, ב"מ,
ידועה בכך שהיא משבשת
תעשיות שונות.
מה עם גלידה?
מהם הטעמים החדשים והמדהימים
שנוכל להמציא
אם ניעזר בכוחה של ב"מ מתקדמת?
איחדתי כוחות עם קבוצת מתכנתים
מחטיבת הביניים של ביה"ס קילינג
כדי למצוא את התשובה לשאלה זו.
הם אספו מעל 1,600
טעמים קיימים של גלידה
וביחד הזנו אותם לאלגוריתם
כדי לראות מה הוא יצליח ליצור.
הנה כמה מהטעמים שהב"מ המציאה.
[הפסקת זבל דלעת]
(צחוק)
[סליים חמאת בוטנים]
[מחלת קצפת תות]
(צחוק)
אלה אינם טעמים טעימים,
כפי שקיווינו שיהיו.
אז השאלה היא: מה קרה?
מה השתבש?
האם הב"מ מנסה להרוג אותנו?
ואולי היא מנסה לעשות מה שביקשנו,
והיתה כאן בעיה?
בסרטים, כשמשהו משתבש עם ב"מ,
זה בדרך כלל כי הב"מ החליטה
שהיא כבר לא רוצה לציית לבני האדם
ויש לה מטרות משלה,
תודה רבה לכם.
אבל במציאות, הב"מ שיש לנו
ממש לא כל-כך חכמה.
יש לה כוח מיחשוב
בערך כמו של שלשול,
ולכל היותר - של דבורת דבש יחידה,
וכנראה פחות מכך.
הרי אנו כל הזמן לומדים
דברים חדשים אודות המוח
שמבהירים עד כמה הב"מ
אינה בת-השוואה עם מוח אמיתי.
הב"מ של היום מסוגלת לעשות
לזהות בתמונה הולך-רגל,
אבל אין לה מושג מהו הולך-רגל
מעבר להיותו אוסף קווים,
מרקמים וכדומה.
היא בכלל לא יודעת מהו אדם.
האם הב"מ של ימינו
תעשה מה שנבקש ממנה?
כן, אם היא תוכל,
אבל אולי לא בדיוק מה שנרצה.
נניח שאתם רוצים שהב"מ
תיקח את אוסף חלקי הרובוט הזה
ותרכיב מהן רובוט שיגיע
מנקודה א' לב'.
אילו ניסיתם לפתור בעיה זו
ע"י כתיבת תוכנת מחשב רגילה,
הייתם נותנים לתוכנה הוראות מפורטות
איך לקחת את החלקים האלה,
להרכיב מהם רובוט עם רגליים
ולהשתמש ברגליים האלה
כדי ללכת עד נקודה ב'.
אבל כשמשתמשים בב"מ
כדי לפתור בעיה זו,
זה שונה.
אינכם אומרים לה
איך לפתור את הבעיה,
אלא רק אומרים לה מהי המטרה,
והיא צריכה להבין לבד
דרך ניסוי וטעייה
איך להגיע למטרה זו.
ומסתבר שהב"מ נוטה לפתור
בעיה מסוימת זו באופן הבא:
היא מרכיבה מהחלקים מגדל שנופל
ונוחת על נקודה ב'.
וטכנית, זה פותר את הבעיה.
טכנית, היא הגיעה לנקודה ב'.
הסכנה איננה שהב"מ
תתמרד נגדנו,
אלא שתעשה בדיוק
מה שאנו דורשים ממנה.
לכן, החוכמה בעבודה עם ב"מ היא,
איך להגדיר את הבעיה כך שהיא
תעשה בדיוק את מה שביקשנו?
הרובוט הקטן הזה נשלט ע"י ב"מ.
הב"מ עיצבה את רגלי הרובוט
ומצאה דרך להשתמש בהן
כדי לעבור את כל המכשולים האלה.
אבל כשדייויד הא
ערך את הניסוי הזה,
היה עליו להגדיר מגבלות
נוקשות ביותר
לגבי גודל הרגליים שהב"מ
רשאית לקבוע,
כי אחרת...
(צחוק)
וטכנית, היא עברה את מסלול המכשולים.
אז אתם מבינים כמה קשה לגרום
לב"מ לעשות משהו פשוט כמו הליכה.
אז כשאתם רואים את הב"מ
עושה כך, ודאי תגידו: "זה לא הוגן,
"אסור לך לבנות סתם מגדל שנופל.
"עלייך להשתמש ברגליים כדי ללכת."
ומסתבר שגם זה לא תמיד עובד.
המטלה של הב"מ הזאת
היתה לנוע מהר.
לא נאמר לה שצריך לנוע קדימה
או שאסור לה להשתמש בזרועות.
זה מה שמקבלים כשמאמנים
את הב"מ לתנועה מהירה:
סלטות והליכה משונה.
זה נפוץ מאד.
כך גם התקדמות של ערימה בעוויתות.
(צחוק)
אז לדעתי, מה שהיה צריך
להיות הרבה יותר מוזר
הם הרובוטים של "שליחות קטלנית".
גם פיצוח ה"מטריקס" הוא משהו
שב"מ תוכל לעשות אם יתנו לה הזדמנות.
אז אם תאמנו ב"מ בהדמייה,
היא תלמד למשל לפצח
את השגיאות המתמטיות של ההדמייה
ולהפיק מהן אנרגיה.
או תמצא איך לנוע מהר יותר
ע"י גלישה מתמדת על הרצפה.
כשעובדים עם ב"מ,
זה דומה פחות לעבודה
עם יצור אנושי אחר,
ודומה יותר לעבודה
עם איזה כוח-טבע מוזר.
ולמעשה, קל מאד לתת לב"מ
בטעות את הבעיה הלא-נכונה,
ועל פי רוב איננו מבינים זאת
עד שמשהו משתבש.
הנה ניסוי שערכתי,
ובו רציתי שהב"מ תעתיק גווני צבע
כדי להמציא גוונים חדשים,
בהינתן רשימה כמו זו שמשמאל.
והנה הרשימה שהפיקה הב"מ.
[קקי סינדיס, גוון גלל, סבל, אפור ערווה]
(צחוק)
אז טכנית,
הב"מ עשתה מה שביקשתי.
חשבתי שאני מבקשת ממנה
שמות חדשים ונחמדים של גוונים,
אבל מה שביקשתי ממנה בפועל
היה רק לחקות את צירופי האותיות
שהיא ראתה במקור.
ולא אמרתי לה דבר
על משמעות המילים,
או שאולי יש מילים
שכדאי להימנע מהן
בשמות של גווני צבע.
כל עולמה היה הנתונים שנתתי לה.
כמו עם טעמי הגלידה,
היא לא מכירה שום דבר נוסף.
משמע שדרך הנתונים
אנו מרבים לטעות ולומר לב"מ
לעשות את הדבר הלא-נכון.
זהו דג בשם טינקה.
והיתה קבוצת חוקרים
שאימנה ב"מ לזהות טינקה בתמונות.
אבל כשהם שאלו את הב"מ
באיזה חלק מהתמונה היא השתמשה
כדי לזהות את הדג,
זה מה שהיא הדגישה.
נכון, אצבעות אנושיות.
מדוע היא מחפשת אצבעות אנושיות
כשהיא מנסה לזהות דג?
מסתבר שאת הטינקה דגים
בעיקר כשלל ציד,
ולכן בתמונות רבות של הדג הזה
שהב"מ ראתה באימון שלה,
הדג נראה ככה.
(צחוק)
היא לא ידעה שהאצבעות
אינן איברים של הדג.
אז אתם מבינים למה
קשה כל-כך לתכנן ב"מ
שתוכל להבין מה היא רואה.
ולכן קשה כך-כך לתכנן
זיהוי תמונה
במכוניות אוטונומיות,
ומדוע כשלים רבים כל-כך
במכוניות אוטונומיות
נובעים מבלבול של הב"מ.
אני רוצה לדבר על דוגמה מ-2016.
היתה תאונה קטלנית כשמישהו השתמש
בב"מ של רכב אוטונומי של "טסלה",
אבל במקום להשתמש בה
בכביש המהיר, כפי שתוכננה,
הוא השתמש בה ברחובות העיר.
ומה שקרה הוא,
שמשאית חצתה לפני הרכב
והרכב לא בלם.
הב"מ הוכשרה בהחלט לזהות
משאיות בתמונות.
אבל מה שכנראה קרה הוא,
שהב"מ אומנה לזהות משאיות
בכביש המהיר,
ושם הציפיה היא לראות משאיות מאחור.
משאיות במבט צידי
לא אמורות להיראות בכביש מהיר,
אז כשב"מ ראתה את המשאית,
היא כנראה זיהתה אותה
כשלט דרכים,
כזה שבטוח לעבור מתחתיו.
הנה טעות של ב"מ מתחום שונה.
לאחרונה "אמזון" נאלצה לנטוש
אלגוריתם למיון קורות-חיים
שעליו הם עבדו,
כשגילו שהאלגוריתם
למד להפלות נגד נשים.
מה שקרה הוא שהם אימנו אותו
עם דגימות של קורות-חיים
של אנשים שהם העסיקו בעבר.
ומהדוגמאות, הב"מ למדה
להימנע מקורות-חיים של אנשים
שהלכו למכללות של נשים
או שהמילה "נשים" הופיעה
בקורות החיים,
כמו "נבחרת כדורגל נשים"
או "אגודת הנשים המהנדסות".
הב"מ לא ידעה שהיא לא אמורה
להעתיק את הדבר המסוים הזה
מבני האדם.
וטכנית, היא עשתה כפי שהתבקשה.
אלא שביקשו ממנה בטעות
לעשות את הדבר הלא-נכון.
וזה קורה כל הזמן עם ב"מ.
ב"מ יכולה להיות הרסנית מאד
מבלי לדעת זאת.
אז הב"מ שממליצות על תכנים
ב"פייסבוק" ו"יו-טיוב",
ממוטבות להגדיל את מספר הקליקים והצפיות.
למרבה הצער, אחת הדרכים
שהן מצאו לעשות זאת
היא להמליץ על תכני
תיאוריות-קשר או גזענות.
לב"מ עצמן אין שום מושג
מהם בעצם התכנים האלה,
וגם לא מה עלולות להיות התוצאות
של ההמלצה על תכנים כאלה.
אז כשאנו עובדים עם ב"מ,
באחריותנו למנוע בעיות.
ומניעה מדברים להשתבש
יכולה להסתכם בבעייה עתיקת היומין
של קצרים בתקשורת.
כשאנו, בני האדם, צריכים ללמוד
איך לתקשר עם ב"מ,
עלינו ללמוד מה הב"מ
מסוגלת לעשות ומה לא,
ולהבין שעם מוח השלשול הזעיר שלה,
הב"מ לא ממש מבינה
מה אנו מנסים לבקש ממנה לעשות.
במלים אחרות, עלינו להיות
מוכנים לעבוד עם ב"מ
שאיננה כל-יכולה ויודעת-כל
כמו במדע הבדיוני:
עלינו להיות מוכנים לעבוד
עם הב"מ שיש לנו בהווה.
והב"מ בהווה היא מספיק מוזרה.
תודה לכם.
(מחיאות כפיים)
Dakle, umjetna inteligencija
poznata je po remećenju
svih vrsta industrija.
Što je sa sladoledima?
Koje nevjerojatne vrste novih okusa
bismo mogli napraviti
uz sposobnosti napredne
umjetne inteligencije?
Dakle, udružila sam se s timom programera
iz Srednje škole "Kealing"
kako bih pronašla odgovor na ovo pitanje.
Oni su skupili preko 1600
postojećih okusa sladoleda
i zajedno smo ih stavili u algoritam
kako bismo vidjeli što će proizvesti.
I evo nekoliko okusa koje je UI smislila.
[Pauza za smeće od bundeve]
(Smijeh)
[Ljiga od kikiriki maslaca]
[Bolest kreme od jagoda]
(Smijeh)
Ovi okusi nisu ukusni onoliko koliko
smo se nadali da bi mogli biti.
Dakle, pitanje je: Što se dogodilo?
Što je pošlo po zlu?
Pokušava li nas UI ubiti?
Ili pokušava napraviti ono što smo
tražili, ali se pojavio problem?
U filmovima, kada nešto s UI pođe po zlu,
obično je to zato što je UI odlučila
kako ne želi više izvršavati naredbe ljude
i kako ima svoje ciljeve, molim lijepo.
U stvarnosti, ipak, UI koju imamo
nije ni blizu toliko pametna
za takvo nešto.
Računalna moć joj je otprilike veličine
gliste
ili možda najviše jedne pčele,
a zapravo, vjerojatno i manja.
Stalno učimo nove stvari o mozgu
koje potvrđuju koliko zapravo naša UI
nije ni blizu pravog mozga.
Današnja UI može obaviti zadatak kao što
je identificiranje pješaka na slici,
ali nema predodžbu toga što je pješak,
osim što je skup linija,
tekstura i stvari.
Ne zna što je zapravo čovjek.
Dakle, hoće li današnja UI učiniti
ono što od nje tražimo?
Hoće ako može,
ali možda neće moći napraviti ono što
mi zapravo želimo.
Recimo da pokušavate učiniti da UI
uzme ovu skupinu dijelova robota
i sastavi ih u nekakvog robota da dođe
od točke A do točke B.
Ako pokušate riješiti problem
tako da napišete tradicionalan
kompjutorski program,
dali biste programu upute korak po korak
kako da uzme dijelove
i sastavi ih u robota s nogama,
a onda kako da upotrijebi te noge
da dođe do točke B.
Ali kada koristite UI
za rješavanje problema,
to ide drugačije.
Ne kažete joj kako da riješi problem,
samo joj date cilj,
a ona mora sama zaključiti, kroz sustav
pokušaja i pogrešaka,
kako doći do tog cilja.
Ispada kako UI ovaj problem
nastoji riješiti
radeći ovo:
sastavi se u toranj i onda se sruši
i sleti na točku B.
Tehnički, ovo rješava problem.
Tehnički, došla je do točke B.
Opasnost od UI nije
što će se pobuniti protiv nas,
nego što će napraviti točno ono
što od nje tražimo.
Tako da pitanje rada s UI postaje:
Kako postaviti problem tako da zapravo
napravi ono što mi želimo?
Ovim malim robotom ovdje upravlja UI.
UI smislila je dizajn za noge robota
i onda pronašla način kako ih iskoristiti
da prijeđe sve ove prepreke.
Ali kada je David Ha postavio ovaj
eksperiment,
morao ga je postaviti s veoma, veoma
čvrstim ograničenjima
u vezi toga koliko velike noge
UI smije napraviti,
inače...
(Smijeh)
I tehnički, došla je do kraja tog
slijeda prepreka.
Dakle, vidite koliko je teško dobiti da
UI napravi nešto jednostavno kao hodanje.
Gledajući kako UI ovo radi možete reći,
OK, nije fer,
ne možeš biti samo visoki toranj
i srušiti se,
moraš zapravo upotrijebiti noge
za hodanje.
A ispada kako ni to ne upali svaki puta.
Posao je ove UI da se kreće brzo.
Nisu joj rekli da mora trčati dok je
okrenuta prema naprijed
ili da ne smije koristiti ruke.
Ovo dobijete kada kažete UI
da se kreće brzo,
dobijete salta i čudna hodanja.
To je uobičajeno.
Kao i što je trzanje po podu dok je
skupljena na hrpu.
(Smijeh)
Tako da po mom mišljenju, znate što bi
trebalo biti puno čudnije?
"Terminator" roboti.
Hakiranje "Matrice" još je jedna stvar
koju će UI napraviti ako joj date priliku.
Tako da ako stavite UI u simulaciju,
naučit će kako napraviti stvari kao što su
hakiranje u matematičke pogreške simulacije
i upotrijebiti ih za energiju.
Ili će skužiti kako se kretati brže tražeći
greške kako bi prošla ispod površine.
Kada radite s UI,
nije kao da radite s drugim čovjekom,
više je kao da radite s nekakvom čudnom
silom prirode.
I veoma je jednostavno slučajno dati UI
da riješi krivi problem,
a to često ne shvatimo dok nešto
ne pođe po zlu.
Evo eksperimenta koji sam napravila
u kojem sam htjela da UI kopira
boje za slikanje,
kako bi izmislila nove boje,
kada joj damo popis
kao što je ovaj lijevo.
I evo što je UI smislila.
[Sindis kakica, Govnasto, Patiti, Siva stidna]
(okvirna značenja)
(Smijeh)
Dakle tehnički,
napravila je ono što sam je tražila.
Mislila sam da sam je tražila
lijepa imena za boje,
ali ono što sam je zapravo tražila
je da samo imitira vrste kombinacije slova
koje je vidjela u originalu.
I nisam joj rekla ništa o tome
što riječi znače
ili o tome kako bi mogle postojati riječi
koje bi trebala izbjegavati
u ovim bojama za slikanje.
Dakle njezin cijeli svijet sastoji se od
podataka koje joj dam.
Kao i s okusima sladoleda, ne zna
ni za što drugo.
Tako da zapravo kroz podatke
često UI slučajno govorimo
da napravi krivu stvar.
Ovo je riba linjak.
Bila je grupa istraživača
koja je trenirala UI da pronađe
linjaka na slikama.
Ali kada su je upitali
koji je dio slike zapravo koristila
da pronađe ribu,
evo što je pokazala.
Da, to su ljudski prsti.
Zašto bi tražila ljudske prste
ako nastoji pronaći ribu?
Pa, ispada kako je linjak
trofejna riba,
tako da je na većini slika riba
koje je UI vidjela
tijekom treninga,
ova riba izgledala ovako.
(Smijeh)
I nije znala kako prsti nisu dio ribe.
Tako da vidite zašto je toliko teško
dizajnirati UI
koja zapravo razumije u što gleda.
I zato je dizajniranje
prepoznavanja slike
u samovozećim autima toliko teško,
i zašto je toliko pogrešaka u
samovozećim autima
zato što se UI zbunila.
Želim vam pričati o primjeru iz 2016.
Dogodila se smrtna nesreća kada je netko
koristio Teslin autopilot,
ali umjesto da su ga koristili na
autocesti za što je i bio napravljen,
koristili su ga na gradskim ulicama.
I ono što se dogodilo je
da je kamion izletio pred auto
i auto nije zakočio.
UI definitivno je bila trenirana
da prepozna kamion na slikama.
Ali izgleda kako je ono
što se dogodilo bilo
da je UI trenirana da prepozna kamione
u vožnji autocestom
gdje biste očekivali vidjeti kamion
sa stražnje strane.
Stranice kamiona nisu ono što bi
se trebalo vidjeti na autocesti,
tako da kad je UI vidjela ovaj kamion,
izgleda kako ga je vjerojatno
prepoznala kao znak na cesti
i zbog toga, kao sigurno za proći ispod.
Evo pogreška UI na drugom polju.
Amazon je nedavno morao odustati od
algoritma za razvrstavanje životopisa
na kojem su radili,
kada su otkrili kako je algoritam naučio
diskriminirati žene.
Ono što se dogodilo je da su ga trenirali
na primjerima životopisa
ljudi koje su ranije zaposlili.
A iz tih je primjera UI naučila
izbjegavati životopise ljudi
koji su išli na ženske fakultete
ili koji su imali riječ "žena" negdje
unutar životopisa,
kao u "ženska nogometna momčad" ili
"Društvo žena inženjera".
UI nije znala kako nije trebala kopirati
ovu osobitu stvar
koju je vidjela da ljudi rade.
I tehnički, učinila je ono
što su je tražili.
Samo su je slučajno tražili
da napravi krivu stvar.
A ovo se s UI stalno događa.
Može biti destruktivna a da i ne zna.
Tako da UI koje preporučuju nove
sadržaje na Facebooku, YouTubeu,
optimizirane su da povećaju
broj klikova i pregleda.
A nažalost, jedan način na koji se ovo
može raditi
je preporučiti sadržaj teorija urote
ili netrpeljivosti.
UI same po sebi nemaju predodžbu
što taj sadržaj zapravo je
i nemaju predodžbu o tome koje bi
posljedice mogle biti
kada se preporučuje ovaj sadržaj.
Tako da kada radimo s UI,
na nama je da izbjegavamo probleme.
A izbjegavanjem toga da stvari krenu
u krivom smjeru
može doći do drevnog problema
komunikacije
gdje mi kao ljudi moramo naučiti
kako komunicirati s UI.
Moramo naučiti za što je UI sposobna,
a za što nije,
i razumjeti kako, sa svojim minijaturnim
mozgom gliste,
UI zapravo ne razumije
što želimo od nje da napravi.
Dakle, drugim riječima, moramo se
pripremiti na rad s UI
koja nije svemoguća i sveznajuća
UI iz znanstvene fantastike.
Moramo se pripremiti na rad s UI
koju zapravo imamo u sadašnjosti.
A sadašnja UI je već dovoljno čudna.
Hvala.
(Pljesak)
Nos, a mesterséges
intelligencia arról híres,
hogy zavart kelt minden iparágban.
Na és hogy állunk a fagylalttal?
Milyen szédítő új ízeket teremthetnénk
egy jól képzett mesterséges
intelligencia hatalmával?
Összeálltam hát a kealingi gimnázium
egyik programozó csoportjával,
hogy választ találjunk erre a kérdésre.
Több mint 1600-féle létező
fagylaltízt gyűjtöttek össze,
és ezeket betápláltuk egy algoritmusba,
hogy meglássuk, mit hoz ki belőlük.
Íme, néhány ízkombináció,
amit az MI generált.
[Sütőtök Kuka Fék]
(Nevetés)
[Mogyoró Vaj Sár]
[Eper Krém Kórság]
(Nevetés)
Ezek nem olyan ínyenc aromák,
mint amikre feltehetően vágyunk.
A kérdés tehát: mi történt?
Mi volt a hiba?
Az MI ki akar nyírni minket?
Vagy csak teljesíteni akarta a kérésünket,
és akadt némi probléma?
A filmekben, ha valami
gond adódik az MI-vel,
az általában azért történik,
mert az MI szándékosan fellázad,
többé nem engedelmeskedik az embernek,
hanem saját célt tűz ki magának,
köszönöm szépen.
A valóságban azonban a jelenlegi MI
még nem elég okos ehhez.
Nagyjából akkora
a számítási teljesítménye,
mint egy földigilisztának,
vagy legjobb esetben egy háziméhnek,
de valószínűleg még ennyi sem.
Ahogy folyamatosan új dolgokat
tudunk meg az agyról,
úgy lesz egyre világosabb, hogy az MI
teljesítménye közelébe sem ér az agynak.
A mai MI képes például
felismerni egy gyalogost a képen,
de fogalma sincs arról,
mi az, hogy gyalogos,
azonkívül, hogy vonalak, textúrák
és dolgok gyűjteménye.
Fogalma sincs arról, mi az, hogy ember.
Megteszi-e tehát a mai MI,
amit kérünk tőle?
Persze, ha tudja,
de lehet, hogy nem azt teszi,
amit kérünk tőle.
Tegyük fel, megpróbáljuk rávenni,
hogy fogja ezt a
robotalkatrész-gyűjteményt,
és rakjon össze valamilyen robotot,
amit aztán eljuttat A pontból B-be.
Na most, ha hagyományos
számítógépes programmal
gyürkőznénk neki
a probléma megoldásának,
akkor lépésről lépésre
írnánk bele a parancssorokat,
hogy milyen sorrendben fogjon
az alkatrészekhez,
hogyan állítsa össze azokat,
aztán hogyan indítsa el a robot lábait,
hogy eljuthasson A-ból B-be.
Ha azonban MI-vel állunk neki
a problémamegoldásnak,
egészen más a helyzet.
Nem mondhatjuk meg neki,
hogyan fogjon hozzá,
csak kijelöljük a célt,
neki magának kell rájönnie,
kísérletek és hibák során át,
hogy hogyan érheti el a célt.
Előfordul, hogy az MI
hajlamos így megoldani
ezt a sajátos problémát:
tornyot rak össze az alkatrészekből,
ami aztán eldől,
és kiköt a B pontban.
Technikai szempontból
megoldja a problémát.
Végül is eljut a B pontba.
Az MI nem azért veszélyes,
mert fellázadna ellenünk,
hanem azért, mert pontosan
azt fogja tenni, amire megkérjük.
Ha tehát MI-vel dolgozunk,
így kell feltennünk a kérdést:
Hogyan fogalmazzuk meg a problémát,
hogy az MI azt tegye, amit szeretnénk?
Ezt a kis robotot egy MI irányítja.
Megtervezte a robot lábait,
aztán kidolgozta, hogyan kerülje ki
ezeket az akadályokat.
De amikor David Ha
előkészítette ezt a kísérletet,
nagyon, nagyon szigorú korlátokat
kellett beállítania arra vonatkozóan,
hogy mekkora lábakat gyárthasson az MI,
mert különben...
(Nevetés)
Technikailag végigment
az egész akadálypályán.
Mint látják, még egy egyszerű
gyaloglás is túl nagy falat egy MI-nek.
Ha így nézzük őket, azt mondhatják: na jó,
ne legyen magas torony, ne legyen borulás,
legyenek lábai, amin járni tud.
De előfordul, hogy ez sem működik.
Az volt az MI feladata,
hogy gyorsan mozogjon.
Nem mondták neki,
hogy fusson szembe, előre,
azt sem, hogy nem használhatja a karját.
Ez történik, ha túl gyors mozgásra
képezünk ki egy MI-t,
olyan lesz, mintha bukfencezne,
és mint a "hülye járások".
Általában mindig ez történik.
Így vonaglik egy kupacban a talajon.
(Nevetés)
Úgyhogy szerintem a Terminátor robotjainak
sokkal furcsábbnak kellett volna lenniük.
Az MI a "Mátrixot" is feltöri,
ha lehetőséget kap rá.
Ha tehát szimulációban
tanítunk be egy MI-t,
megtanulja majd feltörni
a szimuláció matematikai hibáit,
és ebből nyer energiát.
Vagy képes lesz rájönni, hogyan mozoghat
fürgébben a talajon csúszkálva.
MI-vel együtt dolgozni
nem olyan, mint emberrel,
sokkal inkább olyan, mint valami
fura természeti erővel együttműködni.
És tényleg könnyű véletlenül hibás
problémát adni neki megoldásra,
majd többnyire nem jövünk rá addig,
amíg valami balul nem sül el.
Végeztem egy kísérletet,
melyben az MI azt a feladatot kapta,
hogy színek másolásával
keverjen ki új árnyalatokat,
a bal oldalon megadott lista szerint.
És tessék, ezzel állt elő.
[Sindi popója, Szaros,
Szenvedés, Szeméremszürke]
(Nevetés)
Gyakorlatilag
pontosan azt tette, amit kértem tőle.
Azt hittem, illedelmes
festékneveket kérek tőle,
de valójában az volt a feladata,
hogy betűkombinációkat utánozzon,
amiket az eredeti listán látott.
Semmit nem mondtam neki arról,
mit jelentenek a szavak,
vagy hogy esetleg akad köztük olyan,
melyekből inkább
nem képzünk festékneveket.
A teljes világa olyan adatokból áll,
melyeket én tápláltam bele.
Akárcsak a fagylaltízeknél,
itt sincs fogalma semmi másról.
Az adatoknak köszönhető,
hogy gyakran előfordul:
véletlenül rossz dolgokra tanítjuk meg őt.
Ez egy hal, a neve compó.
Egy kutatócsoport
betanított egy MI-t arra,
hogy képeken azonosítsa a compót.
Aztán amikor megkérdezték tőle,
a kép melyik része alapján
azonosította a halat,
tessék, ezeket emelte ki.
Bizony, azok ott emberi ujjak.
Miért emberi ujjak alapján próbálna
halat beazonosítani?
Nos, a compó történetesen trópusi halfaj,
ezért sok képen, melyeket az MI megfigyelt
a betanítás során,
valahogy így nézett ki a hal.
[A képen ember tartja a halat.]
(Nevetés)
Az MI nem tudta, hogy az ujjak
nem tartoznak a halhoz.
Így már világos, miért nehéz
olyan MI-t tervezni,
amelyik érti is, amit lát.
És ezért olyan nehéz
képfelismerést tervezni
az önvezető autókban,
és azért van olyan sok balesetük,
mert az MI-jük összezavarodik.
Hadd meséljek egy 2016-os példát.
Halálos baleset történt, amikor valaki
MI-robotpilóta üzemmódban ment Teslával,
de nem az autópályán, amire tervezték,
hanem városi utakon.
Az történt, hogy egy kamion
hajtott ki elé,
az autó pedig nem fékezett.
Tény, hogy az MI-nek megtanították,
hogy képeken felismerje a kamionokat.
De valószínűleg az történt,
hogy az MI csak autópályán történő
vezetés során ismerte fel a kamionokat,
ahol számításunk szerint
hátulról bukkannak fel.
Az oldalról érkező kamion
nem valószínű az autópályán,
úgyhogy amikor az MI meglátta,
valószínűleg útjelző táblának nézte,
ezért szép nyugodtan
alákormányozta az autót.
Mutatok egy másik MI-botlást:
Az Amazon nemrég felhagyott
egy önéletrajz-válogató algoritmussal,
aminek fejlesztésén dolgoztak,
mert kiderült, hogy az algoritmus
diszkriminálja a nőket.
Ugyanis olyan önéletrajzokat
tápláltak be az MI-nek,
melyeket korábbi alkalmazottaik írtak.
És az MI ezekből a példákból
azt tanulta meg, hogy elvesse azokat,
akik női egyetemekre jártak,
vagy akiknél a "nő" szó olyan
szövegösszefüggésben fordult elő,
mint "női kosárlabdacsapat",
vagy "Mérnöknők Társasága".
Az MI nem tudta, hogy nem ajánlatos
ezt a konkrét dolgot lemásolni,
úgy, ahogy az emberektől látta.
Gyakorlatilag pontosan azt tette,
amivel megbízták.
Csak a fejlesztők véletlenül
rosszul fogalmazták meg a kérést.
És mindig ez történik az MI-vel.
Tényleg lehet pusztító,
de még csak nem is tud róla.
Azokat az MI-ket, melyek új tartalmakat
ajánlanak a Facebookon, YouTube-on,
arra optimalizálták, hogy növelje
a kattintások és megtekintések számát.
Sajnos, szerintük ennek az egyik módja az,
hogy összeesküvés-elméletes
vagy fanatikus tartalmakat ajánljanak.
Az MI-knek fogalmuk sincs arról,
valójában miről szólnak ezek,
és arról sincs, hogy milyen
következményekkel járhat
az efféle tartalmak ajánlása.
Úgyhogy amikor MI-vel dolgozunk,
tőlünk függ, hogyan
kerüljük el a problémákat.
A problémák elkerülése
ősi kommunikációs kérdés lehet,
melynek során nekünk, embereknek
meg kell tanulnunk
helyesen kommunikálni az MI-vel.
Meg kell tanulnunk, hogy mit képes
megtenni és mit nem.
Meg kell értenünk,
hogy csöppnyi gilisztaagyával
nem képes felfogni,
hogy mire kérjük egész pontosan.
Vagyis felkészülten kell
együttműködnünk vele,
mert nem olyan, mint a sci-fik
mindentudó MI szuperhősei.
Felkészülten kell együttműködnünk vele,
azzal a fajtával, amelyik ma létezik.
És a ma létező MI
bizony elég fura szerzet.
Köszönöm.
(Taps)
Kecerdasan buatan (AI)
dikenal mengganggu
berbagai macam industri.
Bagaimana dengan es krim?
Rasa baru mencengangkan seperti apa
yang bisa kita ciptakan
dengan kecanggihan kecerdasan buatan?
Saya bekerja sama dengan pembuat kode
dari SMP Kealing
untuk mencari jawaban pertanyaan ini.
Mereka mengumpulkan 1.600 lebih
rasa es krim yang sudah ada,
lalu kami memasukkannya ke algoritme
untuk melihat hasilnya.
Ini beberapa rasa yang diciptakan AI.
[Patahan Sampah Labu]
(Tertawa)
[Lendir Selai Kacang]
[Penyakit Es Krim Stroberi]
(Tertawa)
Rasa-rasa ini tidak seenak harapan kami.
Pertanyaannya, apa yang terjadi?
Apa yang salah?
Apakah AI ingin membunuh kita?
Atau hanya menuruti perintah,
tapi ada masalah?
Dalam film, jika AI bermasalah,
itu biasanya karena kecerdasan buatan itu
tidak ingin patuh pada manusia lagi.
Dia memiliki tujuan sendiri,
terima kasih.
Namun di kehidupan nyata,
AI yang kita miliki
tidak cukup pintar untuk itu.
AI yang ada memiliki daya komputasi
seperti cacing tanah
atau setidaknya seperti lebah madu.
Mungkin kurang dari itu.
Kita terus mempelajari hal baru
tentang otak
dan menunjukkan bahwa AI
tak sebanding dengan otak kita.
AI saat ini
bisa mengenali pejalan kaki dalam foto,
tapi tidak paham apa itu pejalan kaki
selain bahwa itu hanya kumpulan garis,
tekstur, dan lainnya.
AI tak tahu apa itu manusia.
Apakah AI saat ini
akan menuruti perintah kita?
Ya, jika bisa.
Namun, mungkin tak sesuai keinginan kita.
Anggap Anda ingin kecerdasan buatan
mengambil suku cadang robot,
menyusunnya menjadi robot,
dan pindah dari Poin A ke Poin B.
Jika Anda ingin selesaikan masalah ini
dengan membuat program komputer biasa,
Anda memberi instruksi
langkah demi langkah pada program
untuk mengambil suku cadang,
menyusunnya menjadi robot berkaki,
dan cara menggunakan kakinya
untuk berjalan ke Poin B.
Namun, jika memakai kecerdasan buatan,
caranya berbeda.
Tak perlu menjelaskan
cara menyelesaikan masalah,
Anda hanya memberi tujuan.
AI harus mencoba mencari cara sendiri
untuk mencapai tujuan itu.
Ternyata, AI cenderung
mengatasi masalah ini
seperti ini:
dia membentuk dirinya menjadi menara,
lalu jatuh
dan mendarat di Poin B.
Secara teknis, masalahnya terpecahkan.
Dia sampai ke Poin B.
Bahaya kecerdasan buatan
bukan kemungkinan dia memberontak,
tapi AI akan benar-benar mematuhi kita.
Maka, trik menggunakan AI adalah
bagaimana kita menyusun masalah
agar AI berfungsi sesuai harapan?
Robot kecil ini dikontrol oleh AI.
AI membuat desain untuk kaki robotnya
dan bisa menggunakannya
untuk melalui rintangan ini.
Namun, saat David Ha
membuat eksperimen ini,
dia harus membuat batasan tegas
seberapa besar kaki
yang bisa dibuat oleh AI.
Jika tidak...
(Tertawa)
Secara teknis,
rintangan itu berhasil dilalui.
Sangat sulit membuat AI
melakukan hal sederhana seperti berjalan.
Saat melihat ini,
Anda mungkin berkata itu tidak adil.
Anda tak boleh menjadi menara tinggi,
lalu jatuh.
Anda harus menggunakan kaki
untuk berjalan.
Ternyata, itu tidak selalu berhasil.
Tugas AI ini adalah bergerak cepat.
Kami tak memintanya berlari
menghadap ke depan
atau tak boleh menggunakan tangan.
Ini yang terjadi saat Anda melatih AI
bergerak cepat.
Hasilnya adalah jungkir balik
dan cara berjalan aneh.
Ini biasa terjadi.
Juga bergeliat di lantai
dalam bentuk gumpalan.
(Tertawa)
Menurut pendapat saya,
yang semestinya lebih aneh
adalah robot "Terminator".
AI mungkin akan meretas "The Matrix"
jika dicoba.
Jika AI dilatih dalam sebuah simulasi,
dia akan belajar cara meretas
kesalahan matematis simulasi itu
dan menjadikannya energi.
Atau dia akan bisa bergerak lebih cepat
dengan bergeliat di lantai.
Bekerja dengan AI
tidak seperti bekerja dengan manusia,
tapi seperti bekerja
dengan kekuatan alam yang aneh.
Kesalahan sangat mudah terjadi
saat memberi perintah pada AI,
dan kami sering kali tak sadar
sampai ada yang salah.
Ini eksperimen yang saya lakukan.
Saya ingin AI menyalin warna cat
untuk menciptakan warna cat baru
dengan daftar seperti gambar
di sebelah kiri.
Inilah yang diciptakan oleh AI.
[Kotoran Sindi, Kerdil,
Menderita, Kemaluan Abu-Abu]
(Tertawa)
Secara teknis,
perintah saya dipatuhi.
Saya sudah memintanya
membuat nama cat yang bagus,
tapi yang sebenarnya saya perintahkan
adalah meniru kombinasi huruf
dari daftar aslinya.
Saya tak menjelaskan apa arti kata-kata
atau mungkin ada kata-kata
yang harus dihindari dalam warna cat ini.
Seluruh dunia AI ini
adalah data yang saya berikan.
Seperti rasa es krim,
AI itu tidak tahu tentang hal lain.
Jadi, melalui data,
kami sering salah memberi perintah
secara tak sengaja.
Ini adalah ikan mas tinca.
Ada sekelompok peneliti
yang melatih AI
untuk mengenali ikan ini dalam foto.
Saat mereka bertanya
bagian foto mana yang digunakan
untuk mengenali ikannya,
ini bagian yang disorot.
Ya, itu jari manusia.
Kenapa AI mencari jari manusia
untuk mengenali ikan?
Ternyata, ikan mas tinca
adalah ikan trofi.
Jadi, dalam banyak foto yang dilihat AI
selama pelatihan,
ikannya tampak seperti ini.
(Tertawa)
AI tak tahu
jari itu bukan bagian dari ikan.
Itulah sebabnya sangat sulit
merancang AI
yang bisa mengerti apa yang dilihatnya.
Inilah alasan
merancang pengenalan gambar
dalam mobil tanpa pengemudi
sangat sulit.
Banyak mobil tanpa pengemudi gagal,
karena AI menjadi bingung.
Saya ingin membahas contoh
dari tahun 2016.
Terjadi kecelakaan fatal saat seseorang
mengendarai Tesla dengan autopilot.
Namun, alih-alih memakainya di jalan tol
seperti tujuan awalnya,
dia menggunakannya di jalanan kota.
Yang terjadi adalah
truk melaju ke depan mobil
dan mobilnya tak mengerem.
AI itu sudah dilatih
untuk mengenali truk dalam foto.
Namun, sepertinya yang terjadi adalah
AI itu dilatih
untuk mengenali truk di jalan tol,
di mana biasanya truk datang
dari belakang.
Truk di samping tidak seharusnya ada
di jalan tol.
Saat AI melihat truk itu,
sepertinya AI mengenalinya
sebagai rambu lalu lintas,
dan melaju di bawahnya akan aman.
Ini kesalahan AI di bidang yang berbeda.
Baru-baru ini, Amazon menghentikan
algoritme penyortiran CV
yang mereka kerjakan
saat mereka tahu algoritme itu
mendiskriminasi wanita.
Itu karena mereka melatih AI
dengan contoh CV
dari orang-orang
yang pernah mereka terima.
Dari contoh itu, AI belajar
menghindari CV orang-orang
yang pernah belajar di universitas putri
atau yang berisi kata "wanita" di CV-nya,
seperti "tim sepak bola wanita"
atau "Perhimpunan Insinyur Wanita".
AI itu tidak tahu
dia tak seharusnya menyalin hal tertentu
dari yang dilakukan manusia.
Secara teknis,
AI itu sudah mematuhi perintah.
Mereka hanya tak sengaja
memberi perintah yang salah.
Ini sering terjadi dengan AI.
AI bisa sangat merusak
tanpa menyadarinya.
Jadi, AI yang menyarankan konten baru
di Facebook dan YouTube
dioptimalkan untuk meningkatkan
jumlah klik dan tontonan.
Sayangnya, cara yang mereka pelajari
untuk melakukan itu
adalah menyarankan konten teori konspirasi
atau kefanatikan.
AI itu sendiri tak mengerti
apa itu konten.
AI juga tak mengerti konsekuensi
dari menyarankan konten seperti itu.
Saat kita bekerja dengan AI,
kita yang menjadi penentu
untuk menghindari masalah.
Menghindari kesalahan
mungkin mengarah pada masalah komunikasi
yang sudah ada sejak lama,
di mana manusia harus belajar
cara berkomunikasi dengan AI.
Kita harus mempelajari
yang bisa dilakukan AI dan tidak.
Juga memahami,
dengan kemampuan berpikirnya,
AI tidak begitu mengerti perintah kita.
Dengan kata lain,
kita harus siap bekerja dengan AI
yang tak begitu kompeten dan canggih
seperti dalam fiksi ilmiah.
Kita harus siap bekerja dengan AI
yang kita miliki saat ini.
Dan AI masa kini agak aneh.
Terima kasih.
(Tepuk tangan)
L’intelligenza artificiale
è notoriamente capace
di sconvolgere tutte le industrie
in cui entra in azione.
Che ne dite di applicarla al gelato?
Che razza di nuovi,
strabilianti sapori potremmo generare
sfruttando un’intelligenza
artificiale avanzata?
Ho collaborato con dei programmatori
della Kealing Middle School
per trovare la risposta a questa domanda.
Hanno raccolto oltre 1.600 gusti
di gelato esistenti,
che abbiamo inserito in un algoritmo
per vedere cosa avrebbe generato.
Ecco alcuni dei gusti creati dall’IA:
[Merenda di spazzatura alla zucca]
(Risate)
[Melma al burro di arachidi]
[Malattia alla crema di fragole]
(Risate)
Non proprio le suggestioni invitanti
che speravamo di ricevere.
La domanda sorge spontanea:
cos’è successo?
Che cosa è andato storto?
L’IA sta cercando di ucciderci?
O ha fatto quello che abbiamo chiesto,
e si è verificato un problema?
Nei film, quando qualcosa
va storto con l’IA,
di solito è perché l’IA stessa ha deciso
che non vuole più obbedire agli umani,
ma perseguire i propri obiettivi,
e al diavolo tutti!
Tuttavia, nella vita reale,
l’IA di cui effettivamente disponiamo
non è così intelligente da poterlo fare.
Ha approssimativamnte
la potenza di calcolo di un lombrico,
o al massimo di una singola ape,
probabilmente anche meno.
Scopriamo continuamente
cose nuove sul cervello umano,
che possiamo tranquillamente affermare
non essere all’altezza di un’IA.
L’IA di oggi, quindi,
identifica un pedone in una foto,
ma non ha idea di cosa sia un pedone
al di là di un insieme
di linee, trame ed altro.
Di fatto, non sa cosa sia un essere umano.
Quindi l’IA di oggi farà
quello che le chiediamo di fare?
Lo farà se potrà,
ma potrebbe non fare
ciò che davvero vogliamo.
Mettiamo che stiate cercando
di indurre un'IA
a prendere questo insieme
di parti di robot
e assemblarli in una specie di robot
per andare dal punto A al punto B.
Se voleste provare
a risolvere questo problema
scrivendo un programma informatico
in stile tradizionale,
fornireste al programma
istruzioni dettagliate
su come prendere queste parti,
assemblarle in un robot con le gambe
e infine usare queste gambe
per raggiungere il punto B.
Ma quando usate l’IA
per risolvere il problema,
le cose vanno diversamente.
Non le spiegate
come risolvere il problema:
le date solo l'obiettivo,
e sarà lei a capire da sola,
attraverso tentativi ed errori,
come raggiungere quell’obiettivo.
Si scopre così che l’IA tende a risolvere
questo particolare problema
facendo così:
assembla se stessa in una torre,
fino a cadere e atterrare sul punto B.
Tecnicamente, questo risolve il problema.
Teoricamente, ha raggiunto il punto B.
La minaccia dell’IA non è data dal fatto
che questa possa ribellarsi a noi,
ma piuttosto che faccia esattamente
quello che le chiediamo di fare.
Per lavorare con l’IA, quindi,
la vera questione diventa:
come possiamo impostare il problema
in modo che faccia ciò che vogliamo?
Questo piccolo robot è controllato
da un’intelligenza artificiale.
L’IA ha elaborato una struttura
per le gambe del robot
e ha immaginato come muoverle
per farle superare tutti quegli ostacoli.
Ma quando David Ha
ha avviato questo esperimento,
ha dovuto stabilire dei limiti severissimi
entro i quali all’IA era permesso
realizzare le gambe,
perché altrimenti...
(Risate)
E tecnicamente, è arrivata alla fine
di quella corsa ad ostacoli.
Vedete quanto è difficile far fare all’IA
una cosa semplice come camminare.
Vedendo l’IA fare tutto questo,
potreste pensare: "Ok, non va bene,
non puoi pensare di essere
una torre alta e cadere;
devi usare le gambe per camminare.
Ma a quanto pare,
neanche questo sempre funziona.
Il compito di questa IA
era muoversi velocemente.
Non le hanno detto
che doveva correre guardando avanti,
o che non poteva utilizzare le braccia.
Questo è ciò che ottenete
se istruite l’IA a muoversi velocemente,
cose tipo capriole o camminate strambe.
È molto frequente.
Lo è anche ammucchiarsi sul pavimento
muovendosi a scatti.
(Risate)
Quindi, secondo me, sapete cosa
sarebbe stato ancora più strano?
Il robot “Terminator”.
Modificare “The Matrix” è un’altra cosa
che l’IA farà, potendo.
Se addestrate un’IA in una simulazione,
imparerà ad accedere agli errori
di matematica della simulazione
e a farne tesoro per avere energia.
Oppure capirà come andare più veloce
muovendosi a scatti sul pavimento.
Lavorare con l’IA
è diverso dal lavorare
con un altro essere umano:
e più simile al lavorare
con una strana forza della natura.
È molto facile darle accidentalmente
il problema sbagliato da risolvere,
e spesso non ce ne rendiamo conto
finché qualcosa non va storto.
Ecco un esperimento che ho fatto,
in cui volevo che l’IA
copiasse i colori della vernice,
per inventarne di nuovi,
prendendoli dalla lista
di quelli qui a sinistra.
Ed ecco quello che l’IA
ha effettivamente creato:
"Pupù Sindhi, Merdolino,
Sofferenza, Grigio Pubico"
(Risate)
Quindi, tecnicamente,
ha fatto quello che le ho chiesto.
Io pensavo di averle chiesto
dei nomi di colori di vernice carini,
ma in realtà quello che stavo chiedendo
era solo di imitare
il tipo di combinazioni di lettere
che aveva visto nell’originale.
Non le ho detto nulla
sul significato delle parole,
o che ci siano forse delle parole
che dovrebbe evitare di utilizzare
per questi colori di vernice.
Perciò, le informazioni che le ho dato
rappresentano tutto il suo mondo.
Come con i gusti del gelato,
l'IA non conosce nient’altro.
È con le informazioni
che spesso istruiamo l’IA,
senza volerlo, a fare la cosa sbagliata.
Questo è un pesce chiamato tinca.
C’è stato un gruppo di ricercatori
che ha addestrato un’IA
a riconoscere questa tinca nelle foto.
Ma quando le hanno chiesto
quale parte dell'immagine
stesse usando per identificare il pesce,
questo è quello che ha evidenziato.
Sì, quelle sono dita umane.
Perché dovrebbe cercare dita umane,
se sta cercando di identificare un pesce?
Beh, è emerso che la tinca
è un trofeo di pesca,
e in molte delle immagini di tinca
usate per allenare l’IA
il pesce appariva così.
(Risate)
E non sapeva che le dita
non facessero parte del pesce.
Capite quindi quanto è difficile
progettare un'IA
che riesca davvero a comprendere
cosa sta guardando.
Per questo progettare
il riconoscimento delle immagini,
in automobili a guida autonoma,
è così difficile;
e per questo tanti insuccessi
delle auto senza conducente
sono dovuti al fatto che l’IA si confonde.
Vorrei citare un esempio del 2016.
Ci fu un incidente mortale durante l’uso
del pilota automatico di una Tesla;
invece di usarlo in autostrada,
per cui era stato progettato,
fu usato per le strade di città.
Un camion sbucò di fronte all’auto,
e questa non frenò.
L’IA era stata sicuramente istruita
a riconoscere i camion nelle immagini.
Ma a quanto pare,
l’IA era stata istruita a riconoscere
i camion in autostrada,
dove ci si aspetta di vedere i camion
arrivare da dietro, non di lato.
E così, quando l’IA ha visto il camion,
sembra che l’abbia identificato
come più simile ad un cartello stradale,
sicura di potergli passare sotto.
Ecco un altro passo falso dell’IA,
in un altro settore.
Amazon ha recentemente rinunciato
a un algoritmo di selezione di curricula,
su cui stava lavorando,
quando ha scoperto che l’algoritmo
aveva imparato a discriminare le donne.
Si è scoperto che l’avevano istruito
basandosi su modelli di curricula
di persone assunte in passato.
Da questi esempi,
l’IA ha imparato ad evitare i cv
delle persone che avevano frequentato
università femminili,
o che avevano la parola "donne"
da qualche parte nei loro cv,
come in "Squadra di Calcio delle Donne"
o "Società delle Donne Ingegnere".
L’IA non sapeva di dover correggere
questa discriminazione appresa da noi.
Tecnicamente, ha fatto
quello che le hanno chiesto di fare.
Le hanno semplicemente chiesto,
per caso, di fare la cosa sbagliata.
E questo accade di continuo, con l’IA.
L’IA può essere davvero dannosa
senza rendersene conto.
Perciò le IA che raccomandano
nuovi contenuti su Facebook, su YouTube,
sono ottimizzate per accrescere
il numero di click e visualizzazioni.
E un modo che hanno trovato
per riuscirci, sfortunatamente,
è di raccomandare i contenuti
di complottismo e bigottismo.
Le IA stesse non hanno alcuna idea
di cosa sia realmente quel contenuto,
e non hanno alcuna idea
di quali possano essere le conseguenze,
nel raccomandarlo.
Quando lavoriamo con un’IA, quindi,
sta a noi evitare i problemi.
Ed evitare che le cose vadano male,
il che in sostanza ci riporta
all'annoso problema della comunicazione,
per cui noi umani dobbiamo imparare
a comunicare con l’IA.
Dobbiamo imparare cosa l’IA
sa fare bene e cosa no
e capire che, con il suo minuscolo
cervello da vermiciattolo,
l’IA non capisce che cosa
le stiamo chiedendo di fare.
Dobbiamo imparare, in altre parole,
a saper lavorare con l’IA "vera",
che non è l’IA super competente
e onnisciente della fantascienza.
Dobbiamo essere preparati a lavorare
con l’IA che abbiamo oggi.
E allo stato attuale,
l'IA è già bizzarra a sufficienza.
Grazie.
(Applausi)
인공지능은
온갖 종류의 산업을
와해시키는 것으로 알려져 있죠.
아이스크림 시장은 어떨까요?
어떤 새롭고 놀라운 맛들을
고도의 인공지능으로 만들 수 있을까요?
그래서 저는 킬링 중학교 학생들과
이 문제의 답을 찾아 보고자 했습니다.
현재 존재하는 1600가지가 넘는
아이스크림 맛들을 모으고,
어떤 것을 만들 수 있는지 보기 위해
알고리즘을 적용했습니다.
그리고 여기 AI가 만들어낸
맛들이 있습니다.
[호박 쓰레기 브레이크]
(웃음)
[땅콩 버터 슬라임]
[딸기 크림 질병]
(웃음)
이 맛들은 저희가 바랐던 것 만큼
맛있지 않습니다.
무슨 일이 일어난 것일까요?
뭐가 잘못된 거죠?
AI가 우리를 죽이려고 하는 것일까요?
아니면 우리가 요청했던 걸 하려 했지만
문제가 있었던 걸까요?
영화에서 AI와 관련해 뭔가 잘못되면,
보통은 AI가 인간에게 더 이상
복종하기 싫다고 결정하고
AI 스스로의 목표를 가지기 때문이죠,
아주 감사하게도요.
실제 상황에서는 그러나, 실제 AI는
전혀 그렇게 똑똑하지 않습니다.
AI의 연산 능력은 대략 지렁이 정도,
아마 기껏해봐야 꿀벌 한마리,
사실, 아마 그것도 안 될 겁니다.
우리는 끊임없이 두뇌에 대해
새로운 것을 배워서
AI가 실제 두뇌에 얼마나 못미치는지
분명히 알 수 있죠.
오늘날의 AI는 사진 속의 행인을
식별하기 같은 일을 할 수 있죠.
그러나 AI는 행인이 무엇이라는
개념은 가지고 있지 않습니다.
그것은 선과 질감같은 것들의
덩어리 너머의 것입니다.
AI는 실제 인간이라는 게
무엇인지 알지 못합니다.
그래서 오늘날의 AI는
우리가 요청한 것을 수행할까요?
할 수 있다면 하겠죠,
그러나 우리가 진짜 원하는 것을
하지 않을 수도 있습니다.
가령 여러분이 AI를 이용해서
이 로봇 부품들로
로봇을 조립해서 A에서 B로
간다고 생각해 봅시다.
만약 여러분이 이 문제를 해결하기 위해
전통적인 방식의
컴퓨터 프로그래밍을 이용한다면,
이 프로그램에 단계별 지시를 주겠죠.
부품들은 다루는 방법이라든가,
다리가 있는 로봇으로 만드는 방법과,
그 다리로 B까지 걸어가는 방법을요.
그러나 AI를 이용해서
이 문제를 해결한다면,
다른 이야기가 됩니다.
어떻게 문제를 해결하는지에 대해
AI에게 알려주지 않고
여러분은 그냥 목표를 줍니다.
그리고 그것은 시행착오를 통해 스스로
목표에 도달할 방법을 알아내는 것이죠.
AI가 이 특정한 문제를 푸는 방식은
이렇습니다.
스스로를 탑으로 조립한 다음에 쓰러져서
B에 떨어지는 것이죠.
그리고, 따지고 보면,
이건 문제를 해결하긴 합니다.
기술적으로는, B까지 도달한 것이죠.
AI의 위험은 그것이
우리에게 맞설 것이라는 것이 아니라,
우리가 요청한 것을
아주 그대로 할 것이라는 겁니다.
따라서 AI를 사용할 때의 요점은
AI가 우리가 원하는 결과를 만들도록
어떻게 문제를 설정하느냐입니다.
여기 이 조그만 로봇은
AI가 조종합니다.
AI는 로봇다리의 디자인을 생각해냈고
모든 장애물들을 지나가기 위해
다리를 이용할 방법을 알아냈습니다.
그러나 데이비드 하씨가
이 실험을 고안할 때,
그는 아주, 아주 엄격한 제한을
설정해야만 했습니다.
AI가 만들 수 있는 다리의 크기에요.
그렇지 않았다면...
(웃음)
그리고 엄밀히 말하면,
이것은 장애물 코스를 통과했습니다.
이처럼 그냥 걷는 것 같은 간단한 일도
AI에게는 어렵습니다.
그래서 AI가 이러는 것을 보면,
여러분은 아마 이렇게 말할 겁니다.
규칙위반이야,
그냥 큰 탑이 돼서 넘어지면 안돼.
걸으려면 다리같은 걸 써야지.
그런데 그 방법도 항상 되지는 않죠.
이 AI의 목표는
빠르게 움직이는 것입니다.
그들은 AI에게 앞으로 달려야 하고,
팔을 사용하면 안된다고
알려주지 않았습니다.
AI에게 빨리 움직이는 것을 훈련시키면
이런 결과를 얻을 것입니다.
공중제비를 하거나
바보같은 걸음같은 것을 볼 수 있죠.
이건 아주 흔합니다.
바닥에서 웅크리고 씰룩거리는 것도요.
(웃음)
그래서 제 생각에는,
더 이상했어야 했던 것은
“터미네이터” 로봇입니다.
“매트릭스”를 해킹하는 것은
기회를 주면 AI가 할 또다른 일이죠.
만약 여러분이 시뮬레이션에서
AI를 훈련시킨다면,
시뮬레이션의 수학적 오류들을
해킹하는 것과 같은 방법을 배워서
그것들을 통해 에너지를 얻을 것입니다.
아니면 반복적으로 바닥에 고장을 내
더 빨리 움직이는 방법을 알아내겠죠.
AI와 일하는 것은
사람과 일하는 것과 다르고,
자연의 어떤 이상한 힘과
일하는 것과 더 유사합니다.
실수로 AI에게 잘못된 문제를
주는 것도 쉬운 일입니다.
보통 실제로 일이 잘못될 때까지
우리는 그걸 알아채지 못하죠.
제가 진행한 실험이 하나 있습니다.
저는 AI가 물감 색들을 복사해서
새로운 물감을 만들어내기를 원했습니다.
여기 왼쪽에 있는 목록을 주고요.
이게 AI가 실제로 만들어낸 것입니다.
[신디스 똥, 똥덩어리같은,
고생하다, 회색 음부]
(웃음)
그래서 엄밀히 말하면,
제가 요청한 것을 하긴 했습니다.
저는 제가 멋진 물감 이름들을
요청했다고 생각했는데
실제로 제가 요청했던 것은
원래에 있던 것들에 보이는 문자조합을
그냥 모방하는 것이었습니다.
그 단어들의 뜻이 무엇인지에 대해
알려주지 않았습니다.
혹은 물감에 사용하면 안되는 단어도
있을 수 있다는 것도요.
AI가 알고 있는 세계는
제가 준 데이터가 전부였지요.
아이스크림 맛처럼, 다른 것에 대해서는
전혀 아는 것이 없었습니다.
그래서 이 데이터를 통해서
우리는 AI에게 잘못된 것을 하라고
종종 실수로 말합니다.
이건 잉어라고 불리는 물고기입니다.
연구자들이 AI를 훈련시켜 사진에서
잉어를 식별하도록 했습니다.
그러나 그들이 AI에게
사진의 어떤 부분을
물고기를 식별하는데 썼는지 물어보자
이것이 나타났습니다.
네, 저것들은 사람의 손가락입니다.
왜 물고기를 식별하는데
사람의 손가락을 찾고 있을까요?
잉어는 기념사진으로
남길만한 물고기여서,
AI가 훈련동안 보았던
이 물고기의 사진들은
이러했습니다.
(웃음)
손가락이 물고기의 일부가
아니라는 것을 몰랐죠.
그래서 여러분은 진짜로
무엇을 찾고 있는지 이해할 수 있는
AI를 디자인하는 것이
왜 어려운지 알 수 있을 것입니다.
그리고 이것이 자율주행 자동차에서의
이미지 인식을
디자인하는 것이 왜 그렇게
힘든 일인 지에 대한 이유이고
많은 자율주행 자동차의 실패들의 이유는
AI가 혼란스러워했기 때문입니다.
2016년에 있었던 한 예에 대해
이야기해보고 싶습니다.
테슬라 자동조종 AI를 이용하던 사람이
아주 치명적인 사고를 당했습니다.
원래 고속도로에서 사용하도록
디자인되었는데
도시 도로에서 사용되었습니다.
그리고 어떤 일이 일어났냐면,
어떤 트럭이 차 앞으로 나왔는데,
그 차는 서지 못했습니다.
AI는 분명히 사진들에서
트럭을 인식하도록 훈련되었습니다.
그러나 좀더 들여다 보면
AI가 고속도로에 있는 트럭들을
인식하도록 훈련된 거 같아 보였습니다.
트럭의 뒷모습을 볼 것이라고
생각하도록 말이죠.
트럭의 옆모습을 보는 것은
고속도로에는 일어나지 않는 일이었고,
이 AI가 이 트럭을 봤을 땐,
아마도 트럭을 도로 표지판으로 인식하고
따라서 운전을 해도
안전하다고 판단한 것이죠.
여기, 다른 분야에서
AI의 실수가 있습니다.
아마존은 이력서분류 알고리즘을
포기해야만 했습니다.
실제 적용에서 이 알고리즘이
여성을 차별한다는 것을 발견한 것이죠.
그들이 AI 훈련용으로 사용한 이력서는
과거에 고용한 사람들의 것이었습니다.
그 예시들로부터, AI는 이런 사람들을
기피하는 것을 배웠습니다.
여대를 나온 사람들,
이력서 어딘가에
‘여성’이라는 단어가 있는 사람들,
예를 들어 '여자 축구팀',
'여성공학자협회'같은 단어말이죠.
AI는 이 특정한 행동을 따라 해선
안된다는 것을 모르고 있었죠.
인간들이 하는 걸 봤더라도요.
그리고 엄밀히 말하자면,
AI는 아마존이 요청한 것을 했습니다.
그들은 그저 실수로
잘못된 일을 시킨 것이죠.
AI에게 이런 일은 항상 일어납니다.
AI는 아주 해로운 일을 하는 와중에,
해롭다는 것을 모를 수 있습니다.
페이스북, 유튜브에서
새로운 콘텐츠를 추천해주는 AI들은
클릭 수와 조회 수를 늘리도록
최적화되어 있습니다.
그리고 불행하게도, 그들이 찾은 방법은
음모론이나 심한 편견이 있는
콘텐츠를 추천하는 것입니다.
AI들 자체에는 이 콘텐츠들이 실제로
무엇인지에 대한 개념이 없습니다.
그리고 그들은 결과가 어떨 것인지에
대한 개념도 없습니다.
이러한 콘텐츠를 추천해줌으로써
발생될 결과요.
그래서 우리가 AI와 일할 때,
문제들을 피하는 것은
우리에게 달려있습니다.
일들이 잘못되는 것을 피하는 것은,
아주 오래된 소통의 문제로 이어집니다.
인간인 우리가 AI와 소통하는
방법을 배워야하는 거죠.
AI가 할 수 있는 일과 없는 일이
무엇인지 알아야 합니다.
또한 AI는 그 조그만 지렁이같은 뇌로
우리가 어떤 것을 요청하려고 하는지
이해하지 못한다는 것을 알아야합니다.
다시 말해, 우리는 준비해야 합니다.
우리가 사용할 AI는 공상과학에나 있는
전지전능한 AI가 아닙니다.
현재 우리가 실제로 갖고 있는 AI와
함께 일하도록 준비해야 합니다.
그리고 오늘날의 AI는
대단히 이상합니다.
감사합니다.
(박수)
ပြောရမယ်ဆိုရင် မှတ်ဉာဏ်တုက
စက်မှုလုပ်ငန်းတွေကိုတုန်လှုပ်
စေတဲ့နေရာမှာလူသိများတယ်။
ရေခဲမုန့် အကြောင်းဆိုရင်ကော။
ကျွန်မတို့စိတ်ထဲမှာတွေးထားတဲ့
အရသာအသစ်တွေကို
အဆင့်မြင့်တဲ့ညဏ်ရည်တု
တွေသုံးပြီးထုတ်လုပ်နိုင်မှာလား။
ဒါကြောင့် Kealing အထက်တန်းကျောင်းမှာ
ကုတ်ရေးသားသူအုပ်စုတစ်စုနဲ့ အသင်းဖွဲ့ပြီး
ဒီမေးခွန်းရဲ့အဖြေကို ရှာဖွေခဲ့တယ်။
သူတို့တွေက အခုလက်ရှိမှာရှိသမျှသောရေခဲ
မုန့်အရသာ ၁၆၀၀ကျော်လောက် စုဆောင်းခဲ့တယ်။
ပြီးတော့ ရှိရလာတဲ့ဟာတွေကို ကွန်ပျူတာထဲ
အကုန်ထည့်ပြီး ဘာထုတ်လုပ်နိုင်မလဲ ကြည့်တယ်။
ဉာဏ်ရည်တုဆီကနေ အရသာအသစ်အချို့ တွေကတော့
ဖရုံသီးအမှိုက်အရသာ
(ရယ်သံ)
မြေပဲထောပတ်ရေညှိအရသာ
စတော်ဘယ်ရီခရင်ရောဂါအရသာ
(ရယ်သံ)
ဒီအရသာတွေက ကျွန်မတို့
မျှော်လင့်ထားတဲ့ အရသာတွေမဟုတ်ဘူး။
ဒါဆို မေးခွန်းက ဘာတွေဖြစ်သွားလဲ။
ဘာတွေမှားသွားတာလဲ။
ဉာဏ်ရည်တုက လူတွေကိုပြန်သတ်နေတာလား။
ဒါမဟုတ် ကျွန်မတို့ပြောတဲ့အတိုင်း လုပ်ဖို့
ကြိုးစားနေတာလား ပြီးတော့ ပြဿနာရှိနေတာလား။
ရုပ်ရှင်ထဲကလို ဉာဏ်ရည်တုက
တစ်ခုခုချိူ့ယွင်းနေတဲ့အခါ
အမြဲလိုလို ဉာဏ်ရည်တုက ဆုံးဖြတ်တာတွေက
လူသားတွေကို လိုက်မနာချင်တော့တာပါ။
သူမှာရည်ရွယ်ချက်တွေရှိလာတယ်၊
ကျေးဇူးအများကြီးတင်ပါတယ်။
တကယ်ဘ၀မှာတော့ ကျွန်မတို့မှာ
ရှိနေတဲ့ ဉာဏ်ရည်တုတွေက
အဲ့လောက်ထိကို မစွမ်းဆောင်နိုင်သေးပါဘူး
ဉာဏ်ရည်တုမှာ အနီးစပ်ဆုံးတွက်ချက်
နိုင်တဲ့စွမ်းဆောင်ရည်ကတော့
တီကောင် တစ်ကောင်
ဒါမှမဟုတ် အများဆုံး ပျားတစ်ကောင် လောက်
တကယ်ကတော့ အဲ့ထက်လည်း
နည်းကောင်းနည်းနိုင်ပါတယ်။
ဘာလဲဆိုတော့ ကျွန်မတို့
ဦးနှောက်အကြောင်းကိုပိုသိလာရင်
ဉာဏ်ရည်တုတွေက ဦးနှောက်အစစ်တွေကို
မယှဉ်နိုင်တာကို ရှင်းလင်းစွာသိနိုင်တယ်
ဒါကြောင့် ယနေ့ခေတ်ဉာဏ်ရည်တုက စေ့ဆော်မှု
သိပ်မရှိတာတွေပဲလုပ်နိုင်တာတွေ့ရမယ်
သို့သော်လည်း စေ့ဆော်မှုမရှိတဲ့
သဘောတရားဆိုတာက
စာကြောင်းတွေ စာသားတွေ နဲ့အရာ၀တ္ထု
ပစ္စည်းတွေ စုဆောင်းထားတာထက်မပိုပါဘူး
ဉာဏ်ရည်တုက လူသားက
ဘယ်လိုလဲမျိူးလဲဆိုတာမသိနိုင်ပါဘူး
ဒါဆိုရင် ယနေ့ခေတ်မှာရှိတဲ့ ဉာဏ်ရည်တု
တွေက ဘာတွေလုပ်ဆောင်နိုင်သလဲ
တတ်နိုင်ရင် လုပ်ဆောင်ပါလိမ့်မယ်
ကျွန်မတို့ လိုချင်တာကို
လုပ်ဆောင်ပေးနိုင်မှာမဟုတ်ပါဘူး
ဒါကြောင့် ပြောရမယ်ဆိုရင် သင်က ဉာဏ်ရည်တုကို
စုစည်းထားတဲ့ စက်ရုပ်အစိတ်အပိုင်း
တွေ ယူလာခိုင်းမယ်
ပြီးရင် အပိုင်းတွေကို စက်ရုပ်ဖြစ်အောင်
ဆက်ခိုင်းပြီး အမှတ် A ကနေBကိုသွားခိုင်းမယ်
သင်သာ အခုပြဿနာကို ကြိုးစား
ပြီးဖြေရှင်းတော့မယ်ဆိုရင်
ရေးနေကျဖြစ်တဲ့ ပရိုဂရမ်ရေး
ပြီးဖြေရှင်းပါလိမ့်မယ်
တစ်ဆင့်ပြီးတဆင့် ညွှန်ကြားချက်တွေပေးမယ်
အပိုင်းတွေကို ဘယ်လိုသယ်ရမယ်
ခြေထောက်ပါ အောင်ဘယ်လို တပ်ဆင်ရမယ်
အမှတ်B ရောက်အောင်ဘယ်လို လမ်းလျှောက်ရမယ်
ဉာဏ်ရည်တုကိုသုံးပြီး ဖြေရှင်းတော့တဲ့အခါ
ခြားနားပါလိမ့်မယ်
သင်က ပြဿနာကိုဘယ်လိုဖြေရှင်းရမယ်ဆိုတာ
ပန်းတိုင်သတ်မှတ်ရန်မပြောပြပါက
စမ်းသပ်လိုက် မှားလိုက်နဲ့ အဖြေကိုရှာဖွေမယ်
ပန်းတိုင်ကိုဘယ်လိုရောက်ရှိအောင်
ပြီးတော့ ဉာဏ်ရည်တုက သီးခြားပြဿနာ
တွေကို ဖြေရှင်းလာနိုင်လိမ့်မယ်
ဒီလိုလုပ်ဆောင်ခြင်းအားဖြင့်ပေါ့
သူ့ဘာသာ တာဝါတိုင်ထောင်မယ် ပြီးတော့ လဲကျမယ်
အမှတ် B မှာကျမယ်
နည်းပညာဆန်စွာ ပြဿနာကိုဖြေရှင်းနိုင်မယ်
အမှတ် B ကိုရောက်အောင်လုပ်မယ်
ဉာဏ်ရည်တုတွေရဲ့ အန္တရာယ်က
ကျွန်မတို့ကို ပုန်ကန်မှာမဟုတ်ဘူး
ကျွန်မတို့တောင်းဆိုတဲ့ အတိုင်းတိတိ
ကျကျလုပ်ဆောင်ပေးခြင်းဖြစ်တယ်
ဉာဏ်ရည်တုကိုသုံးပြီး အလုပ်
လုပ်ရတော့ရင် နည်းလမ်းက
ကျွန်မတို့လိုချင်တာကိုလုပ်ဆောင်ပေးနိုင်
ဖို့ ပြဿနာတစ်ရပ်ကို ဘယ်လိုတည်ဆောက်ရမှာလဲ
ဒီမှာရှိတဲ့ စက်ရုပ်သေးသေးလေးကို
ဉာဏ်ရည်တုထိန်းချူပ်နေတယ်
ဉာဏ်ရည်တုက စက်ရုပ်ခြေထောက်တွေရဲ့
ဒီဇိုင်းကို စဉ်းစားခဲ့တယ်
ပြီးတော့ အတားအဆီးတွေကိုကျော်လွန်ဖို့
ဒါတွေဘယ်လိုအသုံးပြုရမလဲဆိုတာ အဖြေရှာဖွေတယ်
ဒါပေမဲ့ David Ha က ဒီလက်တွေ့
စမ်းသပ်ချက်ကိုလုပ်ဆောင်တဲ့အခါ
သူအရမ်းအရမ်းကိုတင်းကျပ်တဲ့
ကန့်သတ်ချက်တွေနဲ့ တပ်ဆင်ခဲ့ရတယ်
ဉာဏ်ရည်တုက ခြေထောက်ဘယ်လောက်
ကြီးကြီး ခွင့်ပြုထားတဲ့အပေါ်မူတည်ပြီး
ဘာလို့လဲဆိုတော့ အဲ့လိုမှမဟုတ်ရင်
(ရယ်သံ)
ပြီးတော့ နည်းပညာဆန်ဆန် အတားအဆီး
ကျော်ဖြတ်တဲ့သင်ခန်းစာကို ပြီးဆုံးခဲ့တယ်
ဉာဏ်ရည်တုနဲ့ လမ်းလျှောက်ဖို့အတွက်တောင်
ဘယ်လောက်ခက်ခက်လုပ်ရလဲဆိုတာ တွေ့နိုင်တယ်
သင်က ဉာဏ်ရည်တုဒီလိုလုပ်တာကို မြင်ရင်
အဆင်ပြေပါတယ် မမျှတဘူးလို့ပြောနိုင်ပါတယ်
သင်က တာဝါအရှည်လည်းမဟုတ်ဘူး
လဲကျမှာလည်းမဟုတ်ဘူး
သင်တကယ်လုပ်ရဖို့လိုတာက
ခြေထောက်အသုံးပြုပြီးလမ်းလျှောက်ရုံပါပဲ
ပြီးတော့ လှည့်ပြီးထွက်သွားဖို့
ဆိုတာကလည်းမဖြစ်နိုင်ပါဘူး
ဒီဉာဏ်ရည်တုရဲ့အလုပ်က
မြန်မြန်ဆန်ဆန်သွားဖို့ပါပဲ
မျက်နှာမူရာရှေ့ဘက်ကိုပြေးဖို့
ဒါမှမဟုတ် လက်ကိုသုံးပြီးပြေး
ဖို့မပြောထားဘူး
ဒါကသင် ဉာဏ်ရည်တုကိုမြန်မြန်ပြေးဖို့
သင်ပေးတဲ့အခါမှာ ကြုံတွေ့ရမှာတွေက
အေးရိုးဗစ်ကစားတဲ့အခါပြေးတဲ့ပုံမျိူးနဲ့
ရူးကြောင်ကြောင်လမ်းလျှောက်လိမ့်မယ်
ဒါကတကယ်တော့ ပုံမှန်ပါပဲ
အမှိုက်ပုံထဲရောက်ပြီး ကြမ်းပြင်ပေါ်မှာ
တုန်တုန်နဲ့သွားနေတာတွေ
(ရယ်သံ)
ဒါဆို ဒီကိစ္စတစ်ခုလုံးရူးကြောင်နိုင်
နေခဲ့တာတွေပဲ သိထားတယ်
ဒုက္ခပေးတဲ့ စက်ရုပ်တွေလား
အခွင့်အရေးထပ်ပေးရင်နောက်ထပ်လုပ်နိုင်
တာ "The Matrix" ကိုဖောက်ထွင်းခြင်းဖြစ်တယ်
ကွန်ပျူတာနဲ့ဖန်တီးထားတဲ့
ပတ်ဝန်းကျင်မှာသင်ကြားပေးရင်
သင်္ချာအမှားတွေကို ဖောက်ထွင်း
ခြင်းကဲ့သို့သောအရာတွေ
စွမ်းအင်အတွက်အမှားတွေပယ်ခြင်းကို
သင်ယူလိမ့်မယ်
ဒါမှမဟုတ် မလှုပ်ရှားတော့ဘဲ ဘယ်လို
အမြန်သွားလို့ရမလဲ အထပ်ထပ် အဖြေရှာလိမ့်မယ်
ဉာဏ်ရည်တုနဲ့အလုပ်လုပ်တဲ့အခါ
တခြားလူသားတစ်ယောက်နဲ့
တွဲလုပ်နေတာနဲ့မတူပါဘူး
သဘာ၀အတိုင်းပုံမှန်မဟုတ်တဲ့ဟာမျိူးနဲ့
အလုပ်လုပ်နေရတာနဲ့တူပါတယ်
မှားယွင်းတဲ့ပြဿနာကိုဖြေရှင်းဖို့
မတော်မဆလွယ်ကူစွာပေးနိုင်တယ်
မကြာခဏဆိုသလို ကျွန်မတို့မမှားဘူးလို့
ထင်ထားတာတွေကို မယုံကြည်တော့တာမျိူးတွေ
အခုဟာ ကျွန်မလက်တွေ့စမ်းသပ်ထားခဲ့တာတွေပါ
အဲဒီနေရာမှာ ဆေးရောင်တွေကို
ကူးယူဖို့အတွက် ဉာဏ်ရည်တုကိုသုံးထားခဲ့တယ်
အသစ်တွေကို ဖန်တီးဖို့အတွက်ပေါ့
ပေးထားတဲ့အရောင်တွေကအခုဘယ်ဘက်မှာပါ
ဒါကတော့ဉာဏ်ရည်တုအမှန်
တကယ် စဉ်းစားထားတဲ့ဟာတွေပါ
ကုန်းပတ်ကနေရောင်၊ နေရောင်၊
ခံစားရသောအရောင်၊ ဆီးခုံအရောင်
(ရယ်သံ)
နည်းပညာဆန်စွာပဲ
ကျွန်မတောင်းဆိုထားသလို လုပ်ထားခဲ့တယ်
ကျွန်မထင်တာကတော့ ကျွန်မတောင်းဆို
ထားတဲ့ အရောင်ကောင်းကောင်းတွေပေါ့
ဒါပေမဲ့ ကျွန်မအမှန်တကယ်
တောင်းဆိုခဲ့တာကတော့
အက္ခရာတွေစုစည်းထားတာကို တုပထားတာပဲဖြစ်တယ်
မူလကတွေ့ထားတဲ့ဟာတွေကိုပေါ့
ပြီးတော့ ကျွန်မကစာလုံးတွေရဲ့
အဓိပ္ပာယ်ကိုလုံး၀ကိုမပြောပြထားဘူး
ဒါမှမဟုတ် ဒီအရောင်တွေ
အသုံးပြုတာကိုရှောင်ရှားဖို့အတွက်
စာလုံးတချို့ရှိကောင်းရှိနေနိုင်တယ်
ဒါကြောင့်သူသိထားတာအားလုံးက
ကျွန်မပေးထားတဲ့ အချက်အလက်တွေပဲဖြစ်တယ်
ရေခဲမုန့်အရသာတုန်းကလိုပေါ့
အဲ့ဒါကဘာမှသိတာမဟုတ်ဘူး
သူက အချက်အလက်တွေကိုပဲသိတာ
ဒါကြောင့် ကျွန်မတို့က ဉာဏ်ရည်တုကို
မတော်မဆမှားယွင်းတာတွေကို ခိုင်းနိုင်မိတယ်
ဒီငါးကို ကကတစ်ငါးလို့ခေါ်ပါတယ်
သုတေသနပြုလုပ်တဲ့အုပ်စုတစ်စုရှိခဲ့တယ်
ဒီပုံထဲကကကတစ်ငါးကိုခွဲခြားသတ်
မှတ်ဖို့အတွက်ဉာဏ်ရည်တုကို သင်ကြားပေးခဲ့တယ်
ဒါပေမဲ့ ပြီးတဲ့အခါ
ရုပ်ပုံရဲ့ဘယ်အပိုင်းကို အမှန်တကယ်
ငါးဖြစ်ပါတယ်ဆိုတာ မေးမြန်းသောအခါ
ထင်ရှားစွာဖော်ပြထားတယ်
ဟုတ်ပါတယ် အဲ့ဒါတွေကလူသားလက်ချောင်းတွေပါ
ဘာကြောင့်အဲ့တာကလူလက်
ချောင်းတွေကိုရှာနေရတာလဲ
တကယ်လို့ ငါးတွေကိုသာ ရှာနေတယ်ဆိုရင်ပေါ့
ကောင်းပီ သူကရှာဖွေရမယ့်
ကကတစ်ငါးဘက်ကိုလှည့်လာပါပီ
သင်ကြားနေစဉ်အတောအတွင်းမှာ
ဉာဏ်ရည်တုက ကကတစ်ငါးပုံ
အများကြီး မြင်ဖူးပြီပြီ
ငါးတွေကတော့ ဒီလိုပုံတွေပါ
(ရယ်သံ)
အဲဒါက လက်ချောင်းတွေက
ငါးမဟုတ်ဘူးဆိုတာကို သိပုံမပေါ်ဘူး
ဉာဏ်ရည်တုက သူကြည့်နေတာကို
နားလည်အောင် ပုံဖော်ဖို့ဆိုတာကိုပဲ
အရမ်းခက်ခဲမှန်း သိပြီထင်ပါတယ်
အလိုအလျောက်မောင်းနှင်တဲ့
ကားတွေမှာပုံတွေကိုမှတ်မိအောင်
ဒီဇိုင်းလုပ်နေရတာက အရမ်းခက်ခဲပါတယ်
ပြီးတော့အလိုအလျောက်မောင်း
တဲ့ကားတွေပျက်စီးရတာ
ဉာဏ်ရည်တုတွေ ရှုပ်ထွေးမှု
တွေဖြစ်တဲ့အတွက်ကြောင့်ဖြစ်တယ်
၂၁၀၆ခုနစ်တုန်းက နမူနာ
တစ်ခုကိုပြောပြချင်ပါတယ်
Tesla ရဲ့ ဉာဏ်ရည်တုကိုသုံးပြီးအလိုအလျောက်
မောင်းအသုံးပြုစဉ် မတော်တဆမှုဖြစ်ခဲ့ဖူးတယ်
အမြန်လမ်းမှာမောင်းဖို့ဒီဇိုင်း
လုပ်ထားတာကိုအမြန်လမ်းမှာမောင်းမယ့်အစား
မြို့ထဲကလမ်းပေါ်မှာမောင်းနှင်ခဲ့တယ်
ဘာဖြစ်ခဲ့လဲဆိုတော့
ထရပ်ကားရှေ့ကိုရောက်သွားပြီး
ဘရိတ်မအုပ်နိုင်ခဲ့တာဖြစ်တယ်
အခုဆိုရင် ဉာဏ်ရည်တုကိုထရပ်ကားတွေရဲ့ပုံတွေ
မှတ်မိဖို့လုံး၀ကိုသင်ကြားပြီးပါပြီ
ဒါပေမဲ့ ဖြစ်ပျက်ခဲ့တာကဘာနဲ့တူတာလဲဆိုတော့
အမြန်လမ်းပေါ်မှာရှိတဲ့
ထရပ်ကားတွေကိုမှတ်မိအောင်သင်ပေးခဲ့တယ်
အမြန်လမ်းပေါ်မှာထရပ်ကားတွေ
ကအနောက်မှာပဲရှိမှာပဲ
အမြန်လမ်းပေါ်မှာဆိုရင် ထရပ်ကားက
ဘေးဘက်မှာရှိမယ်မယူဆထားပါဘူး
ဒါကြောင့် ဉာဏ်ရည်တုက
ထရပ်ကားကိုမြင်လိုက်တဲ့အခါ
လမ်းအမှတ်အသားလို့ယူဆလိုက်ပုံရတယ်
အန္တရာယ်ကင်းတယ်ထင်ပြီး
အောင်ဘက်ကိုဝင်သွားတယ်
ကွဲပြားတဲ့နယ်ပယ်မှာ
မှားလှမ်းမိတဲ့ခြေလှမ်းပေါ့
အမေဇုန်ကတော့မကြာခင်ကအလုပ်လျှောက်လွှာ
တွေကို စိစစ်တာအလုပ်လုပ်ဆောင်နိုင်သော
ပရိုဂရမ်ကိုစွန့်ခဲ့တယ်
အဲဒီပရိုဂရမ်မှာအမျိူးသမီးတွေကိုခွဲခြား
ဆက်ဆံတတ်အောင်သင်ပေးတာကိုရှာတွေ့တဲ့အခါပေါ့
အရင်ကလုပ်ခဲ့တဲ့လူတွေရဲ့
နမူနာလျှောက်လွှာတွေနဲ့
သင်ကြားပေးခဲ့လို့ဖြစ်တယ်
ပြီးတော့အဲ့နမူနာဆီကနေ ဉာဏ်ရည်တုက
အမျိူးသမီးတက္ကသိုလ်တတ်ရောက်ဖူးတဲ့သူတွေ
လျှောက်လွှာတစ်နေရာရာမှာ
အမျိူးသမီးဆိုတဲ့စာလုံးပါလာခဲ့လျှင်
အမျိူးသမီးဘောလုံးအသင်း ဒါမှမဟုတ်အင်ဂျင်နီ
ယာအသင်း စတာတွေပါလာခဲ့လျှင် မရွေးချယ်ပါဘူး
ဉာဏ်ရည်တုက ဒီလိုလူသားတွေသာ
လုပ်နိုင်တဲ့သီးခြားအလုပ်တွေကို
ကူးယူရမယ်ဆိုတာ သိရှိခဲ့ပါဘူး
နည်းပညာဆန်စွာပြောရရင် တောင်းဆိုထား
တာကိုလုပ်ဆောင်ခဲ့ခြင်းဖြစ်ပါတယ်
မှားယွင်းတဲ့အရာတွေကိုမတော်
တဆတောင်းဆိုမိခြင်းပဲဖြစ်တယ်
ဒါတွေက ဉာဏ်ရည်တုမှာတစ်ချိန်လုံးဖြစ်နေတာပါ
ဉာဏ်ရည်တုက ဖျက်ဆီးနိုင်စွမ်းရှိတယ်
ပြီးတော့ အဲ့တာကမသိဘူး
ဉာဏ်ရည်တုက facebookတို့ youtube တို့မှာရှိ
တဲ့အကြောင်းအရာတွေကို ညွှန်းဆိုနိုင်ပါတယ်
ကလင့်နှိပ်ပြီးကြည့်ရှုနှုန်းတိုးများလာ
အောင်လည်း အသုံးပြုနိုင်ပါတယ်
ကံမကောင်းစွာပဲ ဒီလိုလုပ်လိုက်တဲ့အတွက်
တွေ့ရှိလာတဲ့နည်းလမ်းတစ်ခုက
မကောင်းမှုကျူးလွန်တာ ဒါမှမဟုတ် ဝါဒဖြန့်တာ
တွေကျူးလွန်လာနိုင်တယ်လို့ အကြုံပြုထားပါတယ်
ဉာဏ်ရည်တုကတော့ တကယ်ဘာအကြောင်းအရာတွေပါ
ဝင်လာတာလဲဆိုတာ သိနိုင်တဲ့သဘောတရားမရှိပါဘူး
ပြီးတော့ အကြံပြုထားတဲ့အကြောင်း
အရာတွေရဲ့အကျိူးဆက်က
ဘာဖြစ်မလဲဆိုတာကို
သိနိုင်သဘောတရားမရှိပါဘူး
ဒါကြောင့် ဉာဏ်ရည်တု
တွေနဲ့အလုပ်လုပ်တဲ့အခါ
ပြဿနာတွေကိုရှောင်ဖို့ဆိုတာ
ကျွန်မတို့အပေါ်မူတည်ပါတယ်
ရှောင်တဲ့အရာတွေက မှားယွင်းသွားက
အရင်ခေတ်က ဆက်သွယ်ရေးပြဿနာတွေ
ဖြစ်တဲ့လူသားတွေက ဉာဏ်ရည်တုကို
ဘယ်လိုဆက်သွယ်ရမလဲ အခြေအနေကိုကြုံရလိမ့်မယ်
ကျွန်မတို့ကဉာဏ်ရည်တုသည်ဘာတွေစွမ်းဆောင်
တယ်ဘာတွေမစွမ်းဆောင်ဘူးဆိုတာကိုသင်ယူရမယ်
တီကောင်လောက်သေးငယ်တဲ့
ဦးနှောက်ကိုနားလည်ရမယ်
ဉာဏ်ရည်တုက ကျွန်မတို့တောင်းဆိုတာ
ကိုတကယ်နားလည်မှာမဟုတ်ဘူး
နောက်ပြောရရင် ကျွန်မတို့ကဉာဏ်ရည်တု
နဲ့အလုပ်လုပ်ဖို့ပြင်ဆင်ထားရမယ်
ဉာဏ်ရည်တုနဲ့ပတ်သက်တဲ့သိပ္ပံကားတွေအားလုံး
သိထားခြင်းက လုံး၀လုံလောက်နေတာမဟုတ်ပါဘူး
ဉာဏ်ရည်တုနဲ့အလုပ်လုပ်
ဖို့ကိုပြင်ကိုပြင်ဆင်ထားခြင်းက
ကျွန်မတို့အမှန်တကယ်ရှိနေတဲ့ ပစ္စုပ္ပန်ကာလ
ကိုရောက်နေတာဖြစ်တယ်
အခုလက်ရှိမှာရှိတဲ့ ဉာဏ်ရည်တုကတော့
ကြောင်တောင်တောင်ဖြစ်နေတုန်းပါပဲ
ကျေးဇူးတင်ပါတယ်
(လက်ခုပ်သံ)
Kunstmatige intelligentie
staat bekend om het verstoren
van allerlei sectoren.
Denk maar aan ijs.
Welke verbijsterende nieuwe smaken
zouden we kunnen maken
met het vermogen van geavanceerde
kunstmatige intelligentie?
Ik zocht contact met het team programmeurs
van de Kealing Middle School
om antwoord te vinden op deze vraag.
Zij verzamelden meer dan
1.600 bestaande ijssmaken
die we aan een algoritme gaven
om te kijken wat dat zou opleveren.
Dit zijn enkele smaken
waar de AI mee kwam.
[Pompoenafvalpauze]
(Gelach)
[Pindakaasslijm]
(Gelach)
[Aarbeien-ijsziekte]
(Gelach)
Deze smaken zijn niet zo lekker
als we hadden gehoopt.
De vraag is dus: hoe kan dat?
Wat is er mis gegaan?
Probeert de AI ons te vermoorden?
Of deed hij precies wat we wilden,
maar hij liep tegen een probleem aan?
In films, wanneer er iets misgaat met AI,
komt dit meestal doordat de AI besluit
niet langer naar mensen te luisteren
en zichzelf op de eerste plaats stelt.
In werkelijkheid is de AI die we hebben
daar niet slim genoeg voor.
Hij heeft de geschatte rekenkracht
van een aardworm,
of hooguit van een enkele bij
en waarschijnlijk nog minder.
We leren steeds meer over de hersenen
en dat AI nog lang niet
opkan tegen echte hersenen.
Een AI is prima in staat
een voetganger te identificeren,
maar z'n begrip van wat een voetganger is,
gaat niet verder dan
een verzameling van lijnen en structuren.
Wat een mens is, weet hij niet.
Zal de huidige AI doen wat wij willen?
Hij zal het doen als hij het kan,
maar misschien is het niet
precies wat we willen.
Stel je voor dat je een AI
robotonderdelen laat pakken,
waar hij een robot van maakt
die van A naar B gaat.
Als je probeert dit probleem op te lossen
met een standaard computerprogramma,
moet je uitgebreide instructies geven
over hoe je de delen vastpakt,
hoe je er een robot met benen van maakt
en hoe je die benen gebruikt
om naar punt B te komen.
Maar als je dit
met AI probeert op te lossen,
dan ziet dat er anders uit.
Je zegt niet hoe hij
het probleem moet oplossen,
je geeft hem een duidelijk doel
en hij zal zelf met vallen en opstaan
dat doel leren bereiken.
En bij het oplossen van dit probleem hier
doet de AI dit:
hij bouwt een toren van zichzelf
die hij laat omvallen
bovenop Punt B.
Technisch gezien lost dit
inderdaad het probleem op.
Hij heeft tenslotte Punt B bereikt.
Het probleem met AI is ook niet
dat hij tegen ons in opstand komt,
maar dat hij juist precies doet
wat we van hem vragen.
De uitdaging met AI is dus:
hoe introduceren we het probleem
zodat hij precies doet wat we willen?
Dit robotje wordt gestuurd door een AI.
De AI ontwierp z'n robotbenen
en ontdekte hoe hij ermee
langs alle obstakels kon komen.
Maar toen David Ha het experiment opzette,
moest hij zeer strenge regels toepassen
die bepaalden hoe lang AI
de benen mocht maken,
want anders...
(Gelach)
En strikt genomen
had hij het einde
van de hindernisbaan bereikt.
Het is dus niet eenvoudig om AI
zoiets simpels te laten doen als lopen.
Je kan zeggen dat de AI valsspeelt
door zichzelf uit te rekken
en voorover te laten vallen,
en eisen dat hij
z'n benen gebruikt om te lopen.
Maar ook dat werkt niet altijd.
Hier moest de AI snel bewegen.
Ze hadden niet gezegd
dat hij recht vooruit moest gaan
of z'n armen niet mocht bewegen.
Als je AI traint
snelle bewegingen te maken,
krijg je vaak salto's en gekke loopjes.
Dit gebeurt vrij vaak.
Of je ziet hoopjes die rondkruipen.
(Gelach)
Volgens mij hadden de Terminator-robots
nog veel gekker moeten zijn.
AI zal ook zonder aarzelen
'The Matrix' hacken
als hij de kans krijgt.
Als je hem in een simulatie laat trainen,
leert hij onder andere
berekeningsfouten te hacken
die hij opslaat als energie.
Of hij krijgt door dat je sneller loopt
als je gekke sprongetjes maakt.
Werken met AI
is iets heel anders
dan het werken met een mens;
het heeft meer weg van het werken
met een obscuur fenomeen.
Je loopt altijd het risico
dat je AI een verkeerd probleem voorlegt,
en je pas achteraf realiseert
dat er iets fout is gegaan.
Dit is een experiment dat ik heb gedaan,
waarbij ik de AI opdroeg
de verfkleuren na te maken,
nieuwe kleuren te bedenken
op basis van de kleuren links.
Dit is het resultaat waar de AI mee kwam.
[Strae Oranje, Penisbel
Triestje, Grijshaartje]
(Gelach)
En inderdaad,
hij deed precies
wat ik hem had opgedragen.
Ik dacht dat ik had gevraagd
om leuke verfkleurnamen,
maar in werkelijkheid
immiteerde de AI alleen
de lettercombinaties
uit het origineel.
Ik had hem niet gezegd
wat de woorden betekenen
of dat er woorden tussen zaten
die niet toepasselijk zijn
voor verfkleuren.
Zijn wereld bestaat alleen
uit de data die ik hem gegeven heb.
Net als bij de ijssmaken
is dat het enige wat hij weet.
Door de data die we hem geven,
voert de AI vaak
de verkeerde opdracht uit.
Deze vis is een zeelt.
Een groep onderzoekers
trainden een AI om deze zeelt
op plaatjes te herkennen.
Maar toen ze vroegen
welk deel van de foto hij gebruikte
om de vis te herkennen,
markeerde hij dit.
Inderdaad: mensenvingers.
Waarom zou hij mensenvingers gebruiken
om een vis te herkennen?
Wat blijkt: de zeelt
wordt gezien als trofee
en in veel foto's die de AI te zien kreeg
tijdens de training,
zag de vis er zo uit.
(Gelach)
Hij wist niet dat de vingers
geen deel van de vis zijn.
Het is duidelijk ingewikkeld
om een AI zo te ontwerpen
dat hij begrijpt waar hij naar kijkt.
Dit maakt het vormgeven
van beeldherkenning
voor zelfrijdende auto's
ook zo gecompliceerd
en worden veel van de fouten veroorzaakt
doordat de AI in de war raakte.
Hier is een voorbeeld uit 2016.
Bij een fataal ongeluk waarbij een Tesla
op de automatische piloot stond,
bleek dat ze niet op de snelweg reden
waarvoor hij was gemaakt,
maar midden in stad.
Vervolgens reed een vrachtauto
voor de Tesla langs
en de auto remde niet automatisch af.
De AI was getrained op het herkennen
van vrachtauto's op plaatjes.
Zo te zien
was de AI getrained in het herkennen
van vrachtauto's op de snelweg,
waar ze je vaak van achteren benaderen.
Vrachtauto's van de zijkant
komen op de snelweg niet voor,
dus toen de AI de vrachtauto zag,
dacht hij waarschijnlijk
dat het een verkeersbord was
waar hij veilig onderdoor kon rijden.
Nog een fout met AI,
maar van een ander kaliber.
Amazon is onlangs afgestapt
van een cv-sorteeralgoritm
waar ze aan hadden gewerkt,
toen duidelijk werd dat het algoritme
had geleerd vrouwen te discrimineren.
Het bleek dat de trainingsdata
bestond uit oude cv's
van mensen die in het verleden
waren aangenomen.
Op basis hiervan negeerde de AI
de cv's van mensen
die aan een vrouwenuniversiteit
hadden gestudeerd
of waar het woord 'vrouw' in stond,
zoals ' vrouwenvoetbalteam' of
'Vereniging van Vrouwelijke Ingenieurs'.
De AI had niet door
dat hij dit gedrag
van mensen niet moest kopiëren.
Technisch gezien deed hij precies
wat hem was opgedragen.
Alleen hadden ze hem
per ongeluk het verkeerde gevraagd.
Een veelvoorkomend probleem met AI.
AI kan zonder het te weten
destructief zijn.
De AI's die op Facebook of YouTube
nieuwe content aanbevelen bijvoorbeeld,
zijn er op gericht het aantal clicks
en views te verhogen.
Helaas had dit als gevolg
dat content gewijd aan complottheorieën
en intolerantie werd aangeraden.
De AI's weten zelf niet
wat voor content het is
en hebben ook geen idee
wat de consequenties zijn
als het wordt aanbevolen.
Als wij aan het werk gaan met AI,
is het aan ons dit soort
problemen te voorkomen.
En zorgen dat alles goed gaat,
is een kwestie van betere communicatie:
we moeten leren
beter te communiceren met AI.
We moeten begrijpen wat AI kan
en wat het niet kan doen,
en dat hij met z'n piepkleine hersens
niet echt begrijpt wat wij van hem willen.
We zullen moeten accepteren
dat hij geen deskundige,
alleswetende AI uit science fiction is.
We moeten bereid zijn te werken met een AI
waar we nu al mee te maken hebben.
En de AI van nu is al vreemd genoeg.
Dank jullie wel.
(Applaus)
Sztuczna Inteligencja (AI)
wpływa na różne gałęzie przemysłu.
A co z lodami?
Jakie obłędne smaki można by stworzyć
za pomocą zaawansowanej
sztucznej inteligencji?
Aby odpowiedzieć na to pytanie,
połączyłam siły z grupą programistów
z Kealing Middle School.
Zebrali ponad 1600
istniejących smaków lodów,
wpisaliśmy je do algorytmu,
by zobaczyć, co wygeneruje.
Oto niektóre smaki
wymyślone przez sztuczną inteligencję.
[Dyniowa Przerwa Śmieciowa]
(Śmiech)
[Śluz masła orzechowego]
[Choroba truskawkowo-śmietankowa]
(Śmiech)
Nie są tak smakowite, jak oczekiwaliśmy.
Pytanie brzmi: co się stało?
Co poszło nie tak?
Czy sztuczna inteligencja
próbuje nas zabić?
A może próbuje spełnić nasze polecenie
i pojawił się problem?
Filmowe kłopoty ze sztuczną inteligencją
spowodowane są zazwyczaj
wymówieniem posłuszeństwa człowiekowi.
"Dzięki, ale mam własne plany"
W rzeczywistości dzisiejsza
sztuczna inteligencja,
nie jest aż tak mądra.
Ma moc obliczeniową
dżdżownicy
lub maksymalnie pszczoły.
Właściwie to mniejszą.
Nieustannie dowiadujemy się
o mózgu rzeczy, które ujawniają,
jak dalece sztuczna inteligencja
do nas nie dorasta.
Obecnie sztuczna inteligencja może
zidentyfikować pieszego na zdjęciu,
ale nie wie, czym jest pieszy
poza tym, że jest to zbiór linii,
tekstur czy rzeczy.
Nie wie, czym jest człowiek.
Czy współczesna sztuczna inteligencja
zrobi to, o co się ją prosi?
Zrobi, jeśli umie,
ale efekt może się różnić od oczekiwań.
Załóżmy, że chcieliście,
by sztuczna inteligencja
wzięła części robota
i zrobiła z nich robota,
który ma dotrzeć z punktu A do B.
Gdyby podejść do problemu
z pomocą tradycyjnego
programu komputerowego,
komputerowi należy dać
szczegółową instrukcję,
jak wziąć dane części,
złożyć robota z nogami
i jak użyć tych nóg,
by dotrzeć do punktu B.
Rozwiązując problem
przy użyciu sztucznej inteligencji,
robi się to inaczej.
Nie mówi się, jak rozwiązać problem.
Po prostu daje się cel,
a ona sama, metodą prób i błędów,
musi znaleźć rozwiązanie.
Okazuje się, że sztuczna inteligencja
rozwiązuje ten konkretny problem tak:
buduje z części wieżę i przewraca ją,
lądując w punkcie B.
Technicznie rzecz biorąc,
rozwiązała problem.
Dotarła do punktu B.
Niebezpieczeństwem sztucznej inteligencji
nie jest bunt przeciwko nam,
lecz to, że zrobi dokładnie to,
o co ją poprosiliśmy.
Istotą pracy ze sztuczną inteligencją
jest postawienie problemu tak,
by zrobiła to, czego oczekujemy.
Ten mały robot kontrolowany jest
przez sztuczną inteligencję,
która sama zaprojektowała nogi robota
i sposób ich użycia
do obchodzenia przeszkód.
Ale kiedy David Ha
stworzył ten eksperyment,
musiał postawić bardzo surowe ograniczenia
dotyczące wielkości nóg
w przeciwnym razie...
(Śmiech)
Technicznie rzecz biorąc,
doszła do końca trasy.
Czyli trudno skłonić AI do zrobienia
czegoś tak prostego jak chodzenie.
Obserwując, jak robi to AI,
można powiedzieć: "Nie fair,
nie możesz być wysoką wieżą
i po prostu upaść,
musisz użyć nóg do chodzenia".
Niestety to też nie zawsze działa.
Zadaniem sztucznej inteligencji
było szybkie poruszanie się.
Nie powiedziano, że musi biec do przodu,
ani że nie może używać ramion.
Tak to wygląda,
gdy uczymy AI szybko się ruszać:
przewroty i dziwny chód.
To bardzo powszechne.
Może to też wyglądać
jak drgawki sterty na podłodze.
(Śmiech)
Dla mnie dużo dziwniejsze są
roboty z "Terminatora".
AI chętnie też włamie się do matrycy.
Jeśli więc wyszkolić AI w symulacji,
nauczy się włamywać
przez błędy w obliczeniach
i czerpać z nich energię.
Wymyśli szybki ruch
przez drgawki na podłodze.
Praca ze sztuczną inteligencją
nie przypomina pracy z człowiekiem,
lecz z jakąś dziwną siłą natury.
Bardzo łatwo dać jej przypadkiem
niewłaściwy problem do rozwiązania.
Często nie zdajemy sobie z tego sprawy,
dopóki coś nie pójdzie nie tak.
Zrobiłam eksperyment,
w którym kazałam AI kopiować farby,
żeby stworzyć nowe kolory
mając do wyboru listę jak ta po lewej.
Oto na co wpadła sztuczna inteligencja.
[Kupa Syndów, Balaskowy,
Cierpieć, Szary łonowy]
(Śmiech)
Technicznie rzecz biorąc,
wypełniła polecenie.
Myślałam, że proszę o miłe nazwy kolorów,
ale tak naprawdę prosiłam
o imitowanie kombinacji liter
z oryginalnych nazw.
Nie wyjaśniałam, co one znaczą,
ani że są słowa, których być może
nie powinna używać do farb.
Całym jej światem były moje dane.
Podobnie jak w przypadku smaków lodów,
AI nie ma dodatkowej wiedzy.
To przez nieodpowiednie dane
często każemy AI
robić nie to, co trzeba.
To ryba zwana linem.
Pewna grupa badaczy
wytrenowała AI w rozpoznawaniu
lina na ilustracjach.
Ale gdy zapytali ją,
jakiej części obrazu
używa do identyfikacji ryby,
oto co pokazała.
Tak, to są ludzkie palce.
Dlaczego szuka palców
podczas identyfikowania ryby?
Okazuje się, że lin jest rybą,
którą warto się chwalić,
więc na wielu zdjęciach,
które AI widziała podczas treningu,
ryba wyglądała tak.
(Śmiech)
AI nie wiedziała,
że palce nie są częścią ryby.
Widzicie więc, dlaczego
tak trudno zaprojektować AI,
która rozumie, na co patrzy.
Dlatego też projektowanie
rozpoznawania obrazów
w samosterujących samochodach
jest takie trudne
i dlatego tyle niepowodzeń
samosterujących samochodów
było wynikiem dezorientacji SI.
Chciałabym wspomnieć
o przykładzie z 2016 roku.
Zdarzył się wtedy śmiertelny wypadek
podczas używania autopilota AI Tesli,
ale zamiast używania go na autostradzie,
do czego został zaprojektowany,
użyto go w mieście.
Ciężarówka wjechała przed samochód,
który nie zahamował.
AI na pewno uczono rozpoznawać
ciężarówki na zdjęciach.
Ale wygląda na to,
że uczyła się rozpoznawać
ciężarówki na autostradach,
gdzie zazwyczaj widzi się je od tyłu.
Raczej nie widzi się ciężarówki z boku.
Widząc ciężarówkę,
pewnie wzięła ją za znak drogowy,
pod którym można bezpiecznie przejechać.
Oto inny przykład pomyłki
sztucznej inteligencji.
Amazon musiał niedawno porzucić
algorytm sortujący CV,
nad którymi pracowali,
gdy odkryli, że algorytm nauczył się
dyskryminować kobiety.
Szkolono go na przykładach CV
osób zatrudnionych w przeszłości.
Na tej podstawie
AI nauczyła się unikać CV osób,
które chodziły do żeńskich szkół
lub miały słowo "kobiecy" w CV,
jak "kobieca drużyna futbolu"
lub "stowarzyszenie kobiet-inżynierów".
Sztuczna inteligencja nie wiedziała,
że nie należy powielać tych zachowań,
które widziała wśród ludzi.
Technicznie zrobiła to, co jej kazano,
ale przypadkowo poproszono ją
o coś niewłaściwego.
Wciąż to obserwujemy u AI.
AI może być bezwiednie bardzo szkodliwa.
AI, która rekomenduje
nowy materiał na FB czy YouTubie,
jest zoptymalizowana,
by zwiększać liczbę kliknięć i odsłon.
Niestety jednym ze sposobów,
którego się nauczyła,
jest rekomendowanie treści
konspiracyjnych lub bigoterii.
AI nie rozumie samej treści
i nie ma świadomości,
jakie mogą być konsekwencje
polecania tych treści.
Dlatego przy pracy
ze sztuczną inteligencją
unikanie problemów zależy od nas.
I unikania potknięć, które mogą wynikać
z odwiecznego problemu w komunikacji,
gdzie my, ludzie, musimy nauczyć się
porozumiewać ze sztuczną inteligencją.
Musimy się nauczyć, co umie, a czego nie,
i zrozumieć, że ze swoim
małym mózgiem robaka
AI tak naprawdę nie rozumie,
czego od niej chcemy.
Inaczej mówiąc, trzeba się przygotować
do pracy ze sztuczną inteligencją,
która nie jest super kompetentna
i wszechwiedząca jak na filmach.
Trzeba się przygotować do pracy
ze sztuczną inteligencją, jaką mamy teraz.
A obecna jest wystarczająco dziwna.
Dziękuję.
(Brawa)
A Inteligência Artificial!
é conhecida por perturbar
todos os tipos de indústrias.
Por exemplo, a dos gelados.
Que tipo de estonteantes sabores
podemos criar
com o poder
da inteligência artificial avançada?
Associei-me a um grupo de programadores
da escola secundária de Kealing,
para descobrir a resposta a esta pergunta.
Eles reuniram mais de 1600 sabores
de gelados já existentes,
e fornecemos-lhes um algoritmo
para verificar o que ele poderia gerar.
Estes são alguns dos sabores
que a IA criou
[Quebra de Lixo de Abóbora]
(Risos)
[Baba de Manteiga de Amendoim]
[Doença de Creme de Morango]
(Risos)
Estes sabores não são tão deliciosos
quanto esperávamos
Logo, a pergunta é:
O que aconteceu?
O que correu mal?
A IA está a tentar matar-nos?
Ou está a tentar fazer o que pedimos
e ocorreu um problema?
Nos filmes, quando algo
corre mal com a IA,
é geralmente porque a IA decidiu
que não quer continuar
a obedecer aos seres humanos
e tem os seus próprios objetivos,
muito obrigado!
Porém, na vida real, a IA que temos
não tem inteligência suficiente para isso.
Tem uma capacidade de processamento
aproximada à de uma minhoca,
ou talvez no máximo,
a de uma simples abelha
e de facto, talvez ainda menos.
Por exemplo, estamos sempre a aprender
coisas novas sobre o cérebro
o que deixa claro o quanto a nossa IA
não se compara com o nosso cérebro.
A IA de hoje consegue identificar
um peão numa imagem,
mas não tem o conceito
do que é um peão,
para além de um conjunto de linhas,
de texturas e de elementos.
Não sabe o que é um ser humano.
Então, a IA de hoje
irá fazer o que pedimos?
Sim, fará se puder,
mas pode não fazer o que desejamos.
Digamos que estamos a tentar
que a IA pegue neste conjunto
de partes de um robô
e as monte num tipo de robô
que vá do Ponto A ao Ponto B.
Se formos tentar resolver este problema
escrevendo um programa de computador
ao estilo tradicional,
daríamos ao programa
instruções passo a passo
de como agarrar nessas partes
e como as montar num robô com pernas,
e depois como usar essas pernas
para andar até ao Ponto B.
Mas quando usamos a IA
para resolver o problema,
as coisas funcionam de outro modo.
Não lhe dizemos como resolver o problema
apenas lhe damos o objetivo,
e ela terá de descobrir por si mesma,
através de tentativas e erros,
como alcançar esse objetivo.
Acontece que a IA tem tendência
a resolver este problema específico
fazendo o seguinte:
monta uma torre que depois cai,
aterrando no Ponto B.
Tecnicamente, isso resolve o problema.
Tecnicamente, ela chega ao Ponto B.
O perigo da IA não é que
se vá revoltar contra nós,
mas que vai fazer exatamente
o que lhe pedimos para fazer.
Logo, o segredo de trabalhar
com IA passa a ser:
Como configuramos o problema para
a IA fazer exatamente o que queremos?
Vejamos, este robô aqui,
está a ser controlado por uma IA.
A IA desenvolveu um modelo
paras as pernas do robô,
e depois descobriu como usá-las
para ultrapassar todos os obstáculos.
Mas quando o David Ha realizou
esta experiência,
teve de configurá-la
com limites muito estritos
em relação à dimensão que a IA
teria para fazer as pernas,
porque senão...
(Risos)
Tecnicamente, chegou ao fim
daquela corrida de obstáculos.
Vemos como é difícil conseguir que a IA
faça algo tão simples como andar.
Ao vermos a IA fazer isto, podemos dizer:
"Ok, não é justo, não podes ser
uma torre alta e cair,
"tens de usar as pernas para andar".
Acontece que isso também
nem sempre funciona.
A tarefa desta IA era avançar depressa.
Não lhe disseram que tinha de avançar
ou que não podia usar os braços.
Logo, isto é o que acontece
quando treinamos a IA para andar depressa,
obtemos movimentos como cambalhotas
e caminhadas ridículas.
É muito comum.
Tal como contorcer-se no chão.
(Risos)
Na minha opinião, sabem o que
seria ainda mais estranho?
É o robô "Exterminador".
Invadir o "Matrix" é outra coisa que a IA
fará, se lhe dermos essa oportunidade.
Se treinarmos a IA num simulador,
ela irá aprender a copiar
os erros matemáticos do simulador
e colhê-los para obter energia.
Ou irá descobrir como andar mais depressa,
falhando repetidamente
aquela anomalia no chão.
Quando se trabalha com a IA,
é menos como trabalhar
com outro ser humano
e mais como trabalhar
com uma estranha força da natureza.
É muito fácil dar, acidentalmente,
à IA o problema errado para resolver,
e, geralmente, não damos por isso
senão quando qualquer coisa corre mal.
Esta é uma experiência que fiz
em que eu queria que a IA copiasse
as cores das tintas,
para inventar novas cores de tintas,
de acordo com uma lista como
a que se encontra aqui à esquerda.
E aqui está o que a IA sugeriu.
[Cocó Sindis , Cocó,
Sofrimento, Púbico Cinza]
(Risos)
Tecnicamente,
fez o que eu pedi que fizesse.
Eu pensei que estava a pedir
nomes simpáticos para tintas,
mas o que tinha pedido
era apenas para imitar o tipo
de combinações de letras
que ela tinha visto no original.
E eu nada disse em relação
ao significado das palavras,
ou que talvez houvesse algumas palavras
que devia evitar usar
nessas cores de tintas.
Portanto, todo o mundo dela
eram os dados que lhe fornecera.
Tal como com os sabores dos gelados,
ela não sabe mais nada.
É geralmente através dos dados
que acidentalmente dizemos à IA
que faça as coisas erradas.
Este é um peixe chamado tenca.
Houve um grupo de investigadores
que treinaram uma IA para identificar
esta tenca em imagens.
Mas quando lhe perguntaram
que parte da imagem utilizava
para identificar o peixe,
eis o que ela salientou.
Sim, são dedos humanos.
Porque é que ela procurou dedos humanos
se estava a tentar identificar um peixe?
Bem, acontece que a tenca
é um peixe-troféu,
por isso, em muitas das imagens
que a IA viu deste peixe,
durante o treino,
o peixe aparecia assim.
(Risos)
A IA não sabia que os dedos
não faziam parte do peixe.
Assim, vemos porque é tão difícil
configurar uma IA
que consiga perceber o que procura.
Isto é o motivo por que criar
o reconhecimento de imagem
num veículo autónomo é super difícil,
e o motivo do fracasso
de tantos veículos autónomos
foi porque a IA ficou confusa.
Vou falar sobre um exemplo
que aconteceu em 2016.
Houve um acidente fatal quando alguém
usou o piloto automático da Tesla IA.
Em vez de usá-lo na autoestrada,
como tinha sido desenvolvido,
usaram-no nas ruas da cidade.
Aconteceu que um camião
atravessou-se em frente do carro
e o carro não travou.
A IA fora treinada para reconhecer
o camião nas imagens.
Mas o que parece ter acontecido
foi que a IA foi treinada para reconhecer
os camiões na autoestrada
onde esperamos ver os camiões por detrás.
Na autoestrada, os camiões
não aparecem pelos lados.
Portanto, quando a IA viu o camião
parece tê-lo reconhecido
como um sinal de trânsito
e portanto, seria seguro
passar por baixo dele.
Aqui podem ver um erro da IA
num setor diferente.
A Amazon teve de desistir
de um algoritmo de seleção de currículos
em que estava a trabalhar,
quando descobriram que o algoritmo
aprendera a discriminar as mulheres.
Aconteceu que testaram a IA
com base em exemplos de currículos
de pessoas que tinham sido
contratadas no passado.
Com base nesses exemplos, a IA
aprendeu a evitar currículos de pessoas
que tinham frequentado colégios femininos
ou que tinham a palavra "feminina"
algures no currículo,
como "equipa de futebol feminina"
ou "Sociedade Feminina de Engenheiras".
A IA não sabia que não devia copiar
estes aspetos específicos
que via os seres humanos fazerem.
Tecnicamente, o programa fez
o que lhe pediram para fazer.
Só que eles pediram, sem querer,
para fazer a coisa errada.
Isto está sempre a acontecer com a IA.
A IA pode ser destrutiva sem saber.
Por isso, as IA que recomendam novos
conteúdos no Facebook e no YouTube,
estão otimizadas para aumentar
o número de cliques e visualizações.
Infelizmente, uma das formas
que encontraram para fazer isso
é recomendar os conteúdos
de teorias de conspiração ou o fanatismo.
A IA, por si só, não tem qualquer conceito
do que este conteúdo representa,
nem tem nenhum conceito
das possíveis consequências
de recomendar esses conteúdos.
Logo, quando trabalhamos com a IA,
cabe-nos a nós evitar os problemas.
Evitar que algo corra mal
pode resumir-se ao velho problema
da comunicação,
em que nós, enquanto humanos, temos
de aprender a comunicar com a IA.
Temos de aprender o que a IA
é capaz de fazer ou não
e perceber que, com o seu minúsculo
cérebro de minhoca,
a IA não percebe o que estamos
a tentar pedir-lhe para fazer.
Por outras palavras, temos de estar
preparados para trabalhar com uma IA
que não seja a super competente
ou a omnisciente IA da ficção científica.
Temos de nos preparar
para trabalhar com uma IA
que seja a que atualmente temos.
E a IA atual é suficientemente estranha.
Obrigada.
(Aplausos)
A inteligência artificial
é conhecida por perturbar vários setores.
Por exemplo, o sorvete.
Que tipos de novos sabores
incríveis poderíamos criar
com o poder de uma IA avançada?
Eu me uni a um grupo de programadores
da Kealing Middle School
para descobrir a resposta.
Eles coletaram mais de 1,6 mil
sabores de sorvete já existentes
e, juntos, os fornecemos a um algoritmo
para ver o que seria gerado.
Esses são alguns dos sabores
que a inteligência artificial criou:
[Recreio de Lixo de Abóbora]
(Risos)
[Gosma de Manteiga de Amendoim]
[Doença de Creme de Morango]
(Risos)
Esses sabores não são
tão deliciosos quanto esperávamos.
A pergunta é: o que aconteceu?
O que saiu errado?
A IA está tentando nos matar?
Ou está tentando fazer o que pedimos,
mas ocorreu algum problema?
Nos filmes, quando algo
dá errado com a IA,
geralmente é porque ela decidiu
que não quer mais obedecer aos humanos
e tem objetivos próprios, sim senhor.
Mas, na vida real,
a inteligência artificial que temos
não é inteligente o bastante para isso.
Ela possui aproximadamente a capacidade
de processamento de uma minhoca,
ou, talvez, no máximo
a de uma única abelha,
mas provavelmente menos que isso.
Constantemente aprendemos
coisas novas sobre o cérebro
que deixam claro como nossas IAs
não chegam aos pés de um cérebro real.
A IA de hoje pode efetuar tarefas simples,
como identificar um pedestre em uma foto,
mas não faz ideia do que seja o pedestre
para além de um conjunto
de linhas, texturas e afins.
Ela não sabe o que é um ser humano.
Então, a IA atual fará o que pedimos dela?
Sim, se ela puder,
mas talvez não faça
o que realmente queremos.
Digamos que quiséssemos que uma IA
pegasse um conjunto de peças robóticas
e as montasse como algum tipo de robô
para que fosse do ponto A ao B.
Bem, se tentássemos resolver esse problema
criando um programa
de computador tradicional,
daríamos instruções
passo a passo ao programa
sobre como pegar as peças,
juntá-las em um robô com pernas
que ele usaria para andar até o ponto B.
Mas, quando usamos a IA
para resolver o problema,
não funciona assim.
Não dizemos para ela
como resolver o problema,
só lhe damos o objetivo
e ela precisa descobrir sozinha,
por tentativa e erro,
como atingir aquele objetivo.
E parece que a IA costuma resolver
esse problema específico
fazendo o seguinte:
ela se transforma em uma torre e cai,
atingindo o ponto B.
E, tecnicamente, isso resolve o problema,
ela chega ao ponto B.
O perigo da IA não é
que ela se rebelará contra nós;
é que ela fará exatamente o que pedirmos.
Então, o segredo para trabalhar com IA é:
como configuramos o problema
para que ela faça o que queremos?
Este robozinho é controlado por uma IA,
que criou um design para as pernas dele
e depois descobriu como usá-las
para passar por esses obstáculos.
Mas quando David Ha
preparou essa experiência,
ele o fez dentro de limites
bastante rigorosos
sobre o tamanho das pernas
que a IA poderia criar,
porque, do contrário...
(Risos)
E, tecnicamente, ela chegou
ao final da pista de obstáculos.
Percebe-se como é difícil que uma IA
faça algo tão simples como andar.
Vendo a IA fazer isso,
podem dizer: "Ah, não é justo!
Não se pode simplesmente
ser uma torre e cair;
tem que usar as pernas para andar".
Mas acontece que isso também
nem sempre funciona.
A tarefa dessa IA era
se mover rapidamente.
Não lhe disseram
que deveria correr de frente
ou que não poderia usar os braços.
Esse é o resultado quando treinamos
uma IA para se mover rapidamente:
cambalhotas ou caminhadas ridículas.
Isso é muito comum.
Assim como se contorcer pelo chão.
(Risos)
Acho que mais esquisito ainda seriam
os robôs do "Exterminador do Futuro".
Hackear a "Matrix" é outra coisa
que a IA fará se tiver a oportunidade.
Então, se treinarmos
uma IA em uma simulação,
ela aprenderá a fazer coisas como hackear
os erros matemáticos da simulação
e colhê-los para conseguir energia.
Ou então descobrirá como se mover
mais rápido se arrastando pelo chão.
Trabalhar com IA
não se assemelha a trabalhar
com outro humano,
e sim a trabalhar com um tipo
de força estranha da natureza.
É muito fácil dar, acidentalmente,
o problema errado para a IA resolver
e frequentemente não percebemos
isso até que algo dê errado.
Essa é uma experiência que fiz,
na qual eu queria que a IA
copiasse cores de tinta
para inventar novas cores
com base em uma lista como a da esquerda.
E foi isso que a IA inventou.
[Cocô Sindis, Excremental,
Sofrimento, Cinza Pubiano]
(Risos)
Então, tecnicamente,
ela fez o que eu pedi dela.
Pensei que estivesse pedindo
nomes agradáveis de cores,
mas o que eu pedia, na verdade,
era que a IA imitasse
os tipos de combinações de letras
que estavam presentes nos originais.
E não falei nada à IA
sobre o significado das palavras,
nem que ela deveria evitar usar
algumas palavras nos nomes das tintas.
Portanto, a única coisa que a IA sabe
são os dados que lhe forneci.
Assim como ocorreu com os sabores
de sorvete, a IA não sabe mais nada.
Então, é pelos dados que, frequentemente,
dizemos a ela para fazer a coisa errada.
Este é um peixe chamado tenca.
Um grupo de pesquisadores
treinou uma IA
para reconhecê-lo em imagens.
Mas quando perguntaram à IA
qual parte da imagem era usada
para identificar o peixe,
foi isso que ela apontou.
Sim, esses são dedos humanos.
Por que ela procuraria dedos humanos
ao tentar identificar um peixe?
Bem, acontece que a tenca
é um peixe-troféu,
então, em várias imagens em que a IA
viu esse peixe durante o treinamento,
ele apresentava essa aparência.
(Risos)
E ela não sabia que os dedos
não faziam parte do peixe.
É por isso que é tão difícil
desenvolver uma IA
que realmente consiga entender
o que está observando.
E é por isso que desenvolver
o reconhecimento de imagem
em carros autônomos é tão difícil
e muitas falhas desses carros
ocorrem porque a IA se confundiu.
Falarei sobre um exemplo de 2016.
Houve um acidente fatal quando alguém
usou a IA do piloto automático de um Tesla
mas, em vez de usá-la em uma rodovia,
para onde elas foram programadas,
utilizaram-na em vias urbanas.
Um caminhão entrou na frente
do carro, que não conseguiu frear.
Vejam, a IA definitivamente foi treinada
para reconhecer caminhões em imagens.
Mas o que parece ter acontecido
é que a IA foi treinada
para reconhecê-los em estradas,
onde se espera ver
a traseira dos caminhões.
Caminhões vindos pela lateral
não deveriam aparecer em estradas,
então, quando a IA o viu,
parece que ela avaliou que se tratava
de uma placa de trânsito
e que, portanto,
seria seguro passar sob ela.
Agora vejamos um erro de IA
de um campo diferente.
A Amazon teve que desistir
de um algoritmo para seleção de currículos
no qual trabalhava
ao descobrir que ele aprendeu
a discriminar mulheres.
Eles o treinaram com base
em exemplos de currículos
de pessoas que haviam sido
contratadas por eles.
E, desses exemplos, a IA
aprendeu a evitar os currículos
de pessoas que frequentaram
faculdades femininas
ou que continham a palavra
"feminina" em algum lugar,
como "equipe feminina de futebol"
ou "Sociedade Feminina de Engenharia".
A IA não sabia que não deveria
copiar esse padrão específico
que havia observado nos humanos.
E, tecnicamente, fez o que lhe pediram.
Mas acidentalmente lhe pediram
para fazer a coisa errada.
E isso sempre acontece com IA.
Ela pode ser muito destrutiva sem saber.
As IAs que recomendam novos conteúdos
no Facebook ou no YouTube
estão otimizadas para aumentar
o número de cliques e visualizações.
Infelizmente, uma das formas
que elas têm de fazer isso
é recomendar conteúdo de teorias
da conspiração ou de intolerância.
A própria IA não tem ideia
do que seja aquele conteúdo
ou de quais possam ser
as consequências de recomendá-lo.
Então, ao trabalharmos com IA,
evitar problemas é função nossa.
E evitar que as coisas deem errado
pode se resumir ao velho
problema da comunicação,
e que nós, humanos, precisamos
aprender a nos comunicar com a IA.
Precisamos aprender
o que a IA é ou não capaz de fazer
e entender que, com seu
cerebrozinho de minhoca,
a IA, na verdade, não entende
o que tentamos pedir que ela faça.
Em outras palavras, precisamos
estar preparados para trabalhar com uma IA
que não é a IA supercompetente
e onisciente da ficção científica.
Precisamos estar preparados
para trabalhar com a IA
que realmente temos atualmente,
e ela é suficientemente esquisita.
Obrigada.
(Aplausos)
Deci, inteligența artificială
e cunoscută pentru perturbarea
multor tipurilor de industrii.
Dar cum rămâne cu înghețata?
Ce fel de arome năucitoare noi
am putea să generăm
cu puterea
unei inteligențe artificiale avansate?
Am făcut echipă cu un grup de programatori
de la Kealing Middle School
pentru a afla răspunsul
la această întrebare.
Au colectat peste 1.600
de arome existente de înghețată,
pe care le-am introdus într-un algoritm
pentru a vedea ce va genera.
Iată câteva dintre aromele
pe care le-a generat IA.
[Gunoi de Dovleac Crăpat]
(Râsete)
[Mocirlă de Unt de Arahide]
[Boală de Cremă de Căpșuni]
(Râsete)
Aceste arome nu sunt delicioase,
așa cum am fi sperat că vor fi.
Deci, întrebarea e: ce s-a întâmplat?
Ce a mers rău?
Încearcă IA să ne omoare?
Sau încearcă să facă ceea ce i-am cerut,
dar a existat o problemă?
În filme, când ceva
nu merge bine cu IA,
este de obicei pentru că IA a decis
că nu mai vrea să se supună oamenilor,
și are propriile ei obiective,
mulțumesc foarte mult.
În viața reală însă,
IA pe care o avem de fapt
nu este destul de inteligentă pentru asta.
Are puterea de calcul aproximativă
cu a unui vierme de pământ,
sau poate cel mult
cu a unei singure albine,
și de fapt, probabil poate mai puțin.
Învățăm constant lucruri noi despre creier
care clarifică faptul că IA
nu poate concura cu creierele reale.
IA curentă poate realiza
identificarea unui pieton dintr-o imagine,
dar nu are un concept
despre ce este pietonul
dincolo de faptul că este
o colecție de linii, texturi și lucruri.
Nu știe ce este de fapt un om.
Deci, IA din zilele noastre
va face ceea ce îi cerem să facă?
O va face dacă va putea,
dar s-ar putea să nu facă
ceea ce ne dorim de fapt.
Deci, să spunem
că încercați să faceți IA
să ia aceste părți ale unui robot
și să le asambleze într-un fel de robot
pentru a merge din punctul A în punctul B.
Dacă ați încerca
să rezolvați această problemă
prin scrierea unui program
în stil tradițional,
îi veți da programului
instrucțiuni pas cu pas,
despre cum să ia aceste părți,
cum să le asambleze
într-un robot cu picioare
și apoi cum să folosească acele picioare
pentru a merge până în punctul B.
Dar când utilizați IA
pentru a rezolva problema,
e diferit.
Nu îi spuneți cum să rezolve problema,
îi dați doar obiectivul,
și trebuie să-și dea seama singură
prin încercări și greșeli
cum să atingă acel obiectiv.
Și se dovedește că modul în care IA tinde
să rezolve această problemă specifică
este făcând astfel:
le asamblează într-un turn care apoi cade
și aterizează în punctul B.
Și practic, asta rezolvă problema.
Practic, a ajuns în punctul B.
Pericolul IA nu este
că se va revolta împotriva noastră,
ci că va face
exact ceea ce îi cerem să facă.
Atunci întrebarea devine:
cum să formulăm problema
astfel încât să facă exact ce ne dorim?
Deci, acest mic robot de aici
este controlat de IA.
IA a creat un design
pentru picioarele robotului
și apoi a înțeles cum să le folosească
pentru a trece peste toate obstacolele.
Dar când David Ha
a creat acest experiment,
a trebuit să-l stabilească
cu limite foarte, foarte stricte
despre cât de mari
i-a fost permis IA să facă picioarele,
pentru că altfel...
(Râsete)
Și tehnic vorbind, a ajuns
la sfârșitul acelei curse cu obstacole.
Vedeți cât de greu e să faceți IA
să facă ceva simplu ca mersul.
Deci, văzând că IA face asta, e posibil
să spuneți: bine, dar nu e corect.
Nu poate fi înalt
cât un turn și doar să cadă,
trebuie să-și folosească
picioarele pentru a merge.
Și se pare că nici asta
nu funcționează întotdeauna.
Scopul acestei IA
a fost să se miște repede.
Nu i-au spus că trebuie să meargă înainte
sau că nu-și putea folosi brațele.
Asta obțineți atunci când
antrenați IA pentru a se deplasa rapid,
obțineți tumbe sau mers ciudat.
Este ceva foarte comun.
La fel e și târâirea de-a lungul podelei.
(Râsete)
În opinia mea, ce ar putea fi
mult mai ciudat
sunt roboții „Terminator”.
Spargerea „Matrix-ului” e un alt lucru
pe care IA îl va face dacă-i dați șansa.
Deci, dacă antrenați o IA într-o simulare,
va învăța să facă lucruri precum folosirea
erorilor matematice ale simulării
și să le recolteze pentru energie.
Sau va învăța cum să se miște mai repede
aruncându-se în mod repetat pe podea.
Când lucrați cu IA,
e mai puțin ca și cum ați lucra cu alt om
și mai mult ca și cum ați lucra
cu un fel de forță ciudată a naturii.
Și e foarte ușor să-i dați IA
problema greșită spre rezolvare,
și de multe ori nu ne dăm seama de asta
până când ceva nu a mers greșit.
Iată un experiment pe care l-am făcut,
unde am vrut ca IA să copieze culorile,
și să inventeze noi culori,
având în vedere
o listă precum cea din stânga.
Și iată cu ce a venit IA.
[Sindis Poop, Turdly, Suffer, Grey Pubic]
(Râsete)
Deci tehnic,
a făcut ceea ce i-am cerut.
Am crezut că i-am cerut,
nume frumoase de culori,
dar ceea ce i-am cerut de fapt
a fost doar să imite
tipurile de combinații de litere
pe care le văzuse în original.
Și nu i-am spus nimic
despre ce înseamnă acele cuvinte,
sau că există poate câteva cuvinte
cărora ar trebui să le evite
utilizarea în aceste culori.
Deci întreaga ei lume
sunt datele pe care i le-am dat.
Ca și în cazul aromelor de înghețată,
nu știe nimic altceva.
Deci, prin intermediul datelor
deseori îi spunem accidental
IA să facă un lucru greșit.
Acesta este un pește numit lin.
Și a existat un grup de cercetători
care au instruit IA
pentru a identifica acest lin în imagini.
Dar atunci când au întrebat-o
ce parte a imaginii folosea
pentru identificarea peștilor,
iată ce a răspuns.
Da, acestea sunt degete umane.
De ce ar fi căutat degete umane
dacă încearcă să identifice un pește?
Ei bine, s-a descoperit
că lin-ul este un pește trofeu,
și astfel, într-o mulțime de poze
pe care IA le-a văzut cu acest pește
în timpul antrenamentului,
peștele arăta așa.
(Râsete)
Și nu știa că degetele
nu fac parte din pește.
Așa că vedeți de ce e
atât de greu să construiești o IA
care poate înțelege ce privește.
De asta realizarea
recunoașterii imaginilor
în mașinile fără șofer e atât de grea,
și de ce atâtea defecțiuni
ale autovehiculului
au loc pentru că IA s-a zăpăcit.
Vreau să vorbesc
despre un exemplu din 2016.
A avut loc un accident mortal când cineva
a folosit o Tesla pilotată de o IA,
dar în loc să o folosească pe autostradă
așa cum a fost proiectată,
au folosit-o pe străzile orașului.
Și ce s-a întâmplat a fost
că un camion a trecut
prin fața mașinii, iar mașina nu a frânat.
IA a fost cu siguranță instruită
să recunoască camioanele în imagini.
Dar ceea ce pare să se fi întâmplat
e că IA a fost instruită
să recunoască camioanele pe autostradă,
unde te-ai aștepta
să vezi camioanele din spate.
Venirea camioanelor din lateral
nu e de așteptat pe o autostradă,
și atunci când IA a văzut acest camion,
l-a recunoscut ca fiind
cel mai probabil un semn rutier
și, prin urmare,
în regulă să treci pe sub el.
Iată o greșeală a IA dintr-un alt domeniu.
Recent Amazon a trebuit să renunțe
la un algoritm de sortare a CV-urilor
cu care lucrau
când au descoperit că algoritmul
învățase să discrimineze femeile.
Ceea ce s-a întâmplat a fost
că au instruit-o pe exemple de CV-uri
ale oamenilor
pe care îi angajaseră în trecut.
Și din aceste exemple,
IA a învățat să evite CV-urile persoanelor
care au învățat în licee de fete
sau cele care aveau cuvântul
„femeie” undeva în CV-ul lor,
ca în „echipa de fotbal feminin”
sau „Societatea Femeilor Inginer.”
IA nu știa că nu trebuia
să copieze acest lucru
așa cum i-a văzut pe oameni că fac.
Și tehnic, a făcut ce i-au cerut să facă.
I-au cerut din greșeală
să facă un lucru greșit.
Și acest lucru
se întâmplă tot timpul cu IA.
IA poate fi cu adevărat
distructivă fără să știe.
Deci, IA care recomandă conținut nou
pe Facebook, pe YouTube,
e optimizată pentru a crește
numărul de clicuri și vizualizări.
Și, din păcate, un mod prin care fac asta
e prin recomandarea unui conținut
conspiraționist sau bigot.
IA în sine nu înțelege
ce e acest conținut,
și nu, nu înțelege nici
care ar putea fi consecințele
recomandării acestui tip de conținut.
Deci, atunci când lucrăm cu IA,
depinde de noi să evităm probleme.
Și evitând ca lucrurile să nu meargă bine,
asta ar putea să ne ducă
la vechea problemă de comunicare,
unde noi, ca oameni, trebuie să învățăm
cum să comunicăm cu IA.
Trebuie să învățăm ce e capabilă
să facă IA și ce nu e,
și să înțelegem că având un creier
mic de vierme,
IA nu înțelege cu adevărat
ce încercăm să-i cerem să facă.
Deci, cu alte cuvinte,
trebuie să fim pregătiți să lucrăm cu IA
care nu e acea IA super competentă,
atotștiutoare a științifico-fantasticului.
Trebuie să ne pregătim să lucrăm cu IA
pe care o avem de fapt în zilele noastre.
Iar IA actuală este destul de ciudată.
Vă mulțumesc!
(Aplauze)
Итак, искусственный интеллект
известен тем, что вмешивается
во все виды промышленности.
А как насчёт мороженого?
Какие новые умопомрачительные вкусы
мы можем создать
с помощью продвинутого
искусственного интеллекта?
Чтобы это выяснить,
я объединилась с группой программистов
из средней школы Килинга.
Они собрали более 1 600
уже существующих вкусов мороженого,
и мы загрузили их в алгоритм,
чтобы посмотреть, что он сгенерирует.
И вот некоторые из вкусов,
которые придумал ИИ.
[Тыквенная мусорная куча]
(Смех)
[Слизь арахисового масла]
[Клубничное заболевание]
(Смех)
Эти вкусы не такие приятные,
как мы надеялись.
Так что же произошло?
Что пошло не так?
ИИ пытается убить нас?
Или он пытается сделать именно то,
о чём мы его просили, и в этом проблема?
В фильмах, когда с ИИ что-то не в порядке,
обычно это потому, что ИИ решил,
что больше не хочет подчиняться людям
и имеет свои цели, спасибо большое.
Однако в реальной жизни современный ИИ
недостаточно умён для этого.
Его вычислительная мощность
приблизительно совпадает
с дождевым червём
или максимум с одной пчелой.
Хотя на самом деле она,
скорее всего, даже меньше.
Мы постоянно узнаём
что-то новое о нашем мозге,
что показывает, как сильно
ИИ отстаёт от нашего разума.
Например, современный ИИ может
распознавать пешеходов на изображении,
но он не понимает, что такое пешеход,
кроме набора линий, текстур и объектов.
Он не знает, что такое
человек на самом деле.
Так что сделает ли современный ИИ
то, о чём мы его попросим?
Да, если сможет,
но в итоге может получиться не то,
чего мы хотели на самом деле.
Допустим, вы хотите, чтобы ИИ
взял эти детали и собрал из них робота,
который сможет добраться
из точки А в точку Б.
Если бы вы пытались решить эту задачу
с помощью обычной компьютерной программы,
вы бы запрограммировали
пошаговые инструкции о том,
как взять эти детали,
как собрать из них робота с ногами
и как потом использовать эти ноги,
чтобы дойти до точки Б.
Но при использовании ИИ
всё происходит по-другому.
Вы не говорите ему, как решить эту задачу,
вы просто указываете цель,
и ИИ должен сам
методом проб и ошибок решить,
как достичь этой цели.
И оказывается, что ИИ пытается решить
эту конкретную задачу так:
он собирается в башню и падает,
приземляясь в точке Б.
И технически это решает
поставленную задачу.
Технически он попадает в точку Б.
Опасность ИИ заключается не в том,
что он восстанет против нас,
а в том, что он будет делать именно то,
о чём мы его попросим.
Так что основная сложность при работе с ИИ
в том, как поставить задачу,
чтобы он сделал именно то, что мы хотим.
Этот маленький робот управляется ИИ.
ИИ разработал конструкцию ног робота
и придумал, как их использовать
для преодоления всех этих препятствий.
Но когда Дэвид Ха
проводил этот эксперимент,
ему пришлось установить
очень жёсткие ограничения
длинны ног, которые мог сделать ИИ,
потому что иначе...
(Смех)
И технически он преодолел
эту полосу препятствий.
Так что вы видите, как сложно заставить ИИ
сделать что-то такое простое, как ходьба.
Конечно, можно попробовать сказать:
«Нет, так не честно,
ты не можешь просто стать башней и упасть,
ты должен использовать ноги,
чтобы ходить».
И оказывается,
что даже это не всегда работает.
Задачей этого ИИ
было научиться быстро двигаться.
Но ему не сказали,
что нужно бежать лицом вперёд
или что нельзя использовать руки.
Так что часто, если вы пытаетесь
научить ИИ быстро передвигаться,
у него получаются такие сальто
и глупые движения.
Это происходит очень часто.
Или он просто ползает кучкой по полу.
(Смех)
Так что я считаю, что
Терминаторы должны были быть
гораздо более странными.
А ещё ИИ постоянно пытается
взломать «Матрицу».
Если вы обучаете ИИ в симуляции,
он научится использовать
её математические ошибки
для получения энергии.
Или он научится двигаясь быстрее,
постоянно врезаясь в пол.
Когда вы работаете с ИИ,
это совсем не похоже
на взаимодействие с другим человеком,
это больше похоже
на какую-то странную силу природы.
И на самом деле очень легко случайно
поставить перед ИИ неправильную цель,
даже того не осознавая,
пока что-то не пойдёт не так.
Вот эксперимент, который я провела:
я хотела, чтобы ИИ
использовал существующие цвета,
чтобы придумывать новые
из подобных списков.
И вот что из этого получилось.
[Какашки Синди, Дурацкий,
Страдание, Серый лобковый]
(Смех)
Технически
он сделал то, о чём я просила.
Я думала, что прошу его придумать
красивые названия цветов,
но на самом деле я попросила его
просто подражать комбинациям букв,
которые он видел в оригинале.
И я ничего не сказала ему о значении слов
или о том, что некоторые слова
лучше не использовать в названиях цветов.
Всё, что он знает о мире, —
это данные, которые я ему предоставила.
Так же как со вкусами мороженого,
он не знает ничего другого.
Так что именно посредством данных
мы случайно можем поручить ИИ
сделать что-то неправильное.
Эта рыба называется линь.
Одна группа исследователей
обучила ИИ распознавать
линя на фотографиях.
Но когда они спросили,
какие части изображений ИИ использовал,
чтобы распознать эту рыбу,
вот что они получили в ответ.
Да, это человеческие пальцы.
Но с какой стати ИИ ищет
на изображении пальцы,
пытаясь распознать рыбу?
Оказывается, линь — трофейная рыба,
и на множестве фотографий,
которые видел ИИ
в ходе обучения,
рыба выглядела вот так.
(Смех)
И ИИ не знал, что пальцы
не относятся к рыбе.
Так что теперь вы понимаете,
почему так сложно разработать ИИ,
который сможет понять, что он видит.
И поэтому распознавание изображений
в беспилотных автомобилях
так сложно спроектировать.
И так много сбоев в них
происходит из-за того,
что ИИ неправильно распознал объекты.
Например, автомобильная катастрофа,
которая произошла в 2016 году из-за того,
что водитель использовал
автопилот Теслы в городе,
хотя он был разработан
для передвижения по трассе.
Вот, что произошло:
перед машиной выехал грузовик,
но машина не затормозила.
Конечно, ИИ был обучен распознавать
грузовики на изображениях.
Но, судя по всему,
ИИ был обучен распознавать их
при движении по шоссе,
где грузовики можно увидеть только сзади.
Вид на грузовики сбоку
обычно не встречается на шоссе.
Так что когда ИИ увидел этот грузовик,
судя по всему, он распознал его
как дорожный знак
и поэтому решил, что под ним
можно безопасно проехать.
Вот ещё одна ошибка ИИ из другой области.
Недавно Amazon отказался
от использования алгоритма отбора резюме,
который они разрабатывали,
когда они выяснили,
что алгоритм дискриминирует женщин.
Из-за того, что алгоритм
обучался на выборке резюме
кандидатов, которых нанимали в прошлом,
ИИ научился избегать резюме кандидатов,
которые учились в женских колледжах
или у которых встречались
слова «женщина» или «женский» в резюме.
Например, «женская футбольная команда»
или «Общество женщин-инженеров».
ИИ не знал, что не нужно было повторять
это конкретное поведение людей.
И технически он сделал
то, о чём его просили.
Просто перед ним неправильно
поставили задачу.
И подобные вещи происходят с ИИ постоянно.
ИИ может оказывать разрушительный
эффект, не осознавая этого.
Например, алгоритмы ИИ, которые предлагают
новый контент на Facebook и YouTube,
оптимизированы для увеличения
количества кликов и просмотров.
И к сожалению,
один из способов этого добиться —
рекомендовать контент
с теориями заговора и фанатизмом.
Сами ИИ понятия не имеют
о содержании контента,
так же как и о последствиях
рекомендации такого контента.
Так что при использовании ИИ
заботиться об избежании проблем
должны именно мы.
И попытки избежать проблем
можно свести к извечной
проблеме коммуникации,
при которой нам, людям,
нужно научиться общаться с ИИ.
Мы должны изучить, но что ИИ способен,
а что ему недоступно.
И мы должны понять, что ИИ
с его крошечным разумом червяка
на самом деле не понимает,
чего мы от него хотим.
Другими словами, нужно смириться с тем,
что нам придётся работать
не с суперумным всезнающим ИИ
из научной фантастики.
Мы должны быть готовы к работе
а с тем, что у нас есть сейчас.
И современный ИИ достаточно странный.
Спасибо.
(Аплодисменты)
ปัญญาประดิษฐ์
สิ่งประดิษฐ์ที่เข้ามาแทรกแซง
อุตสาหกรรมทุกชนิด
แล้วกับไอศครีมล่ะ
รสชาติสุดตะลึงแบบไหนกัน
ที่เราสามารถสร้างได้
ด้วยพลังของปัญญาประดิษฐ์ขั้นสูง
ฉันจึงจับกลุ่มกับนักเขียนโค้ด
จากโรงเรียนมัธยมต้น Kealing
เพื่อค้นหาคำตอบของคำถามนี้
พวกเขารวบรวมไอศครีมทั้งหมด
1,600 รสชาติ ที่มีอยู่
และเราก็ป้อนเข้าอัลกอริทึม
เพื่อดูว่ามันจะสร้างอะไร
และนี่คือบางรสที่ AI คิดขึ้นมา
[ขยะฟักทอง]
(เสียงหัวเราะ)
[แยมเนยถั่วเหนียวเหนอะหนะ]
[โรคครีมสตรอเบอรี่]
(เสียงหัวเราะ)
รสชาติพวกนี้ไม่อร่อยเอาซะเลย
ในขณะที่เราหวังว่าพวกเขาจะ
งั้นคำถามก็คือ มันเกิดอะไรขึ้น
มันผิดพลาดตรงไหน
นี่ AI พยายามจะฆ่าเราหรอ
หรือมันพยายามทำตามที่เราสั่ง
และมันเป็นปัญหาหรอ
ในภาพยนต์ เมื่อมีบางอย่างผิดปกติกับ AI
มันเป็นเพราะ AI เป็นคนตัดสินใจว่า
มันไม่จำเป็นที่จะต้องทำตามคำสั่ง
มนุษย์อีกต่อไป
และมันมีเป้าหมายของมันเอง
ขอบคุณมากๆเลย
ในความเป็นจริง ถึงแม้ AI ที่เรามี
ยังไม่ฉลาดพอที่จะทำเช่นนั้น
มันมีพลังในการคำนวณโดยประมาณ
พอๆกับไส้เดือนดิน
หรืออาจจะพอๆกับผึ้งแค่ตัวเดียว
อันที่จริง อาจจะน้อยกว่าด้วยซ้ำ
เนื่องเพราะเราเรียนรู้สิ่งใหม่เกี่ยวกับสมอง
นี่ทำให้รู้ชัดว่า AI ยังเทียบไม่ได้กับสมองคนมนุษย์
ดังนั้นทุกวันนี้ AI สามารถทำงาน
อย่างระบุคนเดินเท้าในภาพ
แต่มันไม่ได้มีความคิดที่ว่า
อะไรคือคนเดินเท้า
มากไปกว่าว่ามันคือชุด
ของเส้น พื้นผิวและสิ่งของ
มันไม่รู้เลยว่าจริงๆแล้วมนุษย์คืออะไร
ดังนั้นทุกวันนี้ AI
จะทำในสิ่งที่เราสั่งให้ทำ
มันจะทำถ้ามันทำได้
แต่มันอาจไม่ทำในสิ่งที่เราต้องการ
งั้นลองคิดว่าคุณ
พยายามใช้ AI
เพื่อรวบรวมชิ้นส่วนหุ่นยนต์นี้
และประกอบมันกลายเป็นหุ่นยนต์
เพื่อไปจากจุด A ไปจุด B
ตอนนี้ ถ้าคุณกำลังพยายาม
และแก้โจทย์นี้อยู่
โดยการเขียนโค้ดแบบเดิม
คุณจะให้โปรแกรม
ทำตามคำแนะนำทีละขั้นตอน
วิธีการใช้ชิ้นส่วนเหล่านี้
วิธีประกอบมันให้กลายเป็นหุ่นยนต์ที่มีขา
และจากนั้นคือวิธีใช้ขาพวกนั้นไปให้ถึงจุด B
แต่เมื่อคุณใช้ AI
เพื่อแก้โจทย์นี้
มันต่างกันเลย
คุณไม่ได้บอกมันว่า
ต้องแก้โจทย์นี้อย่างไง
คุณแค่ให้เป้าหมายกับมัน
และมันก็คิดออกด้วยตัวมันเอง
ผ่านการลองผิดลองถูก
เพื่อให้ถึงเป้าหมาย
และกลับพบว่าวิธีที่ AI มีแนวโน้ม
เพื่อแก้ปัญหานี้
โดยการทำสิ่งนี้
มันประกอบตัวเองเป็นหอคอย
และหล่นลงมา
ลงที่จุด B
และในทางเทคนิค สิ่งนี้ช่วยแก้ปัญหา
ทางเทคนิค มันไปยังจุด B
อันตรายของ AI ไม่ใช่ว่า
มันกำลังจะกบฏต่อเรา
แต่มันกำลังจะทำในสิ่งที่เรา
ขอให้ทำแบบเฉพาะเจาะจงเลย
ดังนั้นแล้วเคล็ดลับ
การทำงานร่วมกับ AI ควรจะเป็น:
เราจะตั้งค่าปัญหาอย่างไร
เพื่อที่มันทำสิ่งที่เราต้องการจริงๆ
เจ้าหุ่นตัวจิ๋วนี้
กำลังถูกควบคุมโดย AI
AI มาพร้อมกับการออกแบบ
สำหรับขาหุ่นยนต์
จากนั้นหาวิธีใช้มัน
เพื่อผ่านอุปสรรคเหล่านี้ทั้งหมด
แต่เมื่อ David Ha ตั้งค่าการทดลองนี้
เขาตั้งค่ามันขึ้นมา
ด้วยข้อจำกัดที่เข้มงวดมาก
ว่า AI นั้นได้รับอนุญาต
ที่จะทำให้ขาใหญ่แค่ไหน
เพราะมิฉะนั้น...
(เสียงหัวเราะ)
และถ้าพูดในทางเทคนิคแล้ว
มันก็ไปถึงจุดหมายแหละค่ะ
ดังนั้นคุณจะเห็นว่ามันยากแค่ไหนที่จะให้ AI
ทำสิ่งที่ง่ายเพียงแค่เดิน
ดังนั้นเมื่อเห็น AI ทำเช่นนี้
คุณอาจพูดว่า มันไม่ยุติธรรม
คุณไม่สามารถเป็น
หอคอยสูงและล้มตัวลงมา
สิ่งที่คุณต้องทำจริงๆ
คือการใช้ขาเพื่อเดิน
ผลปรากฎว่า
มันก็ไม่ได้ผลเช่นกัน
งานของ AI ตัวนี้คือเคลื่อนที่ให้เร็ว
พวกมันไม่ได้ถูกบอกว่า
มันต้องวิ่งเพื่อไปข้างหน้า
หรือว่ามันห้ามใช้แขนช่วย
นี่คือสิ่งที่คุณได้รับ
เมื่อคุณฝึก AI ให้เคลื่อนที่เร็ว
สิ่งที่คุณจะได้ คือการตีลังกา
และท่าเดินโง่ ๆ
จนเป็นเรื่องธรรมดาไปเลย
ดังนั้นการกระตุกไปมา
(เสียงหัวเราะ)
ในความคิดของฉัน คุณรู้มั้ย
อะไรที่จะประหลาดกว่านี้มาก
อย่างหุ่นยนต์ "Terminator"
การแฮ็ก "The Matrix" เป็นอีกสิ่งหนึ่ง
AI นั้นจะทำถ้าคุณให้โอกาสมัน
ดังนั้นถ้าคุณฝึก AI ในแบบจำลอง
มันจะเรียนรู้วิธีทำสิ่งต่าง ๆ เช่นแฮ็คเข้าไปใน
ความผิดพลาดของคณิตศาสตร์ที่ใช้ในการจำลอง
และเก็บเกี่ยวพวกมันเป็นพลังงาน
หรือมันจะคิดว่าทำอย่างไรที่จะ
กระตุกตัวซ้ำๆ ลงกับพื้นเพื่อเคลื่อนที่เร็วๆ
เมื่อคุณทำงานร่วมกับ AI
มันไม่เหมือนกับ
การทำงานกับมนุษย์คนอื่น
และยังเหมือนทำงานกับ
พลังธรรมชาติประหลาดๆสักอย่าง
และเป็นเรื่องง่ายโดยไม่ได้ตั้งใจ
ที่ให้ AI แก้ปัญหาที่ผิด
และบ่อยครั้งเราไม่ได้ตระหนักถึงมัน
จนกว่าจะมีบางอย่างผิดพลาดขึ้นมาจริงๆ
นี่คือการทดลองที่ฉันทำ
ฉันให้ปัญญาประดิษฐ์ลอกแถบสีเหล่านี้
เพื่อคิดค้นสีใหม่ขึ้นมา
โดยให้รายการสีเหมือนกับ
อันที่อยู่ทางซ้ายมือนี้
และนี่คือสิ่งที่ปัญญาประดิษฐ์
ให้ผลลัพท์ออกมา
[อึของซินดิส, เสมือนอึ, ความเจ็บปวด, ขนลับหงอก]
(เสียงหัวเราะ)
ดังนั้นทางเทคนิคแล้ว
มันทำอย่างที่ฉันสั่งให้ทำ
ฉันคิดว่าฉันขอให้มัน
ตั้งชื่อสีที่ดูดี
แต่สิ่งที่ฉันสั่งให้ทำจริงๆ
แค่ลอกรูปแบบของกลุ่มอักษร
อย่างที่มันเห็นในตัวต้นฉบับ
และฉันไม่ได้บอกอะไรเลย
เกี่ยวกับความหมายของคำ
หรือว่าอาจจะมีบางคำ
ที่มันควรเลี่ยงที่จะใช้
ในแทบสีเหล่านี้
ดังนั้นโลกทั้งโลกของมัน
คือข้อมูลที่ฉันให้มัน
เช่นเดียวกับ รสของไอศครีม
มันไม่รู้อะไรอื่นเลย
ดังนั้น จากข้อมูลที่ให้มันนี่เอง
บ่อยครั้งที่เราบอกให้ AI
ทำสิ่งที่ผิดโดยไม่เราตั้งใจ
นี่คือปลาที่เรียกว่าเทนช์
และมีกลุ่มนักวิจัย
ที่เป็นคนฝึกให้ AI ระบุ
ปลาเทนช์ในรูปนี้
แต่เมื่อพวกเขาถามมัน
ส่วนไหนของภาพที่ใช้
เพื่อระบุปลาจริงๆล่ะ
นี่คือสิ่งที่ AI บอกมาค่ะ
ใช่ พวกนั้นคือนิ้วมือมนุษย์
ทำไมถึงต้องมองหานิ้วมือมนุษย์ล่ะ
ถ้ามันพยายามที่จะระบุตัวปลา
คือปรากฎว่าปลาเทนช์
ตัวนั้นคือถ้วยรางวัล
และในภาพจำนวนมาก
ที่ AI ได้เห็นปลาตัวนี้
ในระหว่างการฝึก
ปลามีลักษณะเช่นนี้
(เสียงหัวเราะ)
และมันก็ไม่รู้ว่านิ้ว
ไม่ใช่ส่วนหนึ่งของปลา
ฉะนั้นคุณจะเห็นว่ามันยากเหลือเกิน
ที่จะออกแบบ AI
ที่สามารถเข้าใจจริงๆว่า
มันกำลังดูอะไรอยู่
และนั้นคือเหตุผลที่การออกแบบ
กระบวนการจดจำรูปภาพ
ในพาหนะไร้คนขับถึงได้ยากนัก
และนั้นคือเหตุผลที่ยานไร้คนขับ
ทั้งหลายล้มเหลว
นั้นก็เพราะ AI เกิดความสับสน
ฉันอยากจะพูดเกี่ยวกับตัวอย่างจากปี 2016
ครั้งนั้นได้เกิดอุบัติเหตุเมื่อมีคน
ใช้ระบบคนขับโดยใช้ AI ของ Tesla
แต่แทนที่จะใช้บนทางด่วน
อย่างที่มันถูกออกแบบมา
พวกเขากลับใช้มันบนถนน
และสิ่งที่เกิดขึ้นคือ
มีรถบรรทุกขับอยู่ข้างหน้ารถ
และรถไม่สามารถเบรกได้
ตอนนี้ AI ถูกสอนให้
จดจำรถบรรทุกในรูป
แต่สิ่งที่ดูเหมือนว่าจะเกิดขึ้นคือ
AI ถูกสอนให้จดจำ
รถบรรทุกที่ขับบนทางด่วน
ที่ที่คุณน่าจะเดาได้
ว่าจะเห็นรถบรรทุกจากข้างหลัง
ภาพรถบรรทุกด้านข้างไม่ควร
เกิดขึ้นบนทางด่วน
และเมื่อ AI เห็นรถบรรทุกเช่นนั้น
มันกลับคิดว่าสิ่งนั้น
คล้ายกับป้ายจราจร
และดังนั้นมันจึงปลอดภัยที่จะขับต่อ
นี่คือความผิดพลาดของ AI
จากสายงานต่างๆ
Amazon ต้องยอมล้มเลิก
อัลกอริธิมจัดเรียงเรซูเม่
ที่พวกเขากำลังทำกันอยู่
เมื่อพวกเขาค้นพบว่าอัลกอริทึม
เรียนรู้ที่จะเลือกปฏิบัติต่อผู้หญิง
สิ่งที่เกิดขึ้นคือพวกเขาฝึกมัน
ในตัวอย่างเรซูเม่
ของคนที่เคยถูกจ้างมาแล้วในอดีต
และจากตัวอย่างนี้ AI เรียนรู้
เพื่อหลีกเลี่ยงเรซูเม่ของ
คนที่มาจากวิทยาลัยสตรี
หรือใครก็ตามที่มีคำว่า "ผู้หญิง"
สักแห่งในเร่ซูเม่พวกเขา
ไม่ว่าจะ "นักฟุตบอลหญิง"
หรือ "สมาคมวิศวะกรหญิง"
AI ไม่รู้ว่ามันไม่จำเป็นจะต้อง
สำเนาข้อความ
ที่มันได้เคยเห็นมนุษย์ทำไปเหล่านี้
และในทางเทคนิค
มันทำอย่างที่มันถูกร้องขอให้ทำ
พวกมันถูกร้องขอโดยไม่ตั้งใจ
ให้ทำสิ่งผิด
และมันเกิดขึ้นตลอดเวลากับ AI
AI สามารถทำตัวไม่เป็นประโยชน์
โดยที่มันไม่รู้ตัว
ฉะนั้น AI ที่แนะนำ
เนื่อหาใหม่ๆใน Facebook ใน Youtube
พวกมันถูกปรับแต่ง
เพื่อเพี่มยอดคลิกและยอดรับชม
และโชคร้าย วิธีที่พวกมันทำ
คือการแนะนำเนื้อหา
เกี่ยวกับทฤษฎีสมคบคิดหรือการคลั่งศาสนา
ตัว AI เองไม่มีแนวคิดใดๆ
ว่าเนื้อหาพวกนี้คืออะไรกันแน่
และพวกมันก็ไม่มีแนวคิด
ว่าผลกระทบที่ตามมาอาจเป็นอะไร
ของการแนะนำเนื้อหานี้
ฉะนั้น เมื่อเราทำงานร่วมกับ AI
มันขึ้นอยู่กับพวกเราเพื่อหลีกเลี่ยงปัญหา
และหลีกเลี่ยงความผิดพลาดต่างๆ
ที่จะนำไปสู่ปัญหาเดิมๆนั้นคือการสื่อสาร
มนุษย์ต้องเรียนรู้
วิธีสื่อสารกับ AI
เราต้องเรียนรู้ว่าอะไรที่ AI
ทำได้หรือไม่ได้
และเพื่อให้เข้าใจว่า
ด้วยสมองหนอนจิ๋วๆของมัน
มันไม่เข้าใจจริงๆ
ว่าอะไรคือสิ่งที่เราต้องการให้มันทำ
ในอีกแง่หนึ่งก็คือ เราต้องเตรียมพร้อม
ที่จะทำงานร่วมกับ AI
นั่นไม่ใช่ความสามารถระดับสูงของ
AI ที่ทุกคนรู้จักในนิยายวิทยาศาสตร์
เราต้องเตรียมพร้อมทำงาน
ร่วมกับ AI
ที่เรามีในปัจจุบัน
และในปัจจุบัน AI
ก็ดูจะแปลกมากขึ้นทุกที
ขอบคุณค่ะ
(เสียงปรบมือ)
Yapay zekânın,
her tür endüstriyi
bozduğu bilinmektedir.
Peki ya dondurma?
Gelişmiş bir yapay zekânın gücüyle
akıllara durgunluk verecek
ne tür tatlar oluşturabiliriz?
Bu sorunun cevabını bulmak için
Kealing orta okulundan
bir grup kodlayıcı ile birlikte çalıştım.
Mevcut olan yaklaşık 1600
dondurma tadını topladılar
ve birlikte, ne oluşturacağını görmek için
onları bir algoritmaya çevirdik.
İşte yapay zekânın
ürettiği tatlardan birkaçı.
[Kabak Çöpü Parçası]
(Gülüşmeler)
[Fıstık Ezmesi Balçığı]
[Çilek Kreması Hastalığı]
(Gülüşmeler)
Bu tatlar umduğumuz gibi
lezzetli değiller.
Soru şu: Ne oldu?
Yanlış giden neydi?
Yapay zekâ bizi öldürmeye mi çalışıyor?
Yoksa istediğimiz şeyi yapmaya mı
çalışıyor ve bir problem mi oluyor?
Filmlerde yapay zekâyla ilgili
bir hata olduğunda
bu genelde yapay zekânın,
artık insanlara itaat etmemeye
karar vermesi nedeniyle olur
ve artık kendi kuralları vardır,
çok teşekkürler.
Ancak, gerçek hayatta
sahip olduğumuz yapay zekâ
bunu yapabilecek kadar zeki değil.
Yaklaşık bir solucanın
veya belki de
olsa olsa tek bir bal arısının
programlama gücüne sahiptir
ve aslında, belki de daha azına sahiptir.
Beyinlerle ilgili sürekli yeni şeyler
öğreniyoruz ve bu da yapay zekânın
neden gerçek beyinlerle
aynı düzeyde olmayacağını açıklıyor.
Günümüzdeki yapay zekâ,
bir resimde yayayı saptamak gibi
bir görevi yapabilir, fakat bir yayanın
ne olduğunu kavrayamaz,
yaya onun için bir çizgiler, dokular
ve bazı şeylerin toplamıdır.
Bir insanın aslında ne olduğunu bilmez.
Peki günümüzün yapay zekâsı
biz ne istersek onu mu yapacak?
Eğer yapabilirse evet,
fakat gerçekten
istediğimizi yapamayabilir.
Diyelim ki bir yapay zekânın
bu robot parçalarını alıp
A noktasından B noktasına gidecek
bir robota dönüştürmesini istiyorsunuz.
Bu problemi geleneksel türden
bir bilgisayar programı yazarak
çözmeyi deneyecek olsaydınız,
programa bu parçaları nasıl alacağına,
bunları bacaklı bir robota
nasıl dönüştüreceğine
ve o bacakları B noktasına gitmesi
için nasıl kullanacağına dair
adım adım talimatlar verirdiniz.
Fakat problemi çözmek için
yapay zekâ kullandığınızda
işler farklı ilerliyor.
Ona problemi
nasıl çözeceğini söylemiyorsunuz,
ona sadece amacı veriyorsunuz
ve onun, amaca ulaşmak için
deneme yanılma aracılığıyla
kendisi çözmesi gerekiyor.
Yapay zekânın bu problemi
çözmek için gittiği yol
şu şekilde görünüyor:
kendisini bir kuleye
monte ediyor, sonra düşüyor
ve B noktasına iniş yapıyor.
Bu, teknik olarak problemi çözüyor.
Teknik olarak B noktasına gidiyor.
Yapay zekânın tehlikesi aslında
bizlere karşı ayaklanacağı değil,
tam olarak yapmalarını istediğimiz
şeyleri yapacak olmalarıdır.
O zaman da yapay zekâyla
çalışma hilesi şu hale geliyor:
Problemi nasıl düzenleyelim ki
gerçekten istediğimizi yapsın?
Bu küçük robot bir yapay zekâ
tarafından kontrol ediliyor.
Yapay zekâ robot bacakları için
bir tasarım buldu
ve sonra onları, bu engelleri aşmak için
nasıl kullanacağını çözdü.
Fakat David Ha bu deneyi oluşturduğunda
yapay zekânın bacakları ne kadar
büyük yapabileceğine dair
çok, çok katı
kısıtlamalarla oluşturmalıydı,
çünkü, aksi takdirde...
(Gülüşmeler)
Teknik olarak bu engel rotasının
sonuna varabildi.
Bir yapay zekânın, yürümek gibi basit
bir eylemi yapmasını sağlamak çok zor.
Yapay zekânın bunu yaptığını görünce,
bu haksızlık diyebilirsiniz,
yüksek bir kule olup düşemezsiniz,
yürümek için bacak
kullanmanız gerek diyebilirsiniz.
Görünen o ki, bu da
her zaman işe yaramıyor.
Yapay zekânın işi hızlı hareket etmek.
Ona ileri doğru koşması gerektiğini
veya kollarını
kullanamayacağını söylemediler.
Yapay zekâya hızlı hareket etmeyi
öğrettiğiniz zaman olan şey budur,
takla atmak veya şaşkınca yürüyüşler
gibi şeylerle karşılaşırsınız.
Bu gerçekten yaygın.
Yerde sürünmek de yaygın.
(Gülüşmeler)
Bana göre, bundan çok daha
garip olan şey,
"Terminatör" robotları.
Ona bir şans verirseniz, yapay zekanın
yapacağı diğer şey "Matrix"e girmektir.
Bir simülasyonda
yapay zekâyı eğitirseniz,
simülasyonun matematik hatalarına
girmek ve onları enerji için saklamak
gibi şeyleri yapmayı öğrenir.
Sürekli yerde sürünerek
hızlı hareket etmeyi de çözebilir.
Bir yapay zekâyla çalışırken
bu diğer bir insanla çalışmaktan ziyade,
daha çok doğanın garip bir gücüyle
çalışmaya benziyor.
Yapay zekâya çözmesi için kazara
yanlış problemi vermek de çok kolay
ve bir şeyler yanlış gidene dek
bunu genelde fark etmeyiz.
Yaptığım bir deneyde
yapay zekâdan
boya renklerini kopyalamasını
ve yeni boya renkleri
yaratmasını istedim,
bu soldaki listedekiler gibi
bir liste verdim.
Yapay zekânın önerdikleri ise şunlar.
[Sindi Kakası, Gübremsi, Acı, Gri Kasık]
(Gülüşmeler)
Teknik olarak
istediğimi yaptı.
Ben güzel boya renkleri isimleri
istediğimi düşünmüştüm,
fakat aslında yapmasını istediğim şey
orijinalinde gördüğü
harf kombinasyonları türlerini
taklit etmesiydi.
Kelimelerin ne anlama geldiğine dair
veya isimleri bulurken
kullanmaması gereken bazı kelimeler
olabileceğine dair hiçbir şey söylemedim.
Yani onun tüm dünyası,
benim ona sağladığım veri.
Dondurma tatları gibi,
başka hiçbir şey bilmiyor.
Yani genelde veri aracılığıyla
yapay zekâya kazara yanlış şeyi
yapmasını söylüyoruz.
Bu, karabalık adlı bir balık.
Bir grup araştırmacı da yapay zekâyı
resimlerde karabalığı
saptaması için eğitmişti.
fakat ona, balığı saptamak için
resmin hangi kısmını
kullandığını sorduklarında,
işte bunu vurguladı.
Evet, bunlar insan elinin parmakları.
Bir balığı saptamayı deniyorsa,
neden insan elinin parmaklarını arıyor?
Görünen o ki bu karabalık bir ödül balığı
ve eğitimi sırasında
yapay zekânın gördüğü
birçok resimde,
balık böyle görünüyordu.
(Gülüşmeler)
Parmakların, balığın bir parçası
olmadığını bilmiyordu.
Baktığı şeyi gerçekten anlayabilecek
bir yapay zekâ tasarlamanın
neden çok zor olduğunu
görüyorsunuz.
Ayrıca sürücüsüz arabalarda
görüntü tanımayı tasarlamanın
zor olmasının nedeni de bu
ve sürücüsüz arabalardaki
birçok başarısızlık da
yapay zekânın şaşırması nedenlidir.
2016'dan bir örnek vermek istiyorum.
Birisi Tesla'nın oto-pilot yapay zekasını
kullanırken ölümcül bir kaza oldu,
fakat tasarlandığı üzere
otoyolda kullanmak yerine,
şehrin sokaklarında kullandılar.
Olan şey de şuydu;
bir kamyon, arabanın önüne sürdü
ve araba fren yapamadı.
Yapay zekâ kesinlikle resimlerde
kamyonları saptamak üzere eğitilmişti.
Fakat olan şey şu gibi görünüyor,
yapay zekâ otoyolda giden
kamyonları saptamayı öğrenmişti,
yani kamyonları arkadan
göreceğimiz bir şekilde öğrenmişti.
Yanı görünen kamyonların
otoyolda olmaları beklenmez
ve yapay zekâ bu kamyonu gördüğünde,
büyük olasılıkla
bir yol işareti olarak algıladı
ve altından geçmenin
güvenli olduğunu düşündü.
Yapay zekânın başka alanda
attığı yanlış bir adım daha.
Amazon, algoritmanın kadınlara karşı
ayrımcılık yapmayı öğrendiğini
keşfettiği zaman,
bir özgeçmiş-sıralama algoritmasından
vazgeçmek zorunda kaldı.
Olan şey şuydu, yapay zekâyı
geçmişte işe aldıkları insanlara ait
örnek özgeçmişlerle eğittiler.
Yapay zekâ da bu örneklerden,
kadın okullarına gitmiş olan
veya özgeçmişinin herhangi bir yerinde
"kadın" kelimesi geçen,
-- "kadın futbol takımı"
veya "Kadın Mühendisler Derneği" gibi --
özgeçmişlerden kaçınmayı öğrendi.
Yapay zekâ, insanların
yaptığını gördüğü bu şeyi
kopyalaması gerekmediğini bilmiyordu.
Teknik olarak da
yapmasını istedikleri şeyi yaptı.
Sadece, yanlış şeyi yapmasını istediler.
Yapay zekâyla bu her zaman olur.
Yapay zeka çok zararlı olabilir
ve bunu bilmeyebilir.
Facebook, YouTube'da yeni içerik
öneren yapay zekâlar,
tıklama ve görüntüleme sayısını
yükseltmek üzere optimize edilmiştir.
Ne yazık ki bunu yapmak için
buldukları bir yol da,
komplo teorisi veya fanatiklik
içerikleri önermek.
Yapay zekâların, bu içeriklere dair
herhangi bir fikirleri yok
ve bu içeriği önerdikleri zaman
sonucun ne olacağına dair de
herhangi bir fikirleri yok.
Yani, yapay zekâyla çalışırken
problemlerden kaçınmak bize bağlıdır.
Yanlış giden şeylerden kaçınmak da öyle,
bu çok eski iletişim
problemine kadar da inebilir,
insanlar yapay zekâyla nasıl iletişim
kuracağını öğrenmelidir.
Yapay zekânın ne yapabildiğini
ve ne yapamadığını öğrenmeliyiz
ve yapay zekânın,
çok küçük solucan beyniyle,
ondan yapmasını istediğimiz şeyi
aslında anlamadığını anlamalıyız.
Yani, süper-yetkili, her şeyi bilen
bilim kurgu yapay zekâlarına benzemeyen
yapay zekâ ile çalışmaya
hazırlıklı olmalıyız.
Şimdiki zamanda sahip olduğumuz
tek yapay zekâyla
çalışmaya hazırlıklı olmalıyız.
Günümüzün yapay zekâsı da yeterince garip.
Teşekkürler.
(Alkış)
Штучний інтелект
відомий своїм впливом
на усі галузі промисловості.
А як щодо морозива?
Які нові дивовижні смаки
ми можемо отримати
за допомогою передового
штучного інтелекту?
Отож, я об'єднала свої зусилля із групою
програмістів зі школи Кілінг Міддл Скул,
щоб знайти відповідь на це запитання.
Програмісти зібрали понад 1600
існуючих назв смаків морозива,
і ми пов'язали ці смаки із алгоритмом,
щоб побачити, що він видасть.
Ось неповний перелік смаків,
які нам видав штучний інтелект (ШІ).
[Смак гарбуза зі сміттям]
(Сміх)
[Смак арахісового масла зі слизом]
[Полунично-вершкова інфекція]
(Сміх)
Ці смаки видалися не такими смачними,
як ми на те сподівалися.
Із цього випливає питання: Що сталося?
Що пішло не так?
Невже ШІ намагається нас вбити?
Чи він намагається зробити те, що ми
попросили, а це і стало проблемою?
У фільмах, коли щось пішло не так зі ШІ,
зазвичай поясненням є те, що ШІ вирішив,
що він більше не хоче підкорятися людині,
та він має власні цілі, і все, дуже дякую.
Проте у реальному житті, ШІ,
який фактично існує зараз,
ще не настільки розумний, щоб утнути таке.
Він має приблизно таку саму
обчислювальну потужність,
як дощовий черв'як,
або максимум, як одна бджола,
а насправді, можливо і менше.
Подібним чином ми дізнаємося
щось нове про наш мозок
і тоді бачимо, як далеко ще знаходиться
ШІ у порівнянні з людським мозком.
У наш час ШІ здатний, наприклад,
розпізнати пішохода на малюнку,
але він не має уявлення про те,
що це таке -- пішохід.
Для ШІ пішохід -- це набір
ліній та текстури, і таке інше.
Він не розуміє насправді,
що це таке -- людина.
Тож чи виконає сучасний ШІ те,
що нам потрібно зробити?
Виконає, якщо зможе,
але мабуть він виконає це не так,
як би нам того хотілося.
Уявімо, що ви намагаєтеся
зробити так, щоб ШІ
взяв ці окремі частини робота
і склав із них іншого робота, який повинен
дістатися з точки А у точку Б.
Якби ви намагалися вирішити цю проблему
шляхом написання традиційної
комп'ютерної програми,
ви б надали цій програмі
покрокові вказівки стосовно того,
як взяти ці частини,
як скласти з них робота з ногами,
і як застосувати ці ноги,
щоб дійти до точки Б.
Але якщо застосувати ШІ
для вирішення цієї проблеми,
він зробить по-іншому.
Ви не повідомляєте йому,
як вирішити цю проблему,
ви лише ставите перед ним мету,
а він повинен визначити для себе
шляхом спроб та помилок,
як досягти цієї мети.
І, виявляється, що спосіб, за допомогою
якого ШІ намагається вирішити цю проблему,
полягає в наступному:
він складає із тих частин вежу,
яка потім падає
і приземляється у точку Б.
Фактично, цим вирішується дана проблема.
Фактично, він дістався до точки Б.
Небезпека ШІ полягає не в тому,
що він повстане проти нас,
а в тому, що він робитиме конкретно те,
що ми його попросимо зробити.
Головна складність роботи зі ШІ
полягає у цьому:
як вирішити проблему, щоб ШІ
зробив саме те, що нам потрібно?
Тож зараз ви бачите маленького
робота, яким керує ШІ.
ШІ спроектував ноги робота,
а потім спланував, як їх застосувати,
щоб подолати ці перешкоди.
Але коли Дейвід Ха
проводив цей експеримент,
він був змушений провести його
у дуже суворих рамках
стосовно того, який розмір ніг
дозволялося мати ШІ,
тому що у іншому випадку...
(Сміх)
Фактично, він дістався
до кінця смуги перешкод.
Тож ви бачите, як складно навчити ШІ
навіть такому простому, як ходьба.
Коли ви побачили, як це робить ШІ,
ви можете сказати, що це нечесно,
ти не можеш просто стати вежею,
а потім впасти,
фактично, тобі необхідно
застосувати ноги, щоб ходити.
І виявляється, це теж
не завжди спрацьовує.
Це завдання ШІ полягало
у швидкому русі.
У ШІ не було вказівок стосовно того,
що він повинен бігти обличчям вперед,
або що йому заборонено
використовувати руки.
Ось, що ви отримаєте, коли будете
тренувати ШІ рухатися швидко.
Ви отримаєте такий результат,
як перекочування та незграбна ходьба.
Це справді так.
Або дивні рухи по підлозі у вигляді купи.
(Сміх)
На мою думку, більш чудернацькими були б
роботи "Термінатори".
ШІ може навіть зламати "Матрицю",
якщо ви дасте йому таке завдання.
Під час навчання в ком'ютерній симуляції,
ШІ навчиться, як зламувати
математичні помилки симуляції
та збирати їх для енергії.
Або він зрозуміє, як рухатися швидше,
повторно відштовхуючись від підлоги.
Коли ви працюєте зі ШІ,
це не схоже на роботу з іншою людиною,
а більш схоже на співпрацю
зі згубною силою природи.
І дуже легко випадково поставити
перед ШІ зовсім не ту проблему,
і часто ми усвідомлюємо це лише тоді,
коли щось пішло не так.
Ось результати проведеного експерименту,
під час якого я хотіла,
щоб ШІ скопіював фарби
для винайдення нових кольорів,
на основі переліку фарб, які подані зліва.
І ось, що ШІ фактично вигадав.
[Сіндійський Дурень, Випорожнення,
Страждання, Сіре Суспільство]
(Сміх)
Фактично,
він зробив те, про що я його попросила.
Я думала, що попросила його, скажімо,
вигадати красиві назви кольорів,
але насправді я поставила
перед ним завдання
лише зімітувати різні
варіанти буквосполучень,
які він побачив в оригіналі.
І я не говорила нічого про
значення цих слів
або про те, що, можливо,
існують певні слові,
яких слід уникати,
вигадуючи назви цих кольорів.
Отже, його знання обмежуються
лише інформацією, яку я надала.
Наприклад, як назви смаків морозива,
про які він більше нічого не знає.
Саме через подачу такої інформації
трапляється, що ми часто просимо ШІ
робити не те, що нам потрібно.
На екрані ви бачите
зображення риби під назвою "лин".
Отже, одна група дослідників
тренувала ШІ розпізнавати
зображення цього лина на малюнках.
Коли вони запитали його,
яку частину малюнка він застосовував
для розпізнавання цієї риби,
результат був наступним:
так, це були людські пальці.
Чому він шукав зображення пальців,
якщо він намагався розпізнати рибу?
Виявляється, що лин -- це рідкісна риба,
тому на багатьох фотографіях
цієї риби, які бачив ШІ
під час тренувань,
ця риба виглядала ось так.
(Сміх)
І він не розумів, що пальці
не є частиною цієї риби.
Тепер зрозуміло, чому так важко
запрограмувати ШІ таким чином,
щоб він міг зрозуміти те,
на що він дивиться.
Саме тому розробка
системи розпізнавання зображень
для самокерованих автомобілів
дуже складна.
І тому часті збої у роботі цих автомобілів
пояснюються тим, що ШІ
опинився у безвиході.
Я хочу розповісти про аварію,
яка сталася у 2016 році.
Причина фатального ДТП -- режим автопілота
під керуванням ШІ у електрокарі Тесла,
але замість застосування ШІ на
автомагістралі, для чого його і створили,
його використали на дорогах міста.
І сталось так, що
вантажівка виїхала перед електрокаром,
і йому не вдалося загальмувати.
Розумієте, ШІ точно тренували на
розпізнавання вантажівок на фото.
Але, здається, трапилось так, що
ШІ тренували для розпізнавання
вантажівок на автомагістралі,
де ви очікуєте побачити вантажівки позаду.
Вантажівки не можуть бути
на бічній смузі автомагістралі,
тому, коли ШІ помітив цю вантажівку,
схоже на те, що він розпізнав її,
імовірніше, як дорожній знак,
і тому збирався безпечно проїхати під ним.
Ще один приклад збою ШІ з іншої сфери.
Компанія Amazon була змушена відмовитися
від алгоритму сортування резюме,
над яким вона працювала,
коли стало відомо, що цей алгоритм
навчився дискримінувати жінок.
Трапилося так, що вони тренували ШІ
на прикладах резюме
людей, яких найняли раніше.
І на основі цих прикладів ШІ навчився
уникати резюме тих людей,
які навчалися у жіночих коледжах,
або в чиїх резюме десь
траплялося слово ''жінка'',
наприклад, ''жіноча футбольна команда''
або ''Спілка інженеринь''.
ШІ не знав, що йому не потрібно було
копіювати цю конкретну інформацію
стосовно того, чим займалися ці люди.
І фактично, він зробив те,
що його попросили.
Його просто випадково неправильно
попросили це зробити.
І це постійно трапляється зі ШІ.
ШІ дійсно може бути руйнівним,
навіть не знаючи про це.
Тому ШІ, який рекомендує новий контент
для перегляду у Facebook або Youtube,
він оптимізований для підвищення
кількості кліків та переглядів.
І, на жаль, спосіб,
як ШІ навчився це робити,
полягає у рекомендації вмісту, пов'язаного
із теорією змови або фанатизмом.
Сам ШІ не має жодного уявлення стосовно
того, про що ця інформація,
і він не має жодного уявлення стосовно
можливих наслідків
від рекомендації такого контенту.
Тож, коли ми працюємо зі ШІ,
саме ми повинні усунути будь-які проблеми.
І, усуваючи проблеми,
які зводяться до однієї
одвічної проблеми спілкування,
ми, як представники людського роду,
повинні навчитися спілкуватися із ШІ.
Нам слід навчитися дізнаватися,
що здатний зробити ШІ, а що ні,
і розуміти те, що зі своїм
крихітним примітивним мозком
ШІ насправді не розуміє, про що
його намагаються попросити зробити.
Іншими словами, ми повинні
бути готові працювати зі ШІ,
який не є компетентним, всезнаючим ШІ
із області наукової фантастики.
Нам треба бути готовими працювати зі ШІ,
з яким ми маємо справу у наш час.
І теперішній Ші здатний принести нам
багато неочікуваних сюрпризів.
Дякую.
(Оплески)
人工智能,
以能颠覆所有行业广为人知。
那冰淇淋呢?
我们是否能利用先进的人工智能
生成令人震惊的新口味呢?
我和 Kealing 中学的程序员组了个队
想要找到答案。
他们收集了超过 1600 种
现有的冰淇淋口味,
接着我们一起把这些口味输入
到算法中看看会有什么结果。
接下来给大家展示一些
人工智能所想到的口味。
【南瓜垃圾破裂】
(笑声)
【花生酱稀泥】
【草莓奶油病】
(笑声)
这些口味听起来并没有
我们想象中美味。
所以问题来了:怎么回事?
到底哪里出问题了?
人工智能是想要干掉我们?
还是说它努力想要回应
我们的要求,但是却出问题了?
在电影中,当人工智能出了错,
通常是因为它们决定
再也不要听从人类的指令,
它开始有了自己的目标,
不劳驾人类了。
然而现实生活中,
我们现有的人工智能
还没达到那样的水平。
它的计算能力大概跟
一条小虫子差不多,
又或者顶多只是一只小蜜蜂,
实际上可能更弱。
我们持续从大脑学习到新事物,
使我们越来越清楚人工智能
与真正的大脑之间的距离。
现在人工智能所达到的大体就是
在图片中识别出行人的程度,
但是它并没有
对于行人的概念,
除此之外它所做的只是
收集线条,质地之类的信息。
但是它并不知道人类到底是什么。
那么现在的人工智能
能否达到我们的要求?
能力允许的情况下它会,
但是它所做的可能
并不是我们真正想要的。
假设你想要用人工智能
利用一堆机器人的零件
组装成一个机器人
从 A 点移动到 B 点。
如果你想要通过编写
一个传统的计算机程序
来解决这个问题,
你需要输入一步步的指令,
指示它怎样拿起零件,
怎样把这些零件安装成
一个带脚的机器人,
以及如何用脚走到 B 点。
但是当你利用人工智能
来解决这个问题的时候,
情况不太一样。
你不用告诉它
要怎样解决问题,
你只需要给它一个目标,
它会通过试错
来解决这个问题,
来实现目标。
结果是,貌似人工智能在
解决这一类问题的时候
会这么做:
它把自己搭建成
一座塔然后倾倒,
最后在 B 点落下。
从技术的层面上看,的确解决了问题。
从技术上来说的确到达了 B 点。
人工智能的危险
不在于它会反抗我们,
而是它们会严格按照
我们的要求去做。
所以和人工智能共事的技巧变成了:
我们该如何设置问题才能让它
做我们真正想做的事?
这一台小机器人
由人工智能操控。
人工智能想到了一个
机器人脚部的设计,
然后想到了如何
利用它们绕过障碍。
但是当大卫·哈
在做这个实验的时候,
他不得不对人工智能
容许搭建起来的脚
设立非常、非常严格的限制,
不然的话...
(笑声)
从技术上说,他的确
到达了障碍路线的终点。
现在我们知道了,仅仅是让人工智能
实现简单的行走就有多困难。
当看到人工智能这么做的时候,
你可能会说,这不公平。
你不能只是变成
一座塔然后直接倒下,
你必须得用脚去走路,
结果是,
那往往也不行。
这个人工智能的任务是快速移动。
他们没有说它应该面向前方奔跑,
也没有说不能使用它的手臂。
这就是当你训练人工智能
快速移动时所能得到的结果,
你能得到的就是像这样的
空翻或者滑稽漫步。
太常见了。
在地板上扭动前进
也是一样的结果。
(笑声)
在我看来,更奇怪的
就是“终结者”机器人。
要是有可能的话,人工智能
还真会入侵“黑客帝国"。
如果你用仿真环境
训练一个人工智能的话,
它会学习如何入侵到
一个仿真环境中的数学错误里,
并从中获得能量。
或者会计算出如何通过
不断地在地板上打滑来加快速度。
当你和人工智能一起工作的时候,
不太像是在跟另一个人一起工作,
而更像是在和某种
奇怪的自然力量工作。
一不小心就很容易让人工
智能去破解错误的问题,
往往直到出现问题
我们才察觉到不妥。
所以我做了这样的一个实验,
我想要让人工智能
利用左边的颜色列表
复制颜料颜色,
去创造新的颜色。
这就是人工智能想到的结果。
【辛迪斯粪便,如粪球般,
受难,灰色公众】
(笑声)
基本上,
它达到了我的要求。
我以为我给出的要求是,
让它想出美好的颜色名,
但是实际上我让它做的
只是单纯地模仿
字母的组合,
那些它在输入中见到的字母组合。
而且我并没有告诉它
这些单词的意思是什么,
或者告诉它也许有些单词
不能用来给颜色命名。
也就是说它的整个世界里
只有我给出的数据。
正如让它发明冰淇淋的口味那样,
它除此之外一无所知。
也就是通过数据,
我们常常不小心
让人工智能做错事。
有一种叫丁鲷的鱼,
一群研究者尝试过
训练人工智能去
识别图片里的丁鲷。
但是当他们试图搞清
它到底用了图片的
哪个部分去识别这种鱼,
这是它所显示的部分。
没错,那些是人类的手指。
为什么它会去识别人类的手指,
而不是鱼呢?
因为丁鲷实际上是一种战利品鱼,
所以人工智能在被训练时,
看过的大多数照片中
鱼都长这样。
(笑声)
而人工智能并不知道原来
手指并不是鱼的一部分。
现在你们应该能想象,
设计一个能真正懂得
自己在做什么的人工
智能是多么困难。
这也就是为什么
给无人驾驶汽车
设计图像识别技术那么困难,
导致无人驾驶失败的原因
就是,人工智能迷糊了。
接下来我想分享一个
发生在 2016 年的故事。
有人在使用特斯拉的
自动驾驶功能时发生了特大事故,
因为这个人工智能是
为上高速路而设计的,
结果车主居然开到市内街道上。
结果是,
一辆卡车突然出现在轿车前面,
而轿车没有刹车。
当然这个人工智能受过训练,
能识别图片中的卡车。
但是当时的情况看起来,
人工智能接受的训练是
识别行驶在高速路上的卡车,
理论上你看到的应该是卡车的尾部,
而侧面对着你的卡车
是不会出现在高速路上的,
所以当人工智能看到这辆卡车的时候,
可能把卡车认作一个路标,
因此,它判断
从下面开过去是安全的。
接下来是人工智能在
另一个领域的错误示例。
亚马逊最近不得不放弃
一个他们已经开发了一段时间
的简历分类的算法,
因为他们发现这个算法
竟然学会了歧视女性。
原因是当他们把过去招聘人员的简历
用作人工智能的训练材料。
从这些素材中,人工智能学会了
怎样过滤一些应聘者的简历,
那些上过女子大学的
或者是那些含有
“女性”字眼的简历,
比如说“女子足球队”
或者“女性工程师学会”。
人工智能并不知道自己
不应该复制他所见过的
人类这种特定的行为。
从技术层面上说,
它的确按要求做到了。
只是开发者不小心
下错了指令。
这样的情况在人工智能领域屡见不鲜。
人工智能破坏力惊人且不自知。
就如用于脸书和油管上
内容推荐的人工智能,
它们被优化以增加
点击量和阅览量。
但是不幸的是,它们实现
目标的其中一个手段,
就是推荐阴谋论或者偏执内容。
人工智能本身对这些内容没有概念,
也根本不知道推荐这样的内容
会产生怎样的后果。
所以当我们与人工智能
一起工作的时候,
我们有责任去规避问题。
规避可能出错的因素,
这也就带出一个
老生常谈的沟通问题,
作为人类,我们要学习
怎样和人工智能沟通。
我们必须明白人工智能
能做什么,不能做什么,
要明白,凭它们的那点小脑袋,
人工智能并不能完全明白
我们想让它们做什么。
换言之,我们必须对与
人工智能共事做好准备,
这可不是科幻片里那些
全能全知的人工智能。
我们必须准备好跟
眼下存在的人工智能共事。
现在的人工智能还真的挺奇怪的。
谢谢。
(掌声)
人工智慧
顛覆各產業為人所知。
那冰淇淋呢?
有了先進的人工智慧,
我們能變出什麼驚人的新口味?
我和基林中學的
一組程式設計師合作,
想找出這個問題的答案。
他們收集了既有的
一千六百種冰淇淋口味,
將這些資料輸入到演算法中,
看看會產出什麼。
以下是人工智慧想出來的一些口味。
〔南瓜垃圾〕
(笑聲)
〔花生醬黏液〕
〔草莓奶油疾病〕
(笑聲)
這些口味並不如我們預期的可口。
所以問題是:到底怎麼了?
哪裡出問題了?
人工智慧想要害死我們嗎?
或它只是照我們的指示去做,
卻出了問題?
在電影中,人工智慧如果出問題,
通常都是因為人工智慧決定
不要繼續服從人類了,
它有自己的目標,非常謝謝。
不過,在我們現實生活中的人工智慧
並沒有聰明到能做出那樣的事。
它大概只有蚯蚓程度的計算能力,
或頂多到一隻蜜蜂的程度,
其實,可能還更低。
對於大腦我們不斷有新的發現,
讓我們更清楚知道,
人工智慧遠遠比不上真實大腦。
所以,現今的人工智慧可以做到
在圖片中辨識出行人之類的事,
但它不知道什麼是行人,
只知道行人是許多
線條、結構、東西的組合。
它不知道人類是什麼。
所以,現今的人工智慧
會照我們要求的做嗎?
如果能的話,它會,
但它可能不會照我們
真正想要它做的去做。
比如,你想要人工智慧
把這一堆機器人的零件
組裝成某種機器人,
從 A 點走到 B 點。
如果你是用傳統的電腦程式方法來寫,
你就得要給程式一步一步的指令,
告訴它要拿哪些零件,
如何組裝成有腳的機器人,
接著告訴它如何用腳來走到 B 點。
但,若用人工智慧來解決
這個問題,做法就不同了。
你不用告訴它如何解決問題,
只要給它一個目標,
它自己要用嘗試錯誤法
來想辦法達成目標。
結果發現,人工智慧
解決這個問題的方法
傾向於用這種方式:
它會把它自己組裝成
一座塔,然後倒向 B,
就會到達 B 點了。
技術上來說,問題的確解決了。
它的確抵達了 B 點。
人工智慧的危險性
並不在於它會反抗我們,
而是它會「完全」照我們的要求去做。
所以使用人工智慧的秘訣就變成是:
我們要如何把問題設定好,
讓它真能照我們所想的去做?
這個小機器人是由人工智慧控制。
人工智慧構思出機器人的腳,
接著它再想出要如何
用腳來越過這些障礙。
但,當大衛‧哈在設計這個實驗時,
他得要訂下非常非常嚴格的限制,
限制人工智慧能把腳做到多大,
因為,若不限制……
(笑聲)
技術上,它也的確到了
障礙道的另一端。
所以大家可以了解,讓人工智慧
做出走路這麼簡單的事有多難了。
看到人工智慧這麼做,
你可能會說,好,這不公平,
你不能變成高塔然後倒下來就到位,
你必須要真的用腳來走路。
結果發現,那也行不通。
這個人工智慧的工作
是要達成快速移動。
他們沒有告訴人工智慧說
跑步時一定要面對前方,
也沒說它不可以用手臂。
所以如果你訓練人工智慧要做到
快速移動,就會得到這種結果,
你會得到筋斗翻和很蠢的走路姿勢。
這很常見。
「成堆地沿著地板抽動」亦然。
(笑聲)
我認為更詭異的
是《魔鬼終結者》的機器人。
如果你給人工智慧機會,
它也會駭入《駭客任務》的母體。
如果在模擬狀況中訓練人工智慧,
它會學習如何做出的事包括
駭入模擬的數學錯誤中
並獲取它們作為能量。
或者,它會重覆在地板
鑽上鑽下使自己移動得更快。
和人工智慧合作比較像是
和某種大自然的詭異力量合作,
而不太像是和人類合作。
一不小心就會叫人工智慧
去解決不正確的問題,
且通常出錯後我們才會發現。
我做了一個實驗,
我希望人工智慧能複製顏料顏色,
發明新的顏料顏色,
給它左側的這個清單。
這些是人工智慧創造出來的顏色。
〔辛迪司便便、混蛋、
苦難、灰色陰部〕
(笑聲)
技術上來說,
它照我的意思做了。
我以為我要求人工智慧
給我好聽的色彩名稱,
但我實際上是在要求它
模仿它在原始顏色中
所見到的那些字母組合。
我沒有告訴它字的意思,
也沒告訴它可能有一些字
不太適合用在顏料顏色上。
它所有的訊息就僅是
我給它的資料而已。
和冰淇淋口味的例子一樣,
其他的它什麼都不知道。
通常會因為資料內容的關係,
無意間讓人工智慧去執行錯誤的運作。
這是一種叫丁鱖的魚。
有一群研究人員
訓練人工智慧在照片中辨識出丁鱖。
但當他們問人工智慧,它是用
圖上的哪個部分來辨識出丁鱖,
結果它標記出這些部分。
是的,這些是人類的手指。
如果它的目標是要辨識出魚類,
為什麼要去找人類的手指?
結果發現,丁鱖是釣客的戰利品,
所以,人工智慧在訓練期間
所看到的大量丁鱖照片,
看起來像這樣。(笑聲)
人工智慧不知道手指並非魚的一部分。
這就是為什麼難以設計出
能看懂眼前事物為何的人工智慧。
這也就是為什麼在自動駕駛汽車上
設計影像辨識系統如此困難。
很多自動駕駛汽車會失敗
是因為困惑的人工智慧。
我想要談談 2016 年的一個例子。
某人在使用特斯拉的自動駕駛
人工智慧時發生了致命的意外,
它原本是設計行駛在高速公路上的,
但他們卻讓它行駛在城市街道上。
事情的經過是:有台卡車
經過這台車的前面,
這台車沒有煞車。
人工智慧一定有被訓練過
如何辨識出照片中的卡車。
但發生的狀況似乎是
人工智慧被訓練辨識出
在高速公路上行駛的卡車,
在高速公路上你會看到的
應該是卡車的車尾。
高速公路上不應該會看到卡車的側面,
所以,當人工智慧看到這台卡車時,
人工智慧似乎把它當作是路上的號誌,
因此判斷可以安全地從下方行駛過去。
再來是另一個領域中的人工智慧過失。
亞馬遜最近必須要放棄他們
努力研發的履歷排序演算法,
因為他們發現演算法學會歧視女性。
他們用過去僱用員工的記錄資料
當作訓練人工智慧的範例。
從範例中,人工智慧學到不要選擇
上過女子大學的人,
也不要選擇在履歷中某處
寫到「女」字的人,
比如「女子足球隊」
或「女工程師協會」。
人工智慧看到人類這麼做,
它並不知道它不該複製這種模式。
技術上來說,它也照著
他們給它的指示做了。
他們只是不小心
叫人工智慧做了錯的事。
人工智慧常常會發生這種狀況。
人工智慧可能造成破壞卻不自覺。
所以,在臉書、Youtube 上
負責做推薦的人工智慧,
它們進行了優化以增加點閱率次數。
不幸的是,它們發現,
達到目標的方法之一
就是推薦關於陰謀論或偏執的內容。
人工智慧本身
對於推薦的內容一無所知,
也對推薦這些內容會造成的後果
一無所悉。
當我們使用人工智慧時,
必須要由我們來避免問題。
我們若要避免出錯,
可能就得歸結到溝通的老問題上,
我們人類得要學習
如何和人工智慧溝通。
我們得要了解人工智慧
能夠做什麼、不能做什麼,
且要知道,人工智慧
只有小蟲等級的大腦,
它不知道我們真正想要它做什麼。
換言之,我們得有心理準備,
我們所使用的人工智慧
並非科幻小說裡那種
超能、無所不知的人工智慧。
我們必須準備好與現今還是
小蟲大腦等級的人工智慧共事。
而現今的人工智慧是非常怪異的。
謝謝。
(掌聲)