Kunstmatige intelligentie
staat bekend om het verstoren
van allerlei sectoren.
Denk maar aan ijs.
Welke verbijsterende nieuwe smaken
zouden we kunnen maken
met het vermogen van geavanceerde
kunstmatige intelligentie?
Ik zocht contact met het team programmeurs
van de Kealing Middle School
om antwoord te vinden op deze vraag.
Zij verzamelden meer dan
1.600 bestaande ijssmaken
die we aan een algoritme gaven
om te kijken wat dat zou opleveren.
Dit zijn enkele smaken
waar de AI mee kwam.
[Pompoenafvalpauze]
(Gelach)
[Pindakaasslijm]
(Gelach)
[Aarbeien-ijsziekte]
(Gelach)
Deze smaken zijn niet zo lekker
als we hadden gehoopt.
De vraag is dus: hoe kan dat?
Wat is er mis gegaan?
Probeert de AI ons te vermoorden?
Of deed hij precies wat we wilden,
maar hij liep tegen een probleem aan?
In films, wanneer er iets misgaat met AI,
komt dit meestal doordat de AI besluit
niet langer naar mensen te luisteren
en zichzelf op de eerste plaats stelt.
In werkelijkheid is de AI die we hebben
daar niet slim genoeg voor.
Hij heeft de geschatte rekenkracht
van een aardworm,
of hooguit van een enkele bij
en waarschijnlijk nog minder.
We leren steeds meer over de hersenen
en dat AI nog lang niet
opkan tegen echte hersenen.
Een AI is prima in staat
een voetganger te identificeren,
maar z'n begrip van wat een voetganger is,
gaat niet verder dan
een verzameling van lijnen en structuren.
Wat een mens is, weet hij niet.
Zal de huidige AI doen wat wij willen?
Hij zal het doen als hij het kan,
maar misschien is het niet
precies wat we willen.
Stel je voor dat je een AI
robotonderdelen laat pakken,
waar hij een robot van maakt
die van A naar B gaat.
Als je probeert dit probleem op te lossen
met een standaard computerprogramma,
moet je uitgebreide instructies geven
over hoe je de delen vastpakt,
hoe je er een robot met benen van maakt
en hoe je die benen gebruikt
om naar punt B te komen.
Maar als je dit
met AI probeert op te lossen,
dan ziet dat er anders uit.
Je zegt niet hoe hij
het probleem moet oplossen,
je geeft hem een duidelijk doel
en hij zal zelf met vallen en opstaan
dat doel leren bereiken.
En bij het oplossen van dit probleem hier
doet de AI dit:
hij bouwt een toren van zichzelf
die hij laat omvallen
bovenop Punt B.
Technisch gezien lost dit
inderdaad het probleem op.
Hij heeft tenslotte Punt B bereikt.
Het probleem met AI is ook niet
dat hij tegen ons in opstand komt,
maar dat hij juist precies doet
wat we van hem vragen.
De uitdaging met AI is dus:
hoe introduceren we het probleem
zodat hij precies doet wat we willen?
Dit robotje wordt gestuurd door een AI.
De AI ontwierp z'n robotbenen
en ontdekte hoe hij ermee
langs alle obstakels kon komen.
Maar toen David Ha het experiment opzette,
moest hij zeer strenge regels toepassen
die bepaalden hoe lang AI
de benen mocht maken,
want anders...
(Gelach)
En strikt genomen
had hij het einde
van de hindernisbaan bereikt.
Het is dus niet eenvoudig om AI
zoiets simpels te laten doen als lopen.
Je kan zeggen dat de AI valsspeelt
door zichzelf uit te rekken
en voorover te laten vallen,
en eisen dat hij
z'n benen gebruikt om te lopen.
Maar ook dat werkt niet altijd.
Hier moest de AI snel bewegen.
Ze hadden niet gezegd
dat hij recht vooruit moest gaan
of z'n armen niet mocht bewegen.
Als je AI traint
snelle bewegingen te maken,
krijg je vaak salto's en gekke loopjes.
Dit gebeurt vrij vaak.
Of je ziet hoopjes die rondkruipen.
(Gelach)
Volgens mij hadden de Terminator-robots
nog veel gekker moeten zijn.
AI zal ook zonder aarzelen
'The Matrix' hacken
als hij de kans krijgt.
Als je hem in een simulatie laat trainen,
leert hij onder andere
berekeningsfouten te hacken
die hij opslaat als energie.
Of hij krijgt door dat je sneller loopt
als je gekke sprongetjes maakt.
Werken met AI
is iets heel anders
dan het werken met een mens;
het heeft meer weg van het werken
met een obscuur fenomeen.
Je loopt altijd het risico
dat je AI een verkeerd probleem voorlegt,
en je pas achteraf realiseert
dat er iets fout is gegaan.
Dit is een experiment dat ik heb gedaan,
waarbij ik de AI opdroeg
de verfkleuren na te maken,
nieuwe kleuren te bedenken
op basis van de kleuren links.
Dit is het resultaat waar de AI mee kwam.
[Strae Oranje, Penisbel
Triestje, Grijshaartje]
(Gelach)
En inderdaad,
hij deed precies
wat ik hem had opgedragen.
Ik dacht dat ik had gevraagd
om leuke verfkleurnamen,
maar in werkelijkheid
immiteerde de AI alleen
de lettercombinaties
uit het origineel.
Ik had hem niet gezegd
wat de woorden betekenen
of dat er woorden tussen zaten
die niet toepasselijk zijn
voor verfkleuren.
Zijn wereld bestaat alleen
uit de data die ik hem gegeven heb.
Net als bij de ijssmaken
is dat het enige wat hij weet.
Door de data die we hem geven,
voert de AI vaak
de verkeerde opdracht uit.
Deze vis is een zeelt.
Een groep onderzoekers
trainden een AI om deze zeelt
op plaatjes te herkennen.
Maar toen ze vroegen
welk deel van de foto hij gebruikte
om de vis te herkennen,
markeerde hij dit.
Inderdaad: mensenvingers.
Waarom zou hij mensenvingers gebruiken
om een vis te herkennen?
Wat blijkt: de zeelt
wordt gezien als trofee
en in veel foto's die de AI te zien kreeg
tijdens de training,
zag de vis er zo uit.
(Gelach)
Hij wist niet dat de vingers
geen deel van de vis zijn.
Het is duidelijk ingewikkeld
om een AI zo te ontwerpen
dat hij begrijpt waar hij naar kijkt.
Dit maakt het vormgeven
van beeldherkenning
voor zelfrijdende auto's
ook zo gecompliceerd
en worden veel van de fouten veroorzaakt
doordat de AI in de war raakte.
Hier is een voorbeeld uit 2016.
Bij een fataal ongeluk waarbij een Tesla
op de automatische piloot stond,
bleek dat ze niet op de snelweg reden
waarvoor hij was gemaakt,
maar midden in stad.
Vervolgens reed een vrachtauto
voor de Tesla langs
en de auto remde niet automatisch af.
De AI was getrained op het herkennen
van vrachtauto's op plaatjes.
Zo te zien
was de AI getrained in het herkennen
van vrachtauto's op de snelweg,
waar ze je vaak van achteren benaderen.
Vrachtauto's van de zijkant
komen op de snelweg niet voor,
dus toen de AI de vrachtauto zag,
dacht hij waarschijnlijk
dat het een verkeersbord was
waar hij veilig onderdoor kon rijden.
Nog een fout met AI,
maar van een ander kaliber.
Amazon is onlangs afgestapt
van een cv-sorteeralgoritm
waar ze aan hadden gewerkt,
toen duidelijk werd dat het algoritme
had geleerd vrouwen te discrimineren.
Het bleek dat de trainingsdata
bestond uit oude cv's
van mensen die in het verleden
waren aangenomen.
Op basis hiervan negeerde de AI
de cv's van mensen
die aan een vrouwenuniversiteit
hadden gestudeerd
of waar het woord 'vrouw' in stond,
zoals ' vrouwenvoetbalteam' of
'Vereniging van Vrouwelijke Ingenieurs'.
De AI had niet door
dat hij dit gedrag
van mensen niet moest kopiƫren.
Technisch gezien deed hij precies
wat hem was opgedragen.
Alleen hadden ze hem
per ongeluk het verkeerde gevraagd.
Een veelvoorkomend probleem met AI.
AI kan zonder het te weten
destructief zijn.
De AI's die op Facebook of YouTube
nieuwe content aanbevelen bijvoorbeeld,
zijn er op gericht het aantal clicks
en views te verhogen.
Helaas had dit als gevolg
dat content gewijd aan complottheorieƫn
en intolerantie werd aangeraden.
De AI's weten zelf niet
wat voor content het is
en hebben ook geen idee
wat de consequenties zijn
als het wordt aanbevolen.
Als wij aan het werk gaan met AI,
is het aan ons dit soort
problemen te voorkomen.
En zorgen dat alles goed gaat,
is een kwestie van betere communicatie:
we moeten leren
beter te communiceren met AI.
We moeten begrijpen wat AI kan
en wat het niet kan doen,
en dat hij met z'n piepkleine hersens
niet echt begrijpt wat wij van hem willen.
We zullen moeten accepteren
dat hij geen deskundige,
alleswetende AI uit science fiction is.
We moeten bereid zijn te werken met een AI
waar we nu al mee te maken hebben.
En de AI van nu is al vreemd genoeg.
Dank jullie wel.
(Applaus)