Kunstmatige intelligentie staat bekend om het verstoren van allerlei sectoren. Denk maar aan ijs. Welke verbijsterende nieuwe smaken zouden we kunnen maken met het vermogen van geavanceerde kunstmatige intelligentie? Ik zocht contact met het team programmeurs van de Kealing Middle School om antwoord te vinden op deze vraag. Zij verzamelden meer dan 1.600 bestaande ijssmaken die we aan een algoritme gaven om te kijken wat dat zou opleveren. Dit zijn enkele smaken waar de AI mee kwam. [Pompoenafvalpauze] (Gelach) [Pindakaasslijm] (Gelach) [Aarbeien-ijsziekte] (Gelach) Deze smaken zijn niet zo lekker als we hadden gehoopt. De vraag is dus: hoe kan dat? Wat is er mis gegaan? Probeert de AI ons te vermoorden? Of deed hij precies wat we wilden, maar hij liep tegen een probleem aan? In films, wanneer er iets misgaat met AI, komt dit meestal doordat de AI besluit niet langer naar mensen te luisteren en zichzelf op de eerste plaats stelt. In werkelijkheid is de AI die we hebben daar niet slim genoeg voor. Hij heeft de geschatte rekenkracht van een aardworm, of hooguit van een enkele bij en waarschijnlijk nog minder. We leren steeds meer over de hersenen en dat AI nog lang niet opkan tegen echte hersenen. Een AI is prima in staat een voetganger te identificeren, maar z'n begrip van wat een voetganger is, gaat niet verder dan een verzameling van lijnen en structuren. Wat een mens is, weet hij niet. Zal de huidige AI doen wat wij willen? Hij zal het doen als hij het kan, maar misschien is het niet precies wat we willen. Stel je voor dat je een AI robotonderdelen laat pakken, waar hij een robot van maakt die van A naar B gaat. Als je probeert dit probleem op te lossen met een standaard computerprogramma, moet je uitgebreide instructies geven over hoe je de delen vastpakt, hoe je er een robot met benen van maakt en hoe je die benen gebruikt om naar punt B te komen. Maar als je dit met AI probeert op te lossen, dan ziet dat er anders uit. Je zegt niet hoe hij het probleem moet oplossen, je geeft hem een duidelijk doel en hij zal zelf met vallen en opstaan dat doel leren bereiken. En bij het oplossen van dit probleem hier doet de AI dit: hij bouwt een toren van zichzelf die hij laat omvallen bovenop Punt B. Technisch gezien lost dit inderdaad het probleem op. Hij heeft tenslotte Punt B bereikt. Het probleem met AI is ook niet dat hij tegen ons in opstand komt, maar dat hij juist precies doet wat we van hem vragen. De uitdaging met AI is dus: hoe introduceren we het probleem zodat hij precies doet wat we willen? Dit robotje wordt gestuurd door een AI. De AI ontwierp z'n robotbenen en ontdekte hoe hij ermee langs alle obstakels kon komen. Maar toen David Ha het experiment opzette, moest hij zeer strenge regels toepassen die bepaalden hoe lang AI de benen mocht maken, want anders... (Gelach) En strikt genomen had hij het einde van de hindernisbaan bereikt. Het is dus niet eenvoudig om AI zoiets simpels te laten doen als lopen. Je kan zeggen dat de AI valsspeelt door zichzelf uit te rekken en voorover te laten vallen, en eisen dat hij z'n benen gebruikt om te lopen. Maar ook dat werkt niet altijd. Hier moest de AI snel bewegen. Ze hadden niet gezegd dat hij recht vooruit moest gaan of z'n armen niet mocht bewegen. Als je AI traint snelle bewegingen te maken, krijg je vaak salto's en gekke loopjes. Dit gebeurt vrij vaak. Of je ziet hoopjes die rondkruipen. (Gelach) Volgens mij hadden de Terminator-robots nog veel gekker moeten zijn. AI zal ook zonder aarzelen 'The Matrix' hacken als hij de kans krijgt. Als je hem in een simulatie laat trainen, leert hij onder andere berekeningsfouten te hacken die hij opslaat als energie. Of hij krijgt door dat je sneller loopt als je gekke sprongetjes maakt. Werken met AI is iets heel anders dan het werken met een mens; het heeft meer weg van het werken met een obscuur fenomeen. Je loopt altijd het risico dat je AI een verkeerd probleem voorlegt, en je pas achteraf realiseert dat er iets fout is gegaan. Dit is een experiment dat ik heb gedaan, waarbij ik de AI opdroeg de verfkleuren na te maken, nieuwe kleuren te bedenken op basis van de kleuren links. Dit is het resultaat waar de AI mee kwam. [Strae Oranje, Penisbel Triestje, Grijshaartje] (Gelach) En inderdaad, hij deed precies wat ik hem had opgedragen. Ik dacht dat ik had gevraagd om leuke verfkleurnamen, maar in werkelijkheid immiteerde de AI alleen de lettercombinaties uit het origineel. Ik had hem niet gezegd wat de woorden betekenen of dat er woorden tussen zaten die niet toepasselijk zijn voor verfkleuren. Zijn wereld bestaat alleen uit de data die ik hem gegeven heb. Net als bij de ijssmaken is dat het enige wat hij weet. Door de data die we hem geven, voert de AI vaak de verkeerde opdracht uit. Deze vis is een zeelt. Een groep onderzoekers trainden een AI om deze zeelt op plaatjes te herkennen. Maar toen ze vroegen welk deel van de foto hij gebruikte om de vis te herkennen, markeerde hij dit. Inderdaad: mensenvingers. Waarom zou hij mensenvingers gebruiken om een vis te herkennen? Wat blijkt: de zeelt wordt gezien als trofee en in veel foto's die de AI te zien kreeg tijdens de training, zag de vis er zo uit. (Gelach) Hij wist niet dat de vingers geen deel van de vis zijn. Het is duidelijk ingewikkeld om een AI zo te ontwerpen dat hij begrijpt waar hij naar kijkt. Dit maakt het vormgeven van beeldherkenning voor zelfrijdende auto's ook zo gecompliceerd en worden veel van de fouten veroorzaakt doordat de AI in de war raakte. Hier is een voorbeeld uit 2016. Bij een fataal ongeluk waarbij een Tesla op de automatische piloot stond, bleek dat ze niet op de snelweg reden waarvoor hij was gemaakt, maar midden in stad. Vervolgens reed een vrachtauto voor de Tesla langs en de auto remde niet automatisch af. De AI was getrained op het herkennen van vrachtauto's op plaatjes. Zo te zien was de AI getrained in het herkennen van vrachtauto's op de snelweg, waar ze je vaak van achteren benaderen. Vrachtauto's van de zijkant komen op de snelweg niet voor, dus toen de AI de vrachtauto zag, dacht hij waarschijnlijk dat het een verkeersbord was waar hij veilig onderdoor kon rijden. Nog een fout met AI, maar van een ander kaliber. Amazon is onlangs afgestapt van een cv-sorteeralgoritm waar ze aan hadden gewerkt, toen duidelijk werd dat het algoritme had geleerd vrouwen te discrimineren. Het bleek dat de trainingsdata bestond uit oude cv's van mensen die in het verleden waren aangenomen. Op basis hiervan negeerde de AI de cv's van mensen die aan een vrouwenuniversiteit hadden gestudeerd of waar het woord 'vrouw' in stond, zoals ' vrouwenvoetbalteam' of 'Vereniging van Vrouwelijke Ingenieurs'. De AI had niet door dat hij dit gedrag van mensen niet moest kopiƫren. Technisch gezien deed hij precies wat hem was opgedragen. Alleen hadden ze hem per ongeluk het verkeerde gevraagd. Een veelvoorkomend probleem met AI. AI kan zonder het te weten destructief zijn. De AI's die op Facebook of YouTube nieuwe content aanbevelen bijvoorbeeld, zijn er op gericht het aantal clicks en views te verhogen. Helaas had dit als gevolg dat content gewijd aan complottheorieƫn en intolerantie werd aangeraden. De AI's weten zelf niet wat voor content het is en hebben ook geen idee wat de consequenties zijn als het wordt aanbevolen. Als wij aan het werk gaan met AI, is het aan ons dit soort problemen te voorkomen. En zorgen dat alles goed gaat, is een kwestie van betere communicatie: we moeten leren beter te communiceren met AI. We moeten begrijpen wat AI kan en wat het niet kan doen, en dat hij met z'n piepkleine hersens niet echt begrijpt wat wij van hem willen. We zullen moeten accepteren dat hij geen deskundige, alleswetende AI uit science fiction is. We moeten bereid zijn te werken met een AI waar we nu al mee te maken hebben. En de AI van nu is al vreemd genoeg. Dank jullie wel. (Applaus)