Künstliche Intelligenz ist dafür bekannt, allerlei Branchen durcheinanderzubringen. Was ist mit Eis? Welche unglaublichen neuen Eissorten könnte man mit den Fähigkeiten der hochentwickelten KI herstellen? Ich arbeitete mit den Programmierern der Kealing Middle School zusammen, um die Antwort auf diese Frage zu finden. Sie sammelten mehr als 1 600 vorhandene Eissorten. Zusammen gaben wir sie im Algorithmus ein, um zu sehen, was daraus entstehen wird. Hier sind einige der Eissorten, die sich die KI ausgedacht hat. [Kürbis-Müll-Pause] (Lachen) [Erdnussbutter-Schleim] [Erdbeersahne-Krankheit] (Lachen) Diese Eissorten sind nicht so köstlich, wie wir es erwarteten. Die Frage ist also: Was ist passiert? Was ist schief gelaufen? Versucht die KI uns zu töten? Oder tut sie genau das, worum wir baten, aber es gab ein Problem? Wenn in Filmen etwas mit KI schief läuft, hat die KI häufig entschieden, den Menschen nicht mehr zu gehorchen und eigene Ziele zu verfolgen. Tatsächlich ist die heutige KI dafür noch nicht schlau genug. Sie hat etwa die Rechenleistung von einem Regenwurm, oder vielleicht höchstens die einer einzelnen Honigbiene und vermutlich sogar weniger. Wir erfahren über Gehirne ständig neue Aspekte, die stets zeigen, wie wenig die KI dem Gehirn entspricht. Die KI von heute kann einen Fußgänger auf einem Bild erkennen. Sie hat aber keine Vorstellung, dass ein Fußgänger mehr als eine Sammlung von Linien und Texturen ist. Sie weiß im Grunde nicht, was ein Mensch ist. Wird die KI das tun, worum wir sie bitten? Sie wird, wenn sie kann. Aber sie könnte vielleicht nicht das tun, was wir eigentlich wollen. Zum Beispiel möchten Sie, dass KI aus Roboterteilen einen Roboter zusammenbaut, um damit von Punkt A zu Punkt B zu gelangen. Die Lösung des Problems durch Schreiben eines herkömmlichen Computerprogamms würde schrittweise Anweisungen an das Computerprogramm beinhalten, wie aus den Teilen ein Roboter mit Beinen gebaut werden kann und wie man die Beine benutzt, um zum Punkt B zu gehen. Aber wenn man KI einsetzt, dann sieht die Lösung anders aus. Man bestimmt nicht, wie die KI das Problem lösen soll, sondern setzt nur das Ziel und die KI muss durch Probieren selbst herausfinden, wie sie das Ziel erreicht. Aber die KI löst das spezielle Problem so: Es baut sich in einen Turm, kippt damit um und landet auf Punkt B. Im Prinzip ist es eine Lösung. Formal kam sie zu Punkt B. Die Gefahr der KI besteht nicht darin, dass sie sich gegen uns auflehnt, sondern dass sie genau das tut, worum wir sie bitten. Die Kunst, mit KI zu arbeiten ist also: Wie bereitet man das Problem auf, damit sie das tut, was wir wollen? Dieser kleine Roboter hier ist von der KI gesteuert. Die KI entwickelte ein Design für die Roboterbeine und fand heraus, wie sie verwendet werden können, um alle diese Hindernisse zu überwinden. Aber als David Ha das Experiment vorbereitete, setzte er sehr, sehr enge Grenzen, wie groß die KI die Beine machen durfte, weil sonst ... (Lachen) Im Prinzip hat sie das Ende des Hindernislaufs erreicht. Es ist also kompliziert, KI etwas Einfaches wie Gehen beizubringen. Wenn man sieht, was die KI da macht, könnte man sagen: "Das gilt nicht!" Die KI kann nicht nur einen hohen Turm errichten und umkippen, sondern muss auf zwei Beinen gehen. Aber es zeigt sich, dass das auch nicht immer funktioniert. Diese Aufgabe für die KI war es, sich schnell zu bewegen. Es wurde nicht gesagt, dass sie vorwärts rennen musste oder dass sie ihre Hände nicht benutzen konnte. Wenn Sie die KI trainieren, sich schnell zu bewegen, dann bekommen Sie etwas wie Saltos und komische Gangarten. Es kommt echt häufig vor, genauso wie als Haufen über den Boden zu zucken. (Lachen) Wäre es nach mir gegangen, hätten die Terminator-Roboter viel seltsamer sein sollen, Die KI würde auch die "Matrix" hacken, wenn man ihr eine Chance gibt. Trainiert man die KI in einer Simulation wird sie lernen, die Rechenfehler der Simulation zu hacken und daraus Energie zu ziehen. Oder sie lernt, sich schneller zu bewegen, indem sie wiederholt im Boden verschwindet. Die Arbeit mit KI ähnelt nicht so sehr der Arbeit mit einem anderen Menschen. Es scheint eher wie die Arbeit mit einer seltsamen Naturgewalt. Es ist wirklich einfach, der KI ein falsches Problem zum Lösen zu geben. Oft merken wir das erst, wenn schon etwas schief gegangen ist. Bei einem Experiment wollte ich, dass die KI die Lackfarben kopiert und mit einer Liste wie der hier links, neue Lackfarben erfindet. Das hier hat sich die KI einfallen lassen. [Sindis Kacke, arschig, leiden, graue Scham] (Lachen) Im Prinzip tat sie das, worum ich bat. Ich dachte, ich bat um schöne Farbnamen, aber eigentlich ließ ich sie nur die Buchstabenkombinationen imitieren, die die KI im Original sah. Ich sagte nichts darüber, was Wörter bedeuten, oder dass die KI einige Wörter in den Farbnamen vermeiden soll. Ihre ganze Welt besteht aus Daten, die ich ihr gab. Wie bei den Eissorten, wusste sie nichts anderes. Durch die Daten sagen wir der KI häufig versehentlich, das Falsche zu tun. Das ist ein Fisch, "Schleie" genannt. Eine Gruppe von Forschern trainierte KI Schleien in Bildern zu erkennen. Aber als die Forscher fragten, welcher Teil des Bildes zur Fische-Erkennung verwendet wurde, wurde das hier hervorgehoben. Ja, das sind menschliche Finger. Warum sollte KI nach menschlichen Fingern bei der Fische-Erkennung suchen? Es stellte sich heraus, dass die Schleie ein Trophäenfisch ist, und in vielen Bildern mit der die KI trainiert wurde, sahen die Fische so aus. (Lachen) Sie wusste nicht, dass die Finger nicht zum Fisch gehören. Deshalb ist es so kompliziert, eine KI zu entwickeln, die versteht, was sie sieht. Darum ist es so schwer, die Bilderkennung von selbstfahrenden Autos zu entwickeln, und deshalb gibt es so viele Pannen, weil die KI verwirrt wurde. Ich möchte über ein Beispiel aus dem Jahr 2016 sprechen. Es gab einen tödlichen Unfall, als jemand die Autopilot-KI von Tesla benutzte. Aber statt sie auf der Autobahn zu nutzen, wofür sie entworfen wurde, setzte er sie in der Stadt ein. Ein Lastwagen fuhr vor dem Auto heraus und das Auto bremste nicht. Die KI wurde durchaus darauf trainiert, die Lastwagen in Bildern zu erkennen. Aber die KI wurde darauf trainiert, die LKWs auf Autobahnen zu erkennen, wo man sie normalerweise von hinten sieht. LKWs auf der Autobahn seitlich zu sehen, sollte eigentlich nicht passieren. Als die KI diesen LKW sah, erkannte sie ihn vermutlich als Verkehrszeichen, unter dem sie sicher drunter durch fahren konnte. Hier ist ein KI-Fehltritt aus einem anderen Bereich. Amazon musste kürzlich einen Algorithmus zur Sichtung von Lebensläufen aufgeben, weil der Algorithmus gelernt hatte, Frauen zu diskriminieren. Das geschah, weil er mit Lebensläufen von Leuten trainiert wurde, die sie in der Vergangenheit eingestellt hatten. Durch diese Lebensläufe lernte die KI, die Lebensläufe von Menschen zu meiden, die Hochschulen für Frauen besuchten oder in denen irgendwie der Begriff "Frauen" steckt, wie in "Frauenfußballmannschaft" oder "Gesellschaft der Ingenieurinnen". Die KI wusste nicht, dass sie nicht genau diesen besonderen Aspekt kopieren sollte, den sie Menschen hatte tun sehen. Im Prinzip tat die KI das, worum sie gebeten wurde. Sie baten die KI versehentlich, das Falsche zu tun. Das passiert mit der KI ständig. Die KI kann wirklich destruktiv sein und es nicht mal wissen. Die KIs, die neue Inhalte auf Facebook und YouTube empfehlen, wurden optimiert, um die Anzahl der Klicks und Seitenaufrufe zu erhöhen. Eine Möglichkeit dazu bot sich, Inhalte verschwörungstheoretischer oder fanatischer Natur zu empfehlen. Die KIs besitzen keine Vorstellung davon, was der Inhalt eigentlich ist, und haben keine Vorstellung davon, welche Konsequenzen die Empfehlung dieser Inhalte vielleicht hat. Wenn wir also mit der KI arbeiten, ist es an uns, Probleme zu vermeiden. Wenn wir Dinge vermeiden wollen, die auf das uralte Kommunikationsproblem zurückzuführen sind, müssen die Menschen lernen, wie man mit der KI kommuniziert. Wir müssen lernen, wozu die KI fähig ist und was sie nicht kann und verstehen, dass die KI mit ihrem winzigen Wurmhirn nicht wirklich begreift, worum wir sie bitten. Mit anderen Worten müssen wir darauf vorbereitet sein, mit einer KI zu arbeiten, die nicht überkompetent und allwissend wie in der Science-Fiction ist. Wir müssen uns darauf vorbereiten, mit der KI zu arbeiten, wie sie heute ist. Und die heutige KI ist schon eigenartig genug. Danke. (Beifall)