0:00:04.750,0:00:09.660 Herald: Herzlich willkommen im C-Base[br]Livestream der Raumstation unter Berlin- 0:00:09.660,0:00:13.490 Mitte am S-Bahnhof Jannowitzbrücke. Es[br]freut mich ganz besonders, dass der Oskar 0:00:13.490,0:00:18.270 heute hier ist mit dem Thema "Computer[br]says no. Künstliche Intelligenz und 0:00:18.270,0:00:22.490 Herrschaft". Das freut mich deswegen ganz[br]besonders, weil ich ja ansonsten Technik 0:00:22.490,0:00:27.470 Philosophie mache. Und wir sind ja nun[br]seit ungefähr 25 Jahren darauf warten, 0:00:27.470,0:00:30.289 dass die ganzen künstlichen[br]Minderintelligenzen tatsächlich mal so was 0:00:30.289,0:00:33.980 wie Bewusstsein entwickeln. Das scheint[br]aber noch nicht der Fall zu sein, es sei 0:00:33.980,0:00:37.450 denn, Oskar hat hier Neuigkeiten für uns.[br]Und die interessante Frage ist ja, wie es 0:00:37.450,0:00:40.670 zu rechtfertigen ist, dass solche[br]künstlichen Minderintelligenzen dann 0:00:40.670,0:00:45.150 Herrschaft über uns ausüben, indem sie uns[br]Kredite verweigern, unsere Bankkarte nicht 0:00:45.150,0:00:50.000 verlängern oder auch unsere[br]Steuererklärung für potenziell gefälscht. 0:00:50.000,0:00:54.390 Das werden wir jetzt alles genau und näher[br]erfahren. Wie das fast schon akademische 0:00:54.390,0:00:58.969 Tradition ist, gibt es genau 45 Minuten[br]Zeit für Oskar. Oskar, du hast die Bühne 0:00:58.969,0:01:01.739 für ein Update zur künstlichen Intelligenz[br]und Herrschaft. 0:01:01.739,0:01:06.330 Oskar: Vielen Dank! Herzlich willkommen[br]auch allen Wesen an den Empfangsgeräten. 0:01:06.330,0:01:10.500 Die schlechte Nachricht zuerst. Es gibt[br]keine Neuigkeiten, sondern meine These ist 0:01:10.500,0:01:13.690 eher, dass ich seit 1844 ungefähr nichts[br]geändert hat, außer dass jetzt Computer 0:01:13.690,0:01:20.320 dabei sind. Bevor ich anfange, man kann[br]die Slides, alle meine Quellen und ein 0:01:20.320,0:01:28.850 Transkript des Talks unter dem Link[br]r.ovl.design/rc3-ki sehen oder über diesen 0:01:28.850,0:01:34.080 oben eingeblendeten QR-Code. Ich habe den[br]Link auch um 17:02, was ungefähr jetzt 0:01:34.080,0:01:40.829 sein sollte, getwittert. Danke, Künstliche[br]Intelligenz. Mein Twitter @_ovlb. Fangen 0:01:40.829,0:01:47.520 wir an. Künstliche Intelligenz. Was meine[br]ich eigentlich damit, wenn ich über 0:01:47.520,0:01:53.009 Künstliche Intelligenz spreche? Künstliche[br]Intelligenz an sich ist erst mal eine 0:01:53.009,0:01:59.840 recht grobe, grobe Kategorie. Deswegen[br]vorab auf einer technischen Ebene wird es 0:01:59.840,0:02:04.880 vor allen Dingen um Machine Learning[br]gehen. Ich werde aber trotzdem den Talk 0:02:04.880,0:02:10.979 über von KI sprechen. Ich werde von KI[br]sprechen, weil KI als gesellschaftlicher 0:02:10.979,0:02:15.160 Begriff weiter greifend ist als nur die[br]technische Ebene, sondern eine Formierung 0:02:15.160,0:02:22.050 von Politik, Arbeit, Kultur und Kapital[br]beinhaltet. Im Folgenden gehört es vor 0:02:22.050,0:02:30.489 allem um Politik. Arbeit und Kapital gehen[br]weniger um Kultur. Und das Ganze wird sich 0:02:30.489,0:02:35.110 folgendermaßen gliedern. Ich werde erst[br]über ImageNet reden, eines der vermutlich 0:02:35.110,0:02:39.209 einflussreichsten Datensätze in der[br]Geschichte des Machine Learning, danach 0:02:39.209,0:02:43.280 über Algorithmen und Arbeit und[br]schließlich über einen Teil namens 0:02:43.280,0:02:47.490 künstlichen Ideologie, wo ich ein bisschen[br]über staatliche Herrschaft und wie sich 0:02:47.490,0:02:54.739 Militär und Polizei künstliche Intelligenz[br]zu Nutze machen. Schließlich ein kleiner, 0:02:54.739,0:03:00.142 ein kleiner Ausblick unter dem Titel Was[br]tun? Genau das ist die grobe, grobe 0:03:00.142,0:03:05.270 Gliederung. Es ist also kein technischer[br]Vortrag. Ich werde nicht erklären, wie die 0:03:05.270,0:03:09.659 Machine Learning funktioniert und ich werde noch[br]nicht erklären, was und wie grundlegend 0:03:09.659,0:03:13.489 künstliche Intelligenz ist, oder? Also[br]wenn ihr jetzt einen technischen Vortrag 0:03:13.489,0:03:21.790 erwartet habt. Tut mir leid, gibt es[br]nicht. Okay, los geht's. ImageNet, oder wie 0:03:21.790,0:03:25.220 Machine Learning sich für immer[br]veränderte. Für die Leute von euch, die 0:03:25.220,0:03:29.191 vielleicht nicht einen großen Hintergrund[br]in der Geschichte des der künstlichen 0:03:29.191,0:03:34.129 Intelligenz haben. Eine kurze Erklärung, was[br]mit ImageNet eigentlich 0:03:34.129,0:03:37.020 ist. ImageNet ist, wie oben schon[br]erwähnt, der vermutlich einflussreichste 0:03:37.020,0:03:41.319 Datensatz. Warum, erkläre ich gleich. Und[br]darauf aufbauend wurde vermutlich einer 0:03:41.319,0:03:46.280 der einflussreichsten Algorithmen[br]geschrieben. Die Idee ist so kompliziert 0:03:46.280,0:03:52.140 wie simpel und wurde von Fei-Fei Li im[br]Jahr 2006 formuliert, nämlich den 0:03:52.140,0:03:57.409 Goldstandard für Bilder Datensätze zu[br]sammeln. Die Umsetzung dementsprechend 0:03:57.409,0:04:02.689 auch relativ einfach: Bilder sammeln. Nur[br]ist das natürlich, wenn man von einem 0:04:02.689,0:04:07.620 Goldstandard spricht und von den damit von[br]den Mengen an Bildern, die und die damit 0:04:07.620,0:04:11.780 gemeint sind, leichter gesagt als getan.[br]Fei-Fei Li und ihre Mitfahrenden hatten 0:04:11.780,0:04:15.630 zwei Sachen auf ihrer Seite, nämlich[br]einerseits Bilder suchen, die relativ neu 0:04:15.630,0:04:20.320 waren und andererseits immer[br]leistungsstärkere Computer. Trotzdem 0:04:20.320,0:04:25.729 dauert es drei Jahre, bis genug Bilder[br]zusammengesammelt waren, genug heißt hier 0:04:25.729,0:04:31.580 14 Millionen. Und das, um das ein bisschen[br]in Perspektive zu setzen. Einer der 0:04:31.580,0:04:36.600 Hauptvorläufer von imageNet, Pascal VOC[br]Pascal Virtual Object Classes beinhaltete 0:04:36.600,0:04:44.350 19737 Bilder in 20 Kategorien. Anstatt wie[br]jetzt in der mit 14 Millionen Bildern in 0:04:44.350,0:04:52.280 20000 Kategorien. Nun stellt sich aber[br]eine Frage, wie klassifiziert man denn 0:04:52.280,0:04:55.900 eigentlich 14 Millionen Bilder, nur weil[br]man in einer Bildersuche nach einem Apfel 0:04:55.900,0:04:58.880 gesucht hat, heißt das ja nicht, dass[br]jedes Bild, das bei rausgekommen ist, 0:04:58.880,0:05:02.990 einen Apfel beinhaltet. Traditionell wäre[br]das ein Job für Studienanfängerinnen 0:05:02.990,0:05:07.870 gewesen. Das heißt, man hat den Leuten,[br]die gerade ein Studium angefangen hat, 0:05:07.870,0:05:11.900 gesagt, hier einen Datensatz, bearbeite[br]den bitte. Guck, ob alles korrekt ist. Das 0:05:11.900,0:05:15.420 Problem ist, bei 14 Millionen Bildern hat[br]einer, der Mitforschenden ausgerechnet, 0:05:15.420,0:05:19.250 würde es ungefähr 19 Jahre dauern, bis die[br]Studienanfängerin diese 14 Millionen 0:05:19.250,0:05:23.090 Bilder auch wirklich klassifiziert hätten.[br]Aus der heutigen Perspektive mag man 0:05:23.090,0:05:28.090 vielleicht auch sagen, vielleicht ist es[br]ein Job für einen Algorithmus. Das Problem 0:05:28.090,0:05:32.521 ist nur, die Algorithmen, die wir heute[br]haben, sind schon nicht gut genug, dass 0:05:32.521,0:05:34.371 man einfach sagen kann, hier sind die[br]Bilder, sagt und was ist dann? Das muss 0:05:34.371,0:05:39.240 immer wieder kontrolliert werden. Die[br]Algorithmen, die es damals gab, waren noch 0:05:39.240,0:05:45.890 schlechter, also auch nicht wirklich die[br]Lösung des Problems. Die Lösung des 0:05:45.890,0:05:50.130 Problems kam von einer unverhofften[br]Richtung, von einer micro working, click 0:05:50.130,0:05:55.150 working Plattform namens Amazon Mechanical[br]Turk, die in 2015 eingeführt wurde. 0:05:55.150,0:06:01.039 Mechanical Turk ist benannt nach dieser[br]Konstruktion, wo ein vermeintlicher 0:06:01.039,0:06:05.639 Roboter von einem kleinwüchsigen Menschen[br]in diesem Kasten bedient wurde und dann so 0:06:05.639,0:06:13.290 getan hat, als würde er Schach spielen[br]können. Und Mechanical Turk erlaubte es, 0:06:13.290,0:06:17.620 sogenannte Human intelligente Tasks[br]einzustellen, also kleine Sachen wie zum 0:06:17.620,0:06:21.569 Beispiel, Kucke auf diesem Job, auf diesem[br]Bild ein Apfel ist, die dann von den 0:06:21.569,0:06:26.680 Arbeitenden auf der Plattform[br]vervollständigt werden konnten. Durch 0:06:26.680,0:06:30.970 diese Plattform war es möglich, diese 14[br]Millionen Bilder auf 49 000 Leute 0:06:30.970,0:06:37.100 aufzubrechen aufzuteilen, die in 167[br]Ländern daran gearbeitet haben und so 0:06:37.100,0:06:40.770 vergleichsweise schnell oder relativ[br]schnell, zumindest sehr viel schneller als 0:06:40.770,0:06:45.460 19 Jahre in der Lage waren, die Bilder zu[br]klassifizieren und zu gucken, ob das, was 0:06:45.460,0:06:50.639 angeblich auf den Bildern drauf ist, auch[br]wirklich drauf ist. Wir sehen hier eins 0:06:50.639,0:06:54.670 der Probleme, die uns immer wieder[br]begegnen werden, wenn wir heutzutage auf 0:06:54.670,0:06:58.570 Machine Learning gucken und zwar das[br]menschliche Wahrnehmung auf einen rein 0:06:58.570,0:07:03.840 mechanischen Prozess heruntergebrochen[br]wird. In dem Fall, dass visuelle 0:07:03.840,0:07:08.979 Intelligenzen reine Mustererkennung ist.[br]Das heißt aber auch, dass zum Beispiel 0:07:08.979,0:07:13.690 Erfahrungen von Menschen oder einen[br]Kontext, in welchen die Bilder gesehen 0:07:13.690,0:07:16.860 werden, komplett ausgeblendet wird und[br]dass nur noch über diesen mechanischen 0:07:16.860,0:07:21.590 Prozess geht. Bei einem Apfelkuchen mag[br]das okay sein, aber imageNet hat auch 0:07:21.590,0:07:26.580 Kategorien für Menschen enthalten. Und da[br]wird es schon wesentlich schwieriger zu 0:07:26.580,0:07:33.370 sagen, alles ist eins. Trotzdem Sie haben[br]es gemacht und sie waren damit auch soweit 0:07:33.370,0:07:37.650 zufrieden und hatten dann diese 14[br]Millionen Bilder mehr oder weniger sauber 0:07:37.650,0:07:43.870 klassifiziert rumliegen. Dann kam die[br]nächste Frage. Und jetzt? Was macht man 0:07:43.870,0:07:48.349 jetzt mit diesem Datensatz? Was macht man[br]mit diesen Bildern? Im Rahmen der 0:07:48.349,0:07:54.300 Forschung gab es von 2010 bis 2017 die[br]sogenannte ImageNet Large Scale Visual 0:07:54.300,0:07:58.979 Recognition Challenge. In dieser Challenge[br]hat sich erstmal relativ lange nichts 0:07:58.979,0:08:08.419 getan. Es wurde geforscht, bis schließlich[br]im Jahre 2012 der bereits angesprochene 0:08:08.419,0:08:12.880 einflussreiche Algorithmus vorgestellt[br]wurde. AlexNet. AlexNet ist es 0:08:12.880,0:08:17.020 eine Entwicklung von Alex Krichevsky und[br]seinem Team an der Universität Toronto 0:08:17.020,0:08:23.830 gewesen und führte ein neues Konzept ein,[br]nämlich das der neuronalen Netze, die im 0:08:23.830,0:08:27.389 Folgenden zu einem der tonangebenden[br]Paradigmen in Machine Learning wurden, 0:08:27.389,0:08:32.940 weil es dadurch möglich war, diese[br]Bildmassen und diese an diese Datenmassen 0:08:32.940,0:08:37.940 um wesentlich wesentlich schneller zu[br]bearbeiten bearbeiten, als es vorher 0:08:37.940,0:08:43.050 möglich war. Auch heute ist das quasi[br]immer noch der der Mechanismus, der 0:08:43.050,0:08:48.180 meistens verwendet wird. Okay, das quasi[br]so als kurzer historischer Hintergrund, 0:08:48.180,0:08:52.440 worüber wir meistens reden, wenn wir von[br]Algorithmen reden, nämlich um große 0:08:52.440,0:08:57.170 Datenmengen, die im Sinne von Machine[br]Learning oder Deep Learning, wie man es 0:08:57.170,0:09:05.160 auch nennt, bearbeitet werden. Okay. Wir[br]haben also unfassbare Mengen an Daten. Wir 0:09:05.160,0:09:08.470 haben einen fehlenden Konsens, also[br]niemand der Menschen, die in diesem 0:09:08.470,0:09:11.700 Datensatz aufgetaucht wurden, wurde vorher[br]gefragt, ob das vielleicht auch noch okay 0:09:11.700,0:09:14.360 ist, dass deren Bilder da gespeichert[br]wurden, sondern die Bilder waren einfach 0:09:14.360,0:09:19.120 in diesem Datensatz und sind es auch heute[br]noch größtenteils. Und wir haben ein 0:09:19.120,0:09:22.790 mechanisches Verständnis menschlicher[br]Wahrnehmung. Und schließlich haben wir 0:09:22.790,0:09:28.710 Deep Learning, also als technische Art und[br]Weise, damit umzugehen, dass alles. Diese 0:09:28.710,0:09:37.130 vier Punkte werden wir immer wieder und[br]wieder finden. Damit quasi der ImageNet zu Ende und der 0:09:37.130,0:09:41.820 nächste Teil zu Arbeit und Algorithmen.[br]Noch mal ich auch hier einen Schritt 0:09:41.820,0:09:45.859 zurück und die Frage, worüber rede ich[br]eigentlich, reden wir in diesem Kontext, 0:09:45.859,0:09:51.640 wenn wir von Arbeit reden. Wir reden[br]einerseits von unbezahlter Arbeit. Das 0:09:51.640,0:09:55.690 Beispiel dafür ist zum Beispiel Google[br]Recaptcha, wo wir, um Beweise zu beweisen, 0:09:55.690,0:09:59.560 dass wir Menschen sind, beweisen, dass wir[br]einen Schornstein erkennen können. Wir 0:09:59.560,0:10:06.040 haben als zweites unsichtbare Arbeit. Das[br]bedeutet, wie zum Beispiel die Leute auf 0:10:06.040,0:10:10.360 Amazons Mechanical Turk Platform, diese[br]49000, die tauchen nie als Co-Autorin oder 0:10:10.360,0:10:14.990 so was in den Papieren auf. Aber haben wir[br]doch einen fundamentalen Anteil der Arbeit 0:10:14.990,0:10:19.300 geliefert. Schließlich haben wir durch[br]Algorithmen kontrollierte Arbeit, hier zum 0:10:19.300,0:10:23.310 Beispiel Amazons Lagerhäuser oder[br]Lieferdienste wie Lieferando oder 0:10:23.310,0:10:29.050 Delivery. Über unbezahlte Arbeit möchte[br]ich jetzt nicht richtig sprechen, sondern 0:10:29.050,0:10:33.520 eher, sondern ich habe unsichtbare Arbeit[br]und die modifizierte Arbeit konzentrieren. 0:10:33.520,0:10:40.740 Fangen wir mit unsichtbarer Arbeit an..[br]Wie wir gesehen haben, bei imageNet haben 0:10:40.740,0:10:46.440 wir diese Erzählung von KI tut dieses oder[br]tut jenes. Wenn die KI erkennt, dass etwas 0:10:46.440,0:10:51.430 in den Bildern ist oder die KI hat in GO[br]gewonnen, die KI schreibt mit Gptt drei 0:10:51.430,0:10:56.040 unfassbar schöne Texte oder dumme Texte[br]von Teil zu Teil, KI betreibt Protein 0:10:56.040,0:11:02.890 foldern. Das Problem ist nur, die KI tut[br]das nicht. Die KI ist für die für die 0:11:02.890,0:11:07.530 Forscherin, die das eigentlich tun, ein[br]Werkzeug, das benutzt wird. Und es ist 0:11:07.530,0:11:11.250 nicht die KI, die plötzlich vom Himmel[br]kommt und sagt, Ja, herzlichen 0:11:11.250,0:11:18.110 Glückwunsch, GO, kann ich, sondern eher im[br]Gegenteil. Wie der Economist gezeigt hat, 0:11:18.110,0:11:24.250 zeigt es braucht es heutzutage ungefähr 80[br]prozent der Entwicklungszeit eines Machine 0:11:24.250,0:11:30.030 Learning Projektes sind menschliche[br]Arbeit. Nur da hinten beim Modeltraining, 0:11:30.030,0:11:33.779 dann kommt der Computer tatsächlich ins[br]Spiel. Aber der allergrößte Teil ist 0:11:33.779,0:11:39.110 menschliche Arbeit, die aber sowohl in der[br]öffentlichen Erzählung und in dieser der 0:11:39.110,0:11:45.839 Wahrnehmung unsichtbar gemacht wird. Und[br]es braucht halt genau diese menschliche 0:11:45.839,0:11:48.339 Arbeit, damit ein Algorithmus gut[br]funktioniert und ein Machine Learning 0:11:48.339,0:11:53.519 System, braucht es große Mengen an Daten.[br]Die müssen natürlich sauber sein, weil 0:11:53.519,0:11:56.730 wenn die Daten, aus denen der Algorithmus[br]lernt, nicht sauber sind, dann ist das, 0:11:56.730,0:12:01.610 was hinten rauskommt auch Mist. Und[br]deswegen muss das bis heute von von 0:12:01.610,0:12:07.620 Menschen unternommen werden. Wir sind also[br]wieder da, wo wir bei Mechanical Turk so 0:12:07.620,0:12:11.870 ein bisschen waren, bei einer Maschine,[br]die so tut, als wäre sie keine Maschine. 0:12:11.870,0:12:16.100 Eine andere Metapher vielleicht die, die[br]man benutzen kann, sind potemkinsche 0:12:16.100,0:12:20.200 Dörfer, wo vorne alles schön fein gemacht[br]wird. Und die Fassaden sehen aus, als 0:12:20.200,0:12:23.420 hätte man die schönsten, schönsten Häuser[br]der Welt. Aber hinten, wo es niemand 0:12:23.420,0:12:28.920 sieht, verfällt es einfach. Kate Crawford[br]nennt es, nennt diese Form der KI in 0:12:28.920,0:12:33.561 Anlehnung dessen auch potemkinsche KI,[br]also wenig mehr als Fassaden, die so 0:12:33.561,0:12:40.040 demonstrieren, wie ein autonomes System[br]aussehen würde, wenn es autonom wäre. Wir 0:12:40.040,0:12:46.870 es hier zu tun mit einem schönen Schein[br]des Automatismus. Diese Arbeit kann aber 0:12:46.870,0:12:53.660 auch anders aussehen. Das ist ein Foto von[br]der New York Daily News und diese 0:12:53.660,0:12:57.540 Schlange, die ich wir sehen, sind[br]Obdachlose, meistens schwarze Obdachlose, 0:12:57.540,0:13:02.790 die von einer Subfirma oder von einer[br]Firma oder die von Google da beauftragt 0:13:02.790,0:13:08.980 wurden. Eine Firma hat Google beauftragt[br]Daten zu sammeln, und zwar bestimmte 0:13:08.980,0:13:13.411 Daten, Daten der Gesichter von schwarzen[br]Menschen. Diese Leute haben dafür ein 0:13:13.411,0:13:18.089 Geschenkgutschein im Wert von 5 Dollar[br]gekriegt, dafür, dass ihr 3D-Modell auf 0:13:18.089,0:13:23.300 die Server von Google hochgeladen wurde.[br]Ziemlich niedriger Preis. Warum macht 0:13:23.300,0:13:28.120 Google das? Weil Google immer wieder in[br]Kritik kommt, dass ihre eigenen 0:13:28.120,0:13:32.190 Algorithmen schwarze Menschen nicht[br]erkennen oder wenn sie Schwarze 0:13:32.190,0:13:37.280 Menschen erkennen, so wie hier am Beispiel[br]von Algorithmen Watch aus 2020, ein 0:13:37.280,0:13:40.470 Thermometer in der Hand eines schwarzen[br]Menschen plötzlich für eine Waffe halten. 0:13:40.470,0:13:44.510 Wenn man aber mit mittleren Photoshop[br]Skills die Hand weiß macht, ist es 0:13:44.510,0:13:49.220 plötzlich keine Waffe mehr. Sowohl bei dem[br]Beispiel als auch Atlanta als auch bei dem 0:13:49.220,0:13:55.510 Beispiel mit der mit dem Thermometer, tat[br]es Google danach tierisch leid. Tut es 0:13:55.510,0:14:01.870 immer tierisch leid, wenn Google erwischt[br]wird, wenn es Google scheiße baut. Es ist 0:14:01.870,0:14:04.980 aber diese Geistesarbeit finden wir nicht[br]nur im Training von Machine Learning 0:14:04.980,0:14:08.870 Algorithmen, wir haben es bei der[br]Verifizierung von Bankaccount, wenn man 0:14:08.870,0:14:12.450 seine Daten hochlädt und dann plötzlich[br]kommt wie von Geisterhand eine 0:14:12.450,0:14:16.269 Verifizierung oder nicht zurück. Wir haben[br]es bei der Moderation von Inhalten, bei 0:14:16.269,0:14:22.470 Facebook, Twitter oder anderen sozialen[br]Netzwerken. Das alles führt dazu, dass 0:14:22.470,0:14:26.589 diese Erzählung davon, dass uns die[br]Roboter die Arbeit wegnehmen, vielleicht 0:14:26.589,0:14:30.620 nicht stimmt. Vielleicht sollten wir uns[br]nicht davor fürchten, dass uns die 0:14:30.620,0:14:35.329 Technologie ersetzt, sondern eher, dass[br]Menschen entwertet werden, dass Menschen 0:14:35.329,0:14:38.699 Arbeit machen müssen, die immer weniger[br]wert wird und immer weniger wertgeschätzt 0:14:38.699,0:14:42.850 wird. Ich würde deswegen sagen, dass wir[br]es hier mit einer Form von 0:14:42.850,0:14:49.779 Frühkapitalismus im digitalen Gewand zu[br]tun haben. Anderes Beispiel: Am 25. März 0:14:49.779,0:14:55.579 1911 brannte in New York die Triangel[br]Shirtbased Factory. Bei dem Feuer starben 0:14:55.579,0:14:59.570 146 Menschen. Teilweise verbrannten,[br]teilweise, weil sie aus dem Fenster 0:14:59.570,0:15:03.101 springen mussten, weil die[br]Fabrikeigentümer beschlossen hatten, dass 0:15:03.101,0:15:07.460 während der Arbeitszeit die Ausgänge der[br]Fabrik abgeschlossen zu sein haben. Das 0:15:07.460,0:15:15.370 Gebäude wurde so zur Todesfalle. Am 10.[br]12. 2021 traf ein Hurrikan ein Amazon 0:15:15.370,0:15:20.320 Lagerhaus und sechs Menschen starben[br]während Jeff Bezos damit zu zufrieden war, 0:15:20.320,0:15:26.149 dass er bald in den Weltraum fliegen kann.[br]More perfekt Union ist eine Organisation 0:15:26.149,0:15:30.790 aus den USA, veröffentlichte diesen[br]Screenshot einer der Angestellten vor Ort. 0:15:30.790,0:15:36.769 Er schrieb: "I will be at home after the[br]Storm" und seine Freundin schrieb "what do 0:15:36.769,0:15:41.730 you mean?". Und er schrieb zurück "Amazon[br]won't let us leaf". Das ist das letzte, 0:15:41.730,0:15:46.490 was er seinen Geliebten geschrieben hat.[br]Kurz danach traf der Hurrikan das 0:15:46.490,0:15:53.290 Lagerhaus und er starb zusammen mit fünf[br]anderen. Das ist kein Einzelfall, wenn man 0:15:53.290,0:16:00.170 sich die Anzahl schwerer Verletzung in der[br]Lagerindustrie in den USA anguckt, hat 0:16:00.170,0:16:04.790 Revier herausgefunden, dass die Anzahl bei[br]Amazon ungefähr doppelt so hoch ist wie im 0:16:04.790,0:16:10.460 Industriedurchschnitt. Wir haben es hier[br]mit einem Phänomen namens kybernetische 0:16:10.460,0:16:18.290 Verdichtung zu tun. Das haben. *trinkt[br]einen schluck Wasser". Das heißt, dass die 0:16:18.290,0:16:21.919 Arbeitskraft und die Arbeitszeit immer[br]weiter verdichtet wird, dass immer weniger 0:16:21.919,0:16:26.089 Zeit bleibt, die gleichen Sachen zu machen[br]und dass man zum Beispiel das Sortieren 0:16:26.089,0:16:29.639 von Paketen in Amazon Lagerhäusern immer[br]schneller und schneller machen muss. Das 0:16:29.639,0:16:33.790 führt dazu, dass mittlerweile ein[br]Unterschied von einer Sekunde oder zwei 0:16:33.790,0:16:37.459 Sekunden in der durchschnittlichen Zeit[br]dieser Aufgaben zu machen, der Unterschied 0:16:37.459,0:16:40.500 sind, ob man gelobt wird oder ob man[br]gewarnt wird, dass man zu schlecht 0:16:40.500,0:16:47.170 arbeitet. Und das führt natürlich dazu,[br]dass man anfängt, unsicher zu arbeiten, 0:16:47.170,0:16:52.380 dass man nicht auf sich achten kann, weil[br]die Zeit nicht mehr dafür da ist. You have 0:16:52.380,0:16:59.230 to do unsafe things to make you numbers.[br]Man kann nicht mehr auf sich achten. Und 0:16:59.230,0:17:04.100 diese Verdichtung nimmt immer, nimmt immer[br]weiter zu, diese Algorithmifizierung. 0:17:04.100,0:17:09.740 Dabei ist das an sich erst mal kein neues[br]Phänomen. Die Versuche, Arbeitskraft zu 0:17:09.740,0:17:14.870 automatisieren oder durch Automatisierung[br]zu optimieren, sind so alt wie der 0:17:14.870,0:17:23.390 Kapitalismus selber. In 1844 hat Friedrich[br]Engels Andrew Ure zitiert, der schrieb: 0:17:23.390,0:17:27.330 "In wenigen Monaten schon war eine[br]Maschine fertig, die dem Anschein nach mit 0:17:27.330,0:17:34.050 dem Denkvermögen Gefühl und Takt des[br]erfahrenen Arbeiter begabt war." Von Das 0:17:34.050,0:17:40.911 Zitat könnte eigentlich auch heute in der[br]in der verklärten Sicht auf auf 0:17:40.911,0:17:46.750 Automatisierung und Roboter kommen. Aber[br]kommt aus dem 19. Jahrhundert, aus der 0:17:46.750,0:17:51.299 Zeit des Frühkapitalismus. Was aber auch[br]aus der Zeit des Frühkapitalismus und der 0:17:51.299,0:17:54.120 Zeit danach kommt, ist, dass die[br]ArbeiterInnenbewegung sich Sozialstandards 0:17:54.120,0:17:58.000 erkämpft hat. Feste Arbeitsverhältnisse,[br]ein Recht auf Urlaub, Beschränkung der 0:17:58.000,0:18:01.270 Arbeitszeiten, ein Recht auf[br]gewerkschaftliche Organisierung und so 0:18:01.270,0:18:05.570 weiter und so fort. Also alles das, was[br]wir zum Beispiel bei Amazon oder auch in 0:18:05.570,0:18:09.120 anderen Firmen im Amazon. Nur als[br]prominentes Beispiel ist es nicht so, dass 0:18:09.120,0:18:15.059 Amazon der einzig Schuldige wäre. Sehen,[br]was wieder angegriffen wird, was Union 0:18:15.059,0:18:17.950 basstian betrieben wird[br]und so weiter und so fort. Das wurde alles 0:18:17.950,0:18:21.419 schon mal erkämpft und muss jetzt wieder[br]erkämpft werden bzw. muss immer wieder 0:18:21.419,0:18:25.420 erkämpft werden. So haben wir das[br]Phänomen, dass das, was heutzutage als 0:18:25.420,0:18:29.221 radikal neue Form der Arbeit daherkommt,[br]im Licht der historischen Entwicklung 0:18:29.221,0:18:34.030 oftmals nicht mehr, da fehlt ein nicht,[br]nicht mehr ist als eine Wiederkehr 0:18:34.030,0:18:39.809 früherer Arbeitsverhältnisse. Es ist gar[br]nicht so neu, was wir sehen, es ist nur. 0:18:39.809,0:18:45.350 Es hat sich nur in eine moderne Form[br]geändert. Man könnte sagen und ewig grüßt 0:18:45.350,0:18:52.260 das Kapitalverhältnistier. Und deswegen[br]erlaube man mir die Pathetik Friedrich 0:18:52.260,0:18:57.440 Engels selber zu zitieren, der schrieb die[br]Lage der arbeitenden Klasse in England. 0:18:57.440,0:19:01.480 "Die Arbeiter müssen sich also beschrieben[br]bestreben, aus dieser vertiefenden Lage 0:19:01.480,0:19:04.750 herauszukommen, und dies können sie nicht[br]tun, ohne dass gegen das Interesse der 0:19:04.750,0:19:13.500 Bourgeoisie als solcher anzukämpfen." Das[br]ist ein anderer Punkt in dieser Arbeit ist 0:19:13.500,0:19:19.169 die sogenannte algorithmische und[br]Undurchsichtigkeit. Algorithmische 0:19:19.169,0:19:21.690 Undurchsichtigkeit bedeutet entweder, dass[br]ein Algorithmus so kompliziert geworden 0:19:21.690,0:19:25.020 ist, dass man ihn technisch nicht mehr[br]verstehen kann, was vorkommt, oder aber, 0:19:25.020,0:19:28.570 dass man nicht mehr den Einblick in den[br]Algorithmus hat, dass man also die Frage, 0:19:28.570,0:19:33.789 welchen Einfluss haben Algorithmen auf[br]meine Arbeit? Nicht beantworten kann. Das 0:19:33.789,0:19:36.740 ist im Lagerhaus vielleicht noch relativ[br]offensichtlich. Wenn die Picking Raid 0:19:36.740,0:19:40.610 immer schneller, schneller wird, dann kann[br]man das auf den Algorithmus hin 0:19:40.610,0:19:45.590 hinausführen. Aber wenn ich zum Beispiel[br]bei Deliveroo arbeite oder bei Lieferant 0:19:45.590,0:19:50.210 oder Foodora oder wie die ganzen Buden[br]heißen, da ist das nicht unbedingt so 0:19:50.210,0:19:54.220 offensichtlich, weil die Algorithmen[br]natürlich geheim sind und sich von Firma 0:19:54.220,0:19:58.780 zu Firma unterscheiden. Deliveroo wurde in[br]Italien verklagt, weil der Algorithmus 0:19:58.780,0:20:01.410 diskriminiert hat. Wenn man zum Beispiel[br]krank gewesen ist oder sich an 0:20:01.410,0:20:08.160 Arbeitsorganisation beteiligt hat, dann[br]hat der Algorithmus einen so bestraft, wie 0:20:08.160,0:20:12.350 als wenn man einfach nicht gearbeitet[br]hätte. Das führt natürlich dazu, dass 0:20:12.350,0:20:16.570 Gerüchte entstehen und dass diese[br]Unklarheit zu Wissenshierarchien führt, 0:20:16.570,0:20:20.360 dass man nicht mehr verstehen kann, was[br]eigentlich passiert. Wir haben es mit 0:20:20.360,0:20:24.400 einem Phänomen zu tun, wo die Daten, die[br]angesammelt werden, nur noch in eine 0:20:24.400,0:20:28.970 Richtung fließen. Sie werden von den von[br]den Arbeiterinnen extrahiert und fließen 0:20:28.970,0:20:33.919 in den Wissensschatz der der Plattform, wo[br]sie angehäuft werden, ausgewertet werden 0:20:33.919,0:20:38.470 und so weiter. Das führt zu der Frage, wie[br]soll man denn eigentlich verstehen, was 0:20:38.470,0:20:42.260 nicht fassbar ist. Wenn ich nicht weiß,[br]was der Prozess ist, wie soll ich ihn 0:20:42.260,0:20:46.680 verstehen und wie sollen wir ihn überhaupt[br]fassen, was sich, was ich verändert? 0:20:46.680,0:20:49.640 Natürlich werden diese Algorithmen[br]weiterentwickelt und weiterentwickelt. 0:20:49.640,0:20:54.650 Wenn ein Manager von der Lieferkette sagt[br]unsere Algorithmen sind unfassbar dumm, 0:20:54.650,0:20:59.030 was tatsächlich passiert ist. Sie können[br]gar nicht so diskriminierend sein, wie ihr 0:20:59.030,0:21:02.809 euch das vorstellt, dann ist das ja keine[br]Garantie. Erstens, dass er nicht lügt, was 0:21:02.809,0:21:07.230 man im Manager vielleicht zutrauen sollte[br]und zweitens auch nicht, dass der 0:21:07.230,0:21:13.040 Algorithmus das vielleicht in zwei Monaten[br]vielleicht nicht mehr so dumm ist. Und 0:21:13.040,0:21:17.340 diese Hierarchien können nur aufgelöst[br]werden, wenn die Algorithmen offengelegt 0:21:17.340,0:21:25.120 werden, wenn es eine Möglichkeit gibt, zu[br]verstehen, was eigentlich gerade passiert. 0:21:25.120,0:21:27.640 Wir haben es hier also mit einer[br]Verdichtung der Arbeit zu tun, die auch 0:21:27.640,0:21:32.400 eine Verdichtung der Zeit ist. Unternehmen[br]versuchen alle Sekunden, die hinter den 0:21:32.400,0:21:38.001 Fabriktor stecken oder im Fall von Geeck[br]Work vielleicht auch in den Straßen, in 0:21:38.001,0:21:45.789 Arbeitszeit und in kontrollierte Zeit zu[br]verändern. Vielleicht hilft dagegen 0:21:45.789,0:21:49.850 Faulenzen, um die Überwachung zu[br]verändern. Vielleicht aber auch nicht. Die 0:21:49.850,0:21:53.760 Verlangsamung des Arbeit ist der Arbeit[br]ist ein Mittel des Arbeitskampfes. Der 0:21:53.760,0:21:59.760 sogenannte Bummelstreik ist gut erprobt.[br]Vielleicht kann man den noch gegen 0:21:59.760,0:22:04.940 Algorithmen einsetzen. Das wäre eine[br]These, die es auszuprobieren gilt. Und 0:22:04.940,0:22:08.880 dieses Bewusstsein von der Zeit ist nicht[br]unbedingt neu. Walter Benjamin schreibt in 0:22:08.880,0:22:14.429 seinen Geschichtsphilosophischen Thesen[br]über die Uni Revolution 1830. Das ist in 0:22:14.429,0:22:18.660 ganz Paris, also die Uni Revolution 1830, in[br]Paris, das in ganz Paris unabhängig 0:22:18.660,0:22:22.810 voneinander auf die Turnuhren geschossen[br]wurde, weil die Protestierenden verstanden 0:22:22.810,0:22:27.590 haben, dass diese Turnuhren als Symbol der[br]Zeit und als Symbol des Drucks durch die 0:22:27.590,0:22:35.650 Zeit stehen. Dieser Widerstand oder jeder[br]Widerstand an sich braucht Organisierung, 0:22:35.650,0:22:39.240 wir können nicht einfach, es gibt keine[br]Möglichkeit da als Einzelperson was gegen 0:22:39.240,0:22:43.580 zu machen, sondern man muss sich, man muss[br]sich mit seinen Arbeiterinnen und 0:22:43.580,0:22:47.270 Kolleginnen zusammen organisieren. Und[br]natürlich tun die Firmen alles, dass das 0:22:47.270,0:22:51.330 zu verhindern. Aber sie müssen dabei nicht[br]erfolgreich sein. Das zeigt allein schon 0:22:51.330,0:22:59.050 die Geschichte. Okay, das wäre der Teil[br]zur Arbeit. Gucken wir jetzt uns mal an, 0:22:59.050,0:23:04.900 was der Staat mit der ganzen Geschichte zu[br]tun hat. Ich rede hier ein bisschen über 0:23:04.900,0:23:08.840 über Daten und öffentliche Daten, dann[br]über ökonomische Abhängigkeiten in der 0:23:08.840,0:23:12.090 Forschung, über Polizei und Militär. Ein[br]kleines bisschen über Privatsphäre. Und 0:23:12.090,0:23:16.850 dann zum Schluss. Das ist ein schönes[br]Paket. Also öffentliche Daten und privates 0:23:16.850,0:23:20.870 Geld. Ich würde sagen, dass wir es hier[br]mit einer neuen Form der ursprünglichen 0:23:20.870,0:23:25.490 Akkumulation zu tun haben. Also private[br]Unternehmen versuchen möglichst viel 0:23:25.490,0:23:32.190 verwertbare Stoffe in ihre eigenen[br]Privatbesitz zu gelangen, um daraus Profit 0:23:32.190,0:23:38.600 zu schlagen. Der Rohstoff in diesem Fall[br]sind unsere Geschichten, unser Leben. Die 0:23:38.600,0:23:43.010 Märkte sind, wie wir sehen werden,[br]Kontrolle oder wie wir auch im 0:23:43.010,0:23:47.180 Arbeitskapitel schon gesehen haben und[br]Hokuspokus, wo gesagt wird, künstliche 0:23:47.180,0:23:50.679 Intelligenz wäre in der Lage, dies und[br]jenes zu tun, auch wenn es das auf keinen 0:23:50.679,0:23:55.840 Fall ist. Aber wir brauchen eure Daten.[br]Und ich würde deswegen sagen, dass die 0:23:55.840,0:23:58.950 Innovationen, die uns da verkauft werden,[br]keine ist, sondern einfach alt und 0:23:58.950,0:24:04.170 gebrechlich und stinkt. Was wir aber[br]trotzdem immer mehr sehen, ist eine 0:24:04.170,0:24:08.050 Konzentration unserer Daten in den[br]Rechenzentrum einiger weniger privater 0:24:08.050,0:24:12.600 Unternehmen. Und je mehr konzentriert[br]wird, umso mehr sind wir als Gesellschaft 0:24:12.600,0:24:16.510 darauf angewiesen, dass diese privaten[br]Unternehmen gut zu uns sind. Als Beispiel 0:24:16.510,0:24:20.880 zum Beispiel der Übersetzungsassistent von[br]Google, Google Translate, der zwar für 0:24:20.880,0:24:25.669 alle frei nutzbar ist, wir bezahlen nicht[br]dafür. Und trotzdem sammelt Google all 0:24:25.669,0:24:30.669 unsere Daten. Und je mehr wir diese[br]Nutzung in öffentliche Prozesse einbauen 0:24:30.669,0:24:34.419 oder auch in unser Leben einbauen, umso[br]mehr werden wir von Google abhängig und 0:24:34.419,0:24:37.380 umso mehr werden dafür werden wir davon[br]abhängig, dass Google nicht vielleicht 0:24:37.380,0:24:42.190 irgendwann sagt: Na gut, kein Bock mehr[br]auf umsonst, ab jetzt wird bezahlt. Diese 0:24:42.190,0:24:46.299 Abhängigkeit führt zu einer Frage, die wir[br]so in der Bankenkrise vielleicht schon 0:24:46.299,0:24:53.830 gesehen haben, als Finanzinstitute als too[br]big to fail bezeichnet wurden und immense 0:24:53.830,0:24:58.720 Summen Geld dafür ausgegeben werden werden[br]musste, diese diese Institute zu retten. 0:24:58.720,0:25:03.500 Die Tech-Unternehmen befinden sich immer[br]mehr auf dem Weg, so integrale 0:25:03.500,0:25:08.390 Bestandteile unserer Gesellschaften zu[br]werden, dass auch sie diesen too big to 0:25:08.390,0:25:12.620 fail Moment vermutlich erreichen, wenn[br]nicht schon erreicht haben. Aber es ist 0:25:12.620,0:25:16.190 nicht nur die Öffentlichkeit, die davon[br]abhängig ist, ist es auch zunehmend die 0:25:16.190,0:25:21.600 Forschung, die über künstliche Intelligenz[br]oder über tech generell, die mehr und mehr 0:25:21.600,0:25:27.030 davon abhängig ist, dass sie sich mit den[br]mit den Unternehmen gut stellt. Es sind 0:25:27.030,0:25:31.840 ein paar wenige Unternehmen, die nicht nur[br]die Entwicklungsumgebung stellen, die 0:25:31.840,0:25:39.440 Sprachen und aber auch die Software. Das[br]heißt, die um sie schaffen quasi die das 0:25:39.440,0:25:44.610 Wasser, wie Meredith Whitaker sagte, in[br]dem die Forschung zu künstlicher 0:25:44.610,0:25:49.740 Intelligenz schwimmt. Ein Beispiel hierfür[br]ist Timnit Gebru vermutlich das 0:25:49.740,0:25:54.650 prominenteste der letzten Monate und im[br]Februar ist eine der führenden 0:25:54.650,0:26:03.820 Forscherinnen im Bereich der der ethischen[br]KI und war lange Zeit Qlead bei Google. Im 0:26:03.820,0:26:08.580 Dezember letzten Jahres wurde sie[br]plötzlich gefeuert, angeblich weil sie 0:26:08.580,0:26:13.390 eine Mail an eine Mailingliste geschickt[br]hatte, die einem Manager nicht würdig war. 0:26:13.390,0:26:22.860 Die wahrscheinlichere These ist, dreht[br]sich um ein Paar. Ein Paper, in dem es um 0:26:22.860,0:26:28.720 sogenannte stochastische Papageien ging,[br]um stockastic parrats und um die Gefahren, 0:26:28.720,0:26:33.840 die Large Language Models, sehr große[br]Sprach Modelle, wie zum Beispiel das 0:26:33.840,0:26:42.830 bereits erwähnte Gpd3 führen würden, Gibru [br]und ihre Koathorinen haben in dem Paper 0:26:42.830,0:26:49.919 argumentiert, dass diese Language Modells[br]eine große Reichweite, große Vielfalt 0:26:49.919,0:26:53.900 an Kosten, aber auch Gefahren bilden, also[br]zum Beispiel Kosten werden Umweltkosten. 0:26:53.900,0:26:58.640 Es braucht sehr viel Rechenkapazitäten mit[br]diesen Models zu arbeiten. Harms Während 0:26:58.640,0:27:04.021 z.B. Rachel Harms diese sprach,[br]dass die Modelle es schaffen, künftig sehr 0:27:04.021,0:27:07.929 eloquent über Rassismus zu reden, gebe die[br]drei z.B. auch kurz nach seinem 0:27:07.929,0:27:11.740 Release schon angefangen, antisemitischen[br]und rassistischen Müll zu erzählen, auch 0:27:11.740,0:27:16.350 wenn das überhaupt gar nichts mit der[br]Fragestellung zu tun hat. Und wieder tat 0:27:16.350,0:27:23.679 es Google leid. Es tat Google sogar so[br]leid, dass sie im Februar 2021 MMitchel 0:27:23.679,0:27:32.220 gefeiert haben, Lied eines anderen iTeams[br]bei Alphabet Googles Mutterfirma. Und 0:27:32.220,0:27:37.210 Google sendet damit eine ganz eindeutige[br]Nachricht. Wenn wir die führenden Köpfe 0:27:37.210,0:27:41.559 dem Bereich ethical eye feuern können und[br]es uns zwar leid tut, aber wir es trotzdem 0:27:41.559,0:27:48.020 machen, dann seid ihr besser ganz ruhig[br]und benehmt euch oder ihr seid einfach 0:27:48.020,0:27:55.620 raus. Um diese Form der Abhängigkeit ist[br]ein bisschen simultan zu dem, was wir im 0:27:55.620,0:28:00.250 Kalten Krieg gesehen haben, als das US-[br]Militär immer mehr Geld in die Forschung 0:28:00.250,0:28:05.350 gesteckt hat. Technologie und Militär oder[br]wie ich sagen würde ziemlich beste 0:28:05.350,0:28:12.529 Freundinnen. Sie können bis zum Anfang des[br]Internet, als es noch ARPANET zurückdenkt, 0:28:12.529,0:28:18.340 hieß, zurückdenken und sehen, dass das[br]ARPANET eine Erfindung des Militärs war, 0:28:18.340,0:28:25.470 seine Ausgründung des Arpa, Advanced [br]Research Proposal und a und dass 0:28:25.470,0:28:31.700 Départements of Defence. Und von da an[br]gingen die Investitionen in Forschung und 0:28:31.700,0:28:35.740 Technologie immer weiter und weiter und[br]weiter Geschäfte mit dem Militär 0:28:35.740,0:28:40.450 heutzutage sind Teil des Kerngeschäfts von[br]Google, Facebook, Amazon und so weiter und 0:28:40.450,0:28:47.429 so fort. In Amerika ist eines der größten[br]Projekte, Project Maven. Als offizielles 0:28:47.429,0:28:53.990 erstes Logo hatten sie diese Roboter auf[br]Ecstasy, die dem eigentlichen Inhalt des 0:28:53.990,0:28:57.840 Ganzen, nämlich algorithmisch warfare[br]Cross Functional Team, nun wirklich nicht 0:28:57.840,0:29:04.699 gerecht werden. Am Projekt Melvin war ein[br]Projekt von beinahe allen US 0:29:04.699,0:29:13.100 amerikanischen Verteidigungsinstitution,[br]künstlich intelligente Spionage gang und 0:29:13.100,0:29:17.990 gäbe zu machen und nichts mehr auf der[br]Welt zu verpassen. In diesem Projekt 0:29:17.990,0:29:24.480 wurden auch technologische[br]Errungenschaften von YouTube verwendet, wo 0:29:24.480,0:29:29.110 eigentlich im Zivilen entwickelte[br]Techniken dem Militär nutzbar gemacht 0:29:29.110,0:29:33.390 wurden. Ein Beispiel wäre YouTubes[br]Empfehlungslgorithmus, der auch sogenannte 0:29:33.390,0:29:38.570 Cluster Analysis beruht und diese Cluster[br]Analysis, kann man einerseits benutzen, um 0:29:38.570,0:29:41.270 die Videos anzuzeigen, die dich[br]wahrscheinlich interessieren. Man kann sie 0:29:41.270,0:29:47.430 aber auch benutzen, um vermutete[br]Straftäterinnen zum Beispiel im Irak oder 0:29:47.430,0:29:54.590 so zu entdecken. Für Google ging das nicht[br]so gut aus. Bis zu 3000 MitarbeiterInnen haben 0:29:54.590,0:29:59.071 sich, haben protestiert und Google hat[br]sich aus Project Maven zurückgezogen und 0:29:59.071,0:30:04.049 hat gesagt, wir machen keine autonomen[br]Waffen mehr. Es tat Google natürlich leid. 0:30:04.049,0:30:06.510 Google hat aber auch gleichzeitig gesagt,[br]das Geschäft mit den Militärs und so 0:30:06.510,0:30:10.799 wichtig. Wir machen keine Waffen, aber[br]alles andere machen wir schon. Ein 0:30:10.799,0:30:15.490 jüngeres Beispiel aus Europa ist die 100[br]Millionen Dollar Investition von Daniel 0:30:15.490,0:30:21.400 Eck, dem CEO von Spotify, der mit seinem[br]Hedgefonds bei Helsingör eingestiegen ist, 0:30:21.400,0:30:25.210 einer deutschen Firma, die sagt, mit[br]ethischen, autonomen Waffensystemen die 0:30:25.210,0:30:30.440 freiheitlich demokratische Grundordnung[br]verteidigen zu wollen. Wo Amerika Roboter 0:30:30.440,0:30:34.529 auf Ecstasy hat, hat Deutschland das[br]Projekt das Kommando Cyber und 0:30:34.529,0:30:39.781 Informationsraum. Das ist ein Symbolbild[br]aus der Weihnachtszeit, das sich darum 0:30:39.781,0:30:45.090 kümmert, die Truppe zu digitalisieren und[br]voranzubringen. Momentan ist man in der 0:30:45.090,0:30:49.760 Phase des 2.0, was nur 20 Jahre nach dem[br]Web 2.0 für deutsche Verhältnisse ein 0:30:49.760,0:30:56.860 ziemlich ordentliches Tempo ist. Aber die[br]Sache ist ernster als blöde Witze. Mit der 0:30:56.860,0:31:01.460 neuen Koalition steht die Anschaffung[br]bewaffneter Drohnen im Koalitionsvertrag. 0:31:01.460,0:31:06.980 Man sagt zwar, man will sie nur bewaffnen,[br]man will sie nicht autonom machen. Aber 0:31:06.980,0:31:11.200 diese Autonomisierung ist im Endeffekt nur[br]noch ein Software-Update entfernt. Und 0:31:11.200,0:31:15.130 dann sollen sie natürlich nur ethisch[br]töten, weil na klar, wir sind hier in 0:31:15.130,0:31:22.000 Deutschland. Das Problem ist aber alleine[br]schon der Einsatz von normalen, von 0:31:22.000,0:31:26.890 normalen Drohnen mit Waffensystemen fügte,[br]führt dazu, dass die Schwelle zum Einsatz 0:31:26.890,0:31:32.731 militärischer Gewalt sinkt und Krieg[br]entgrenzt wird. Inwieweit entgrenzt wird 0:31:32.731,0:31:38.970 und wie wenig wie schlimm das für die[br]Zivilbevölkerung ausgehen kann, hat die 0:31:38.970,0:31:42.100 New York Times jüngst in einer sehr[br]ausführlichen Reportage belegt, in denen 0:31:42.100,0:31:48.951 sie Pentagon Papiere analysiert haben und[br]so zum Beispiel zivile Opfer der 0:31:48.951,0:31:56.710 Luftangriffe der USA veröffentlicht haben.[br]Aber auch hier haben wir es wieder mit 0:31:56.710,0:32:02.559 Problemen von Algorithmen oder Dummheit zu[br]tun. Das Pentagon hat jüngst über einen 0:32:02.559,0:32:09.320 Algorithmus berichtet, der zu 25 prozent[br]die richtigen Ziele ausgewählt hat. Von 0:32:09.320,0:32:13.650 sich selber aber dachte, es wären 90[br]prozent, der also ziemlich schlecht war, 0:32:13.650,0:32:17.740 aber gleichzeitig gedacht hatte Ich bin[br]richtig gut. Und das ist natürlich ein 0:32:17.740,0:32:23.070 Problem. Es ist auch ein Problem, weil die[br]Algorithmen mit der Zeit besser werden und 0:32:23.070,0:32:30.519 wir dann diese die vielleicht erste[br]offensichtliche Linse Ja, okay. Die 0:32:30.519,0:32:33.010 Algorithmen sind so schlecht und das ist[br]das Problem. Nein, das Problem ist 0:32:33.010,0:32:37.949 eigentlich staatliches Töten und wir[br]müssen uns bewusst sein, dass wir dahin 0:32:37.949,0:32:44.110 müssen, das zu formulieren. Sondern es[br]sagte Herrschaft durch Gewalt ist sowohl 0:32:44.110,0:32:47.809 in autonome Waffentechnologie als auch in[br]den Rahmen des Denkens und der Politik 0:32:47.809,0:32:52.909 eingemeißelt, welcher zu ihrer Entwicklung[br]und ihrem potenziellen Einsatz führt. Es 0:32:52.909,0:32:57.940 geht darum, diese Herrschaft durch Gewalt[br]zu kritisieren und nicht nur das Mittel, 0:32:57.940,0:33:04.010 mit dem sie durchgesetzt wird. Was im[br]Krieg nach außen durch autonome 0:33:04.010,0:33:10.380 Waffensysteme funktioniert, funktioniert[br]im Inneren zum Beispiel durch Gewalt, 0:33:10.380,0:33:13.870 durch Überwachungskameras, die[br]biometrische Daten sammeln. Die deutsche 0:33:13.870,0:33:26.039 Polizei macht da fleißig mit. Es gibt eine[br]gute Chance, dass wenn du Anfang Juli 2017 0:33:26.039,0:33:29.529 in Hamburg fast dein Gesicht für lange[br]Zeit in einer Datenbank der Polizei in 0:33:29.529,0:33:36.210 Hamburg gespeichert war Anfang Juli 2017[br]war die G20 Proteste und den nächsten Teil 0:33:36.210,0:33:43.020 wollte ich eigentlich überspringen. Und im[br]Rahmen dieser Strafprozesse im Rahmen 0:33:43.020,0:33:46.900 dieser Proteste kam es natürlich zu[br]Angriffen auf Polizeikräfte. Es kam aber 0:33:46.900,0:33:53.350 auch durch Angriffe durch, auf[br]Demonstrierende, durch die Polizei. Hier 0:33:53.350,0:33:59.039 zum Beispiel keine Polizeigewalt durch die[br]Polizei Hashtag Polizeiproblem. Diese 0:33:59.039,0:34:04.120 Software, die benutzt wurde, ist wie Demo[br]360 und man hat darin mehrere Terabyte 0:34:04.120,0:34:09.359 Daten hochgeladen, Videoaufnahmen,[br]Fotoaufnahmen, um potenzielle GewalttäterIn 0:34:09.359,0:34:18.179 zu identifizieren. Der Einsatz wurde[br]danach vom Verwaltungsgericht Hamburg für 0:34:18.179,0:34:22.650 rechtmäßig erklärt und eine Beschwerde des[br]Datenschutzbeauftragten Hamburgs 0:34:22.650,0:34:26.639 zurückgesetzt. Im neuen Polizeigesetz[br]wurden die Befugnisse des 0:34:26.639,0:34:29.320 Datenschutzbeauftragten weiter[br]zusammengeschnitten, sodass er einfach 0:34:29.320,0:34:32.720 keine Beschwerde mehr hatte, sondern[br]eigentlich nur noch zu einer doofen 0:34:32.720,0:34:38.050 Marionette wurde. Die Polizei hat diese[br]Datenbank mit den und mit den Daten zwar 0:34:38.050,0:34:43.540 2020 gelöscht, aber nicht, weil es ein[br]Fehler war, sondern weil es keine 0:34:43.540,0:34:49.050 strafrechtlich Erforderlichkeit mehr gab.[br]Das Gerichtsurteil ist bestehen geblieben 0:34:49.050,0:34:52.000 und der Präzedenzfall wurde gesetzt. Die[br]Polizei hat schon gesagt, dass sie 0:34:52.000,0:34:56.490 Interesse hat, mit solchen großen[br]Datenbanken weiterzuarbeiten. Bei neuen 0:34:56.490,0:35:00.900 Protesten deutschlandweit wird im Rahmen[br]des Programms Polizei 2020 an 0:35:00.900,0:35:05.240 bundeseinheitlichen Plattformen[br]gearbeitet, die versuchen, die momentane, 0:35:05.240,0:35:09.690 das momentane Chaos, das föderale[br]Überwachungs zu vereinheitlichen und die 0:35:09.690,0:35:14.540 Daten besser zugänglich zu machen. Die[br]Geschichte zeigt aber immer wieder, dass 0:35:14.540,0:35:18.520 Gesichtserkennung kein Tool ist, was[br]einfach funktioniert. Zum Beispiel in der 0:35:18.520,0:35:23.500 Gender Shell-Studie von 2008 wurde[br]gezeigt, dass eigentlich alle 0:35:23.500,0:35:28.079 Gesichtserkennung, Algorithmen, große[br]Unternehmen, schwarze Frauen wesentlich 0:35:28.079,0:35:33.560 schlechter erkennen als weiße Personen[br]oder auch männliche Person. Diese Bias 0:35:33.560,0:35:39.490 findet sich auch in Amazons Recognition[br]Tool wieder, das auf mehr Mitglieder des 0:35:39.490,0:35:43.070 US amerikanischen Kongresses losgelassen[br]wurde und einige von denen zu 0:35:43.070,0:35:47.240 Straftäterinnen machte. Natürlich, oder[br]das heißt natürlich aber kann es 0:35:47.240,0:35:52.400 überraschenderweise vor allen Dingen[br]People of Color. Aber auch hier gibt es 0:35:52.400,0:35:55.650 wieder ein grundlegendes Problem, nämlich[br]dass das Gesichtserkennung im öffentlichen 0:35:55.650,0:35:59.190 Raum eigentlich überhaupt nichts zu tun[br]hat, zu suchen hat und dass 0:35:59.190,0:36:02.850 Gesichtserkennung auch in den Tools der[br]Polizei nichts zu suchen hat. Die Polizei 0:36:02.850,0:36:09.589 ist ein schwer überwacher Organ und es ist[br]eigentlich unmöglich, demokratische 0:36:09.589,0:36:15.530 Kontrolle auszuüben, ihm dafür zu sorgen,[br]dass die Polizei keinen Unsinn macht. Wenn 0:36:15.530,0:36:20.359 man sich Prozesse wie NSU 2.0 oder[br]rechtsextreme TerrorChatgruppen anguckt, 0:36:20.359,0:36:25.369 sollte man vielleicht eher davon ausgehen,[br]dass das passieren wird. Wir sind hier in 0:36:25.369,0:36:28.700 einer Situation, wo die deutsche Polizei[br]machen will, was Facebook nicht mehr machen 0:36:28.700,0:36:32.290 möchte, nämlich flächendeckende[br]Gesichtserkennung. Und wenn man hinter 0:36:32.290,0:36:36.369 Facebook hinterherhinkt im Jahr 2021, dann[br]sollte man sich vielleicht Gedanken 0:36:36.369,0:36:41.690 machen. Falls ihr an dem Widerstand[br]dagegen interessiert seid. Es gibt eine 0:36:41.690,0:36:45.910 Kampagne namens Reclaim your face, die[br]sich gegen Gesichtserkennung und die 0:36:45.910,0:36:51.030 Sammlung von biometrischen Daten in Europa[br]einsetzt. Dafür gibt es auf diesem 0:36:51.030,0:36:58.000 Raumschiff morgen auch einen Vortrag, wo[br]der momentane Stand vorgestellt wird. Der 0:36:58.000,0:37:02.700 letzte, der letzte Teil des Policing, den[br]ich kurz ansprechen möchte und auch Teil 0:37:02.700,0:37:08.110 des neuen Polizeigesetzes in Hamburg, ist[br]Predictive Policing, Predictive Policing 0:37:08.110,0:37:12.800 oder kurz Voraus in die Vergangenheit. Es[br]wird gesagt, ein Algorithmus stellt fest, 0:37:12.800,0:37:17.920 wo morgen oder vielleicht später des Tages[br]Kriminalität stattfinden wird. Und 0:37:17.920,0:37:21.720 natürlich wird gesagt, das ist neutral.[br]Was soll schon passieren? Wieder Markup 0:37:21.720,0:37:27.640 aber jüngst festgestellt hat, führt es[br]eigentlich nur dazu, dass das die Orte, in 0:37:27.640,0:37:33.500 denen momentan Polizeieinsätze[br]stattfinden, auch morgen wieder Ziel von 0:37:33.500,0:37:38.920 Polizeieinsätzen werden. Niemand kann[br]beantworten, warum oder wie das in 0:37:38.920,0:37:43.619 Deutschland nicht passieren sollte. Ganz[br]im Gegenteil eigentlich sogar ein Panel 0:37:43.619,0:37:50.480 der UN warnt davor, dass der[br]unregulierte Einsatz von künstlicher 0:37:50.480,0:37:56.660 Intelligenz in vielen Regierungen[br]rassistische Vorurteile verstärken kann. 0:37:56.660,0:38:01.040 Wir haben es hier also zu tun mit einer[br]Infrastruktur des ständigen staatlichen 0:38:01.040,0:38:06.350 Zugriffs auf unsere Daten, auf unsere[br]Gesichter, auf unser Leben oder... Und es 0:38:06.350,0:38:10.130 geht nicht nur, es geht nicht mehr nur um[br]die Polizei oder nur um das Militär, 0:38:10.130,0:38:15.000 sondern es geht um eine ganzheitliche[br]Verbindung von Geheimdiensten, Polizei und 0:38:15.000,0:38:18.900 Militär, die alle das Gleiche wollen und[br]deren Daten zunehmend interoperabel 0:38:18.900,0:38:24.330 werden. Firmen wie Palantir z.B.[br]versinnbildlichen diese Gemengelage. Die 0:38:24.330,0:38:28.330 arbeiten zusammen mit der NSA, aber auch[br]mit der ISI , also mit der Behörde in den 0:38:28.330,0:38:33.430 USA, aber auch mit der hessischen Polizei[br]oder mit Europol. Also auch die 0:38:33.430,0:38:38.030 herkömmliche nationale Grenzen[br]verschwimmen, dazu einem gewissen Teil. 0:38:38.030,0:38:42.020 Außen und Innen, Polizei sein[br]Militärgeheimdienst verschmelzen und es 0:38:42.020,0:38:47.040 entsteht eigentlich eine große, umfassende[br]oder der Versuch einer großen, umfassenden 0:38:47.040,0:38:51.589 Überwachungsinfrastruktur. Das Schöne ist,[br]dass auch eine Firma wie Palantir Angst 0:38:51.589,0:38:56.070 hat vor einem Bewusstsein über[br]Privatsphäre und auch über ein Bewusstsein 0:38:56.070,0:39:00.480 dafür, dass die Algorithmen dieser Firmen[br]Scheiße bauen. Das heißt, wenn wir, wenn 0:39:00.480,0:39:05.950 wir daran arbeiten, dass nicht zur[br]Normalität werden zu lassen, dann haben 0:39:05.950,0:39:11.660 wir eine reelle Chance, das auch zu[br]verhindern. Und noch kurz ein paar 0:39:11.660,0:39:14.760 Anmerkungen zu Daten und Privatsphäre. Es[br]geht hier vor allem um Zusammenhang von 0:39:14.760,0:39:19.730 Privatsphäre und nicht um die[br]Datensammelwut von Facebook. Dafür gab es 0:39:19.730,0:39:23.790 jetzt hier gerade vorher zum Beispiel[br]einen Vortrag über die Facebook Papers und 0:39:23.790,0:39:31.820 noch ein, zwei andere Punkte im Fahrplan.[br]Wir haben bis jetzt über über staatliche 0:39:31.820,0:39:38.099 Überwachung gesprochen und wie sie immer[br]allgemeiner wird. Das führt dazu. Dass 0:39:38.099,0:39:42.450 einerseits alle betroffen sind, aber dass[br]andererseits Leute, die dem Staat mehr und 0:39:42.450,0:39:47.140 mehr ausgeliefert sind oder wehrloser[br]gegenüber sind, dass die Intensität der 0:39:47.140,0:39:50.640 Eingriffe diesem gegenüber zunimmt. Als[br]Beispiel werden zum Beispiel Hartz-IV- 0:39:50.640,0:39:54.780 Bezieher, in die quasi ein Offenbarungseid[br]gegenüber den Staat abliefern müssen, 0:39:54.780,0:39:58.730 Geflüchtete bei der Einreise oder auch[br]migrantische Communitys, die traditionell 0:39:58.730,0:40:04.940 immer wieder das gesteigerte Ziel von[br]polizeilicher Arbeit sind. Wir haben hier 0:40:04.940,0:40:11.230 also die Situation, dass Überwachung und[br]die die Aufhebung der Privatsphäre ein 0:40:11.230,0:40:15.030 Problem der betroffenen Individuen ist,[br]erst mal auf den ersten Blick. Aber das 0:40:15.030,0:40:18.380 sollte uns nicht dazu verleiten zu denken,[br]das ist ein individuelles Problem ist, 0:40:18.380,0:40:21.740 sondern es ist ein gesellschaftliches[br]Problem. Wir kommen nicht gegen diese 0:40:21.740,0:40:26.650 Dynamik an, mit dem, ich habe nichts zu[br]verbergen---narrativ, weil wir wissen 0:40:26.650,0:40:30.420 nicht, was morgen morgen trifft. Das[br]heißt, wir müssen diese Datafixierung 0:40:30.420,0:40:33.510 nicht auf einem individuellen Level[br]diskutieren, sondern auf einem 0:40:33.510,0:40:37.290 kollektiven. Auf welche Arten und Weisen[br]wollen wir, dass eine Gesellschaft 0:40:37.290,0:40:42.180 datafiziert ist? Was kann uns als[br]Gesellschaft einen einen Nutzen bringen 0:40:42.180,0:40:46.180 und was nicht? Schlussendlich muss es[br]alles, was es für alle möglich sein, ohne 0:40:46.180,0:40:52.150 Angst vor dem digitalen Panoptikum durch[br]die Straßen zu laufen. Privatsphäre und 0:40:52.150,0:40:56.640 Daten sind aber nicht nur ein Problem, das[br]sei noch kurz angemerkt Ich habe ja am 0:40:56.640,0:41:00.151 Anfang bei ImageNet erwähnt, dass niemand[br]gefragt wurde, ob man in diesem Datensatz 0:41:00.151,0:41:06.250 sein möchte oder nicht. Die Forscherin[br]Sascha Luchoni hat jüngst auf Twitter 0:41:06.250,0:41:12.470 gefragt, was denn ein gutes Example von[br]einem KI-Datensatz wäre, wo wirklich nach 0:41:12.470,0:41:17.780 Einverständnis gefragt wurde. Das it even[br]exists? Es stellt sich heraus in allen 0:41:17.780,0:41:22.480 Responses zu diesem Tweet. Es gibt genau[br]eins: Facebooks Casual Convent 0:41:22.480,0:41:27.030 Conversations Dataset scheint das einzige[br]große Daten, der einzige größere Datensatz 0:41:27.030,0:41:31.020 zu sein, in dem die Beteiligten[br]tatsächlich zugestimmt haben, dass ihre 0:41:31.020,0:41:40.660 Daten für Zwecke des maschinellen Lernens[br]verwendet werden. Okay, was tun jetzt oder 0:41:40.660,0:41:45.350 I want you tech for good? Wir haben[br]gesehen, dass wir einen gespenstischen 0:41:45.350,0:41:48.440 Wind haben, einen gespenstischen digitalen[br]Wind, der durch unser Haus, durch unsere 0:41:48.440,0:41:52.590 Gesellschaft bläst. Wir haben gesehen, wie[br]KI das menschliche Zusammenleben 0:41:52.590,0:41:57.080 kodifiziert und als Mittel staatlicher[br]Überwachung und kapitalistischer Kontrolle 0:41:57.080,0:42:01.849 dienen kann. Das heißt aber auch, dass[br]unsere Rassismen, unsere Sexismen und so 0:42:01.849,0:42:08.839 weiter in diese KI eingeschrieben wird und[br]dass gleichzeitig die Technologie sich 0:42:08.839,0:42:12.740 immer schneller und schneller entwickelt,[br]wir aber als Gesellschaft gar kein 0:42:12.740,0:42:18.900 ethisches Verständnis mehr davon schaffen,[br]dass hinterherkommt in dem Tempo der KI 0:42:18.900,0:42:25.130 und das auch dazu führt. Und dass es geht[br]mir jetzt nicht hier darum, KI an sich zu 0:42:25.130,0:42:29.980 verurteilen, sondern es gibt dafür schöne[br]Beispiele. Man kann KI benutzen, um es 0:42:29.980,0:42:35.350 gegen die Überwacher zu drehen und an zum[br]Beispiel für Gesichtserkennung Programme 0:42:35.350,0:42:39.910 auf die Polizei anzuwenden und so[br]Polizisten zu identifizieren, die gegen 0:42:39.910,0:42:45.460 Protestierende eingesetzt werden. Man kann[br]KI zu Hause rumliegen haben und deutsche 0:42:45.460,0:42:52.380 Behörden Maschinen lesbar machen und so[br]besser verstehbar machen. Aber bei allem, 0:42:52.380,0:42:57.599 dem dürfen wir nicht vergessen, dass[br]solange wir, solange wir die Herrschaft 0:42:57.599,0:43:00.980 der Menschen über die Menschen nicht in[br]den Fokus der Kritik richten, sondern uns 0:43:00.980,0:43:04.700 immer wieder nur an den Symptomen[br]abarbeiten, dass wir immer wieder an den 0:43:04.700,0:43:07.100 gleichen Punkt kommen werden, vielleicht[br]mit einer anderen Technologie, aber an den 0:43:07.100,0:43:14.200 gleichen Punkt. Wie Timnit Gebru sagte[br]daß, es geht darum, dass die wenigen 0:43:14.200,0:43:22.680 Systeme der Unterdrückung schaffen und die[br]"others constantly work to prevent harm 0:43:22.680,0:43:28.010 unable to find the time space or resources[br]to implement their own vision of future". 0:43:28.010,0:43:32.430 Und ich glaube tatsächlich, das ist das,[br]wo es im Endeffekt darum gehen würde, dass 0:43:32.430,0:43:37.090 wir es schaffen, die Zeit und den Willen[br]auch zu finden, unsere eigene Vision von 0:43:37.090,0:43:44.260 der Zukunft zu implementieren. Und dann[br]schlussendlich erst wenn wir als Menschen 0:43:44.260,0:43:50.579 gut zueinander sind, können die Maschinen[br]lernen, auch gut zu uns sein zu sein. Um 0:43:50.579,0:43:55.900 noch mal die Slides wie Sources und alle[br]meine Quellen findet ihr auf 0:43:55.900,0:44:06.680 r.ovl.design/rc3-ki, oder über diesen QR-[br]Code. Oder wie gesagt bei Twitter. Damit 0:44:06.680,0:44:11.131 komme ich zum Ende und möchte mich ganz[br]herzlich bedanken bei euch, die ihr 0:44:11.131,0:44:14.690 zugeguckt haben, bei der C-Base für die[br]Einladung hier sprechen zu dürfen und 0:44:14.690,0:44:17.560 natürlich bei allen Forscherinnen,[br]Aktivistinnen, Journalistinnen und so 0:44:17.560,0:44:24.060 weiter, auf deren Arbeit ich mich implizit[br]oder explizit bezogen habe. Vielen Dank! 0:44:24.060,0:44:26.680 Applaus 0:44:26.680,0:44:33.280 Herald: Das war großartig, Oskar, vielen[br]Dank! 45 Minuten, fast fast ohne Pause, da 0:44:33.280,0:44:37.250 gab es ja wirklich ein ordentliches[br]Update. Wir haben neue Wörter gelernt: 0:44:37.250,0:44:44.140 kybernetische Verdichtung, kybernetische[br]Verdichtung, digitaler Frühkapitalismus. 0:44:44.140,0:44:48.430 Demnach müssten wir Hacker jetzt helfen,[br]dass die modernen digitalen Arbeiter 0:44:48.430,0:44:51.840 wieder sich selbst ermächtigen und es[br]wieder zu einer Aufklärung kommt. 0:44:51.840,0:44:53.140 Wahrscheinlich.[br]Oskar: Zum Beispiel. 0:44:53.140,0:44:56.630 Herald: Algorithmische Undurchsichtigkeit.[br]Da müssten die Hacker dafür sorgen, dass 0:44:56.630,0:44:59.300 die Algorithmen irgendwie durchsichtiger[br]werden. Das Peinliche ist ja auch, dass 0:44:59.300,0:45:01.869 man dann sehen könnte, wie nackt der[br]Kaiser möglicherweise ist. 0:45:01.869,0:45:04.119 Oskar lacht[br]Herald: Und wir müssen den Wissensschatz 0:45:04.119,0:45:07.839 der Arbeiter, die davon überwacht und[br]gesteuert werden, irgendwie zu mehren 0:45:07.839,0:45:13.190 suchen. Und interessant fand ich auch[br]künstliche Ideologie. Das ist also so ein 0:45:13.190,0:45:18.830 bisschen, sonst spin gibt dahingehend zu[br]sagen, dass es künstlich, also ist es 0:45:18.830,0:45:22.010 intelligent, auch wenn es vielleicht gar[br]nicht so intelligent ist. Aber künstliche 0:45:22.010,0:45:26.220 Intelligenz ist ja schon mal ein Wert an[br]sich. Stochastische Papageien fand ich 0:45:26.220,0:45:30.569 auch interessant, dass also so große[br]Mengen an Daten, wenn man sie statistisch 0:45:30.569,0:45:34.740 auswertet, natürlich auch statistische[br]Artefakte produzieren. Wer hätte das nur 0:45:34.740,0:45:38.820 denken können? Aufgabe der Hacker hier[br]also auch Selbstermächtigung, Aufklärung 0:45:38.820,0:45:41.770 und Nachgucken. Wie funktioniert das[br]eigentlich, was wir immer schon gemacht 0:45:41.770,0:45:46.280 haben? Und jetzt die einzige Hörerfrage,[br]die in der kurzen Zeit jetzt gekommen ist. 0:45:46.280,0:45:50.390 Oder vielleicht auch Zuschauerfrage? Ist[br]Glaubst du, dass es einen künstlichen 0:45:50.390,0:45:56.751 Dunning-Krüger Effekt gibt?[br]Oskar: lacht verzweifelt Das ist eine 0:45:56.751,0:46:04.230 sehr interessante Frage, die ich[br]vielleicht nächstes Jahr in einem Vortrag 0:46:04.230,0:46:08.280 beantworten werde. Es ist eine sehr[br]interessante Frage. Ich muss darüber 0:46:08.280,0:46:13.550 nachdenken. Ich kann es mir vorstellen,[br]aber ich möchte, ich kann es jetzt gar 0:46:13.550,0:46:17.310 nicht so kohärent beantworten, wie die[br]Frage vielleicht beantwortet werden 0:46:17.310,0:46:19.990 müsste.[br]Herald: Okay, dafür ist die KI Landschaft 0:46:19.990,0:46:23.390 vielleicht ja auch etwas diverser als die[br]Menschen Landschaft da draußen. 0:46:23.390,0:46:26.970 Oskar: Na ja, bis jetzt hat sich gezeigt,[br]dass die KI Landschaft vor allen Dingen 0:46:26.970,0:46:29.060 ziemlich genau das Abbild der Menschen[br]Landschaft ist. Aber die Menschen 0:46:29.060,0:46:32.560 Landschaft ist natürlich auch sehr divers[br]und das ist ja auch ein Vorteil, den wir 0:46:32.560,0:46:35.540 haben können. Nur weil ich jetzt darüber[br]viel darüber gesprochen habe, wie 0:46:35.540,0:46:39.170 künstliche Intelligenz und Herrschaft[br]interagieren, heißt es ja, heißt das ja 0:46:39.170,0:46:42.920 nicht, dass das für immer so bleiben muss,[br]sondern künstliche Dinge kann auch 0:46:42.920,0:46:46.210 emanzipativ werden.[br]Herald: Ja, das ist ja interessant. Also 0:46:46.210,0:46:49.900 heißt das, die Geschichte wiederholt sich[br]wie immer einerseits ja, am Ende aber doch 0:46:49.900,0:46:53.820 nicht. Und es wird nicht so laufen. Mal[br]wieder nicht so, wie Marx es vorausgesagt 0:46:53.820,0:46:54.820 hat.[br]Oskar: Na ja. 0:46:54.820,0:46:56.010 Herald: Nicht mit wissenschaftlicher[br]Genauigkeit. 0:46:56.010,0:46:59.980 Oskar: Ich glaube, wenn man, wenn man[br]genauer hinguckt, der 0:46:59.980,0:47:03.060 Geschichtsdeterminismus und die[br]Voraussage, dass sich die Geschichte auf 0:47:03.060,0:47:05.320 eine bestimmte Art entwickeln wird, ist[br]wahrscheinlich einer der größten 0:47:05.320,0:47:09.270 Schwachpunkte bei Marx und Engels. Und[br]natürlich ist... 0:47:09.270,0:47:13.070 Herald: Bei der KI auch.[br]Oskar: Bei, bei der KI auch, wobei die KI 0:47:13.070,0:47:15.640 eigentlich immer wieder nur eine[br]Wiedergabe der Vergangenheit ist und 0:47:15.640,0:47:18.319 deswegen ja noch gar nicht damit[br]beschäftigt sein kann, wie die Zukunft 0:47:18.319,0:47:21.180 ist. Alles, was ihr über die Zukunft sagt,[br]so wie es gestern war und das bringt uns 0:47:21.180,0:47:23.599 alles und uns nichts.[br]Herald: Bringt das hier an Bord gar 0:47:23.599,0:47:26.720 nichts, wie wir rekonstruieren. Ja, die[br]Zukunft, das müsste die KI erst mal 0:47:26.720,0:47:29.310 lernen.[br]Oskar: Ja. Und wir können die Zukunft auch 0:47:29.310,0:47:32.430 gestalten, weil wir müssen nicht die[br]Fehler der Vergangenheit immer wieder und 0:47:32.430,0:47:36.450 wieder reproduzieren, sondern wir können[br]tatsächlich sagen, das war ein Fehler, wir 0:47:36.450,0:47:39.360 wollen es jetzt anders machen.[br]Herald: Also eine Riesenaufgabe für 0:47:39.360,0:47:42.770 Hacker. Ich glaube damit zusammen, dass es[br]die Sorte Vortrag, die man noch mal 0:47:42.770,0:47:44.510 angucken kann.[br]Oskar lacht 0:47:44.510,0:47:49.260 Herald: Herzlichen Dank! Grüße von der[br]C-Base. Es geht hier um 21 Uhr weiter. Bis 0:47:49.260,0:47:53.260 dann everything ist Lizenz cc by vor[br]Politisierung des Altvordere Community to 0:47:53.260,0:47:55.590 do what. 0:47:55.590,0:48:01.000 Untertitel erstellt von c3subtitles.de[br]im Jahr 2022. Mach mit und hilf uns!