WEBVTT 00:00:04.750 --> 00:00:09.660 Herald: Herzlich willkommen im C-Base Livestream der Raumstation unter Berlin- 00:00:09.660 --> 00:00:13.490 Mitte am S-Bahnhof Jannowitzbrücke. Es freut mich ganz besonders, dass der Oskar 00:00:13.490 --> 00:00:18.270 heute hier ist mit dem Thema "Computer says no. Künstliche Intelligenz und 00:00:18.270 --> 00:00:22.490 Herrschaft". Das freut mich deswegen ganz besonders, weil ich ja ansonsten Technik 00:00:22.490 --> 00:00:27.470 Philosophie mache. Und wir sind ja nun seit ungefähr 25 Jahren darauf warten, 00:00:27.470 --> 00:00:30.289 dass die ganzen künstlichen Minderintelligenzen tatsächlich mal so was 00:00:30.289 --> 00:00:33.980 wie Bewusstsein entwickeln. Das scheint aber noch nicht der Fall zu sein, es sei 00:00:33.980 --> 00:00:37.450 denn, Oskar hat hier Neuigkeiten für uns. Und die interessante Frage ist ja, wie es 00:00:37.450 --> 00:00:40.670 zu rechtfertigen ist, dass solche künstlichen Minderintelligenzen dann 00:00:40.670 --> 00:00:45.150 Herrschaft über uns ausüben, indem sie uns Kredite verweigern, unsere Bankkarte nicht 00:00:45.150 --> 00:00:50.000 verlängern oder auch unsere Steuererklärung für potenziell gefälscht. 00:00:50.000 --> 00:00:54.390 Das werden wir jetzt alles genau und näher erfahren. Wie das fast schon akademische 00:00:54.390 --> 00:00:58.969 Tradition ist, gibt es genau 45 Minuten Zeit für Oskar. Oskar, du hast die Bühne 00:00:58.969 --> 00:01:01.739 für ein Update zur künstlichen Intelligenz und Herrschaft. 00:01:01.739 --> 00:01:06.330 Oskar: Vielen Dank! Herzlich willkommen auch allen Wesen an den Empfangsgeräten. 00:01:06.330 --> 00:01:10.500 Die schlechte Nachricht zuerst. Es gibt keine Neuigkeiten, sondern meine These ist 00:01:10.500 --> 00:01:13.690 eher, dass ich seit 1844 ungefähr nichts geändert hat, außer dass jetzt Computer 00:01:13.690 --> 00:01:20.320 dabei sind. Bevor ich anfange, man kann die Slides, alle meine Quellen und ein 00:01:20.320 --> 00:01:28.850 Transkript des Talks unter dem Link r.ovl.design/rc3-ki sehen oder über diesen 00:01:28.850 --> 00:01:34.080 oben eingeblendeten QR-Code. Ich habe den Link auch um 17:02, was ungefähr jetzt 00:01:34.080 --> 00:01:40.829 sein sollte, getwittert. Danke, Künstliche Intelligenz. Mein Twitter @_ovlb. Fangen 00:01:40.829 --> 00:01:47.520 wir an. Künstliche Intelligenz. Was meine ich eigentlich damit, wenn ich über 00:01:47.520 --> 00:01:53.009 Künstliche Intelligenz spreche? Künstliche Intelligenz an sich ist erst mal eine 00:01:53.009 --> 00:01:59.840 recht grobe, grobe Kategorie. Deswegen vorab auf einer technischen Ebene wird es 00:01:59.840 --> 00:02:04.880 vor allen Dingen um Machine Learning gehen. Ich werde aber trotzdem den Talk 00:02:04.880 --> 00:02:10.979 über von KI sprechen. Ich werde von KI sprechen, weil KI als gesellschaftlicher 00:02:10.979 --> 00:02:15.160 Begriff weiter greifend ist als nur die technische Ebene, sondern eine Formierung 00:02:15.160 --> 00:02:22.050 von Politik, Arbeit, Kultur und Kapital beinhaltet. Im Folgenden gehört es vor 00:02:22.050 --> 00:02:30.489 allem um Politik. Arbeit und Kapital gehen weniger um Kultur. Und das Ganze wird sich 00:02:30.489 --> 00:02:35.110 folgendermaßen gliedern. Ich werde erst über ImageNet reden, eines der vermutlich 00:02:35.110 --> 00:02:39.209 einflussreichsten Datensätze in der Geschichte des Machine Learning, danach 00:02:39.209 --> 00:02:43.280 über Algorithmen und Arbeit und schließlich über einen Teil namens 00:02:43.280 --> 00:02:47.490 künstlichen Ideologie, wo ich ein bisschen über staatliche Herrschaft und wie sich 00:02:47.490 --> 00:02:54.739 Militär und Polizei künstliche Intelligenz zu Nutze machen. Schließlich ein kleiner, 00:02:54.739 --> 00:03:00.142 ein kleiner Ausblick unter dem Titel Was tun? Genau das ist die grobe, grobe 00:03:00.142 --> 00:03:05.270 Gliederung. Es ist also kein technischer Vortrag. Ich werde nicht erklären, wie die 00:03:05.270 --> 00:03:09.659 Machine Learning funktioniert und ich werde noch nicht erklären, was und wie grundlegend 00:03:09.659 --> 00:03:13.489 künstliche Intelligenz ist, oder? Also wenn ihr jetzt einen technischen Vortrag 00:03:13.489 --> 00:03:21.790 erwartet habt. Tut mir leid, gibt es nicht. Okay, los geht's. ImageNet, oder wie 00:03:21.790 --> 00:03:25.220 Machine Learning sich für immer veränderte. Für die Leute von euch, die 00:03:25.220 --> 00:03:29.191 vielleicht nicht einen großen Hintergrund in der Geschichte des der künstlichen 00:03:29.191 --> 00:03:34.129 Intelligenz haben. Eine kurze Erklärung, was mit ImageNet eigentlich 00:03:34.129 --> 00:03:37.020 ist. ImageNet ist, wie oben schon erwähnt, der vermutlich einflussreichste 00:03:37.020 --> 00:03:41.319 Datensatz. Warum, erkläre ich gleich. Und darauf aufbauend wurde vermutlich einer 00:03:41.319 --> 00:03:46.280 der einflussreichsten Algorithmen geschrieben. Die Idee ist so kompliziert 00:03:46.280 --> 00:03:52.140 wie simpel und wurde von Fei-Fei Li im Jahr 2006 formuliert, nämlich den 00:03:52.140 --> 00:03:57.409 Goldstandard für Bilder Datensätze zu sammeln. Die Umsetzung dementsprechend 00:03:57.409 --> 00:04:02.689 auch relativ einfach: Bilder sammeln. Nur ist das natürlich, wenn man von einem 00:04:02.689 --> 00:04:07.620 Goldstandard spricht und von den damit von den Mengen an Bildern, die und die damit 00:04:07.620 --> 00:04:11.780 gemeint sind, leichter gesagt als getan. Fei-Fei Li und ihre Mitfahrenden hatten 00:04:11.780 --> 00:04:15.630 zwei Sachen auf ihrer Seite, nämlich einerseits Bilder suchen, die relativ neu 00:04:15.630 --> 00:04:20.320 waren und andererseits immer leistungsstärkere Computer. Trotzdem 00:04:20.320 --> 00:04:25.729 dauert es drei Jahre, bis genug Bilder zusammengesammelt waren, genug heißt hier 00:04:25.729 --> 00:04:31.580 14 Millionen. Und das, um das ein bisschen in Perspektive zu setzen. Einer der 00:04:31.580 --> 00:04:36.600 Hauptvorläufer von imageNet, Pascal VOC Pascal Virtual Object Classes beinhaltete 00:04:36.600 --> 00:04:44.350 19737 Bilder in 20 Kategorien. Anstatt wie jetzt in der mit 14 Millionen Bildern in 00:04:44.350 --> 00:04:52.280 20000 Kategorien. Nun stellt sich aber eine Frage, wie klassifiziert man denn 00:04:52.280 --> 00:04:55.900 eigentlich 14 Millionen Bilder, nur weil man in einer Bildersuche nach einem Apfel 00:04:55.900 --> 00:04:58.880 gesucht hat, heißt das ja nicht, dass jedes Bild, das bei rausgekommen ist, 00:04:58.880 --> 00:05:02.990 einen Apfel beinhaltet. Traditionell wäre das ein Job für Studienanfängerinnen 00:05:02.990 --> 00:05:07.870 gewesen. Das heißt, man hat den Leuten, die gerade ein Studium angefangen hat, 00:05:07.870 --> 00:05:11.900 gesagt, hier einen Datensatz, bearbeite den bitte. Guck, ob alles korrekt ist. Das 00:05:11.900 --> 00:05:15.420 Problem ist, bei 14 Millionen Bildern hat einer, der Mitforschenden ausgerechnet, 00:05:15.420 --> 00:05:19.250 würde es ungefähr 19 Jahre dauern, bis die Studienanfängerin diese 14 Millionen 00:05:19.250 --> 00:05:23.090 Bilder auch wirklich klassifiziert hätten. Aus der heutigen Perspektive mag man 00:05:23.090 --> 00:05:28.090 vielleicht auch sagen, vielleicht ist es ein Job für einen Algorithmus. Das Problem 00:05:28.090 --> 00:05:32.521 ist nur, die Algorithmen, die wir heute haben, sind schon nicht gut genug, dass 00:05:32.521 --> 00:05:34.371 man einfach sagen kann, hier sind die Bilder, sagt und was ist dann? Das muss 00:05:34.371 --> 00:05:39.240 immer wieder kontrolliert werden. Die Algorithmen, die es damals gab, waren noch 00:05:39.240 --> 00:05:45.890 schlechter, also auch nicht wirklich die Lösung des Problems. Die Lösung des 00:05:45.890 --> 00:05:50.130 Problems kam von einer unverhofften Richtung, von einer micro working, click 00:05:50.130 --> 00:05:55.150 working Plattform namens Amazon Mechanical Turk, die in 2015 eingeführt wurde. 00:05:55.150 --> 00:06:01.039 Mechanical Turk ist benannt nach dieser Konstruktion, wo ein vermeintlicher 00:06:01.039 --> 00:06:05.639 Roboter von einem kleinwüchsigen Menschen in diesem Kasten bedient wurde und dann so 00:06:05.639 --> 00:06:13.290 getan hat, als würde er Schach spielen können. Und Mechanical Turk erlaubte es, 00:06:13.290 --> 00:06:17.620 sogenannte Human intelligente Tasks einzustellen, also kleine Sachen wie zum 00:06:17.620 --> 00:06:21.569 Beispiel, Kucke auf diesem Job, auf diesem Bild ein Apfel ist, die dann von den 00:06:21.569 --> 00:06:26.680 Arbeitenden auf der Plattform vervollständigt werden konnten. Durch 00:06:26.680 --> 00:06:30.970 diese Plattform war es möglich, diese 14 Millionen Bilder auf 49 000 Leute 00:06:30.970 --> 00:06:37.100 aufzubrechen aufzuteilen, die in 167 Ländern daran gearbeitet haben und so 00:06:37.100 --> 00:06:40.770 vergleichsweise schnell oder relativ schnell, zumindest sehr viel schneller als 00:06:40.770 --> 00:06:45.460 19 Jahre in der Lage waren, die Bilder zu klassifizieren und zu gucken, ob das, was 00:06:45.460 --> 00:06:50.639 angeblich auf den Bildern drauf ist, auch wirklich drauf ist. Wir sehen hier eins 00:06:50.639 --> 00:06:54.670 der Probleme, die uns immer wieder begegnen werden, wenn wir heutzutage auf 00:06:54.670 --> 00:06:58.570 Machine Learning gucken und zwar das menschliche Wahrnehmung auf einen rein 00:06:58.570 --> 00:07:03.840 mechanischen Prozess heruntergebrochen wird. In dem Fall, dass visuelle 00:07:03.840 --> 00:07:08.979 Intelligenzen reine Mustererkennung ist. Das heißt aber auch, dass zum Beispiel 00:07:08.979 --> 00:07:13.690 Erfahrungen von Menschen oder einen Kontext, in welchen die Bilder gesehen 00:07:13.690 --> 00:07:16.860 werden, komplett ausgeblendet wird und dass nur noch über diesen mechanischen 00:07:16.860 --> 00:07:21.590 Prozess geht. Bei einem Apfelkuchen mag das okay sein, aber imageNet hat auch 00:07:21.590 --> 00:07:26.580 Kategorien für Menschen enthalten. Und da wird es schon wesentlich schwieriger zu 00:07:26.580 --> 00:07:33.370 sagen, alles ist eins. Trotzdem Sie haben es gemacht und sie waren damit auch soweit 00:07:33.370 --> 00:07:37.650 zufrieden und hatten dann diese 14 Millionen Bilder mehr oder weniger sauber 00:07:37.650 --> 00:07:43.870 klassifiziert rumliegen. Dann kam die nächste Frage. Und jetzt? Was macht man 00:07:43.870 --> 00:07:48.349 jetzt mit diesem Datensatz? Was macht man mit diesen Bildern? Im Rahmen der 00:07:48.349 --> 00:07:54.300 Forschung gab es von 2010 bis 2017 die sogenannte ImageNet Large Scale Visual 00:07:54.300 --> 00:07:58.979 Recognition Challenge. In dieser Challenge hat sich erstmal relativ lange nichts 00:07:58.979 --> 00:08:08.419 getan. Es wurde geforscht, bis schließlich im Jahre 2012 der bereits angesprochene 00:08:08.419 --> 00:08:12.880 einflussreiche Algorithmus vorgestellt wurde. AlexNet. AlexNet ist es 00:08:12.880 --> 00:08:17.020 eine Entwicklung von Alex Krichevsky und seinem Team an der Universität Toronto 00:08:17.020 --> 00:08:23.830 gewesen und führte ein neues Konzept ein, nämlich das der neuronalen Netze, die im 00:08:23.830 --> 00:08:27.389 Folgenden zu einem der tonangebenden Paradigmen in Machine Learning wurden, 00:08:27.389 --> 00:08:32.940 weil es dadurch möglich war, diese Bildmassen und diese an diese Datenmassen 00:08:32.940 --> 00:08:37.940 um wesentlich wesentlich schneller zu bearbeiten bearbeiten, als es vorher 00:08:37.940 --> 00:08:43.050 möglich war. Auch heute ist das quasi immer noch der der Mechanismus, der 00:08:43.050 --> 00:08:48.180 meistens verwendet wird. Okay, das quasi so als kurzer historischer Hintergrund, 00:08:48.180 --> 00:08:52.440 worüber wir meistens reden, wenn wir von Algorithmen reden, nämlich um große 00:08:52.440 --> 00:08:57.170 Datenmengen, die im Sinne von Machine Learning oder Deep Learning, wie man es 00:08:57.170 --> 00:09:05.160 auch nennt, bearbeitet werden. Okay. Wir haben also unfassbare Mengen an Daten. Wir 00:09:05.160 --> 00:09:08.470 haben einen fehlenden Konsens, also niemand der Menschen, die in diesem 00:09:08.470 --> 00:09:11.700 Datensatz aufgetaucht wurden, wurde vorher gefragt, ob das vielleicht auch noch okay 00:09:11.700 --> 00:09:14.360 ist, dass deren Bilder da gespeichert wurden, sondern die Bilder waren einfach 00:09:14.360 --> 00:09:19.120 in diesem Datensatz und sind es auch heute noch größtenteils. Und wir haben ein 00:09:19.120 --> 00:09:22.790 mechanisches Verständnis menschlicher Wahrnehmung. Und schließlich haben wir 00:09:22.790 --> 00:09:28.710 Deep Learning, also als technische Art und Weise, damit umzugehen, dass alles. Diese 00:09:28.710 --> 00:09:37.130 vier Punkte werden wir immer wieder und wieder finden. Damit quasi der ImageNet zu Ende und der 00:09:37.130 --> 00:09:41.820 nächste Teil zu Arbeit und Algorithmen. Noch mal ich auch hier einen Schritt 00:09:41.820 --> 00:09:45.859 zurück und die Frage, worüber rede ich eigentlich, reden wir in diesem Kontext, 00:09:45.859 --> 00:09:51.640 wenn wir von Arbeit reden. Wir reden einerseits von unbezahlter Arbeit. Das 00:09:51.640 --> 00:09:55.690 Beispiel dafür ist zum Beispiel Google Recaptcha, wo wir, um Beweise zu beweisen, 00:09:55.690 --> 00:09:59.560 dass wir Menschen sind, beweisen, dass wir einen Schornstein erkennen können. Wir 00:09:59.560 --> 00:10:06.040 haben als zweites unsichtbare Arbeit. Das bedeutet, wie zum Beispiel die Leute auf 00:10:06.040 --> 00:10:10.360 Amazons Mechanical Turk Platform, diese 49000, die tauchen nie als Co-Autorin oder 00:10:10.360 --> 00:10:14.990 so was in den Papieren auf. Aber haben wir doch einen fundamentalen Anteil der Arbeit 00:10:14.990 --> 00:10:19.300 geliefert. Schließlich haben wir durch Algorithmen kontrollierte Arbeit, hier zum 00:10:19.300 --> 00:10:23.310 Beispiel Amazons Lagerhäuser oder Lieferdienste wie Lieferando oder 00:10:23.310 --> 00:10:29.050 Delivery. Über unbezahlte Arbeit möchte ich jetzt nicht richtig sprechen, sondern 00:10:29.050 --> 00:10:33.520 eher, sondern ich habe unsichtbare Arbeit und die modifizierte Arbeit konzentrieren. 00:10:33.520 --> 00:10:40.740 Fangen wir mit unsichtbarer Arbeit an.. Wie wir gesehen haben, bei imageNet haben 00:10:40.740 --> 00:10:46.440 wir diese Erzählung von KI tut dieses oder tut jenes. Wenn die KI erkennt, dass etwas 00:10:46.440 --> 00:10:51.430 in den Bildern ist oder die KI hat in GO gewonnen, die KI schreibt mit Gptt drei 00:10:51.430 --> 00:10:56.040 unfassbar schöne Texte oder dumme Texte von Teil zu Teil, KI betreibt Protein 00:10:56.040 --> 00:11:02.890 foldern. Das Problem ist nur, die KI tut das nicht. Die KI ist für die für die 00:11:02.890 --> 00:11:07.530 Forscherin, die das eigentlich tun, ein Werkzeug, das benutzt wird. Und es ist 00:11:07.530 --> 00:11:11.250 nicht die KI, die plötzlich vom Himmel kommt und sagt, Ja, herzlichen 00:11:11.250 --> 00:11:18.110 Glückwunsch, GO, kann ich, sondern eher im Gegenteil. Wie der Economist gezeigt hat, 00:11:18.110 --> 00:11:24.250 zeigt es braucht es heutzutage ungefähr 80 prozent der Entwicklungszeit eines Machine 00:11:24.250 --> 00:11:30.030 Learning Projektes sind menschliche Arbeit. Nur da hinten beim Modeltraining, 00:11:30.030 --> 00:11:33.779 dann kommt der Computer tatsächlich ins Spiel. Aber der allergrößte Teil ist 00:11:33.779 --> 00:11:39.110 menschliche Arbeit, die aber sowohl in der öffentlichen Erzählung und in dieser der 00:11:39.110 --> 00:11:45.839 Wahrnehmung unsichtbar gemacht wird. Und es braucht halt genau diese menschliche 00:11:45.839 --> 00:11:48.339 Arbeit, damit ein Algorithmus gut funktioniert und ein Machine Learning 00:11:48.339 --> 00:11:53.519 System, braucht es große Mengen an Daten. Die müssen natürlich sauber sein, weil 00:11:53.519 --> 00:11:56.730 wenn die Daten, aus denen der Algorithmus lernt, nicht sauber sind, dann ist das, 00:11:56.730 --> 00:12:01.610 was hinten rauskommt auch Mist. Und deswegen muss das bis heute von von 00:12:01.610 --> 00:12:07.620 Menschen unternommen werden. Wir sind also wieder da, wo wir bei Mechanical Turk so 00:12:07.620 --> 00:12:11.870 ein bisschen waren, bei einer Maschine, die so tut, als wäre sie keine Maschine. 00:12:11.870 --> 00:12:16.100 Eine andere Metapher vielleicht die, die man benutzen kann, sind potemkinsche 00:12:16.100 --> 00:12:20.200 Dörfer, wo vorne alles schön fein gemacht wird. Und die Fassaden sehen aus, als 00:12:20.200 --> 00:12:23.420 hätte man die schönsten, schönsten Häuser der Welt. Aber hinten, wo es niemand 00:12:23.420 --> 00:12:28.920 sieht, verfällt es einfach. Kate Crawford nennt es, nennt diese Form der KI in 00:12:28.920 --> 00:12:33.561 Anlehnung dessen auch potemkinsche KI, also wenig mehr als Fassaden, die so 00:12:33.561 --> 00:12:40.040 demonstrieren, wie ein autonomes System aussehen würde, wenn es autonom wäre. Wir 00:12:40.040 --> 00:12:46.870 es hier zu tun mit einem schönen Schein des Automatismus. Diese Arbeit kann aber 00:12:46.870 --> 00:12:53.660 auch anders aussehen. Das ist ein Foto von der New York Daily News und diese 00:12:53.660 --> 00:12:57.540 Schlange, die ich wir sehen, sind Obdachlose, meistens schwarze Obdachlose, 00:12:57.540 --> 00:13:02.790 die von einer Subfirma oder von einer Firma oder die von Google da beauftragt 00:13:02.790 --> 00:13:08.980 wurden. Eine Firma hat Google beauftragt Daten zu sammeln, und zwar bestimmte 00:13:08.980 --> 00:13:13.411 Daten, Daten der Gesichter von schwarzen Menschen. Diese Leute haben dafür ein 00:13:13.411 --> 00:13:18.089 Geschenkgutschein im Wert von 5 Dollar gekriegt, dafür, dass ihr 3D-Modell auf 00:13:18.089 --> 00:13:23.300 die Server von Google hochgeladen wurde. Ziemlich niedriger Preis. Warum macht 00:13:23.300 --> 00:13:28.120 Google das? Weil Google immer wieder in Kritik kommt, dass ihre eigenen 00:13:28.120 --> 00:13:32.190 Algorithmen schwarze Menschen nicht erkennen oder wenn sie Schwarze 00:13:32.190 --> 00:13:37.280 Menschen erkennen, so wie hier am Beispiel von Algorithmen Watch aus 2020, ein 00:13:37.280 --> 00:13:40.470 Thermometer in der Hand eines schwarzen Menschen plötzlich für eine Waffe halten. 00:13:40.470 --> 00:13:44.510 Wenn man aber mit mittleren Photoshop Skills die Hand weiß macht, ist es 00:13:44.510 --> 00:13:49.220 plötzlich keine Waffe mehr. Sowohl bei dem Beispiel als auch Atlanta als auch bei dem 00:13:49.220 --> 00:13:55.510 Beispiel mit der mit dem Thermometer, tat es Google danach tierisch leid. Tut es 00:13:55.510 --> 00:14:01.870 immer tierisch leid, wenn Google erwischt wird, wenn es Google scheiße baut. Es ist 00:14:01.870 --> 00:14:04.980 aber diese Geistesarbeit finden wir nicht nur im Training von Machine Learning 00:14:04.980 --> 00:14:08.870 Algorithmen, wir haben es bei der Verifizierung von Bankaccount, wenn man 00:14:08.870 --> 00:14:12.450 seine Daten hochlädt und dann plötzlich kommt wie von Geisterhand eine 00:14:12.450 --> 00:14:16.269 Verifizierung oder nicht zurück. Wir haben es bei der Moderation von Inhalten, bei 00:14:16.269 --> 00:14:22.470 Facebook, Twitter oder anderen sozialen Netzwerken. Das alles führt dazu, dass 00:14:22.470 --> 00:14:26.589 diese Erzählung davon, dass uns die Roboter die Arbeit wegnehmen, vielleicht 00:14:26.589 --> 00:14:30.620 nicht stimmt. Vielleicht sollten wir uns nicht davor fürchten, dass uns die 00:14:30.620 --> 00:14:35.329 Technologie ersetzt, sondern eher, dass Menschen entwertet werden, dass Menschen 00:14:35.329 --> 00:14:38.699 Arbeit machen müssen, die immer weniger wert wird und immer weniger wertgeschätzt 00:14:38.699 --> 00:14:42.850 wird. Ich würde deswegen sagen, dass wir es hier mit einer Form von 00:14:42.850 --> 00:14:49.779 Frühkapitalismus im digitalen Gewand zu tun haben. Anderes Beispiel: Am 25. März 00:14:49.779 --> 00:14:55.579 1911 brannte in New York die Triangel Shirtbased Factory. Bei dem Feuer starben 00:14:55.579 --> 00:14:59.570 146 Menschen. Teilweise verbrannten, teilweise, weil sie aus dem Fenster 00:14:59.570 --> 00:15:03.101 springen mussten, weil die Fabrikeigentümer beschlossen hatten, dass 00:15:03.101 --> 00:15:07.460 während der Arbeitszeit die Ausgänge der Fabrik abgeschlossen zu sein haben. Das 00:15:07.460 --> 00:15:15.370 Gebäude wurde so zur Todesfalle. Am 10. 12. 2021 traf ein Hurrikan ein Amazon 00:15:15.370 --> 00:15:20.320 Lagerhaus und sechs Menschen starben während Jeff Bezos damit zu zufrieden war, 00:15:20.320 --> 00:15:26.149 dass er bald in den Weltraum fliegen kann. More perfekt Union ist eine Organisation 00:15:26.149 --> 00:15:30.790 aus den USA, veröffentlichte diesen Screenshot einer der Angestellten vor Ort. 00:15:30.790 --> 00:15:36.769 Er schrieb: "I will be at home after the Storm" und seine Freundin schrieb "what do 00:15:36.769 --> 00:15:41.730 you mean?". Und er schrieb zurück "Amazon won't let us leaf". Das ist das letzte, 00:15:41.730 --> 00:15:46.490 was er seinen Geliebten geschrieben hat. Kurz danach traf der Hurrikan das 00:15:46.490 --> 00:15:53.290 Lagerhaus und er starb zusammen mit fünf anderen. Das ist kein Einzelfall, wenn man 00:15:53.290 --> 00:16:00.170 sich die Anzahl schwerer Verletzung in der Lagerindustrie in den USA anguckt, hat 00:16:00.170 --> 00:16:04.790 Revier herausgefunden, dass die Anzahl bei Amazon ungefähr doppelt so hoch ist wie im 00:16:04.790 --> 00:16:10.460 Industriedurchschnitt. Wir haben es hier mit einem Phänomen namens kybernetische 00:16:10.460 --> 00:16:18.290 Verdichtung zu tun. Das haben. *trinkt einen schluck Wasser". Das heißt, dass die 00:16:18.290 --> 00:16:21.919 Arbeitskraft und die Arbeitszeit immer weiter verdichtet wird, dass immer weniger 00:16:21.919 --> 00:16:26.089 Zeit bleibt, die gleichen Sachen zu machen und dass man zum Beispiel das Sortieren 00:16:26.089 --> 00:16:29.639 von Paketen in Amazon Lagerhäusern immer schneller und schneller machen muss. Das 00:16:29.639 --> 00:16:33.790 führt dazu, dass mittlerweile ein Unterschied von einer Sekunde oder zwei 00:16:33.790 --> 00:16:37.459 Sekunden in der durchschnittlichen Zeit dieser Aufgaben zu machen, der Unterschied 00:16:37.459 --> 00:16:40.500 sind, ob man gelobt wird oder ob man gewarnt wird, dass man zu schlecht 00:16:40.500 --> 00:16:47.170 arbeitet. Und das führt natürlich dazu, dass man anfängt, unsicher zu arbeiten, 00:16:47.170 --> 00:16:52.380 dass man nicht auf sich achten kann, weil die Zeit nicht mehr dafür da ist. You have 00:16:52.380 --> 00:16:59.230 to do unsafe things to make you numbers. Man kann nicht mehr auf sich achten. Und 00:16:59.230 --> 00:17:04.100 diese Verdichtung nimmt immer, nimmt immer weiter zu, diese Algorithmifizierung. 00:17:04.100 --> 00:17:09.740 Dabei ist das an sich erst mal kein neues Phänomen. Die Versuche, Arbeitskraft zu 00:17:09.740 --> 00:17:14.870 automatisieren oder durch Automatisierung zu optimieren, sind so alt wie der 00:17:14.870 --> 00:17:23.390 Kapitalismus selber. In 1844 hat Friedrich Engels Andrew Ure zitiert, der schrieb: 00:17:23.390 --> 00:17:27.330 "In wenigen Monaten schon war eine Maschine fertig, die dem Anschein nach mit 00:17:27.330 --> 00:17:34.050 dem Denkvermögen Gefühl und Takt des erfahrenen Arbeiter begabt war." Von Das 00:17:34.050 --> 00:17:40.911 Zitat könnte eigentlich auch heute in der in der verklärten Sicht auf auf 00:17:40.911 --> 00:17:46.750 Automatisierung und Roboter kommen. Aber kommt aus dem 19. Jahrhundert, aus der 00:17:46.750 --> 00:17:51.299 Zeit des Frühkapitalismus. Was aber auch aus der Zeit des Frühkapitalismus und der 00:17:51.299 --> 00:17:54.120 Zeit danach kommt, ist, dass die ArbeiterInnenbewegung sich Sozialstandards 00:17:54.120 --> 00:17:58.000 erkämpft hat. Feste Arbeitsverhältnisse, ein Recht auf Urlaub, Beschränkung der 00:17:58.000 --> 00:18:01.270 Arbeitszeiten, ein Recht auf gewerkschaftliche Organisierung und so 00:18:01.270 --> 00:18:05.570 weiter und so fort. Also alles das, was wir zum Beispiel bei Amazon oder auch in 00:18:05.570 --> 00:18:09.120 anderen Firmen im Amazon. Nur als prominentes Beispiel ist es nicht so, dass 00:18:09.120 --> 00:18:15.059 Amazon der einzig Schuldige wäre. Sehen, was wieder angegriffen wird, was Union 00:18:15.059 --> 00:18:17.950 basstian betrieben wird und so weiter und so fort. Das wurde alles 00:18:17.950 --> 00:18:21.419 schon mal erkämpft und muss jetzt wieder erkämpft werden bzw. muss immer wieder 00:18:21.419 --> 00:18:25.420 erkämpft werden. So haben wir das Phänomen, dass das, was heutzutage als 00:18:25.420 --> 00:18:29.221 radikal neue Form der Arbeit daherkommt, im Licht der historischen Entwicklung 00:18:29.221 --> 00:18:34.030 oftmals nicht mehr, da fehlt ein nicht, nicht mehr ist als eine Wiederkehr 00:18:34.030 --> 00:18:39.809 früherer Arbeitsverhältnisse. Es ist gar nicht so neu, was wir sehen, es ist nur. 00:18:39.809 --> 00:18:45.350 Es hat sich nur in eine moderne Form geändert. Man könnte sagen und ewig grüßt 00:18:45.350 --> 00:18:52.260 das Kapitalverhältnistier. Und deswegen erlaube man mir die Pathetik Friedrich 00:18:52.260 --> 00:18:57.440 Engels selber zu zitieren, der schrieb die Lage der arbeitenden Klasse in England. 00:18:57.440 --> 00:19:01.480 "Die Arbeiter müssen sich also beschrieben bestreben, aus dieser vertiefenden Lage 00:19:01.480 --> 00:19:04.750 herauszukommen, und dies können sie nicht tun, ohne dass gegen das Interesse der 00:19:04.750 --> 00:19:13.500 Bourgeoisie als solcher anzukämpfen." Das ist ein anderer Punkt in dieser Arbeit ist 00:19:13.500 --> 00:19:19.169 die sogenannte algorithmische und Undurchsichtigkeit. Algorithmische 00:19:19.169 --> 00:19:21.690 Undurchsichtigkeit bedeutet entweder, dass ein Algorithmus so kompliziert geworden 00:19:21.690 --> 00:19:25.020 ist, dass man ihn technisch nicht mehr verstehen kann, was vorkommt, oder aber, 00:19:25.020 --> 00:19:28.570 dass man nicht mehr den Einblick in den Algorithmus hat, dass man also die Frage, 00:19:28.570 --> 00:19:33.789 welchen Einfluss haben Algorithmen auf meine Arbeit? Nicht beantworten kann. Das 00:19:33.789 --> 00:19:36.740 ist im Lagerhaus vielleicht noch relativ offensichtlich. Wenn die Picking Raid 00:19:36.740 --> 00:19:40.610 immer schneller, schneller wird, dann kann man das auf den Algorithmus hin 00:19:40.610 --> 00:19:45.590 hinausführen. Aber wenn ich zum Beispiel bei Deliveroo arbeite oder bei Lieferant 00:19:45.590 --> 00:19:50.210 oder Foodora oder wie die ganzen Buden heißen, da ist das nicht unbedingt so 00:19:50.210 --> 00:19:54.220 offensichtlich, weil die Algorithmen natürlich geheim sind und sich von Firma 00:19:54.220 --> 00:19:58.780 zu Firma unterscheiden. Deliveroo wurde in Italien verklagt, weil der Algorithmus 00:19:58.780 --> 00:20:01.410 diskriminiert hat. Wenn man zum Beispiel krank gewesen ist oder sich an 00:20:01.410 --> 00:20:08.160 Arbeitsorganisation beteiligt hat, dann hat der Algorithmus einen so bestraft, wie 00:20:08.160 --> 00:20:12.350 als wenn man einfach nicht gearbeitet hätte. Das führt natürlich dazu, dass 00:20:12.350 --> 00:20:16.570 Gerüchte entstehen und dass diese Unklarheit zu Wissenshierarchien führt, 00:20:16.570 --> 00:20:20.360 dass man nicht mehr verstehen kann, was eigentlich passiert. Wir haben es mit 00:20:20.360 --> 00:20:24.400 einem Phänomen zu tun, wo die Daten, die angesammelt werden, nur noch in eine 00:20:24.400 --> 00:20:28.970 Richtung fließen. Sie werden von den von den Arbeiterinnen extrahiert und fließen 00:20:28.970 --> 00:20:33.919 in den Wissensschatz der der Plattform, wo sie angehäuft werden, ausgewertet werden 00:20:33.919 --> 00:20:38.470 und so weiter. Das führt zu der Frage, wie soll man denn eigentlich verstehen, was 00:20:38.470 --> 00:20:42.260 nicht fassbar ist. Wenn ich nicht weiß, was der Prozess ist, wie soll ich ihn 00:20:42.260 --> 00:20:46.680 verstehen und wie sollen wir ihn überhaupt fassen, was sich, was ich verändert? 00:20:46.680 --> 00:20:49.640 Natürlich werden diese Algorithmen weiterentwickelt und weiterentwickelt. 00:20:49.640 --> 00:20:54.650 Wenn ein Manager von der Lieferkette sagt unsere Algorithmen sind unfassbar dumm, 00:20:54.650 --> 00:20:59.030 was tatsächlich passiert ist. Sie können gar nicht so diskriminierend sein, wie ihr 00:20:59.030 --> 00:21:02.809 euch das vorstellt, dann ist das ja keine Garantie. Erstens, dass er nicht lügt, was 00:21:02.809 --> 00:21:07.230 man im Manager vielleicht zutrauen sollte und zweitens auch nicht, dass der 00:21:07.230 --> 00:21:13.040 Algorithmus das vielleicht in zwei Monaten vielleicht nicht mehr so dumm ist. Und 00:21:13.040 --> 00:21:17.340 diese Hierarchien können nur aufgelöst werden, wenn die Algorithmen offengelegt 00:21:17.340 --> 00:21:25.120 werden, wenn es eine Möglichkeit gibt, zu verstehen, was eigentlich gerade passiert. 00:21:25.120 --> 00:21:27.640 Wir haben es hier also mit einer Verdichtung der Arbeit zu tun, die auch 00:21:27.640 --> 00:21:32.400 eine Verdichtung der Zeit ist. Unternehmen versuchen alle Sekunden, die hinter den 00:21:32.400 --> 00:21:38.001 Fabriktor stecken oder im Fall von Geeck Work vielleicht auch in den Straßen, in 00:21:38.001 --> 00:21:45.789 Arbeitszeit und in kontrollierte Zeit zu verändern. Vielleicht hilft dagegen 00:21:45.789 --> 00:21:49.850 Faulenzen, um die Überwachung zu verändern. Vielleicht aber auch nicht. Die 00:21:49.850 --> 00:21:53.760 Verlangsamung des Arbeit ist der Arbeit ist ein Mittel des Arbeitskampfes. Der 00:21:53.760 --> 00:21:59.760 sogenannte Bummelstreik ist gut erprobt. Vielleicht kann man den noch gegen 00:21:59.760 --> 00:22:04.940 Algorithmen einsetzen. Das wäre eine These, die es auszuprobieren gilt. Und 00:22:04.940 --> 00:22:08.880 dieses Bewusstsein von der Zeit ist nicht unbedingt neu. Walter Benjamin schreibt in 00:22:08.880 --> 00:22:14.429 seinen Geschichtsphilosophischen Thesen über die Uni Revolution 1830. Das ist in 00:22:14.429 --> 00:22:18.660 ganz Paris, also die Uni Revolution 1830, in Paris, das in ganz Paris unabhängig 00:22:18.660 --> 00:22:22.810 voneinander auf die Turnuhren geschossen wurde, weil die Protestierenden verstanden 00:22:22.810 --> 00:22:27.590 haben, dass diese Turnuhren als Symbol der Zeit und als Symbol des Drucks durch die 00:22:27.590 --> 00:22:35.650 Zeit stehen. Dieser Widerstand oder jeder Widerstand an sich braucht Organisierung, 00:22:35.650 --> 00:22:39.240 wir können nicht einfach, es gibt keine Möglichkeit da als Einzelperson was gegen 00:22:39.240 --> 00:22:43.580 zu machen, sondern man muss sich, man muss sich mit seinen Arbeiterinnen und 00:22:43.580 --> 00:22:47.270 Kolleginnen zusammen organisieren. Und natürlich tun die Firmen alles, dass das 00:22:47.270 --> 00:22:51.330 zu verhindern. Aber sie müssen dabei nicht erfolgreich sein. Das zeigt allein schon 00:22:51.330 --> 00:22:59.050 die Geschichte. Okay, das wäre der Teil zur Arbeit. Gucken wir jetzt uns mal an, 00:22:59.050 --> 00:23:04.900 was der Staat mit der ganzen Geschichte zu tun hat. Ich rede hier ein bisschen über 00:23:04.900 --> 00:23:08.840 über Daten und öffentliche Daten, dann über ökonomische Abhängigkeiten in der 00:23:08.840 --> 00:23:12.090 Forschung, über Polizei und Militär. Ein kleines bisschen über Privatsphäre. Und 00:23:12.090 --> 00:23:16.850 dann zum Schluss. Das ist ein schönes Paket. Also öffentliche Daten und privates 00:23:16.850 --> 00:23:20.870 Geld. Ich würde sagen, dass wir es hier mit einer neuen Form der ursprünglichen 00:23:20.870 --> 00:23:25.490 Akkumulation zu tun haben. Also private Unternehmen versuchen möglichst viel 00:23:25.490 --> 00:23:32.190 verwertbare Stoffe in ihre eigenen Privatbesitz zu gelangen, um daraus Profit 00:23:32.190 --> 00:23:38.600 zu schlagen. Der Rohstoff in diesem Fall sind unsere Geschichten, unser Leben. Die 00:23:38.600 --> 00:23:43.010 Märkte sind, wie wir sehen werden, Kontrolle oder wie wir auch im 00:23:43.010 --> 00:23:47.180 Arbeitskapitel schon gesehen haben und Hokuspokus, wo gesagt wird, künstliche 00:23:47.180 --> 00:23:50.679 Intelligenz wäre in der Lage, dies und jenes zu tun, auch wenn es das auf keinen 00:23:50.679 --> 00:23:55.840 Fall ist. Aber wir brauchen eure Daten. Und ich würde deswegen sagen, dass die 00:23:55.840 --> 00:23:58.950 Innovationen, die uns da verkauft werden, keine ist, sondern einfach alt und 00:23:58.950 --> 00:24:04.170 gebrechlich und stinkt. Was wir aber trotzdem immer mehr sehen, ist eine 00:24:04.170 --> 00:24:08.050 Konzentration unserer Daten in den Rechenzentrum einiger weniger privater 00:24:08.050 --> 00:24:12.600 Unternehmen. Und je mehr konzentriert wird, umso mehr sind wir als Gesellschaft 00:24:12.600 --> 00:24:16.510 darauf angewiesen, dass diese privaten Unternehmen gut zu uns sind. Als Beispiel 00:24:16.510 --> 00:24:20.880 zum Beispiel der Übersetzungsassistent von Google, Google Translate, der zwar für 00:24:20.880 --> 00:24:25.669 alle frei nutzbar ist, wir bezahlen nicht dafür. Und trotzdem sammelt Google all 00:24:25.669 --> 00:24:30.669 unsere Daten. Und je mehr wir diese Nutzung in öffentliche Prozesse einbauen 00:24:30.669 --> 00:24:34.419 oder auch in unser Leben einbauen, umso mehr werden wir von Google abhängig und 00:24:34.419 --> 00:24:37.380 umso mehr werden dafür werden wir davon abhängig, dass Google nicht vielleicht 00:24:37.380 --> 00:24:42.190 irgendwann sagt: Na gut, kein Bock mehr auf umsonst, ab jetzt wird bezahlt. Diese 00:24:42.190 --> 00:24:46.299 Abhängigkeit führt zu einer Frage, die wir so in der Bankenkrise vielleicht schon 00:24:46.299 --> 00:24:53.830 gesehen haben, als Finanzinstitute als too big to fail bezeichnet wurden und immense 00:24:53.830 --> 00:24:58.720 Summen Geld dafür ausgegeben werden werden musste, diese diese Institute zu retten. 00:24:58.720 --> 00:25:03.500 Die Tech-Unternehmen befinden sich immer mehr auf dem Weg, so integrale 00:25:03.500 --> 00:25:08.390 Bestandteile unserer Gesellschaften zu werden, dass auch sie diesen too big to 00:25:08.390 --> 00:25:12.620 fail Moment vermutlich erreichen, wenn nicht schon erreicht haben. Aber es ist 00:25:12.620 --> 00:25:16.190 nicht nur die Öffentlichkeit, die davon abhängig ist, ist es auch zunehmend die 00:25:16.190 --> 00:25:21.600 Forschung, die über künstliche Intelligenz oder über tech generell, die mehr und mehr 00:25:21.600 --> 00:25:27.030 davon abhängig ist, dass sie sich mit den mit den Unternehmen gut stellt. Es sind 00:25:27.030 --> 00:25:31.840 ein paar wenige Unternehmen, die nicht nur die Entwicklungsumgebung stellen, die 00:25:31.840 --> 00:25:39.440 Sprachen und aber auch die Software. Das heißt, die um sie schaffen quasi die das 00:25:39.440 --> 00:25:44.610 Wasser, wie Meredith Whitaker sagte, in dem die Forschung zu künstlicher 00:25:44.610 --> 00:25:49.740 Intelligenz schwimmt. Ein Beispiel hierfür ist Timnit Gebru vermutlich das 00:25:49.740 --> 00:25:54.650 prominenteste der letzten Monate und im Februar ist eine der führenden 00:25:54.650 --> 00:26:03.820 Forscherinnen im Bereich der der ethischen KI und war lange Zeit Qlead bei Google. Im 00:26:03.820 --> 00:26:08.580 Dezember letzten Jahres wurde sie plötzlich gefeuert, angeblich weil sie 00:26:08.580 --> 00:26:13.390 eine Mail an eine Mailingliste geschickt hatte, die einem Manager nicht würdig war. 00:26:13.390 --> 00:26:22.860 Die wahrscheinlichere These ist, dreht sich um ein Paar. Ein Paper, in dem es um 00:26:22.860 --> 00:26:28.720 sogenannte stochastische Papageien ging, um stockastic parrats und um die Gefahren, 00:26:28.720 --> 00:26:33.840 die Large Language Models, sehr große Sprach Modelle, wie zum Beispiel das 00:26:33.840 --> 00:26:42.830 bereits erwähnte Gpd3 führen würden, Gibru und ihre Koathorinen haben in dem Paper 00:26:42.830 --> 00:26:49.919 argumentiert, dass diese Language Modells eine große Reichweite, große Vielfalt 00:26:49.919 --> 00:26:53.900 an Kosten, aber auch Gefahren bilden, also zum Beispiel Kosten werden Umweltkosten. 00:26:53.900 --> 00:26:58.640 Es braucht sehr viel Rechenkapazitäten mit diesen Models zu arbeiten. Harms Während 00:26:58.640 --> 00:27:04.021 z.B. Rachel Harms diese sprach, dass die Modelle es schaffen, künftig sehr 00:27:04.021 --> 00:27:07.929 eloquent über Rassismus zu reden, gebe die drei z.B. auch kurz nach seinem 00:27:07.929 --> 00:27:11.740 Release schon angefangen, antisemitischen und rassistischen Müll zu erzählen, auch 00:27:11.740 --> 00:27:16.350 wenn das überhaupt gar nichts mit der Fragestellung zu tun hat. Und wieder tat 00:27:16.350 --> 00:27:23.679 es Google leid. Es tat Google sogar so leid, dass sie im Februar 2021 MMitchel 00:27:23.679 --> 00:27:32.220 gefeiert haben, Lied eines anderen iTeams bei Alphabet Googles Mutterfirma. Und 00:27:32.220 --> 00:27:37.210 Google sendet damit eine ganz eindeutige Nachricht. Wenn wir die führenden Köpfe 00:27:37.210 --> 00:27:41.559 dem Bereich ethical eye feuern können und es uns zwar leid tut, aber wir es trotzdem 00:27:41.559 --> 00:27:48.020 machen, dann seid ihr besser ganz ruhig und benehmt euch oder ihr seid einfach 00:27:48.020 --> 00:27:55.620 raus. Um diese Form der Abhängigkeit ist ein bisschen simultan zu dem, was wir im 00:27:55.620 --> 00:28:00.250 Kalten Krieg gesehen haben, als das US- Militär immer mehr Geld in die Forschung 00:28:00.250 --> 00:28:05.350 gesteckt hat. Technologie und Militär oder wie ich sagen würde ziemlich beste 00:28:05.350 --> 00:28:12.529 Freundinnen. Sie können bis zum Anfang des Internet, als es noch ARPANET zurückdenkt, 00:28:12.529 --> 00:28:18.340 hieß, zurückdenken und sehen, dass das ARPANET eine Erfindung des Militärs war, 00:28:18.340 --> 00:28:25.470 seine Ausgründung des Arpa, Advanced Research Proposal und a und dass 00:28:25.470 --> 00:28:31.700 Départements of Defence. Und von da an gingen die Investitionen in Forschung und 00:28:31.700 --> 00:28:35.740 Technologie immer weiter und weiter und weiter Geschäfte mit dem Militär 00:28:35.740 --> 00:28:40.450 heutzutage sind Teil des Kerngeschäfts von Google, Facebook, Amazon und so weiter und 00:28:40.450 --> 00:28:47.429 so fort. In Amerika ist eines der größten Projekte, Project Maven. Als offizielles 00:28:47.429 --> 00:28:53.990 erstes Logo hatten sie diese Roboter auf Ecstasy, die dem eigentlichen Inhalt des 00:28:53.990 --> 00:28:57.840 Ganzen, nämlich algorithmisch warfare Cross Functional Team, nun wirklich nicht 00:28:57.840 --> 00:29:04.699 gerecht werden. Am Projekt Melvin war ein Projekt von beinahe allen US 00:29:04.699 --> 00:29:13.100 amerikanischen Verteidigungsinstitution, künstlich intelligente Spionage gang und 00:29:13.100 --> 00:29:17.990 gäbe zu machen und nichts mehr auf der Welt zu verpassen. In diesem Projekt 00:29:17.990 --> 00:29:24.480 wurden auch technologische Errungenschaften von YouTube verwendet, wo 00:29:24.480 --> 00:29:29.110 eigentlich im Zivilen entwickelte Techniken dem Militär nutzbar gemacht 00:29:29.110 --> 00:29:33.390 wurden. Ein Beispiel wäre YouTubes Empfehlungslgorithmus, der auch sogenannte 00:29:33.390 --> 00:29:38.570 Cluster Analysis beruht und diese Cluster Analysis, kann man einerseits benutzen, um 00:29:38.570 --> 00:29:41.270 die Videos anzuzeigen, die dich wahrscheinlich interessieren. Man kann sie 00:29:41.270 --> 00:29:47.430 aber auch benutzen, um vermutete Straftäterinnen zum Beispiel im Irak oder 00:29:47.430 --> 00:29:54.590 so zu entdecken. Für Google ging das nicht so gut aus. Bis zu 3000 MitarbeiterInnen haben 00:29:54.590 --> 00:29:59.071 sich, haben protestiert und Google hat sich aus Project Maven zurückgezogen und 00:29:59.071 --> 00:30:04.049 hat gesagt, wir machen keine autonomen Waffen mehr. Es tat Google natürlich leid. 00:30:04.049 --> 00:30:06.510 Google hat aber auch gleichzeitig gesagt, das Geschäft mit den Militärs und so 00:30:06.510 --> 00:30:10.799 wichtig. Wir machen keine Waffen, aber alles andere machen wir schon. Ein 00:30:10.799 --> 00:30:15.490 jüngeres Beispiel aus Europa ist die 100 Millionen Dollar Investition von Daniel 00:30:15.490 --> 00:30:21.400 Eck, dem CEO von Spotify, der mit seinem Hedgefonds bei Helsingör eingestiegen ist, 00:30:21.400 --> 00:30:25.210 einer deutschen Firma, die sagt, mit ethischen, autonomen Waffensystemen die 00:30:25.210 --> 00:30:30.440 freiheitlich demokratische Grundordnung verteidigen zu wollen. Wo Amerika Roboter 00:30:30.440 --> 00:30:34.529 auf Ecstasy hat, hat Deutschland das Projekt das Kommando Cyber und 00:30:34.529 --> 00:30:39.781 Informationsraum. Das ist ein Symbolbild aus der Weihnachtszeit, das sich darum 00:30:39.781 --> 00:30:45.090 kümmert, die Truppe zu digitalisieren und voranzubringen. Momentan ist man in der 00:30:45.090 --> 00:30:49.760 Phase des 2.0, was nur 20 Jahre nach dem Web 2.0 für deutsche Verhältnisse ein 00:30:49.760 --> 00:30:56.860 ziemlich ordentliches Tempo ist. Aber die Sache ist ernster als blöde Witze. Mit der 00:30:56.860 --> 00:31:01.460 neuen Koalition steht die Anschaffung bewaffneter Drohnen im Koalitionsvertrag. 00:31:01.460 --> 00:31:06.980 Man sagt zwar, man will sie nur bewaffnen, man will sie nicht autonom machen. Aber 00:31:06.980 --> 00:31:11.200 diese Autonomisierung ist im Endeffekt nur noch ein Software-Update entfernt. Und 00:31:11.200 --> 00:31:15.130 dann sollen sie natürlich nur ethisch töten, weil na klar, wir sind hier in 00:31:15.130 --> 00:31:22.000 Deutschland. Das Problem ist aber alleine schon der Einsatz von normalen, von 00:31:22.000 --> 00:31:26.890 normalen Drohnen mit Waffensystemen fügte, führt dazu, dass die Schwelle zum Einsatz 00:31:26.890 --> 00:31:32.731 militärischer Gewalt sinkt und Krieg entgrenzt wird. Inwieweit entgrenzt wird 00:31:32.731 --> 00:31:38.970 und wie wenig wie schlimm das für die Zivilbevölkerung ausgehen kann, hat die 00:31:38.970 --> 00:31:42.100 New York Times jüngst in einer sehr ausführlichen Reportage belegt, in denen 00:31:42.100 --> 00:31:48.951 sie Pentagon Papiere analysiert haben und so zum Beispiel zivile Opfer der 00:31:48.951 --> 00:31:56.710 Luftangriffe der USA veröffentlicht haben. Aber auch hier haben wir es wieder mit 00:31:56.710 --> 00:32:02.559 Problemen von Algorithmen oder Dummheit zu tun. Das Pentagon hat jüngst über einen 00:32:02.559 --> 00:32:09.320 Algorithmus berichtet, der zu 25 prozent die richtigen Ziele ausgewählt hat. Von 00:32:09.320 --> 00:32:13.650 sich selber aber dachte, es wären 90 prozent, der also ziemlich schlecht war, 00:32:13.650 --> 00:32:17.740 aber gleichzeitig gedacht hatte Ich bin richtig gut. Und das ist natürlich ein 00:32:17.740 --> 00:32:23.070 Problem. Es ist auch ein Problem, weil die Algorithmen mit der Zeit besser werden und 00:32:23.070 --> 00:32:30.519 wir dann diese die vielleicht erste offensichtliche Linse Ja, okay. Die 00:32:30.519 --> 00:32:33.010 Algorithmen sind so schlecht und das ist das Problem. Nein, das Problem ist 00:32:33.010 --> 00:32:37.949 eigentlich staatliches Töten und wir müssen uns bewusst sein, dass wir dahin 00:32:37.949 --> 00:32:44.110 müssen, das zu formulieren. Sondern es sagte Herrschaft durch Gewalt ist sowohl 00:32:44.110 --> 00:32:47.809 in autonome Waffentechnologie als auch in den Rahmen des Denkens und der Politik 00:32:47.809 --> 00:32:52.909 eingemeißelt, welcher zu ihrer Entwicklung und ihrem potenziellen Einsatz führt. Es 00:32:52.909 --> 00:32:57.940 geht darum, diese Herrschaft durch Gewalt zu kritisieren und nicht nur das Mittel, 00:32:57.940 --> 00:33:04.010 mit dem sie durchgesetzt wird. Was im Krieg nach außen durch autonome 00:33:04.010 --> 00:33:10.380 Waffensysteme funktioniert, funktioniert im Inneren zum Beispiel durch Gewalt, 00:33:10.380 --> 00:33:13.870 durch Überwachungskameras, die biometrische Daten sammeln. Die deutsche 00:33:13.870 --> 00:33:26.039 Polizei macht da fleißig mit. Es gibt eine gute Chance, dass wenn du Anfang Juli 2017 00:33:26.039 --> 00:33:29.529 in Hamburg fast dein Gesicht für lange Zeit in einer Datenbank der Polizei in 00:33:29.529 --> 00:33:36.210 Hamburg gespeichert war Anfang Juli 2017 war die G20 Proteste und den nächsten Teil 00:33:36.210 --> 00:33:43.020 wollte ich eigentlich überspringen. Und im Rahmen dieser Strafprozesse im Rahmen 00:33:43.020 --> 00:33:46.900 dieser Proteste kam es natürlich zu Angriffen auf Polizeikräfte. Es kam aber 00:33:46.900 --> 00:33:53.350 auch durch Angriffe durch, auf Demonstrierende, durch die Polizei. Hier 00:33:53.350 --> 00:33:59.039 zum Beispiel keine Polizeigewalt durch die Polizei Hashtag Polizeiproblem. Diese 00:33:59.039 --> 00:34:04.120 Software, die benutzt wurde, ist wie Demo 360 und man hat darin mehrere Terabyte 00:34:04.120 --> 00:34:09.359 Daten hochgeladen, Videoaufnahmen, Fotoaufnahmen, um potenzielle GewalttäterIn 00:34:09.359 --> 00:34:18.179 zu identifizieren. Der Einsatz wurde danach vom Verwaltungsgericht Hamburg für 00:34:18.179 --> 00:34:22.650 rechtmäßig erklärt und eine Beschwerde des Datenschutzbeauftragten Hamburgs 00:34:22.650 --> 00:34:26.639 zurückgesetzt. Im neuen Polizeigesetz wurden die Befugnisse des 00:34:26.639 --> 00:34:29.320 Datenschutzbeauftragten weiter zusammengeschnitten, sodass er einfach 00:34:29.320 --> 00:34:32.720 keine Beschwerde mehr hatte, sondern eigentlich nur noch zu einer doofen 00:34:32.720 --> 00:34:38.050 Marionette wurde. Die Polizei hat diese Datenbank mit den und mit den Daten zwar 00:34:38.050 --> 00:34:43.540 2020 gelöscht, aber nicht, weil es ein Fehler war, sondern weil es keine 00:34:43.540 --> 00:34:49.050 strafrechtlich Erforderlichkeit mehr gab. Das Gerichtsurteil ist bestehen geblieben 00:34:49.050 --> 00:34:52.000 und der Präzedenzfall wurde gesetzt. Die Polizei hat schon gesagt, dass sie 00:34:52.000 --> 00:34:56.490 Interesse hat, mit solchen großen Datenbanken weiterzuarbeiten. Bei neuen 00:34:56.490 --> 00:35:00.900 Protesten deutschlandweit wird im Rahmen des Programms Polizei 2020 an 00:35:00.900 --> 00:35:05.240 bundeseinheitlichen Plattformen gearbeitet, die versuchen, die momentane, 00:35:05.240 --> 00:35:09.690 das momentane Chaos, das föderale Überwachungs zu vereinheitlichen und die 00:35:09.690 --> 00:35:14.540 Daten besser zugänglich zu machen. Die Geschichte zeigt aber immer wieder, dass 00:35:14.540 --> 00:35:18.520 Gesichtserkennung kein Tool ist, was einfach funktioniert. Zum Beispiel in der 00:35:18.520 --> 00:35:23.500 Gender Shell-Studie von 2008 wurde gezeigt, dass eigentlich alle 00:35:23.500 --> 00:35:28.079 Gesichtserkennung, Algorithmen, große Unternehmen, schwarze Frauen wesentlich 00:35:28.079 --> 00:35:33.560 schlechter erkennen als weiße Personen oder auch männliche Person. Diese Bias 00:35:33.560 --> 00:35:39.490 findet sich auch in Amazons Recognition Tool wieder, das auf mehr Mitglieder des 00:35:39.490 --> 00:35:43.070 US amerikanischen Kongresses losgelassen wurde und einige von denen zu 00:35:43.070 --> 00:35:47.240 Straftäterinnen machte. Natürlich, oder das heißt natürlich aber kann es 00:35:47.240 --> 00:35:52.400 überraschenderweise vor allen Dingen People of Color. Aber auch hier gibt es 00:35:52.400 --> 00:35:55.650 wieder ein grundlegendes Problem, nämlich dass das Gesichtserkennung im öffentlichen 00:35:55.650 --> 00:35:59.190 Raum eigentlich überhaupt nichts zu tun hat, zu suchen hat und dass 00:35:59.190 --> 00:36:02.850 Gesichtserkennung auch in den Tools der Polizei nichts zu suchen hat. Die Polizei 00:36:02.850 --> 00:36:09.589 ist ein schwer überwacher Organ und es ist eigentlich unmöglich, demokratische 00:36:09.589 --> 00:36:15.530 Kontrolle auszuüben, ihm dafür zu sorgen, dass die Polizei keinen Unsinn macht. Wenn 00:36:15.530 --> 00:36:20.359 man sich Prozesse wie NSU 2.0 oder rechtsextreme TerrorChatgruppen anguckt, 00:36:20.359 --> 00:36:25.369 sollte man vielleicht eher davon ausgehen, dass das passieren wird. Wir sind hier in 00:36:25.369 --> 00:36:28.700 einer Situation, wo die deutsche Polizei machen will, was Facebook nicht mehr machen 00:36:28.700 --> 00:36:32.290 möchte, nämlich flächendeckende Gesichtserkennung. Und wenn man hinter 00:36:32.290 --> 00:36:36.369 Facebook hinterherhinkt im Jahr 2021, dann sollte man sich vielleicht Gedanken 00:36:36.369 --> 00:36:41.690 machen. Falls ihr an dem Widerstand dagegen interessiert seid. Es gibt eine 00:36:41.690 --> 00:36:45.910 Kampagne namens Reclaim your face, die sich gegen Gesichtserkennung und die 00:36:45.910 --> 00:36:51.030 Sammlung von biometrischen Daten in Europa einsetzt. Dafür gibt es auf diesem 00:36:51.030 --> 00:36:58.000 Raumschiff morgen auch einen Vortrag, wo der momentane Stand vorgestellt wird. Der 00:36:58.000 --> 00:37:02.700 letzte, der letzte Teil des Policing, den ich kurz ansprechen möchte und auch Teil 00:37:02.700 --> 00:37:08.110 des neuen Polizeigesetzes in Hamburg, ist Predictive Policing, Predictive Policing 00:37:08.110 --> 00:37:12.800 oder kurz Voraus in die Vergangenheit. Es wird gesagt, ein Algorithmus stellt fest, 00:37:12.800 --> 00:37:17.920 wo morgen oder vielleicht später des Tages Kriminalität stattfinden wird. Und 00:37:17.920 --> 00:37:21.720 natürlich wird gesagt, das ist neutral. Was soll schon passieren? Wieder Markup 00:37:21.720 --> 00:37:27.640 aber jüngst festgestellt hat, führt es eigentlich nur dazu, dass das die Orte, in 00:37:27.640 --> 00:37:33.500 denen momentan Polizeieinsätze stattfinden, auch morgen wieder Ziel von 00:37:33.500 --> 00:37:38.920 Polizeieinsätzen werden. Niemand kann beantworten, warum oder wie das in 00:37:38.920 --> 00:37:43.619 Deutschland nicht passieren sollte. Ganz im Gegenteil eigentlich sogar ein Panel 00:37:43.619 --> 00:37:50.480 der UN warnt davor, dass der unregulierte Einsatz von künstlicher 00:37:50.480 --> 00:37:56.660 Intelligenz in vielen Regierungen rassistische Vorurteile verstärken kann. 00:37:56.660 --> 00:38:01.040 Wir haben es hier also zu tun mit einer Infrastruktur des ständigen staatlichen 00:38:01.040 --> 00:38:06.350 Zugriffs auf unsere Daten, auf unsere Gesichter, auf unser Leben oder... Und es 00:38:06.350 --> 00:38:10.130 geht nicht nur, es geht nicht mehr nur um die Polizei oder nur um das Militär, 00:38:10.130 --> 00:38:15.000 sondern es geht um eine ganzheitliche Verbindung von Geheimdiensten, Polizei und 00:38:15.000 --> 00:38:18.900 Militär, die alle das Gleiche wollen und deren Daten zunehmend interoperabel 00:38:18.900 --> 00:38:24.330 werden. Firmen wie Palantir z.B. versinnbildlichen diese Gemengelage. Die 00:38:24.330 --> 00:38:28.330 arbeiten zusammen mit der NSA, aber auch mit der ISI , also mit der Behörde in den 00:38:28.330 --> 00:38:33.430 USA, aber auch mit der hessischen Polizei oder mit Europol. Also auch die 00:38:33.430 --> 00:38:38.030 herkömmliche nationale Grenzen verschwimmen, dazu einem gewissen Teil. 00:38:38.030 --> 00:38:42.020 Außen und Innen, Polizei sein Militärgeheimdienst verschmelzen und es 00:38:42.020 --> 00:38:47.040 entsteht eigentlich eine große, umfassende oder der Versuch einer großen, umfassenden 00:38:47.040 --> 00:38:51.589 Überwachungsinfrastruktur. Das Schöne ist, dass auch eine Firma wie Palantir Angst 00:38:51.589 --> 00:38:56.070 hat vor einem Bewusstsein über Privatsphäre und auch über ein Bewusstsein 00:38:56.070 --> 00:39:00.480 dafür, dass die Algorithmen dieser Firmen Scheiße bauen. Das heißt, wenn wir, wenn 00:39:00.480 --> 00:39:05.950 wir daran arbeiten, dass nicht zur Normalität werden zu lassen, dann haben 00:39:05.950 --> 00:39:11.660 wir eine reelle Chance, das auch zu verhindern. Und noch kurz ein paar 00:39:11.660 --> 00:39:14.760 Anmerkungen zu Daten und Privatsphäre. Es geht hier vor allem um Zusammenhang von 00:39:14.760 --> 00:39:19.730 Privatsphäre und nicht um die Datensammelwut von Facebook. Dafür gab es 00:39:19.730 --> 00:39:23.790 jetzt hier gerade vorher zum Beispiel einen Vortrag über die Facebook Papers und 00:39:23.790 --> 00:39:31.820 noch ein, zwei andere Punkte im Fahrplan. Wir haben bis jetzt über über staatliche 00:39:31.820 --> 00:39:38.099 Überwachung gesprochen und wie sie immer allgemeiner wird. Das führt dazu. Dass 00:39:38.099 --> 00:39:42.450 einerseits alle betroffen sind, aber dass andererseits Leute, die dem Staat mehr und 00:39:42.450 --> 00:39:47.140 mehr ausgeliefert sind oder wehrloser gegenüber sind, dass die Intensität der 00:39:47.140 --> 00:39:50.640 Eingriffe diesem gegenüber zunimmt. Als Beispiel werden zum Beispiel Hartz-IV- 00:39:50.640 --> 00:39:54.780 Bezieher, in die quasi ein Offenbarungseid gegenüber den Staat abliefern müssen, 00:39:54.780 --> 00:39:58.730 Geflüchtete bei der Einreise oder auch migrantische Communitys, die traditionell 00:39:58.730 --> 00:40:04.940 immer wieder das gesteigerte Ziel von polizeilicher Arbeit sind. Wir haben hier 00:40:04.940 --> 00:40:11.230 also die Situation, dass Überwachung und die die Aufhebung der Privatsphäre ein 00:40:11.230 --> 00:40:15.030 Problem der betroffenen Individuen ist, erst mal auf den ersten Blick. Aber das 00:40:15.030 --> 00:40:18.380 sollte uns nicht dazu verleiten zu denken, das ist ein individuelles Problem ist, 00:40:18.380 --> 00:40:21.740 sondern es ist ein gesellschaftliches Problem. Wir kommen nicht gegen diese 00:40:21.740 --> 00:40:26.650 Dynamik an, mit dem, ich habe nichts zu verbergen---narrativ, weil wir wissen 00:40:26.650 --> 00:40:30.420 nicht, was morgen morgen trifft. Das heißt, wir müssen diese Datafixierung 00:40:30.420 --> 00:40:33.510 nicht auf einem individuellen Level diskutieren, sondern auf einem 00:40:33.510 --> 00:40:37.290 kollektiven. Auf welche Arten und Weisen wollen wir, dass eine Gesellschaft 00:40:37.290 --> 00:40:42.180 datafiziert ist? Was kann uns als Gesellschaft einen einen Nutzen bringen 00:40:42.180 --> 00:40:46.180 und was nicht? Schlussendlich muss es alles, was es für alle möglich sein, ohne 00:40:46.180 --> 00:40:52.150 Angst vor dem digitalen Panoptikum durch die Straßen zu laufen. Privatsphäre und 00:40:52.150 --> 00:40:56.640 Daten sind aber nicht nur ein Problem, das sei noch kurz angemerkt Ich habe ja am 00:40:56.640 --> 00:41:00.151 Anfang bei ImageNet erwähnt, dass niemand gefragt wurde, ob man in diesem Datensatz 00:41:00.151 --> 00:41:06.250 sein möchte oder nicht. Die Forscherin Sascha Luchoni hat jüngst auf Twitter 00:41:06.250 --> 00:41:12.470 gefragt, was denn ein gutes Example von einem KI-Datensatz wäre, wo wirklich nach 00:41:12.470 --> 00:41:17.780 Einverständnis gefragt wurde. Das it even exists? Es stellt sich heraus in allen 00:41:17.780 --> 00:41:22.480 Responses zu diesem Tweet. Es gibt genau eins: Facebooks Casual Convent 00:41:22.480 --> 00:41:27.030 Conversations Dataset scheint das einzige große Daten, der einzige größere Datensatz 00:41:27.030 --> 00:41:31.020 zu sein, in dem die Beteiligten tatsächlich zugestimmt haben, dass ihre 00:41:31.020 --> 00:41:40.660 Daten für Zwecke des maschinellen Lernens verwendet werden. Okay, was tun jetzt oder 00:41:40.660 --> 00:41:45.350 I want you tech for good? Wir haben gesehen, dass wir einen gespenstischen 00:41:45.350 --> 00:41:48.440 Wind haben, einen gespenstischen digitalen Wind, der durch unser Haus, durch unsere 00:41:48.440 --> 00:41:52.590 Gesellschaft bläst. Wir haben gesehen, wie KI das menschliche Zusammenleben 00:41:52.590 --> 00:41:57.080 kodifiziert und als Mittel staatlicher Überwachung und kapitalistischer Kontrolle 00:41:57.080 --> 00:42:01.849 dienen kann. Das heißt aber auch, dass unsere Rassismen, unsere Sexismen und so 00:42:01.849 --> 00:42:08.839 weiter in diese KI eingeschrieben wird und dass gleichzeitig die Technologie sich 00:42:08.839 --> 00:42:12.740 immer schneller und schneller entwickelt, wir aber als Gesellschaft gar kein 00:42:12.740 --> 00:42:18.900 ethisches Verständnis mehr davon schaffen, dass hinterherkommt in dem Tempo der KI 00:42:18.900 --> 00:42:25.130 und das auch dazu führt. Und dass es geht mir jetzt nicht hier darum, KI an sich zu 00:42:25.130 --> 00:42:29.980 verurteilen, sondern es gibt dafür schöne Beispiele. Man kann KI benutzen, um es 00:42:29.980 --> 00:42:35.350 gegen die Überwacher zu drehen und an zum Beispiel für Gesichtserkennung Programme 00:42:35.350 --> 00:42:39.910 auf die Polizei anzuwenden und so Polizisten zu identifizieren, die gegen 00:42:39.910 --> 00:42:45.460 Protestierende eingesetzt werden. Man kann KI zu Hause rumliegen haben und deutsche 00:42:45.460 --> 00:42:52.380 Behörden Maschinen lesbar machen und so besser verstehbar machen. Aber bei allem, 00:42:52.380 --> 00:42:57.599 dem dürfen wir nicht vergessen, dass solange wir, solange wir die Herrschaft 00:42:57.599 --> 00:43:00.980 der Menschen über die Menschen nicht in den Fokus der Kritik richten, sondern uns 00:43:00.980 --> 00:43:04.700 immer wieder nur an den Symptomen abarbeiten, dass wir immer wieder an den 00:43:04.700 --> 00:43:07.100 gleichen Punkt kommen werden, vielleicht mit einer anderen Technologie, aber an den 00:43:07.100 --> 00:43:14.200 gleichen Punkt. Wie Timnit Gebru sagte daß, es geht darum, dass die wenigen 00:43:14.200 --> 00:43:22.680 Systeme der Unterdrückung schaffen und die "others constantly work to prevent harm 00:43:22.680 --> 00:43:28.010 unable to find the time space or resources to implement their own vision of future". 00:43:28.010 --> 00:43:32.430 Und ich glaube tatsächlich, das ist das, wo es im Endeffekt darum gehen würde, dass 00:43:32.430 --> 00:43:37.090 wir es schaffen, die Zeit und den Willen auch zu finden, unsere eigene Vision von 00:43:37.090 --> 00:43:44.260 der Zukunft zu implementieren. Und dann schlussendlich erst wenn wir als Menschen 00:43:44.260 --> 00:43:50.579 gut zueinander sind, können die Maschinen lernen, auch gut zu uns sein zu sein. Um 00:43:50.579 --> 00:43:55.900 noch mal die Slides wie Sources und alle meine Quellen findet ihr auf 00:43:55.900 --> 00:44:06.680 r.ovl.design/rc3-ki, oder über diesen QR- Code. Oder wie gesagt bei Twitter. Damit 00:44:06.680 --> 00:44:11.131 komme ich zum Ende und möchte mich ganz herzlich bedanken bei euch, die ihr 00:44:11.131 --> 00:44:14.690 zugeguckt haben, bei der C-Base für die Einladung hier sprechen zu dürfen und 00:44:14.690 --> 00:44:17.560 natürlich bei allen Forscherinnen, Aktivistinnen, Journalistinnen und so 00:44:17.560 --> 00:44:24.060 weiter, auf deren Arbeit ich mich implizit oder explizit bezogen habe. Vielen Dank! 00:44:24.060 --> 00:44:26.680 Applaus 00:44:26.680 --> 00:44:33.280 Herald: Das war großartig, Oskar, vielen Dank! 45 Minuten, fast fast ohne Pause, da 00:44:33.280 --> 00:44:37.250 gab es ja wirklich ein ordentliches Update. Wir haben neue Wörter gelernt: 00:44:37.250 --> 00:44:44.140 kybernetische Verdichtung, kybernetische Verdichtung, digitaler Frühkapitalismus. 00:44:44.140 --> 00:44:48.430 Demnach müssten wir Hacker jetzt helfen, dass die modernen digitalen Arbeiter 00:44:48.430 --> 00:44:51.840 wieder sich selbst ermächtigen und es wieder zu einer Aufklärung kommt. 00:44:51.840 --> 00:44:53.140 Wahrscheinlich. Oskar: Zum Beispiel. 00:44:53.140 --> 00:44:56.630 Herald: Algorithmische Undurchsichtigkeit. Da müssten die Hacker dafür sorgen, dass 00:44:56.630 --> 00:44:59.300 die Algorithmen irgendwie durchsichtiger werden. Das Peinliche ist ja auch, dass 00:44:59.300 --> 00:45:01.869 man dann sehen könnte, wie nackt der Kaiser möglicherweise ist. 00:45:01.869 --> 00:45:04.119 Oskar lacht Herald: Und wir müssen den Wissensschatz 00:45:04.119 --> 00:45:07.839 der Arbeiter, die davon überwacht und gesteuert werden, irgendwie zu mehren 00:45:07.839 --> 00:45:13.190 suchen. Und interessant fand ich auch künstliche Ideologie. Das ist also so ein 00:45:13.190 --> 00:45:18.830 bisschen, sonst spin gibt dahingehend zu sagen, dass es künstlich, also ist es 00:45:18.830 --> 00:45:22.010 intelligent, auch wenn es vielleicht gar nicht so intelligent ist. Aber künstliche 00:45:22.010 --> 00:45:26.220 Intelligenz ist ja schon mal ein Wert an sich. Stochastische Papageien fand ich 00:45:26.220 --> 00:45:30.569 auch interessant, dass also so große Mengen an Daten, wenn man sie statistisch 00:45:30.569 --> 00:45:34.740 auswertet, natürlich auch statistische Artefakte produzieren. Wer hätte das nur 00:45:34.740 --> 00:45:38.820 denken können? Aufgabe der Hacker hier also auch Selbstermächtigung, Aufklärung 00:45:38.820 --> 00:45:41.770 und Nachgucken. Wie funktioniert das eigentlich, was wir immer schon gemacht 00:45:41.770 --> 00:45:46.280 haben? Und jetzt die einzige Hörerfrage, die in der kurzen Zeit jetzt gekommen ist. 00:45:46.280 --> 00:45:50.390 Oder vielleicht auch Zuschauerfrage? Ist Glaubst du, dass es einen künstlichen 00:45:50.390 --> 00:45:56.751 Dunning-Krüger Effekt gibt? Oskar: lacht verzweifelt Das ist eine 00:45:56.751 --> 00:46:04.230 sehr interessante Frage, die ich vielleicht nächstes Jahr in einem Vortrag 00:46:04.230 --> 00:46:08.280 beantworten werde. Es ist eine sehr interessante Frage. Ich muss darüber 00:46:08.280 --> 00:46:13.550 nachdenken. Ich kann es mir vorstellen, aber ich möchte, ich kann es jetzt gar 00:46:13.550 --> 00:46:17.310 nicht so kohärent beantworten, wie die Frage vielleicht beantwortet werden 00:46:17.310 --> 00:46:19.990 müsste. Herald: Okay, dafür ist die KI Landschaft 00:46:19.990 --> 00:46:23.390 vielleicht ja auch etwas diverser als die Menschen Landschaft da draußen. 00:46:23.390 --> 00:46:26.970 Oskar: Na ja, bis jetzt hat sich gezeigt, dass die KI Landschaft vor allen Dingen 00:46:26.970 --> 00:46:29.060 ziemlich genau das Abbild der Menschen Landschaft ist. Aber die Menschen 00:46:29.060 --> 00:46:32.560 Landschaft ist natürlich auch sehr divers und das ist ja auch ein Vorteil, den wir 00:46:32.560 --> 00:46:35.540 haben können. Nur weil ich jetzt darüber viel darüber gesprochen habe, wie 00:46:35.540 --> 00:46:39.170 künstliche Intelligenz und Herrschaft interagieren, heißt es ja, heißt das ja 00:46:39.170 --> 00:46:42.920 nicht, dass das für immer so bleiben muss, sondern künstliche Dinge kann auch 00:46:42.920 --> 00:46:46.210 emanzipativ werden. Herald: Ja, das ist ja interessant. Also 00:46:46.210 --> 00:46:49.900 heißt das, die Geschichte wiederholt sich wie immer einerseits ja, am Ende aber doch 00:46:49.900 --> 00:46:53.820 nicht. Und es wird nicht so laufen. Mal wieder nicht so, wie Marx es vorausgesagt 00:46:53.820 --> 00:46:54.820 hat. Oskar: Na ja. 00:46:54.820 --> 00:46:56.010 Herald: Nicht mit wissenschaftlicher Genauigkeit. 00:46:56.010 --> 00:46:59.980 Oskar: Ich glaube, wenn man, wenn man genauer hinguckt, der 00:46:59.980 --> 00:47:03.060 Geschichtsdeterminismus und die Voraussage, dass sich die Geschichte auf 00:47:03.060 --> 00:47:05.320 eine bestimmte Art entwickeln wird, ist wahrscheinlich einer der größten 00:47:05.320 --> 00:47:09.270 Schwachpunkte bei Marx und Engels. Und natürlich ist... 00:47:09.270 --> 00:47:13.070 Herald: Bei der KI auch. Oskar: Bei, bei der KI auch, wobei die KI 00:47:13.070 --> 00:47:15.640 eigentlich immer wieder nur eine Wiedergabe der Vergangenheit ist und 00:47:15.640 --> 00:47:18.319 deswegen ja noch gar nicht damit beschäftigt sein kann, wie die Zukunft 00:47:18.319 --> 00:47:21.180 ist. Alles, was ihr über die Zukunft sagt, so wie es gestern war und das bringt uns 00:47:21.180 --> 00:47:23.599 alles und uns nichts. Herald: Bringt das hier an Bord gar 00:47:23.599 --> 00:47:26.720 nichts, wie wir rekonstruieren. Ja, die Zukunft, das müsste die KI erst mal 00:47:26.720 --> 00:47:29.310 lernen. Oskar: Ja. Und wir können die Zukunft auch 00:47:29.310 --> 00:47:32.430 gestalten, weil wir müssen nicht die Fehler der Vergangenheit immer wieder und 00:47:32.430 --> 00:47:36.450 wieder reproduzieren, sondern wir können tatsächlich sagen, das war ein Fehler, wir 00:47:36.450 --> 00:47:39.360 wollen es jetzt anders machen. Herald: Also eine Riesenaufgabe für 00:47:39.360 --> 00:47:42.770 Hacker. Ich glaube damit zusammen, dass es die Sorte Vortrag, die man noch mal 00:47:42.770 --> 00:47:44.510 angucken kann. Oskar lacht 00:47:44.510 --> 00:47:49.260 Herald: Herzlichen Dank! Grüße von der C-Base. Es geht hier um 21 Uhr weiter. Bis 00:47:49.260 --> 00:47:53.260 dann everything ist Lizenz cc by vor Politisierung des Altvordere Community to 00:47:53.260 --> 00:47:55.590 do what. 00:47:55.590 --> 00:48:01.000 Untertitel erstellt von c3subtitles.de im Jahr 2022. Mach mit und hilf uns!