1 00:00:04,750 --> 00:00:09,660 Herald: Herzlich willkommen im C-Base Livestream der Raumstation unter Berlin- 2 00:00:09,660 --> 00:00:13,490 Mitte am S-Bahnhof Jannowitzbrücke. Es freut mich ganz besonders, dass der Oskar 3 00:00:13,490 --> 00:00:18,270 heute hier ist mit dem Thema "Computer says no. Künstliche Intelligenz und 4 00:00:18,270 --> 00:00:22,490 Herrschaft". Das freut mich deswegen ganz besonders, weil ich ja ansonsten Technik 5 00:00:22,490 --> 00:00:27,470 Philosophie mache. Und wir sind ja nun seit ungefähr 25 Jahren darauf warten, 6 00:00:27,470 --> 00:00:30,289 dass die ganzen künstlichen Minderintelligenzen tatsächlich mal so was 7 00:00:30,289 --> 00:00:33,980 wie Bewusstsein entwickeln. Das scheint aber noch nicht der Fall zu sein, es sei 8 00:00:33,980 --> 00:00:37,450 denn, Oskar hat hier Neuigkeiten für uns. Und die interessante Frage ist ja, wie es 9 00:00:37,450 --> 00:00:40,670 zu rechtfertigen ist, dass solche künstlichen Minderintelligenzen dann 10 00:00:40,670 --> 00:00:45,150 Herrschaft über uns ausüben, indem sie uns Kredite verweigern, unsere Bankkarte nicht 11 00:00:45,150 --> 00:00:50,000 verlängern oder auch unsere Steuererklärung für potenziell gefälscht. 12 00:00:50,000 --> 00:00:54,390 Das werden wir jetzt alles genau und näher erfahren. Wie das fast schon akademische 13 00:00:54,390 --> 00:00:58,969 Tradition ist, gibt es genau 45 Minuten Zeit für Oskar. Oskar, du hast die Bühne 14 00:00:58,969 --> 00:01:01,739 für ein Update zur künstlichen Intelligenz und Herrschaft. 15 00:01:01,739 --> 00:01:06,330 Oskar: Vielen Dank! Herzlich willkommen auch allen Wesen an den Empfangsgeräten. 16 00:01:06,330 --> 00:01:10,500 Die schlechte Nachricht zuerst. Es gibt keine Neuigkeiten, sondern meine These ist 17 00:01:10,500 --> 00:01:13,690 eher, dass ich seit 1844 ungefähr nichts geändert hat, außer dass jetzt Computer 18 00:01:13,690 --> 00:01:20,320 dabei sind. Bevor ich anfange, man kann die Slides, alle meine Quellen und ein 19 00:01:20,320 --> 00:01:28,850 Transkript des Talks unter dem Link r.ovl.design/rc3-ki sehen oder über diesen 20 00:01:28,850 --> 00:01:34,080 oben eingeblendeten QR-Code. Ich habe den Link auch um 17:02, was ungefähr jetzt 21 00:01:34,080 --> 00:01:40,829 sein sollte, getwittert. Danke, Künstliche Intelligenz. Mein Twitter @_ovlb. Fangen 22 00:01:40,829 --> 00:01:47,520 wir an. Künstliche Intelligenz. Was meine ich eigentlich damit, wenn ich über 23 00:01:47,520 --> 00:01:53,009 Künstliche Intelligenz spreche? Künstliche Intelligenz an sich ist erst mal eine 24 00:01:53,009 --> 00:01:59,840 recht grobe, grobe Kategorie. Deswegen vorab auf einer technischen Ebene wird es 25 00:01:59,840 --> 00:02:04,880 vor allen Dingen um Machine Learning gehen. Ich werde aber trotzdem den Talk 26 00:02:04,880 --> 00:02:10,979 über von KI sprechen. Ich werde von KI sprechen, weil KI als gesellschaftlicher 27 00:02:10,979 --> 00:02:15,160 Begriff weiter greifend ist als nur die technische Ebene, sondern eine Formierung 28 00:02:15,160 --> 00:02:22,050 von Politik, Arbeit, Kultur und Kapital beinhaltet. Im Folgenden gehört es vor 29 00:02:22,050 --> 00:02:30,489 allem um Politik. Arbeit und Kapital gehen weniger um Kultur. Und das Ganze wird sich 30 00:02:30,489 --> 00:02:35,110 folgendermaßen gliedern. Ich werde erst über ImageNet reden, eines der vermutlich 31 00:02:35,110 --> 00:02:39,209 einflussreichsten Datensätze in der Geschichte des Machine Learning, danach 32 00:02:39,209 --> 00:02:43,280 über Algorithmen und Arbeit und schließlich über einen Teil namens 33 00:02:43,280 --> 00:02:47,490 künstlichen Ideologie, wo ich ein bisschen über staatliche Herrschaft und wie sich 34 00:02:47,490 --> 00:02:54,739 Militär und Polizei künstliche Intelligenz zu Nutze machen. Schließlich ein kleiner, 35 00:02:54,739 --> 00:03:00,142 ein kleiner Ausblick unter dem Titel Was tun? Genau das ist die grobe, grobe 36 00:03:00,142 --> 00:03:05,270 Gliederung. Es ist also kein technischer Vortrag. Ich werde nicht erklären, wie die 37 00:03:05,270 --> 00:03:09,659 Machine Learning funktioniert und ich werde noch nicht erklären, was und wie grundlegend 38 00:03:09,659 --> 00:03:13,489 künstliche Intelligenz ist, oder? Also wenn ihr jetzt einen technischen Vortrag 39 00:03:13,489 --> 00:03:21,790 erwartet habt. Tut mir leid, gibt es nicht. Okay, los geht's. ImageNet, oder wie 40 00:03:21,790 --> 00:03:25,220 Machine Learning sich für immer veränderte. Für die Leute von euch, die 41 00:03:25,220 --> 00:03:29,191 vielleicht nicht einen großen Hintergrund in der Geschichte des der künstlichen 42 00:03:29,191 --> 00:03:34,129 Intelligenz haben. Eine kurze Erklärung, was mit ImageNet eigentlich 43 00:03:34,129 --> 00:03:37,020 ist. ImageNet ist, wie oben schon erwähnt, der vermutlich einflussreichste 44 00:03:37,020 --> 00:03:41,319 Datensatz. Warum, erkläre ich gleich. Und darauf aufbauend wurde vermutlich einer 45 00:03:41,319 --> 00:03:46,280 der einflussreichsten Algorithmen geschrieben. Die Idee ist so kompliziert 46 00:03:46,280 --> 00:03:52,140 wie simpel und wurde von Fei-Fei Li im Jahr 2006 formuliert, nämlich den 47 00:03:52,140 --> 00:03:57,409 Goldstandard für Bilder Datensätze zu sammeln. Die Umsetzung dementsprechend 48 00:03:57,409 --> 00:04:02,689 auch relativ einfach: Bilder sammeln. Nur ist das natürlich, wenn man von einem 49 00:04:02,689 --> 00:04:07,620 Goldstandard spricht und von den damit von den Mengen an Bildern, die und die damit 50 00:04:07,620 --> 00:04:11,780 gemeint sind, leichter gesagt als getan. Fei-Fei Li und ihre Mitfahrenden hatten 51 00:04:11,780 --> 00:04:15,630 zwei Sachen auf ihrer Seite, nämlich einerseits Bilder suchen, die relativ neu 52 00:04:15,630 --> 00:04:20,320 waren und andererseits immer leistungsstärkere Computer. Trotzdem 53 00:04:20,320 --> 00:04:25,729 dauert es drei Jahre, bis genug Bilder zusammengesammelt waren, genug heißt hier 54 00:04:25,729 --> 00:04:31,580 14 Millionen. Und das, um das ein bisschen in Perspektive zu setzen. Einer der 55 00:04:31,580 --> 00:04:36,600 Hauptvorläufer von imageNet, Pascal VOC Pascal Virtual Object Classes beinhaltete 56 00:04:36,600 --> 00:04:44,350 19737 Bilder in 20 Kategorien. Anstatt wie jetzt in der mit 14 Millionen Bildern in 57 00:04:44,350 --> 00:04:52,280 20000 Kategorien. Nun stellt sich aber eine Frage, wie klassifiziert man denn 58 00:04:52,280 --> 00:04:55,900 eigentlich 14 Millionen Bilder, nur weil man in einer Bildersuche nach einem Apfel 59 00:04:55,900 --> 00:04:58,880 gesucht hat, heißt das ja nicht, dass jedes Bild, das bei rausgekommen ist, 60 00:04:58,880 --> 00:05:02,990 einen Apfel beinhaltet. Traditionell wäre das ein Job für Studienanfängerinnen 61 00:05:02,990 --> 00:05:07,870 gewesen. Das heißt, man hat den Leuten, die gerade ein Studium angefangen hat, 62 00:05:07,870 --> 00:05:11,900 gesagt, hier einen Datensatz, bearbeite den bitte. Guck, ob alles korrekt ist. Das 63 00:05:11,900 --> 00:05:15,420 Problem ist, bei 14 Millionen Bildern hat einer, der Mitforschenden ausgerechnet, 64 00:05:15,420 --> 00:05:19,250 würde es ungefähr 19 Jahre dauern, bis die Studienanfängerin diese 14 Millionen 65 00:05:19,250 --> 00:05:23,090 Bilder auch wirklich klassifiziert hätten. Aus der heutigen Perspektive mag man 66 00:05:23,090 --> 00:05:28,090 vielleicht auch sagen, vielleicht ist es ein Job für einen Algorithmus. Das Problem 67 00:05:28,090 --> 00:05:32,521 ist nur, die Algorithmen, die wir heute haben, sind schon nicht gut genug, dass 68 00:05:32,521 --> 00:05:34,371 man einfach sagen kann, hier sind die Bilder, sagt und was ist dann? Das muss 69 00:05:34,371 --> 00:05:39,240 immer wieder kontrolliert werden. Die Algorithmen, die es damals gab, waren noch 70 00:05:39,240 --> 00:05:45,890 schlechter, also auch nicht wirklich die Lösung des Problems. Die Lösung des 71 00:05:45,890 --> 00:05:50,130 Problems kam von einer unverhofften Richtung, von einer micro working, click 72 00:05:50,130 --> 00:05:55,150 working Plattform namens Amazon Mechanical Turk, die in 2015 eingeführt wurde. 73 00:05:55,150 --> 00:06:01,039 Mechanical Turk ist benannt nach dieser Konstruktion, wo ein vermeintlicher 74 00:06:01,039 --> 00:06:05,639 Roboter von einem kleinwüchsigen Menschen in diesem Kasten bedient wurde und dann so 75 00:06:05,639 --> 00:06:13,290 getan hat, als würde er Schach spielen können. Und Mechanical Turk erlaubte es, 76 00:06:13,290 --> 00:06:17,620 sogenannte Human intelligente Tasks einzustellen, also kleine Sachen wie zum 77 00:06:17,620 --> 00:06:21,569 Beispiel, Kucke auf diesem Job, auf diesem Bild ein Apfel ist, die dann von den 78 00:06:21,569 --> 00:06:26,680 Arbeitenden auf der Plattform vervollständigt werden konnten. Durch 79 00:06:26,680 --> 00:06:30,970 diese Plattform war es möglich, diese 14 Millionen Bilder auf 49 000 Leute 80 00:06:30,970 --> 00:06:37,100 aufzubrechen aufzuteilen, die in 167 Ländern daran gearbeitet haben und so 81 00:06:37,100 --> 00:06:40,770 vergleichsweise schnell oder relativ schnell, zumindest sehr viel schneller als 82 00:06:40,770 --> 00:06:45,460 19 Jahre in der Lage waren, die Bilder zu klassifizieren und zu gucken, ob das, was 83 00:06:45,460 --> 00:06:50,639 angeblich auf den Bildern drauf ist, auch wirklich drauf ist. Wir sehen hier eins 84 00:06:50,639 --> 00:06:54,670 der Probleme, die uns immer wieder begegnen werden, wenn wir heutzutage auf 85 00:06:54,670 --> 00:06:58,570 Machine Learning gucken und zwar das menschliche Wahrnehmung auf einen rein 86 00:06:58,570 --> 00:07:03,840 mechanischen Prozess heruntergebrochen wird. In dem Fall, dass visuelle 87 00:07:03,840 --> 00:07:08,979 Intelligenzen reine Mustererkennung ist. Das heißt aber auch, dass zum Beispiel 88 00:07:08,979 --> 00:07:13,690 Erfahrungen von Menschen oder einen Kontext, in welchen die Bilder gesehen 89 00:07:13,690 --> 00:07:16,860 werden, komplett ausgeblendet wird und dass nur noch über diesen mechanischen 90 00:07:16,860 --> 00:07:21,590 Prozess geht. Bei einem Apfelkuchen mag das okay sein, aber imageNet hat auch 91 00:07:21,590 --> 00:07:26,580 Kategorien für Menschen enthalten. Und da wird es schon wesentlich schwieriger zu 92 00:07:26,580 --> 00:07:33,370 sagen, alles ist eins. Trotzdem Sie haben es gemacht und sie waren damit auch soweit 93 00:07:33,370 --> 00:07:37,650 zufrieden und hatten dann diese 14 Millionen Bilder mehr oder weniger sauber 94 00:07:37,650 --> 00:07:43,870 klassifiziert rumliegen. Dann kam die nächste Frage. Und jetzt? Was macht man 95 00:07:43,870 --> 00:07:48,349 jetzt mit diesem Datensatz? Was macht man mit diesen Bildern? Im Rahmen der 96 00:07:48,349 --> 00:07:54,300 Forschung gab es von 2010 bis 2017 die sogenannte ImageNet Large Scale Visual 97 00:07:54,300 --> 00:07:58,979 Recognition Challenge. In dieser Challenge hat sich erstmal relativ lange nichts 98 00:07:58,979 --> 00:08:08,419 getan. Es wurde geforscht, bis schließlich im Jahre 2012 der bereits angesprochene 99 00:08:08,419 --> 00:08:12,880 einflussreiche Algorithmus vorgestellt wurde. AlexNet. AlexNet ist es 100 00:08:12,880 --> 00:08:17,020 eine Entwicklung von Alex Krichevsky und seinem Team an der Universität Toronto 101 00:08:17,020 --> 00:08:23,830 gewesen und führte ein neues Konzept ein, nämlich das der neuronalen Netze, die im 102 00:08:23,830 --> 00:08:27,389 Folgenden zu einem der tonangebenden Paradigmen in Machine Learning wurden, 103 00:08:27,389 --> 00:08:32,940 weil es dadurch möglich war, diese Bildmassen und diese an diese Datenmassen 104 00:08:32,940 --> 00:08:37,940 um wesentlich wesentlich schneller zu bearbeiten bearbeiten, als es vorher 105 00:08:37,940 --> 00:08:43,050 möglich war. Auch heute ist das quasi immer noch der der Mechanismus, der 106 00:08:43,050 --> 00:08:48,180 meistens verwendet wird. Okay, das quasi so als kurzer historischer Hintergrund, 107 00:08:48,180 --> 00:08:52,440 worüber wir meistens reden, wenn wir von Algorithmen reden, nämlich um große 108 00:08:52,440 --> 00:08:57,170 Datenmengen, die im Sinne von Machine Learning oder Deep Learning, wie man es 109 00:08:57,170 --> 00:09:05,160 auch nennt, bearbeitet werden. Okay. Wir haben also unfassbare Mengen an Daten. Wir 110 00:09:05,160 --> 00:09:08,470 haben einen fehlenden Konsens, also niemand der Menschen, die in diesem 111 00:09:08,470 --> 00:09:11,700 Datensatz aufgetaucht wurden, wurde vorher gefragt, ob das vielleicht auch noch okay 112 00:09:11,700 --> 00:09:14,360 ist, dass deren Bilder da gespeichert wurden, sondern die Bilder waren einfach 113 00:09:14,360 --> 00:09:19,120 in diesem Datensatz und sind es auch heute noch größtenteils. Und wir haben ein 114 00:09:19,120 --> 00:09:22,790 mechanisches Verständnis menschlicher Wahrnehmung. Und schließlich haben wir 115 00:09:22,790 --> 00:09:28,710 Deep Learning, also als technische Art und Weise, damit umzugehen, dass alles. Diese 116 00:09:28,710 --> 00:09:37,130 vier Punkte werden wir immer wieder und wieder finden. Damit quasi der ImageNet zu Ende und der 117 00:09:37,130 --> 00:09:41,820 nächste Teil zu Arbeit und Algorithmen. Noch mal ich auch hier einen Schritt 118 00:09:41,820 --> 00:09:45,859 zurück und die Frage, worüber rede ich eigentlich, reden wir in diesem Kontext, 119 00:09:45,859 --> 00:09:51,640 wenn wir von Arbeit reden. Wir reden einerseits von unbezahlter Arbeit. Das 120 00:09:51,640 --> 00:09:55,690 Beispiel dafür ist zum Beispiel Google Recaptcha, wo wir, um Beweise zu beweisen, 121 00:09:55,690 --> 00:09:59,560 dass wir Menschen sind, beweisen, dass wir einen Schornstein erkennen können. Wir 122 00:09:59,560 --> 00:10:06,040 haben als zweites unsichtbare Arbeit. Das bedeutet, wie zum Beispiel die Leute auf 123 00:10:06,040 --> 00:10:10,360 Amazons Mechanical Turk Platform, diese 49000, die tauchen nie als Co-Autorin oder 124 00:10:10,360 --> 00:10:14,990 so was in den Papieren auf. Aber haben wir doch einen fundamentalen Anteil der Arbeit 125 00:10:14,990 --> 00:10:19,300 geliefert. Schließlich haben wir durch Algorithmen kontrollierte Arbeit, hier zum 126 00:10:19,300 --> 00:10:23,310 Beispiel Amazons Lagerhäuser oder Lieferdienste wie Lieferando oder 127 00:10:23,310 --> 00:10:29,050 Delivery. Über unbezahlte Arbeit möchte ich jetzt nicht richtig sprechen, sondern 128 00:10:29,050 --> 00:10:33,520 eher, sondern ich habe unsichtbare Arbeit und die modifizierte Arbeit konzentrieren. 129 00:10:33,520 --> 00:10:40,740 Fangen wir mit unsichtbarer Arbeit an.. Wie wir gesehen haben, bei imageNet haben 130 00:10:40,740 --> 00:10:46,440 wir diese Erzählung von KI tut dieses oder tut jenes. Wenn die KI erkennt, dass etwas 131 00:10:46,440 --> 00:10:51,430 in den Bildern ist oder die KI hat in GO gewonnen, die KI schreibt mit Gptt drei 132 00:10:51,430 --> 00:10:56,040 unfassbar schöne Texte oder dumme Texte von Teil zu Teil, KI betreibt Protein 133 00:10:56,040 --> 00:11:02,890 foldern. Das Problem ist nur, die KI tut das nicht. Die KI ist für die für die 134 00:11:02,890 --> 00:11:07,530 Forscherin, die das eigentlich tun, ein Werkzeug, das benutzt wird. Und es ist 135 00:11:07,530 --> 00:11:11,250 nicht die KI, die plötzlich vom Himmel kommt und sagt, Ja, herzlichen 136 00:11:11,250 --> 00:11:18,110 Glückwunsch, GO, kann ich, sondern eher im Gegenteil. Wie der Economist gezeigt hat, 137 00:11:18,110 --> 00:11:24,250 zeigt es braucht es heutzutage ungefähr 80 prozent der Entwicklungszeit eines Machine 138 00:11:24,250 --> 00:11:30,030 Learning Projektes sind menschliche Arbeit. Nur da hinten beim Modeltraining, 139 00:11:30,030 --> 00:11:33,779 dann kommt der Computer tatsächlich ins Spiel. Aber der allergrößte Teil ist 140 00:11:33,779 --> 00:11:39,110 menschliche Arbeit, die aber sowohl in der öffentlichen Erzählung und in dieser der 141 00:11:39,110 --> 00:11:45,839 Wahrnehmung unsichtbar gemacht wird. Und es braucht halt genau diese menschliche 142 00:11:45,839 --> 00:11:48,339 Arbeit, damit ein Algorithmus gut funktioniert und ein Machine Learning 143 00:11:48,339 --> 00:11:53,519 System, braucht es große Mengen an Daten. Die müssen natürlich sauber sein, weil 144 00:11:53,519 --> 00:11:56,730 wenn die Daten, aus denen der Algorithmus lernt, nicht sauber sind, dann ist das, 145 00:11:56,730 --> 00:12:01,610 was hinten rauskommt auch Mist. Und deswegen muss das bis heute von von 146 00:12:01,610 --> 00:12:07,620 Menschen unternommen werden. Wir sind also wieder da, wo wir bei Mechanical Turk so 147 00:12:07,620 --> 00:12:11,870 ein bisschen waren, bei einer Maschine, die so tut, als wäre sie keine Maschine. 148 00:12:11,870 --> 00:12:16,100 Eine andere Metapher vielleicht die, die man benutzen kann, sind potemkinsche 149 00:12:16,100 --> 00:12:20,200 Dörfer, wo vorne alles schön fein gemacht wird. Und die Fassaden sehen aus, als 150 00:12:20,200 --> 00:12:23,420 hätte man die schönsten, schönsten Häuser der Welt. Aber hinten, wo es niemand 151 00:12:23,420 --> 00:12:28,920 sieht, verfällt es einfach. Kate Crawford nennt es, nennt diese Form der KI in 152 00:12:28,920 --> 00:12:33,561 Anlehnung dessen auch potemkinsche KI, also wenig mehr als Fassaden, die so 153 00:12:33,561 --> 00:12:40,040 demonstrieren, wie ein autonomes System aussehen würde, wenn es autonom wäre. Wir 154 00:12:40,040 --> 00:12:46,870 es hier zu tun mit einem schönen Schein des Automatismus. Diese Arbeit kann aber 155 00:12:46,870 --> 00:12:53,660 auch anders aussehen. Das ist ein Foto von der New York Daily News und diese 156 00:12:53,660 --> 00:12:57,540 Schlange, die ich wir sehen, sind Obdachlose, meistens schwarze Obdachlose, 157 00:12:57,540 --> 00:13:02,790 die von einer Subfirma oder von einer Firma oder die von Google da beauftragt 158 00:13:02,790 --> 00:13:08,980 wurden. Eine Firma hat Google beauftragt Daten zu sammeln, und zwar bestimmte 159 00:13:08,980 --> 00:13:13,411 Daten, Daten der Gesichter von schwarzen Menschen. Diese Leute haben dafür ein 160 00:13:13,411 --> 00:13:18,089 Geschenkgutschein im Wert von 5 Dollar gekriegt, dafür, dass ihr 3D-Modell auf 161 00:13:18,089 --> 00:13:23,300 die Server von Google hochgeladen wurde. Ziemlich niedriger Preis. Warum macht 162 00:13:23,300 --> 00:13:28,120 Google das? Weil Google immer wieder in Kritik kommt, dass ihre eigenen 163 00:13:28,120 --> 00:13:32,190 Algorithmen schwarze Menschen nicht erkennen oder wenn sie Schwarze 164 00:13:32,190 --> 00:13:37,280 Menschen erkennen, so wie hier am Beispiel von Algorithmen Watch aus 2020, ein 165 00:13:37,280 --> 00:13:40,470 Thermometer in der Hand eines schwarzen Menschen plötzlich für eine Waffe halten. 166 00:13:40,470 --> 00:13:44,510 Wenn man aber mit mittleren Photoshop Skills die Hand weiß macht, ist es 167 00:13:44,510 --> 00:13:49,220 plötzlich keine Waffe mehr. Sowohl bei dem Beispiel als auch Atlanta als auch bei dem 168 00:13:49,220 --> 00:13:55,510 Beispiel mit der mit dem Thermometer, tat es Google danach tierisch leid. Tut es 169 00:13:55,510 --> 00:14:01,870 immer tierisch leid, wenn Google erwischt wird, wenn es Google scheiße baut. Es ist 170 00:14:01,870 --> 00:14:04,980 aber diese Geistesarbeit finden wir nicht nur im Training von Machine Learning 171 00:14:04,980 --> 00:14:08,870 Algorithmen, wir haben es bei der Verifizierung von Bankaccount, wenn man 172 00:14:08,870 --> 00:14:12,450 seine Daten hochlädt und dann plötzlich kommt wie von Geisterhand eine 173 00:14:12,450 --> 00:14:16,269 Verifizierung oder nicht zurück. Wir haben es bei der Moderation von Inhalten, bei 174 00:14:16,269 --> 00:14:22,470 Facebook, Twitter oder anderen sozialen Netzwerken. Das alles führt dazu, dass 175 00:14:22,470 --> 00:14:26,589 diese Erzählung davon, dass uns die Roboter die Arbeit wegnehmen, vielleicht 176 00:14:26,589 --> 00:14:30,620 nicht stimmt. Vielleicht sollten wir uns nicht davor fürchten, dass uns die 177 00:14:30,620 --> 00:14:35,329 Technologie ersetzt, sondern eher, dass Menschen entwertet werden, dass Menschen 178 00:14:35,329 --> 00:14:38,699 Arbeit machen müssen, die immer weniger wert wird und immer weniger wertgeschätzt 179 00:14:38,699 --> 00:14:42,850 wird. Ich würde deswegen sagen, dass wir es hier mit einer Form von 180 00:14:42,850 --> 00:14:49,779 Frühkapitalismus im digitalen Gewand zu tun haben. Anderes Beispiel: Am 25. März 181 00:14:49,779 --> 00:14:55,579 1911 brannte in New York die Triangel Shirtbased Factory. Bei dem Feuer starben 182 00:14:55,579 --> 00:14:59,570 146 Menschen. Teilweise verbrannten, teilweise, weil sie aus dem Fenster 183 00:14:59,570 --> 00:15:03,101 springen mussten, weil die Fabrikeigentümer beschlossen hatten, dass 184 00:15:03,101 --> 00:15:07,460 während der Arbeitszeit die Ausgänge der Fabrik abgeschlossen zu sein haben. Das 185 00:15:07,460 --> 00:15:15,370 Gebäude wurde so zur Todesfalle. Am 10. 12. 2021 traf ein Hurrikan ein Amazon 186 00:15:15,370 --> 00:15:20,320 Lagerhaus und sechs Menschen starben während Jeff Bezos damit zu zufrieden war, 187 00:15:20,320 --> 00:15:26,149 dass er bald in den Weltraum fliegen kann. More perfekt Union ist eine Organisation 188 00:15:26,149 --> 00:15:30,790 aus den USA, veröffentlichte diesen Screenshot einer der Angestellten vor Ort. 189 00:15:30,790 --> 00:15:36,769 Er schrieb: "I will be at home after the Storm" und seine Freundin schrieb "what do 190 00:15:36,769 --> 00:15:41,730 you mean?". Und er schrieb zurück "Amazon won't let us leaf". Das ist das letzte, 191 00:15:41,730 --> 00:15:46,490 was er seinen Geliebten geschrieben hat. Kurz danach traf der Hurrikan das 192 00:15:46,490 --> 00:15:53,290 Lagerhaus und er starb zusammen mit fünf anderen. Das ist kein Einzelfall, wenn man 193 00:15:53,290 --> 00:16:00,170 sich die Anzahl schwerer Verletzung in der Lagerindustrie in den USA anguckt, hat 194 00:16:00,170 --> 00:16:04,790 Revier herausgefunden, dass die Anzahl bei Amazon ungefähr doppelt so hoch ist wie im 195 00:16:04,790 --> 00:16:10,460 Industriedurchschnitt. Wir haben es hier mit einem Phänomen namens kybernetische 196 00:16:10,460 --> 00:16:18,290 Verdichtung zu tun. Das haben. *trinkt einen schluck Wasser". Das heißt, dass die 197 00:16:18,290 --> 00:16:21,919 Arbeitskraft und die Arbeitszeit immer weiter verdichtet wird, dass immer weniger 198 00:16:21,919 --> 00:16:26,089 Zeit bleibt, die gleichen Sachen zu machen und dass man zum Beispiel das Sortieren 199 00:16:26,089 --> 00:16:29,639 von Paketen in Amazon Lagerhäusern immer schneller und schneller machen muss. Das 200 00:16:29,639 --> 00:16:33,790 führt dazu, dass mittlerweile ein Unterschied von einer Sekunde oder zwei 201 00:16:33,790 --> 00:16:37,459 Sekunden in der durchschnittlichen Zeit dieser Aufgaben zu machen, der Unterschied 202 00:16:37,459 --> 00:16:40,500 sind, ob man gelobt wird oder ob man gewarnt wird, dass man zu schlecht 203 00:16:40,500 --> 00:16:47,170 arbeitet. Und das führt natürlich dazu, dass man anfängt, unsicher zu arbeiten, 204 00:16:47,170 --> 00:16:52,380 dass man nicht auf sich achten kann, weil die Zeit nicht mehr dafür da ist. You have 205 00:16:52,380 --> 00:16:59,230 to do unsafe things to make you numbers. Man kann nicht mehr auf sich achten. Und 206 00:16:59,230 --> 00:17:04,100 diese Verdichtung nimmt immer, nimmt immer weiter zu, diese Algorithmifizierung. 207 00:17:04,100 --> 00:17:09,740 Dabei ist das an sich erst mal kein neues Phänomen. Die Versuche, Arbeitskraft zu 208 00:17:09,740 --> 00:17:14,870 automatisieren oder durch Automatisierung zu optimieren, sind so alt wie der 209 00:17:14,870 --> 00:17:23,390 Kapitalismus selber. In 1844 hat Friedrich Engels Andrew Ure zitiert, der schrieb: 210 00:17:23,390 --> 00:17:27,330 "In wenigen Monaten schon war eine Maschine fertig, die dem Anschein nach mit 211 00:17:27,330 --> 00:17:34,050 dem Denkvermögen Gefühl und Takt des erfahrenen Arbeiter begabt war." Von Das 212 00:17:34,050 --> 00:17:40,911 Zitat könnte eigentlich auch heute in der in der verklärten Sicht auf auf 213 00:17:40,911 --> 00:17:46,750 Automatisierung und Roboter kommen. Aber kommt aus dem 19. Jahrhundert, aus der 214 00:17:46,750 --> 00:17:51,299 Zeit des Frühkapitalismus. Was aber auch aus der Zeit des Frühkapitalismus und der 215 00:17:51,299 --> 00:17:54,120 Zeit danach kommt, ist, dass die ArbeiterInnenbewegung sich Sozialstandards 216 00:17:54,120 --> 00:17:58,000 erkämpft hat. Feste Arbeitsverhältnisse, ein Recht auf Urlaub, Beschränkung der 217 00:17:58,000 --> 00:18:01,270 Arbeitszeiten, ein Recht auf gewerkschaftliche Organisierung und so 218 00:18:01,270 --> 00:18:05,570 weiter und so fort. Also alles das, was wir zum Beispiel bei Amazon oder auch in 219 00:18:05,570 --> 00:18:09,120 anderen Firmen im Amazon. Nur als prominentes Beispiel ist es nicht so, dass 220 00:18:09,120 --> 00:18:15,059 Amazon der einzig Schuldige wäre. Sehen, was wieder angegriffen wird, was Union 221 00:18:15,059 --> 00:18:17,950 basstian betrieben wird und so weiter und so fort. Das wurde alles 222 00:18:17,950 --> 00:18:21,419 schon mal erkämpft und muss jetzt wieder erkämpft werden bzw. muss immer wieder 223 00:18:21,419 --> 00:18:25,420 erkämpft werden. So haben wir das Phänomen, dass das, was heutzutage als 224 00:18:25,420 --> 00:18:29,221 radikal neue Form der Arbeit daherkommt, im Licht der historischen Entwicklung 225 00:18:29,221 --> 00:18:34,030 oftmals nicht mehr, da fehlt ein nicht, nicht mehr ist als eine Wiederkehr 226 00:18:34,030 --> 00:18:39,809 früherer Arbeitsverhältnisse. Es ist gar nicht so neu, was wir sehen, es ist nur. 227 00:18:39,809 --> 00:18:45,350 Es hat sich nur in eine moderne Form geändert. Man könnte sagen und ewig grüßt 228 00:18:45,350 --> 00:18:52,260 das Kapitalverhältnistier. Und deswegen erlaube man mir die Pathetik Friedrich 229 00:18:52,260 --> 00:18:57,440 Engels selber zu zitieren, der schrieb die Lage der arbeitenden Klasse in England. 230 00:18:57,440 --> 00:19:01,480 "Die Arbeiter müssen sich also beschrieben bestreben, aus dieser vertiefenden Lage 231 00:19:01,480 --> 00:19:04,750 herauszukommen, und dies können sie nicht tun, ohne dass gegen das Interesse der 232 00:19:04,750 --> 00:19:13,500 Bourgeoisie als solcher anzukämpfen." Das ist ein anderer Punkt in dieser Arbeit ist 233 00:19:13,500 --> 00:19:19,169 die sogenannte algorithmische und Undurchsichtigkeit. Algorithmische 234 00:19:19,169 --> 00:19:21,690 Undurchsichtigkeit bedeutet entweder, dass ein Algorithmus so kompliziert geworden 235 00:19:21,690 --> 00:19:25,020 ist, dass man ihn technisch nicht mehr verstehen kann, was vorkommt, oder aber, 236 00:19:25,020 --> 00:19:28,570 dass man nicht mehr den Einblick in den Algorithmus hat, dass man also die Frage, 237 00:19:28,570 --> 00:19:33,789 welchen Einfluss haben Algorithmen auf meine Arbeit? Nicht beantworten kann. Das 238 00:19:33,789 --> 00:19:36,740 ist im Lagerhaus vielleicht noch relativ offensichtlich. Wenn die Picking Raid 239 00:19:36,740 --> 00:19:40,610 immer schneller, schneller wird, dann kann man das auf den Algorithmus hin 240 00:19:40,610 --> 00:19:45,590 hinausführen. Aber wenn ich zum Beispiel bei Deliveroo arbeite oder bei Lieferant 241 00:19:45,590 --> 00:19:50,210 oder Foodora oder wie die ganzen Buden heißen, da ist das nicht unbedingt so 242 00:19:50,210 --> 00:19:54,220 offensichtlich, weil die Algorithmen natürlich geheim sind und sich von Firma 243 00:19:54,220 --> 00:19:58,780 zu Firma unterscheiden. Deliveroo wurde in Italien verklagt, weil der Algorithmus 244 00:19:58,780 --> 00:20:01,410 diskriminiert hat. Wenn man zum Beispiel krank gewesen ist oder sich an 245 00:20:01,410 --> 00:20:08,160 Arbeitsorganisation beteiligt hat, dann hat der Algorithmus einen so bestraft, wie 246 00:20:08,160 --> 00:20:12,350 als wenn man einfach nicht gearbeitet hätte. Das führt natürlich dazu, dass 247 00:20:12,350 --> 00:20:16,570 Gerüchte entstehen und dass diese Unklarheit zu Wissenshierarchien führt, 248 00:20:16,570 --> 00:20:20,360 dass man nicht mehr verstehen kann, was eigentlich passiert. Wir haben es mit 249 00:20:20,360 --> 00:20:24,400 einem Phänomen zu tun, wo die Daten, die angesammelt werden, nur noch in eine 250 00:20:24,400 --> 00:20:28,970 Richtung fließen. Sie werden von den von den Arbeiterinnen extrahiert und fließen 251 00:20:28,970 --> 00:20:33,919 in den Wissensschatz der der Plattform, wo sie angehäuft werden, ausgewertet werden 252 00:20:33,919 --> 00:20:38,470 und so weiter. Das führt zu der Frage, wie soll man denn eigentlich verstehen, was 253 00:20:38,470 --> 00:20:42,260 nicht fassbar ist. Wenn ich nicht weiß, was der Prozess ist, wie soll ich ihn 254 00:20:42,260 --> 00:20:46,680 verstehen und wie sollen wir ihn überhaupt fassen, was sich, was ich verändert? 255 00:20:46,680 --> 00:20:49,640 Natürlich werden diese Algorithmen weiterentwickelt und weiterentwickelt. 256 00:20:49,640 --> 00:20:54,650 Wenn ein Manager von der Lieferkette sagt unsere Algorithmen sind unfassbar dumm, 257 00:20:54,650 --> 00:20:59,030 was tatsächlich passiert ist. Sie können gar nicht so diskriminierend sein, wie ihr 258 00:20:59,030 --> 00:21:02,809 euch das vorstellt, dann ist das ja keine Garantie. Erstens, dass er nicht lügt, was 259 00:21:02,809 --> 00:21:07,230 man im Manager vielleicht zutrauen sollte und zweitens auch nicht, dass der 260 00:21:07,230 --> 00:21:13,040 Algorithmus das vielleicht in zwei Monaten vielleicht nicht mehr so dumm ist. Und 261 00:21:13,040 --> 00:21:17,340 diese Hierarchien können nur aufgelöst werden, wenn die Algorithmen offengelegt 262 00:21:17,340 --> 00:21:25,120 werden, wenn es eine Möglichkeit gibt, zu verstehen, was eigentlich gerade passiert. 263 00:21:25,120 --> 00:21:27,640 Wir haben es hier also mit einer Verdichtung der Arbeit zu tun, die auch 264 00:21:27,640 --> 00:21:32,400 eine Verdichtung der Zeit ist. Unternehmen versuchen alle Sekunden, die hinter den 265 00:21:32,400 --> 00:21:38,001 Fabriktor stecken oder im Fall von Geeck Work vielleicht auch in den Straßen, in 266 00:21:38,001 --> 00:21:45,789 Arbeitszeit und in kontrollierte Zeit zu verändern. Vielleicht hilft dagegen 267 00:21:45,789 --> 00:21:49,850 Faulenzen, um die Überwachung zu verändern. Vielleicht aber auch nicht. Die 268 00:21:49,850 --> 00:21:53,760 Verlangsamung des Arbeit ist der Arbeit ist ein Mittel des Arbeitskampfes. Der 269 00:21:53,760 --> 00:21:59,760 sogenannte Bummelstreik ist gut erprobt. Vielleicht kann man den noch gegen 270 00:21:59,760 --> 00:22:04,940 Algorithmen einsetzen. Das wäre eine These, die es auszuprobieren gilt. Und 271 00:22:04,940 --> 00:22:08,880 dieses Bewusstsein von der Zeit ist nicht unbedingt neu. Walter Benjamin schreibt in 272 00:22:08,880 --> 00:22:14,429 seinen Geschichtsphilosophischen Thesen über die Uni Revolution 1830. Das ist in 273 00:22:14,429 --> 00:22:18,660 ganz Paris, also die Uni Revolution 1830, in Paris, das in ganz Paris unabhängig 274 00:22:18,660 --> 00:22:22,810 voneinander auf die Turnuhren geschossen wurde, weil die Protestierenden verstanden 275 00:22:22,810 --> 00:22:27,590 haben, dass diese Turnuhren als Symbol der Zeit und als Symbol des Drucks durch die 276 00:22:27,590 --> 00:22:35,650 Zeit stehen. Dieser Widerstand oder jeder Widerstand an sich braucht Organisierung, 277 00:22:35,650 --> 00:22:39,240 wir können nicht einfach, es gibt keine Möglichkeit da als Einzelperson was gegen 278 00:22:39,240 --> 00:22:43,580 zu machen, sondern man muss sich, man muss sich mit seinen Arbeiterinnen und 279 00:22:43,580 --> 00:22:47,270 Kolleginnen zusammen organisieren. Und natürlich tun die Firmen alles, dass das 280 00:22:47,270 --> 00:22:51,330 zu verhindern. Aber sie müssen dabei nicht erfolgreich sein. Das zeigt allein schon 281 00:22:51,330 --> 00:22:59,050 die Geschichte. Okay, das wäre der Teil zur Arbeit. Gucken wir jetzt uns mal an, 282 00:22:59,050 --> 00:23:04,900 was der Staat mit der ganzen Geschichte zu tun hat. Ich rede hier ein bisschen über 283 00:23:04,900 --> 00:23:08,840 über Daten und öffentliche Daten, dann über ökonomische Abhängigkeiten in der 284 00:23:08,840 --> 00:23:12,090 Forschung, über Polizei und Militär. Ein kleines bisschen über Privatsphäre. Und 285 00:23:12,090 --> 00:23:16,850 dann zum Schluss. Das ist ein schönes Paket. Also öffentliche Daten und privates 286 00:23:16,850 --> 00:23:20,870 Geld. Ich würde sagen, dass wir es hier mit einer neuen Form der ursprünglichen 287 00:23:20,870 --> 00:23:25,490 Akkumulation zu tun haben. Also private Unternehmen versuchen möglichst viel 288 00:23:25,490 --> 00:23:32,190 verwertbare Stoffe in ihre eigenen Privatbesitz zu gelangen, um daraus Profit 289 00:23:32,190 --> 00:23:38,600 zu schlagen. Der Rohstoff in diesem Fall sind unsere Geschichten, unser Leben. Die 290 00:23:38,600 --> 00:23:43,010 Märkte sind, wie wir sehen werden, Kontrolle oder wie wir auch im 291 00:23:43,010 --> 00:23:47,180 Arbeitskapitel schon gesehen haben und Hokuspokus, wo gesagt wird, künstliche 292 00:23:47,180 --> 00:23:50,679 Intelligenz wäre in der Lage, dies und jenes zu tun, auch wenn es das auf keinen 293 00:23:50,679 --> 00:23:55,840 Fall ist. Aber wir brauchen eure Daten. Und ich würde deswegen sagen, dass die 294 00:23:55,840 --> 00:23:58,950 Innovationen, die uns da verkauft werden, keine ist, sondern einfach alt und 295 00:23:58,950 --> 00:24:04,170 gebrechlich und stinkt. Was wir aber trotzdem immer mehr sehen, ist eine 296 00:24:04,170 --> 00:24:08,050 Konzentration unserer Daten in den Rechenzentrum einiger weniger privater 297 00:24:08,050 --> 00:24:12,600 Unternehmen. Und je mehr konzentriert wird, umso mehr sind wir als Gesellschaft 298 00:24:12,600 --> 00:24:16,510 darauf angewiesen, dass diese privaten Unternehmen gut zu uns sind. Als Beispiel 299 00:24:16,510 --> 00:24:20,880 zum Beispiel der Übersetzungsassistent von Google, Google Translate, der zwar für 300 00:24:20,880 --> 00:24:25,669 alle frei nutzbar ist, wir bezahlen nicht dafür. Und trotzdem sammelt Google all 301 00:24:25,669 --> 00:24:30,669 unsere Daten. Und je mehr wir diese Nutzung in öffentliche Prozesse einbauen 302 00:24:30,669 --> 00:24:34,419 oder auch in unser Leben einbauen, umso mehr werden wir von Google abhängig und 303 00:24:34,419 --> 00:24:37,380 umso mehr werden dafür werden wir davon abhängig, dass Google nicht vielleicht 304 00:24:37,380 --> 00:24:42,190 irgendwann sagt: Na gut, kein Bock mehr auf umsonst, ab jetzt wird bezahlt. Diese 305 00:24:42,190 --> 00:24:46,299 Abhängigkeit führt zu einer Frage, die wir so in der Bankenkrise vielleicht schon 306 00:24:46,299 --> 00:24:53,830 gesehen haben, als Finanzinstitute als too big to fail bezeichnet wurden und immense 307 00:24:53,830 --> 00:24:58,720 Summen Geld dafür ausgegeben werden werden musste, diese diese Institute zu retten. 308 00:24:58,720 --> 00:25:03,500 Die Tech-Unternehmen befinden sich immer mehr auf dem Weg, so integrale 309 00:25:03,500 --> 00:25:08,390 Bestandteile unserer Gesellschaften zu werden, dass auch sie diesen too big to 310 00:25:08,390 --> 00:25:12,620 fail Moment vermutlich erreichen, wenn nicht schon erreicht haben. Aber es ist 311 00:25:12,620 --> 00:25:16,190 nicht nur die Öffentlichkeit, die davon abhängig ist, ist es auch zunehmend die 312 00:25:16,190 --> 00:25:21,600 Forschung, die über künstliche Intelligenz oder über tech generell, die mehr und mehr 313 00:25:21,600 --> 00:25:27,030 davon abhängig ist, dass sie sich mit den mit den Unternehmen gut stellt. Es sind 314 00:25:27,030 --> 00:25:31,840 ein paar wenige Unternehmen, die nicht nur die Entwicklungsumgebung stellen, die 315 00:25:31,840 --> 00:25:39,440 Sprachen und aber auch die Software. Das heißt, die um sie schaffen quasi die das 316 00:25:39,440 --> 00:25:44,610 Wasser, wie Meredith Whitaker sagte, in dem die Forschung zu künstlicher 317 00:25:44,610 --> 00:25:49,740 Intelligenz schwimmt. Ein Beispiel hierfür ist Timnit Gebru vermutlich das 318 00:25:49,740 --> 00:25:54,650 prominenteste der letzten Monate und im Februar ist eine der führenden 319 00:25:54,650 --> 00:26:03,820 Forscherinnen im Bereich der der ethischen KI und war lange Zeit Qlead bei Google. Im 320 00:26:03,820 --> 00:26:08,580 Dezember letzten Jahres wurde sie plötzlich gefeuert, angeblich weil sie 321 00:26:08,580 --> 00:26:13,390 eine Mail an eine Mailingliste geschickt hatte, die einem Manager nicht würdig war. 322 00:26:13,390 --> 00:26:22,860 Die wahrscheinlichere These ist, dreht sich um ein Paar. Ein Paper, in dem es um 323 00:26:22,860 --> 00:26:28,720 sogenannte stochastische Papageien ging, um stockastic parrats und um die Gefahren, 324 00:26:28,720 --> 00:26:33,840 die Large Language Models, sehr große Sprach Modelle, wie zum Beispiel das 325 00:26:33,840 --> 00:26:42,830 bereits erwähnte Gpd3 führen würden, Gibru und ihre Koathorinen haben in dem Paper 326 00:26:42,830 --> 00:26:49,919 argumentiert, dass diese Language Modells eine große Reichweite, große Vielfalt 327 00:26:49,919 --> 00:26:53,900 an Kosten, aber auch Gefahren bilden, also zum Beispiel Kosten werden Umweltkosten. 328 00:26:53,900 --> 00:26:58,640 Es braucht sehr viel Rechenkapazitäten mit diesen Models zu arbeiten. Harms Während 329 00:26:58,640 --> 00:27:04,021 z.B. Rachel Harms diese sprach, dass die Modelle es schaffen, künftig sehr 330 00:27:04,021 --> 00:27:07,929 eloquent über Rassismus zu reden, gebe die drei z.B. auch kurz nach seinem 331 00:27:07,929 --> 00:27:11,740 Release schon angefangen, antisemitischen und rassistischen Müll zu erzählen, auch 332 00:27:11,740 --> 00:27:16,350 wenn das überhaupt gar nichts mit der Fragestellung zu tun hat. Und wieder tat 333 00:27:16,350 --> 00:27:23,679 es Google leid. Es tat Google sogar so leid, dass sie im Februar 2021 MMitchel 334 00:27:23,679 --> 00:27:32,220 gefeiert haben, Lied eines anderen iTeams bei Alphabet Googles Mutterfirma. Und 335 00:27:32,220 --> 00:27:37,210 Google sendet damit eine ganz eindeutige Nachricht. Wenn wir die führenden Köpfe 336 00:27:37,210 --> 00:27:41,559 dem Bereich ethical eye feuern können und es uns zwar leid tut, aber wir es trotzdem 337 00:27:41,559 --> 00:27:48,020 machen, dann seid ihr besser ganz ruhig und benehmt euch oder ihr seid einfach 338 00:27:48,020 --> 00:27:55,620 raus. Um diese Form der Abhängigkeit ist ein bisschen simultan zu dem, was wir im 339 00:27:55,620 --> 00:28:00,250 Kalten Krieg gesehen haben, als das US- Militär immer mehr Geld in die Forschung 340 00:28:00,250 --> 00:28:05,350 gesteckt hat. Technologie und Militär oder wie ich sagen würde ziemlich beste 341 00:28:05,350 --> 00:28:12,529 Freundinnen. Sie können bis zum Anfang des Internet, als es noch ARPANET zurückdenkt, 342 00:28:12,529 --> 00:28:18,340 hieß, zurückdenken und sehen, dass das ARPANET eine Erfindung des Militärs war, 343 00:28:18,340 --> 00:28:25,470 seine Ausgründung des Arpa, Advanced Research Proposal und a und dass 344 00:28:25,470 --> 00:28:31,700 Départements of Defence. Und von da an gingen die Investitionen in Forschung und 345 00:28:31,700 --> 00:28:35,740 Technologie immer weiter und weiter und weiter Geschäfte mit dem Militär 346 00:28:35,740 --> 00:28:40,450 heutzutage sind Teil des Kerngeschäfts von Google, Facebook, Amazon und so weiter und 347 00:28:40,450 --> 00:28:47,429 so fort. In Amerika ist eines der größten Projekte, Project Maven. Als offizielles 348 00:28:47,429 --> 00:28:53,990 erstes Logo hatten sie diese Roboter auf Ecstasy, die dem eigentlichen Inhalt des 349 00:28:53,990 --> 00:28:57,840 Ganzen, nämlich algorithmisch warfare Cross Functional Team, nun wirklich nicht 350 00:28:57,840 --> 00:29:04,699 gerecht werden. Am Projekt Melvin war ein Projekt von beinahe allen US 351 00:29:04,699 --> 00:29:13,100 amerikanischen Verteidigungsinstitution, künstlich intelligente Spionage gang und 352 00:29:13,100 --> 00:29:17,990 gäbe zu machen und nichts mehr auf der Welt zu verpassen. In diesem Projekt 353 00:29:17,990 --> 00:29:24,480 wurden auch technologische Errungenschaften von YouTube verwendet, wo 354 00:29:24,480 --> 00:29:29,110 eigentlich im Zivilen entwickelte Techniken dem Militär nutzbar gemacht 355 00:29:29,110 --> 00:29:33,390 wurden. Ein Beispiel wäre YouTubes Empfehlungslgorithmus, der auch sogenannte 356 00:29:33,390 --> 00:29:38,570 Cluster Analysis beruht und diese Cluster Analysis, kann man einerseits benutzen, um 357 00:29:38,570 --> 00:29:41,270 die Videos anzuzeigen, die dich wahrscheinlich interessieren. Man kann sie 358 00:29:41,270 --> 00:29:47,430 aber auch benutzen, um vermutete Straftäterinnen zum Beispiel im Irak oder 359 00:29:47,430 --> 00:29:54,590 so zu entdecken. Für Google ging das nicht so gut aus. Bis zu 3000 MitarbeiterInnen haben 360 00:29:54,590 --> 00:29:59,071 sich, haben protestiert und Google hat sich aus Project Maven zurückgezogen und 361 00:29:59,071 --> 00:30:04,049 hat gesagt, wir machen keine autonomen Waffen mehr. Es tat Google natürlich leid. 362 00:30:04,049 --> 00:30:06,510 Google hat aber auch gleichzeitig gesagt, das Geschäft mit den Militärs und so 363 00:30:06,510 --> 00:30:10,799 wichtig. Wir machen keine Waffen, aber alles andere machen wir schon. Ein 364 00:30:10,799 --> 00:30:15,490 jüngeres Beispiel aus Europa ist die 100 Millionen Dollar Investition von Daniel 365 00:30:15,490 --> 00:30:21,400 Eck, dem CEO von Spotify, der mit seinem Hedgefonds bei Helsingör eingestiegen ist, 366 00:30:21,400 --> 00:30:25,210 einer deutschen Firma, die sagt, mit ethischen, autonomen Waffensystemen die 367 00:30:25,210 --> 00:30:30,440 freiheitlich demokratische Grundordnung verteidigen zu wollen. Wo Amerika Roboter 368 00:30:30,440 --> 00:30:34,529 auf Ecstasy hat, hat Deutschland das Projekt das Kommando Cyber und 369 00:30:34,529 --> 00:30:39,781 Informationsraum. Das ist ein Symbolbild aus der Weihnachtszeit, das sich darum 370 00:30:39,781 --> 00:30:45,090 kümmert, die Truppe zu digitalisieren und voranzubringen. Momentan ist man in der 371 00:30:45,090 --> 00:30:49,760 Phase des 2.0, was nur 20 Jahre nach dem Web 2.0 für deutsche Verhältnisse ein 372 00:30:49,760 --> 00:30:56,860 ziemlich ordentliches Tempo ist. Aber die Sache ist ernster als blöde Witze. Mit der 373 00:30:56,860 --> 00:31:01,460 neuen Koalition steht die Anschaffung bewaffneter Drohnen im Koalitionsvertrag. 374 00:31:01,460 --> 00:31:06,980 Man sagt zwar, man will sie nur bewaffnen, man will sie nicht autonom machen. Aber 375 00:31:06,980 --> 00:31:11,200 diese Autonomisierung ist im Endeffekt nur noch ein Software-Update entfernt. Und 376 00:31:11,200 --> 00:31:15,130 dann sollen sie natürlich nur ethisch töten, weil na klar, wir sind hier in 377 00:31:15,130 --> 00:31:22,000 Deutschland. Das Problem ist aber alleine schon der Einsatz von normalen, von 378 00:31:22,000 --> 00:31:26,890 normalen Drohnen mit Waffensystemen fügte, führt dazu, dass die Schwelle zum Einsatz 379 00:31:26,890 --> 00:31:32,731 militärischer Gewalt sinkt und Krieg entgrenzt wird. Inwieweit entgrenzt wird 380 00:31:32,731 --> 00:31:38,970 und wie wenig wie schlimm das für die Zivilbevölkerung ausgehen kann, hat die 381 00:31:38,970 --> 00:31:42,100 New York Times jüngst in einer sehr ausführlichen Reportage belegt, in denen 382 00:31:42,100 --> 00:31:48,951 sie Pentagon Papiere analysiert haben und so zum Beispiel zivile Opfer der 383 00:31:48,951 --> 00:31:56,710 Luftangriffe der USA veröffentlicht haben. Aber auch hier haben wir es wieder mit 384 00:31:56,710 --> 00:32:02,559 Problemen von Algorithmen oder Dummheit zu tun. Das Pentagon hat jüngst über einen 385 00:32:02,559 --> 00:32:09,320 Algorithmus berichtet, der zu 25 prozent die richtigen Ziele ausgewählt hat. Von 386 00:32:09,320 --> 00:32:13,650 sich selber aber dachte, es wären 90 prozent, der also ziemlich schlecht war, 387 00:32:13,650 --> 00:32:17,740 aber gleichzeitig gedacht hatte Ich bin richtig gut. Und das ist natürlich ein 388 00:32:17,740 --> 00:32:23,070 Problem. Es ist auch ein Problem, weil die Algorithmen mit der Zeit besser werden und 389 00:32:23,070 --> 00:32:30,519 wir dann diese die vielleicht erste offensichtliche Linse Ja, okay. Die 390 00:32:30,519 --> 00:32:33,010 Algorithmen sind so schlecht und das ist das Problem. Nein, das Problem ist 391 00:32:33,010 --> 00:32:37,949 eigentlich staatliches Töten und wir müssen uns bewusst sein, dass wir dahin 392 00:32:37,949 --> 00:32:44,110 müssen, das zu formulieren. Sondern es sagte Herrschaft durch Gewalt ist sowohl 393 00:32:44,110 --> 00:32:47,809 in autonome Waffentechnologie als auch in den Rahmen des Denkens und der Politik 394 00:32:47,809 --> 00:32:52,909 eingemeißelt, welcher zu ihrer Entwicklung und ihrem potenziellen Einsatz führt. Es 395 00:32:52,909 --> 00:32:57,940 geht darum, diese Herrschaft durch Gewalt zu kritisieren und nicht nur das Mittel, 396 00:32:57,940 --> 00:33:04,010 mit dem sie durchgesetzt wird. Was im Krieg nach außen durch autonome 397 00:33:04,010 --> 00:33:10,380 Waffensysteme funktioniert, funktioniert im Inneren zum Beispiel durch Gewalt, 398 00:33:10,380 --> 00:33:13,870 durch Überwachungskameras, die biometrische Daten sammeln. Die deutsche 399 00:33:13,870 --> 00:33:26,039 Polizei macht da fleißig mit. Es gibt eine gute Chance, dass wenn du Anfang Juli 2017 400 00:33:26,039 --> 00:33:29,529 in Hamburg fast dein Gesicht für lange Zeit in einer Datenbank der Polizei in 401 00:33:29,529 --> 00:33:36,210 Hamburg gespeichert war Anfang Juli 2017 war die G20 Proteste und den nächsten Teil 402 00:33:36,210 --> 00:33:43,020 wollte ich eigentlich überspringen. Und im Rahmen dieser Strafprozesse im Rahmen 403 00:33:43,020 --> 00:33:46,900 dieser Proteste kam es natürlich zu Angriffen auf Polizeikräfte. Es kam aber 404 00:33:46,900 --> 00:33:53,350 auch durch Angriffe durch, auf Demonstrierende, durch die Polizei. Hier 405 00:33:53,350 --> 00:33:59,039 zum Beispiel keine Polizeigewalt durch die Polizei Hashtag Polizeiproblem. Diese 406 00:33:59,039 --> 00:34:04,120 Software, die benutzt wurde, ist wie Demo 360 und man hat darin mehrere Terabyte 407 00:34:04,120 --> 00:34:09,359 Daten hochgeladen, Videoaufnahmen, Fotoaufnahmen, um potenzielle GewalttäterIn 408 00:34:09,359 --> 00:34:18,179 zu identifizieren. Der Einsatz wurde danach vom Verwaltungsgericht Hamburg für 409 00:34:18,179 --> 00:34:22,650 rechtmäßig erklärt und eine Beschwerde des Datenschutzbeauftragten Hamburgs 410 00:34:22,650 --> 00:34:26,639 zurückgesetzt. Im neuen Polizeigesetz wurden die Befugnisse des 411 00:34:26,639 --> 00:34:29,320 Datenschutzbeauftragten weiter zusammengeschnitten, sodass er einfach 412 00:34:29,320 --> 00:34:32,720 keine Beschwerde mehr hatte, sondern eigentlich nur noch zu einer doofen 413 00:34:32,720 --> 00:34:38,050 Marionette wurde. Die Polizei hat diese Datenbank mit den und mit den Daten zwar 414 00:34:38,050 --> 00:34:43,540 2020 gelöscht, aber nicht, weil es ein Fehler war, sondern weil es keine 415 00:34:43,540 --> 00:34:49,050 strafrechtlich Erforderlichkeit mehr gab. Das Gerichtsurteil ist bestehen geblieben 416 00:34:49,050 --> 00:34:52,000 und der Präzedenzfall wurde gesetzt. Die Polizei hat schon gesagt, dass sie 417 00:34:52,000 --> 00:34:56,490 Interesse hat, mit solchen großen Datenbanken weiterzuarbeiten. Bei neuen 418 00:34:56,490 --> 00:35:00,900 Protesten deutschlandweit wird im Rahmen des Programms Polizei 2020 an 419 00:35:00,900 --> 00:35:05,240 bundeseinheitlichen Plattformen gearbeitet, die versuchen, die momentane, 420 00:35:05,240 --> 00:35:09,690 das momentane Chaos, das föderale Überwachungs zu vereinheitlichen und die 421 00:35:09,690 --> 00:35:14,540 Daten besser zugänglich zu machen. Die Geschichte zeigt aber immer wieder, dass 422 00:35:14,540 --> 00:35:18,520 Gesichtserkennung kein Tool ist, was einfach funktioniert. Zum Beispiel in der 423 00:35:18,520 --> 00:35:23,500 Gender Shell-Studie von 2008 wurde gezeigt, dass eigentlich alle 424 00:35:23,500 --> 00:35:28,079 Gesichtserkennung, Algorithmen, große Unternehmen, schwarze Frauen wesentlich 425 00:35:28,079 --> 00:35:33,560 schlechter erkennen als weiße Personen oder auch männliche Person. Diese Bias 426 00:35:33,560 --> 00:35:39,490 findet sich auch in Amazons Recognition Tool wieder, das auf mehr Mitglieder des 427 00:35:39,490 --> 00:35:43,070 US amerikanischen Kongresses losgelassen wurde und einige von denen zu 428 00:35:43,070 --> 00:35:47,240 Straftäterinnen machte. Natürlich, oder das heißt natürlich aber kann es 429 00:35:47,240 --> 00:35:52,400 überraschenderweise vor allen Dingen People of Color. Aber auch hier gibt es 430 00:35:52,400 --> 00:35:55,650 wieder ein grundlegendes Problem, nämlich dass das Gesichtserkennung im öffentlichen 431 00:35:55,650 --> 00:35:59,190 Raum eigentlich überhaupt nichts zu tun hat, zu suchen hat und dass 432 00:35:59,190 --> 00:36:02,850 Gesichtserkennung auch in den Tools der Polizei nichts zu suchen hat. Die Polizei 433 00:36:02,850 --> 00:36:09,589 ist ein schwer überwacher Organ und es ist eigentlich unmöglich, demokratische 434 00:36:09,589 --> 00:36:15,530 Kontrolle auszuüben, ihm dafür zu sorgen, dass die Polizei keinen Unsinn macht. Wenn 435 00:36:15,530 --> 00:36:20,359 man sich Prozesse wie NSU 2.0 oder rechtsextreme TerrorChatgruppen anguckt, 436 00:36:20,359 --> 00:36:25,369 sollte man vielleicht eher davon ausgehen, dass das passieren wird. Wir sind hier in 437 00:36:25,369 --> 00:36:28,700 einer Situation, wo die deutsche Polizei machen will, was Facebook nicht mehr machen 438 00:36:28,700 --> 00:36:32,290 möchte, nämlich flächendeckende Gesichtserkennung. Und wenn man hinter 439 00:36:32,290 --> 00:36:36,369 Facebook hinterherhinkt im Jahr 2021, dann sollte man sich vielleicht Gedanken 440 00:36:36,369 --> 00:36:41,690 machen. Falls ihr an dem Widerstand dagegen interessiert seid. Es gibt eine 441 00:36:41,690 --> 00:36:45,910 Kampagne namens Reclaim your face, die sich gegen Gesichtserkennung und die 442 00:36:45,910 --> 00:36:51,030 Sammlung von biometrischen Daten in Europa einsetzt. Dafür gibt es auf diesem 443 00:36:51,030 --> 00:36:58,000 Raumschiff morgen auch einen Vortrag, wo der momentane Stand vorgestellt wird. Der 444 00:36:58,000 --> 00:37:02,700 letzte, der letzte Teil des Policing, den ich kurz ansprechen möchte und auch Teil 445 00:37:02,700 --> 00:37:08,110 des neuen Polizeigesetzes in Hamburg, ist Predictive Policing, Predictive Policing 446 00:37:08,110 --> 00:37:12,800 oder kurz Voraus in die Vergangenheit. Es wird gesagt, ein Algorithmus stellt fest, 447 00:37:12,800 --> 00:37:17,920 wo morgen oder vielleicht später des Tages Kriminalität stattfinden wird. Und 448 00:37:17,920 --> 00:37:21,720 natürlich wird gesagt, das ist neutral. Was soll schon passieren? Wieder Markup 449 00:37:21,720 --> 00:37:27,640 aber jüngst festgestellt hat, führt es eigentlich nur dazu, dass das die Orte, in 450 00:37:27,640 --> 00:37:33,500 denen momentan Polizeieinsätze stattfinden, auch morgen wieder Ziel von 451 00:37:33,500 --> 00:37:38,920 Polizeieinsätzen werden. Niemand kann beantworten, warum oder wie das in 452 00:37:38,920 --> 00:37:43,619 Deutschland nicht passieren sollte. Ganz im Gegenteil eigentlich sogar ein Panel 453 00:37:43,619 --> 00:37:50,480 der UN warnt davor, dass der unregulierte Einsatz von künstlicher 454 00:37:50,480 --> 00:37:56,660 Intelligenz in vielen Regierungen rassistische Vorurteile verstärken kann. 455 00:37:56,660 --> 00:38:01,040 Wir haben es hier also zu tun mit einer Infrastruktur des ständigen staatlichen 456 00:38:01,040 --> 00:38:06,350 Zugriffs auf unsere Daten, auf unsere Gesichter, auf unser Leben oder... Und es 457 00:38:06,350 --> 00:38:10,130 geht nicht nur, es geht nicht mehr nur um die Polizei oder nur um das Militär, 458 00:38:10,130 --> 00:38:15,000 sondern es geht um eine ganzheitliche Verbindung von Geheimdiensten, Polizei und 459 00:38:15,000 --> 00:38:18,900 Militär, die alle das Gleiche wollen und deren Daten zunehmend interoperabel 460 00:38:18,900 --> 00:38:24,330 werden. Firmen wie Palantir z.B. versinnbildlichen diese Gemengelage. Die 461 00:38:24,330 --> 00:38:28,330 arbeiten zusammen mit der NSA, aber auch mit der ISI , also mit der Behörde in den 462 00:38:28,330 --> 00:38:33,430 USA, aber auch mit der hessischen Polizei oder mit Europol. Also auch die 463 00:38:33,430 --> 00:38:38,030 herkömmliche nationale Grenzen verschwimmen, dazu einem gewissen Teil. 464 00:38:38,030 --> 00:38:42,020 Außen und Innen, Polizei sein Militärgeheimdienst verschmelzen und es 465 00:38:42,020 --> 00:38:47,040 entsteht eigentlich eine große, umfassende oder der Versuch einer großen, umfassenden 466 00:38:47,040 --> 00:38:51,589 Überwachungsinfrastruktur. Das Schöne ist, dass auch eine Firma wie Palantir Angst 467 00:38:51,589 --> 00:38:56,070 hat vor einem Bewusstsein über Privatsphäre und auch über ein Bewusstsein 468 00:38:56,070 --> 00:39:00,480 dafür, dass die Algorithmen dieser Firmen Scheiße bauen. Das heißt, wenn wir, wenn 469 00:39:00,480 --> 00:39:05,950 wir daran arbeiten, dass nicht zur Normalität werden zu lassen, dann haben 470 00:39:05,950 --> 00:39:11,660 wir eine reelle Chance, das auch zu verhindern. Und noch kurz ein paar 471 00:39:11,660 --> 00:39:14,760 Anmerkungen zu Daten und Privatsphäre. Es geht hier vor allem um Zusammenhang von 472 00:39:14,760 --> 00:39:19,730 Privatsphäre und nicht um die Datensammelwut von Facebook. Dafür gab es 473 00:39:19,730 --> 00:39:23,790 jetzt hier gerade vorher zum Beispiel einen Vortrag über die Facebook Papers und 474 00:39:23,790 --> 00:39:31,820 noch ein, zwei andere Punkte im Fahrplan. Wir haben bis jetzt über über staatliche 475 00:39:31,820 --> 00:39:38,099 Überwachung gesprochen und wie sie immer allgemeiner wird. Das führt dazu. Dass 476 00:39:38,099 --> 00:39:42,450 einerseits alle betroffen sind, aber dass andererseits Leute, die dem Staat mehr und 477 00:39:42,450 --> 00:39:47,140 mehr ausgeliefert sind oder wehrloser gegenüber sind, dass die Intensität der 478 00:39:47,140 --> 00:39:50,640 Eingriffe diesem gegenüber zunimmt. Als Beispiel werden zum Beispiel Hartz-IV- 479 00:39:50,640 --> 00:39:54,780 Bezieher, in die quasi ein Offenbarungseid gegenüber den Staat abliefern müssen, 480 00:39:54,780 --> 00:39:58,730 Geflüchtete bei der Einreise oder auch migrantische Communitys, die traditionell 481 00:39:58,730 --> 00:40:04,940 immer wieder das gesteigerte Ziel von polizeilicher Arbeit sind. Wir haben hier 482 00:40:04,940 --> 00:40:11,230 also die Situation, dass Überwachung und die die Aufhebung der Privatsphäre ein 483 00:40:11,230 --> 00:40:15,030 Problem der betroffenen Individuen ist, erst mal auf den ersten Blick. Aber das 484 00:40:15,030 --> 00:40:18,380 sollte uns nicht dazu verleiten zu denken, das ist ein individuelles Problem ist, 485 00:40:18,380 --> 00:40:21,740 sondern es ist ein gesellschaftliches Problem. Wir kommen nicht gegen diese 486 00:40:21,740 --> 00:40:26,650 Dynamik an, mit dem, ich habe nichts zu verbergen---narrativ, weil wir wissen 487 00:40:26,650 --> 00:40:30,420 nicht, was morgen morgen trifft. Das heißt, wir müssen diese Datafixierung 488 00:40:30,420 --> 00:40:33,510 nicht auf einem individuellen Level diskutieren, sondern auf einem 489 00:40:33,510 --> 00:40:37,290 kollektiven. Auf welche Arten und Weisen wollen wir, dass eine Gesellschaft 490 00:40:37,290 --> 00:40:42,180 datafiziert ist? Was kann uns als Gesellschaft einen einen Nutzen bringen 491 00:40:42,180 --> 00:40:46,180 und was nicht? Schlussendlich muss es alles, was es für alle möglich sein, ohne 492 00:40:46,180 --> 00:40:52,150 Angst vor dem digitalen Panoptikum durch die Straßen zu laufen. Privatsphäre und 493 00:40:52,150 --> 00:40:56,640 Daten sind aber nicht nur ein Problem, das sei noch kurz angemerkt Ich habe ja am 494 00:40:56,640 --> 00:41:00,151 Anfang bei ImageNet erwähnt, dass niemand gefragt wurde, ob man in diesem Datensatz 495 00:41:00,151 --> 00:41:06,250 sein möchte oder nicht. Die Forscherin Sascha Luchoni hat jüngst auf Twitter 496 00:41:06,250 --> 00:41:12,470 gefragt, was denn ein gutes Example von einem KI-Datensatz wäre, wo wirklich nach 497 00:41:12,470 --> 00:41:17,780 Einverständnis gefragt wurde. Das it even exists? Es stellt sich heraus in allen 498 00:41:17,780 --> 00:41:22,480 Responses zu diesem Tweet. Es gibt genau eins: Facebooks Casual Convent 499 00:41:22,480 --> 00:41:27,030 Conversations Dataset scheint das einzige große Daten, der einzige größere Datensatz 500 00:41:27,030 --> 00:41:31,020 zu sein, in dem die Beteiligten tatsächlich zugestimmt haben, dass ihre 501 00:41:31,020 --> 00:41:40,660 Daten für Zwecke des maschinellen Lernens verwendet werden. Okay, was tun jetzt oder 502 00:41:40,660 --> 00:41:45,350 I want you tech for good? Wir haben gesehen, dass wir einen gespenstischen 503 00:41:45,350 --> 00:41:48,440 Wind haben, einen gespenstischen digitalen Wind, der durch unser Haus, durch unsere 504 00:41:48,440 --> 00:41:52,590 Gesellschaft bläst. Wir haben gesehen, wie KI das menschliche Zusammenleben 505 00:41:52,590 --> 00:41:57,080 kodifiziert und als Mittel staatlicher Überwachung und kapitalistischer Kontrolle 506 00:41:57,080 --> 00:42:01,849 dienen kann. Das heißt aber auch, dass unsere Rassismen, unsere Sexismen und so 507 00:42:01,849 --> 00:42:08,839 weiter in diese KI eingeschrieben wird und dass gleichzeitig die Technologie sich 508 00:42:08,839 --> 00:42:12,740 immer schneller und schneller entwickelt, wir aber als Gesellschaft gar kein 509 00:42:12,740 --> 00:42:18,900 ethisches Verständnis mehr davon schaffen, dass hinterherkommt in dem Tempo der KI 510 00:42:18,900 --> 00:42:25,130 und das auch dazu führt. Und dass es geht mir jetzt nicht hier darum, KI an sich zu 511 00:42:25,130 --> 00:42:29,980 verurteilen, sondern es gibt dafür schöne Beispiele. Man kann KI benutzen, um es 512 00:42:29,980 --> 00:42:35,350 gegen die Überwacher zu drehen und an zum Beispiel für Gesichtserkennung Programme 513 00:42:35,350 --> 00:42:39,910 auf die Polizei anzuwenden und so Polizisten zu identifizieren, die gegen 514 00:42:39,910 --> 00:42:45,460 Protestierende eingesetzt werden. Man kann KI zu Hause rumliegen haben und deutsche 515 00:42:45,460 --> 00:42:52,380 Behörden Maschinen lesbar machen und so besser verstehbar machen. Aber bei allem, 516 00:42:52,380 --> 00:42:57,599 dem dürfen wir nicht vergessen, dass solange wir, solange wir die Herrschaft 517 00:42:57,599 --> 00:43:00,980 der Menschen über die Menschen nicht in den Fokus der Kritik richten, sondern uns 518 00:43:00,980 --> 00:43:04,700 immer wieder nur an den Symptomen abarbeiten, dass wir immer wieder an den 519 00:43:04,700 --> 00:43:07,100 gleichen Punkt kommen werden, vielleicht mit einer anderen Technologie, aber an den 520 00:43:07,100 --> 00:43:14,200 gleichen Punkt. Wie Timnit Gebru sagte daß, es geht darum, dass die wenigen 521 00:43:14,200 --> 00:43:22,680 Systeme der Unterdrückung schaffen und die "others constantly work to prevent harm 522 00:43:22,680 --> 00:43:28,010 unable to find the time space or resources to implement their own vision of future". 523 00:43:28,010 --> 00:43:32,430 Und ich glaube tatsächlich, das ist das, wo es im Endeffekt darum gehen würde, dass 524 00:43:32,430 --> 00:43:37,090 wir es schaffen, die Zeit und den Willen auch zu finden, unsere eigene Vision von 525 00:43:37,090 --> 00:43:44,260 der Zukunft zu implementieren. Und dann schlussendlich erst wenn wir als Menschen 526 00:43:44,260 --> 00:43:50,579 gut zueinander sind, können die Maschinen lernen, auch gut zu uns sein zu sein. Um 527 00:43:50,579 --> 00:43:55,900 noch mal die Slides wie Sources und alle meine Quellen findet ihr auf 528 00:43:55,900 --> 00:44:06,680 r.ovl.design/rc3-ki, oder über diesen QR- Code. Oder wie gesagt bei Twitter. Damit 529 00:44:06,680 --> 00:44:11,131 komme ich zum Ende und möchte mich ganz herzlich bedanken bei euch, die ihr 530 00:44:11,131 --> 00:44:14,690 zugeguckt haben, bei der C-Base für die Einladung hier sprechen zu dürfen und 531 00:44:14,690 --> 00:44:17,560 natürlich bei allen Forscherinnen, Aktivistinnen, Journalistinnen und so 532 00:44:17,560 --> 00:44:24,060 weiter, auf deren Arbeit ich mich implizit oder explizit bezogen habe. Vielen Dank! 533 00:44:24,060 --> 00:44:26,680 Applaus 534 00:44:26,680 --> 00:44:33,280 Herald: Das war großartig, Oskar, vielen Dank! 45 Minuten, fast fast ohne Pause, da 535 00:44:33,280 --> 00:44:37,250 gab es ja wirklich ein ordentliches Update. Wir haben neue Wörter gelernt: 536 00:44:37,250 --> 00:44:44,140 kybernetische Verdichtung, kybernetische Verdichtung, digitaler Frühkapitalismus. 537 00:44:44,140 --> 00:44:48,430 Demnach müssten wir Hacker jetzt helfen, dass die modernen digitalen Arbeiter 538 00:44:48,430 --> 00:44:51,840 wieder sich selbst ermächtigen und es wieder zu einer Aufklärung kommt. 539 00:44:51,840 --> 00:44:53,140 Wahrscheinlich. Oskar: Zum Beispiel. 540 00:44:53,140 --> 00:44:56,630 Herald: Algorithmische Undurchsichtigkeit. Da müssten die Hacker dafür sorgen, dass 541 00:44:56,630 --> 00:44:59,300 die Algorithmen irgendwie durchsichtiger werden. Das Peinliche ist ja auch, dass 542 00:44:59,300 --> 00:45:01,869 man dann sehen könnte, wie nackt der Kaiser möglicherweise ist. 543 00:45:01,869 --> 00:45:04,119 Oskar lacht Herald: Und wir müssen den Wissensschatz 544 00:45:04,119 --> 00:45:07,839 der Arbeiter, die davon überwacht und gesteuert werden, irgendwie zu mehren 545 00:45:07,839 --> 00:45:13,190 suchen. Und interessant fand ich auch künstliche Ideologie. Das ist also so ein 546 00:45:13,190 --> 00:45:18,830 bisschen, sonst spin gibt dahingehend zu sagen, dass es künstlich, also ist es 547 00:45:18,830 --> 00:45:22,010 intelligent, auch wenn es vielleicht gar nicht so intelligent ist. Aber künstliche 548 00:45:22,010 --> 00:45:26,220 Intelligenz ist ja schon mal ein Wert an sich. Stochastische Papageien fand ich 549 00:45:26,220 --> 00:45:30,569 auch interessant, dass also so große Mengen an Daten, wenn man sie statistisch 550 00:45:30,569 --> 00:45:34,740 auswertet, natürlich auch statistische Artefakte produzieren. Wer hätte das nur 551 00:45:34,740 --> 00:45:38,820 denken können? Aufgabe der Hacker hier also auch Selbstermächtigung, Aufklärung 552 00:45:38,820 --> 00:45:41,770 und Nachgucken. Wie funktioniert das eigentlich, was wir immer schon gemacht 553 00:45:41,770 --> 00:45:46,280 haben? Und jetzt die einzige Hörerfrage, die in der kurzen Zeit jetzt gekommen ist. 554 00:45:46,280 --> 00:45:50,390 Oder vielleicht auch Zuschauerfrage? Ist Glaubst du, dass es einen künstlichen 555 00:45:50,390 --> 00:45:56,751 Dunning-Krüger Effekt gibt? Oskar: lacht verzweifelt Das ist eine 556 00:45:56,751 --> 00:46:04,230 sehr interessante Frage, die ich vielleicht nächstes Jahr in einem Vortrag 557 00:46:04,230 --> 00:46:08,280 beantworten werde. Es ist eine sehr interessante Frage. Ich muss darüber 558 00:46:08,280 --> 00:46:13,550 nachdenken. Ich kann es mir vorstellen, aber ich möchte, ich kann es jetzt gar 559 00:46:13,550 --> 00:46:17,310 nicht so kohärent beantworten, wie die Frage vielleicht beantwortet werden 560 00:46:17,310 --> 00:46:19,990 müsste. Herald: Okay, dafür ist die KI Landschaft 561 00:46:19,990 --> 00:46:23,390 vielleicht ja auch etwas diverser als die Menschen Landschaft da draußen. 562 00:46:23,390 --> 00:46:26,970 Oskar: Na ja, bis jetzt hat sich gezeigt, dass die KI Landschaft vor allen Dingen 563 00:46:26,970 --> 00:46:29,060 ziemlich genau das Abbild der Menschen Landschaft ist. Aber die Menschen 564 00:46:29,060 --> 00:46:32,560 Landschaft ist natürlich auch sehr divers und das ist ja auch ein Vorteil, den wir 565 00:46:32,560 --> 00:46:35,540 haben können. Nur weil ich jetzt darüber viel darüber gesprochen habe, wie 566 00:46:35,540 --> 00:46:39,170 künstliche Intelligenz und Herrschaft interagieren, heißt es ja, heißt das ja 567 00:46:39,170 --> 00:46:42,920 nicht, dass das für immer so bleiben muss, sondern künstliche Dinge kann auch 568 00:46:42,920 --> 00:46:46,210 emanzipativ werden. Herald: Ja, das ist ja interessant. Also 569 00:46:46,210 --> 00:46:49,900 heißt das, die Geschichte wiederholt sich wie immer einerseits ja, am Ende aber doch 570 00:46:49,900 --> 00:46:53,820 nicht. Und es wird nicht so laufen. Mal wieder nicht so, wie Marx es vorausgesagt 571 00:46:53,820 --> 00:46:54,820 hat. Oskar: Na ja. 572 00:46:54,820 --> 00:46:56,010 Herald: Nicht mit wissenschaftlicher Genauigkeit. 573 00:46:56,010 --> 00:46:59,980 Oskar: Ich glaube, wenn man, wenn man genauer hinguckt, der 574 00:46:59,980 --> 00:47:03,060 Geschichtsdeterminismus und die Voraussage, dass sich die Geschichte auf 575 00:47:03,060 --> 00:47:05,320 eine bestimmte Art entwickeln wird, ist wahrscheinlich einer der größten 576 00:47:05,320 --> 00:47:09,270 Schwachpunkte bei Marx und Engels. Und natürlich ist... 577 00:47:09,270 --> 00:47:13,070 Herald: Bei der KI auch. Oskar: Bei, bei der KI auch, wobei die KI 578 00:47:13,070 --> 00:47:15,640 eigentlich immer wieder nur eine Wiedergabe der Vergangenheit ist und 579 00:47:15,640 --> 00:47:18,319 deswegen ja noch gar nicht damit beschäftigt sein kann, wie die Zukunft 580 00:47:18,319 --> 00:47:21,180 ist. Alles, was ihr über die Zukunft sagt, so wie es gestern war und das bringt uns 581 00:47:21,180 --> 00:47:23,599 alles und uns nichts. Herald: Bringt das hier an Bord gar 582 00:47:23,599 --> 00:47:26,720 nichts, wie wir rekonstruieren. Ja, die Zukunft, das müsste die KI erst mal 583 00:47:26,720 --> 00:47:29,310 lernen. Oskar: Ja. Und wir können die Zukunft auch 584 00:47:29,310 --> 00:47:32,430 gestalten, weil wir müssen nicht die Fehler der Vergangenheit immer wieder und 585 00:47:32,430 --> 00:47:36,450 wieder reproduzieren, sondern wir können tatsächlich sagen, das war ein Fehler, wir 586 00:47:36,450 --> 00:47:39,360 wollen es jetzt anders machen. Herald: Also eine Riesenaufgabe für 587 00:47:39,360 --> 00:47:42,770 Hacker. Ich glaube damit zusammen, dass es die Sorte Vortrag, die man noch mal 588 00:47:42,770 --> 00:47:44,510 angucken kann. Oskar lacht 589 00:47:44,510 --> 00:47:49,260 Herald: Herzlichen Dank! Grüße von der C-Base. Es geht hier um 21 Uhr weiter. Bis 590 00:47:49,260 --> 00:47:53,260 dann everything ist Lizenz cc by vor Politisierung des Altvordere Community to 591 00:47:53,260 --> 00:47:55,590 do what. 592 00:47:55,590 --> 00:48:01,000 Untertitel erstellt von c3subtitles.de im Jahr 2022. Mach mit und hilf uns!