0:00:04.750,0:00:09.660
Herald: Herzlich willkommen im C-Base[br]Livestream der Raumstation unter Berlin-
0:00:09.660,0:00:13.490
Mitte am S-Bahnhof Jannowitzbrücke. Es[br]freut mich ganz besonders, dass der Oskar
0:00:13.490,0:00:18.270
heute hier ist mit dem Thema "Computer[br]says no. Künstliche Intelligenz und
0:00:18.270,0:00:22.490
Herrschaft". Das freut mich deswegen ganz[br]besonders, weil ich ja ansonsten Technik
0:00:22.490,0:00:27.470
Philosophie mache. Und wir sind ja nun[br]seit ungefähr 25 Jahren darauf warten,
0:00:27.470,0:00:30.289
dass die ganzen künstlichen[br]Minderintelligenzen tatsächlich mal so was
0:00:30.289,0:00:33.980
wie Bewusstsein entwickeln. Das scheint[br]aber noch nicht der Fall zu sein, es sei
0:00:33.980,0:00:37.450
denn, Oskar hat hier Neuigkeiten für uns.[br]Und die interessante Frage ist ja, wie es
0:00:37.450,0:00:40.670
zu rechtfertigen ist, dass solche[br]künstlichen Minderintelligenzen dann
0:00:40.670,0:00:45.150
Herrschaft über uns ausüben, indem sie uns[br]Kredite verweigern, unsere Bankkarte nicht
0:00:45.150,0:00:50.000
verlängern oder auch unsere[br]Steuererklärung für potenziell gefälscht.
0:00:50.000,0:00:54.390
Das werden wir jetzt alles genau und näher[br]erfahren. Wie das fast schon akademische
0:00:54.390,0:00:58.969
Tradition ist, gibt es genau 45 Minuten[br]Zeit für Oskar. Oskar, du hast die Bühne
0:00:58.969,0:01:01.739
für ein Update zur künstlichen Intelligenz[br]und Herrschaft.
0:01:01.739,0:01:06.330
Oskar: Vielen Dank! Herzlich willkommen[br]auch allen Wesen an den Empfangsgeräten.
0:01:06.330,0:01:10.500
Die schlechte Nachricht zuerst. Es gibt[br]keine Neuigkeiten, sondern meine These ist
0:01:10.500,0:01:13.690
eher, dass ich seit 1844 ungefähr nichts[br]geändert hat, außer dass jetzt Computer
0:01:13.690,0:01:20.320
dabei sind. Bevor ich anfange, man kann[br]die Slides, alle meine Quellen und ein
0:01:20.320,0:01:28.850
Transkript des Talks unter dem Link[br]r.ovl.design/rc3-ki sehen oder über diesen
0:01:28.850,0:01:34.080
oben eingeblendeten QR-Code. Ich habe den[br]Link auch um 17:02, was ungefähr jetzt
0:01:34.080,0:01:40.829
sein sollte, getwittert. Danke, Künstliche[br]Intelligenz. Mein Twitter @_ovlb. Fangen
0:01:40.829,0:01:47.520
wir an. Künstliche Intelligenz. Was meine[br]ich eigentlich damit, wenn ich über
0:01:47.520,0:01:53.009
Künstliche Intelligenz spreche? Künstliche[br]Intelligenz an sich ist erst mal eine
0:01:53.009,0:01:59.840
recht grobe, grobe Kategorie. Deswegen[br]vorab auf einer technischen Ebene wird es
0:01:59.840,0:02:04.880
vor allen Dingen um Machine Learning[br]gehen. Ich werde aber trotzdem den Talk
0:02:04.880,0:02:10.979
über von KI sprechen. Ich werde von KI[br]sprechen, weil KI als gesellschaftlicher
0:02:10.979,0:02:15.160
Begriff weiter greifend ist als nur die[br]technische Ebene, sondern eine Formierung
0:02:15.160,0:02:22.050
von Politik, Arbeit, Kultur und Kapital[br]beinhaltet. Im Folgenden gehört es vor
0:02:22.050,0:02:30.489
allem um Politik. Arbeit und Kapital gehen[br]weniger um Kultur. Und das Ganze wird sich
0:02:30.489,0:02:35.110
folgendermaßen gliedern. Ich werde erst[br]über ImageNet reden, eines der vermutlich
0:02:35.110,0:02:39.209
einflussreichsten Datensätze in der[br]Geschichte des Machine Learning, danach
0:02:39.209,0:02:43.280
über Algorithmen und Arbeit und[br]schließlich über einen Teil namens
0:02:43.280,0:02:47.490
künstlichen Ideologie, wo ich ein bisschen[br]über staatliche Herrschaft und wie sich
0:02:47.490,0:02:54.739
Militär und Polizei künstliche Intelligenz[br]zu Nutze machen. Schließlich ein kleiner,
0:02:54.739,0:03:00.142
ein kleiner Ausblick unter dem Titel Was[br]tun? Genau das ist die grobe, grobe
0:03:00.142,0:03:05.270
Gliederung. Es ist also kein technischer[br]Vortrag. Ich werde nicht erklären, wie die
0:03:05.270,0:03:09.659
Machine Learning funktioniert und ich werde noch[br]nicht erklären, was und wie grundlegend
0:03:09.659,0:03:13.489
künstliche Intelligenz ist, oder? Also[br]wenn ihr jetzt einen technischen Vortrag
0:03:13.489,0:03:21.790
erwartet habt. Tut mir leid, gibt es[br]nicht. Okay, los geht's. ImageNet, oder wie
0:03:21.790,0:03:25.220
Machine Learning sich für immer[br]veränderte. Für die Leute von euch, die
0:03:25.220,0:03:29.191
vielleicht nicht einen großen Hintergrund[br]in der Geschichte des der künstlichen
0:03:29.191,0:03:34.129
Intelligenz haben. Eine kurze Erklärung, was[br]mit ImageNet eigentlich
0:03:34.129,0:03:37.020
ist. ImageNet ist, wie oben schon[br]erwähnt, der vermutlich einflussreichste
0:03:37.020,0:03:41.319
Datensatz. Warum, erkläre ich gleich. Und[br]darauf aufbauend wurde vermutlich einer
0:03:41.319,0:03:46.280
der einflussreichsten Algorithmen[br]geschrieben. Die Idee ist so kompliziert
0:03:46.280,0:03:52.140
wie simpel und wurde von Fei-Fei Li im[br]Jahr 2006 formuliert, nämlich den
0:03:52.140,0:03:57.409
Goldstandard für Bilder Datensätze zu[br]sammeln. Die Umsetzung dementsprechend
0:03:57.409,0:04:02.689
auch relativ einfach: Bilder sammeln. Nur[br]ist das natürlich, wenn man von einem
0:04:02.689,0:04:07.620
Goldstandard spricht und von den damit von[br]den Mengen an Bildern, die und die damit
0:04:07.620,0:04:11.780
gemeint sind, leichter gesagt als getan.[br]Fei-Fei Li und ihre Mitfahrenden hatten
0:04:11.780,0:04:15.630
zwei Sachen auf ihrer Seite, nämlich[br]einerseits Bilder suchen, die relativ neu
0:04:15.630,0:04:20.320
waren und andererseits immer[br]leistungsstärkere Computer. Trotzdem
0:04:20.320,0:04:25.729
dauert es drei Jahre, bis genug Bilder[br]zusammengesammelt waren, genug heißt hier
0:04:25.729,0:04:31.580
14 Millionen. Und das, um das ein bisschen[br]in Perspektive zu setzen. Einer der
0:04:31.580,0:04:36.600
Hauptvorläufer von imageNet, Pascal VOC[br]Pascal Virtual Object Classes beinhaltete
0:04:36.600,0:04:44.350
19737 Bilder in 20 Kategorien. Anstatt wie[br]jetzt in der mit 14 Millionen Bildern in
0:04:44.350,0:04:52.280
20000 Kategorien. Nun stellt sich aber[br]eine Frage, wie klassifiziert man denn
0:04:52.280,0:04:55.900
eigentlich 14 Millionen Bilder, nur weil[br]man in einer Bildersuche nach einem Apfel
0:04:55.900,0:04:58.880
gesucht hat, heißt das ja nicht, dass[br]jedes Bild, das bei rausgekommen ist,
0:04:58.880,0:05:02.990
einen Apfel beinhaltet. Traditionell wäre[br]das ein Job für Studienanfängerinnen
0:05:02.990,0:05:07.870
gewesen. Das heißt, man hat den Leuten,[br]die gerade ein Studium angefangen hat,
0:05:07.870,0:05:11.900
gesagt, hier einen Datensatz, bearbeite[br]den bitte. Guck, ob alles korrekt ist. Das
0:05:11.900,0:05:15.420
Problem ist, bei 14 Millionen Bildern hat[br]einer, der Mitforschenden ausgerechnet,
0:05:15.420,0:05:19.250
würde es ungefähr 19 Jahre dauern, bis die[br]Studienanfängerin diese 14 Millionen
0:05:19.250,0:05:23.090
Bilder auch wirklich klassifiziert hätten.[br]Aus der heutigen Perspektive mag man
0:05:23.090,0:05:28.090
vielleicht auch sagen, vielleicht ist es[br]ein Job für einen Algorithmus. Das Problem
0:05:28.090,0:05:32.521
ist nur, die Algorithmen, die wir heute[br]haben, sind schon nicht gut genug, dass
0:05:32.521,0:05:34.371
man einfach sagen kann, hier sind die[br]Bilder, sagt und was ist dann? Das muss
0:05:34.371,0:05:39.240
immer wieder kontrolliert werden. Die[br]Algorithmen, die es damals gab, waren noch
0:05:39.240,0:05:45.890
schlechter, also auch nicht wirklich die[br]Lösung des Problems. Die Lösung des
0:05:45.890,0:05:50.130
Problems kam von einer unverhofften[br]Richtung, von einer micro working, click
0:05:50.130,0:05:55.150
working Plattform namens Amazon Mechanical[br]Turk, die in 2015 eingeführt wurde.
0:05:55.150,0:06:01.039
Mechanical Turk ist benannt nach dieser[br]Konstruktion, wo ein vermeintlicher
0:06:01.039,0:06:05.639
Roboter von einem kleinwüchsigen Menschen[br]in diesem Kasten bedient wurde und dann so
0:06:05.639,0:06:13.290
getan hat, als würde er Schach spielen[br]können. Und Mechanical Turk erlaubte es,
0:06:13.290,0:06:17.620
sogenannte Human intelligente Tasks[br]einzustellen, also kleine Sachen wie zum
0:06:17.620,0:06:21.569
Beispiel, Kucke auf diesem Job, auf diesem[br]Bild ein Apfel ist, die dann von den
0:06:21.569,0:06:26.680
Arbeitenden auf der Plattform[br]vervollständigt werden konnten. Durch
0:06:26.680,0:06:30.970
diese Plattform war es möglich, diese 14[br]Millionen Bilder auf 49 000 Leute
0:06:30.970,0:06:37.100
aufzubrechen aufzuteilen, die in 167[br]Ländern daran gearbeitet haben und so
0:06:37.100,0:06:40.770
vergleichsweise schnell oder relativ[br]schnell, zumindest sehr viel schneller als
0:06:40.770,0:06:45.460
19 Jahre in der Lage waren, die Bilder zu[br]klassifizieren und zu gucken, ob das, was
0:06:45.460,0:06:50.639
angeblich auf den Bildern drauf ist, auch[br]wirklich drauf ist. Wir sehen hier eins
0:06:50.639,0:06:54.670
der Probleme, die uns immer wieder[br]begegnen werden, wenn wir heutzutage auf
0:06:54.670,0:06:58.570
Machine Learning gucken und zwar das[br]menschliche Wahrnehmung auf einen rein
0:06:58.570,0:07:03.840
mechanischen Prozess heruntergebrochen[br]wird. In dem Fall, dass visuelle
0:07:03.840,0:07:08.979
Intelligenzen reine Mustererkennung ist.[br]Das heißt aber auch, dass zum Beispiel
0:07:08.979,0:07:13.690
Erfahrungen von Menschen oder einen[br]Kontext, in welchen die Bilder gesehen
0:07:13.690,0:07:16.860
werden, komplett ausgeblendet wird und[br]dass nur noch über diesen mechanischen
0:07:16.860,0:07:21.590
Prozess geht. Bei einem Apfelkuchen mag[br]das okay sein, aber imageNet hat auch
0:07:21.590,0:07:26.580
Kategorien für Menschen enthalten. Und da[br]wird es schon wesentlich schwieriger zu
0:07:26.580,0:07:33.370
sagen, alles ist eins. Trotzdem Sie haben[br]es gemacht und sie waren damit auch soweit
0:07:33.370,0:07:37.650
zufrieden und hatten dann diese 14[br]Millionen Bilder mehr oder weniger sauber
0:07:37.650,0:07:43.870
klassifiziert rumliegen. Dann kam die[br]nächste Frage. Und jetzt? Was macht man
0:07:43.870,0:07:48.349
jetzt mit diesem Datensatz? Was macht man[br]mit diesen Bildern? Im Rahmen der
0:07:48.349,0:07:54.300
Forschung gab es von 2010 bis 2017 die[br]sogenannte ImageNet Large Scale Visual
0:07:54.300,0:07:58.979
Recognition Challenge. In dieser Challenge[br]hat sich erstmal relativ lange nichts
0:07:58.979,0:08:08.419
getan. Es wurde geforscht, bis schließlich[br]im Jahre 2012 der bereits angesprochene
0:08:08.419,0:08:12.880
einflussreiche Algorithmus vorgestellt[br]wurde. AlexNet. AlexNet ist es
0:08:12.880,0:08:17.020
eine Entwicklung von Alex Krichevsky und[br]seinem Team an der Universität Toronto
0:08:17.020,0:08:23.830
gewesen und führte ein neues Konzept ein,[br]nämlich das der neuronalen Netze, die im
0:08:23.830,0:08:27.389
Folgenden zu einem der tonangebenden[br]Paradigmen in Machine Learning wurden,
0:08:27.389,0:08:32.940
weil es dadurch möglich war, diese[br]Bildmassen und diese an diese Datenmassen
0:08:32.940,0:08:37.940
um wesentlich wesentlich schneller zu[br]bearbeiten bearbeiten, als es vorher
0:08:37.940,0:08:43.050
möglich war. Auch heute ist das quasi[br]immer noch der der Mechanismus, der
0:08:43.050,0:08:48.180
meistens verwendet wird. Okay, das quasi[br]so als kurzer historischer Hintergrund,
0:08:48.180,0:08:52.440
worüber wir meistens reden, wenn wir von[br]Algorithmen reden, nämlich um große
0:08:52.440,0:08:57.170
Datenmengen, die im Sinne von Machine[br]Learning oder Deep Learning, wie man es
0:08:57.170,0:09:05.160
auch nennt, bearbeitet werden. Okay. Wir[br]haben also unfassbare Mengen an Daten. Wir
0:09:05.160,0:09:08.470
haben einen fehlenden Konsens, also[br]niemand der Menschen, die in diesem
0:09:08.470,0:09:11.700
Datensatz aufgetaucht wurden, wurde vorher[br]gefragt, ob das vielleicht auch noch okay
0:09:11.700,0:09:14.360
ist, dass deren Bilder da gespeichert[br]wurden, sondern die Bilder waren einfach
0:09:14.360,0:09:19.120
in diesem Datensatz und sind es auch heute[br]noch größtenteils. Und wir haben ein
0:09:19.120,0:09:22.790
mechanisches Verständnis menschlicher[br]Wahrnehmung. Und schließlich haben wir
0:09:22.790,0:09:28.710
Deep Learning, also als technische Art und[br]Weise, damit umzugehen, dass alles. Diese
0:09:28.710,0:09:37.130
vier Punkte werden wir immer wieder und[br]wieder finden. Damit quasi der ImageNet zu Ende und der
0:09:37.130,0:09:41.820
nächste Teil zu Arbeit und Algorithmen.[br]Noch mal ich auch hier einen Schritt
0:09:41.820,0:09:45.859
zurück und die Frage, worüber rede ich[br]eigentlich, reden wir in diesem Kontext,
0:09:45.859,0:09:51.640
wenn wir von Arbeit reden. Wir reden[br]einerseits von unbezahlter Arbeit. Das
0:09:51.640,0:09:55.690
Beispiel dafür ist zum Beispiel Google[br]Recaptcha, wo wir, um Beweise zu beweisen,
0:09:55.690,0:09:59.560
dass wir Menschen sind, beweisen, dass wir[br]einen Schornstein erkennen können. Wir
0:09:59.560,0:10:06.040
haben als zweites unsichtbare Arbeit. Das[br]bedeutet, wie zum Beispiel die Leute auf
0:10:06.040,0:10:10.360
Amazons Mechanical Turk Platform, diese[br]49000, die tauchen nie als Co-Autorin oder
0:10:10.360,0:10:14.990
so was in den Papieren auf. Aber haben wir[br]doch einen fundamentalen Anteil der Arbeit
0:10:14.990,0:10:19.300
geliefert. Schließlich haben wir durch[br]Algorithmen kontrollierte Arbeit, hier zum
0:10:19.300,0:10:23.310
Beispiel Amazons Lagerhäuser oder[br]Lieferdienste wie Lieferando oder
0:10:23.310,0:10:29.050
Delivery. Über unbezahlte Arbeit möchte[br]ich jetzt nicht richtig sprechen, sondern
0:10:29.050,0:10:33.520
eher, sondern ich habe unsichtbare Arbeit[br]und die modifizierte Arbeit konzentrieren.
0:10:33.520,0:10:40.740
Fangen wir mit unsichtbarer Arbeit an..[br]Wie wir gesehen haben, bei imageNet haben
0:10:40.740,0:10:46.440
wir diese Erzählung von KI tut dieses oder[br]tut jenes. Wenn die KI erkennt, dass etwas
0:10:46.440,0:10:51.430
in den Bildern ist oder die KI hat in GO[br]gewonnen, die KI schreibt mit Gptt drei
0:10:51.430,0:10:56.040
unfassbar schöne Texte oder dumme Texte[br]von Teil zu Teil, KI betreibt Protein
0:10:56.040,0:11:02.890
foldern. Das Problem ist nur, die KI tut[br]das nicht. Die KI ist für die für die
0:11:02.890,0:11:07.530
Forscherin, die das eigentlich tun, ein[br]Werkzeug, das benutzt wird. Und es ist
0:11:07.530,0:11:11.250
nicht die KI, die plötzlich vom Himmel[br]kommt und sagt, Ja, herzlichen
0:11:11.250,0:11:18.110
Glückwunsch, GO, kann ich, sondern eher im[br]Gegenteil. Wie der Economist gezeigt hat,
0:11:18.110,0:11:24.250
zeigt es braucht es heutzutage ungefähr 80[br]prozent der Entwicklungszeit eines Machine
0:11:24.250,0:11:30.030
Learning Projektes sind menschliche[br]Arbeit. Nur da hinten beim Modeltraining,
0:11:30.030,0:11:33.779
dann kommt der Computer tatsächlich ins[br]Spiel. Aber der allergrößte Teil ist
0:11:33.779,0:11:39.110
menschliche Arbeit, die aber sowohl in der[br]öffentlichen Erzählung und in dieser der
0:11:39.110,0:11:45.839
Wahrnehmung unsichtbar gemacht wird. Und[br]es braucht halt genau diese menschliche
0:11:45.839,0:11:48.339
Arbeit, damit ein Algorithmus gut[br]funktioniert und ein Machine Learning
0:11:48.339,0:11:53.519
System, braucht es große Mengen an Daten.[br]Die müssen natürlich sauber sein, weil
0:11:53.519,0:11:56.730
wenn die Daten, aus denen der Algorithmus[br]lernt, nicht sauber sind, dann ist das,
0:11:56.730,0:12:01.610
was hinten rauskommt auch Mist. Und[br]deswegen muss das bis heute von von
0:12:01.610,0:12:07.620
Menschen unternommen werden. Wir sind also[br]wieder da, wo wir bei Mechanical Turk so
0:12:07.620,0:12:11.870
ein bisschen waren, bei einer Maschine,[br]die so tut, als wäre sie keine Maschine.
0:12:11.870,0:12:16.100
Eine andere Metapher vielleicht die, die[br]man benutzen kann, sind potemkinsche
0:12:16.100,0:12:20.200
Dörfer, wo vorne alles schön fein gemacht[br]wird. Und die Fassaden sehen aus, als
0:12:20.200,0:12:23.420
hätte man die schönsten, schönsten Häuser[br]der Welt. Aber hinten, wo es niemand
0:12:23.420,0:12:28.920
sieht, verfällt es einfach. Kate Crawford[br]nennt es, nennt diese Form der KI in
0:12:28.920,0:12:33.561
Anlehnung dessen auch potemkinsche KI,[br]also wenig mehr als Fassaden, die so
0:12:33.561,0:12:40.040
demonstrieren, wie ein autonomes System[br]aussehen würde, wenn es autonom wäre. Wir
0:12:40.040,0:12:46.870
es hier zu tun mit einem schönen Schein[br]des Automatismus. Diese Arbeit kann aber
0:12:46.870,0:12:53.660
auch anders aussehen. Das ist ein Foto von[br]der New York Daily News und diese
0:12:53.660,0:12:57.540
Schlange, die ich wir sehen, sind[br]Obdachlose, meistens schwarze Obdachlose,
0:12:57.540,0:13:02.790
die von einer Subfirma oder von einer[br]Firma oder die von Google da beauftragt
0:13:02.790,0:13:08.980
wurden. Eine Firma hat Google beauftragt[br]Daten zu sammeln, und zwar bestimmte
0:13:08.980,0:13:13.411
Daten, Daten der Gesichter von schwarzen[br]Menschen. Diese Leute haben dafür ein
0:13:13.411,0:13:18.089
Geschenkgutschein im Wert von 5 Dollar[br]gekriegt, dafür, dass ihr 3D-Modell auf
0:13:18.089,0:13:23.300
die Server von Google hochgeladen wurde.[br]Ziemlich niedriger Preis. Warum macht
0:13:23.300,0:13:28.120
Google das? Weil Google immer wieder in[br]Kritik kommt, dass ihre eigenen
0:13:28.120,0:13:32.190
Algorithmen schwarze Menschen nicht[br]erkennen oder wenn sie Schwarze
0:13:32.190,0:13:37.280
Menschen erkennen, so wie hier am Beispiel[br]von Algorithmen Watch aus 2020, ein
0:13:37.280,0:13:40.470
Thermometer in der Hand eines schwarzen[br]Menschen plötzlich für eine Waffe halten.
0:13:40.470,0:13:44.510
Wenn man aber mit mittleren Photoshop[br]Skills die Hand weiß macht, ist es
0:13:44.510,0:13:49.220
plötzlich keine Waffe mehr. Sowohl bei dem[br]Beispiel als auch Atlanta als auch bei dem
0:13:49.220,0:13:55.510
Beispiel mit der mit dem Thermometer, tat[br]es Google danach tierisch leid. Tut es
0:13:55.510,0:14:01.870
immer tierisch leid, wenn Google erwischt[br]wird, wenn es Google scheiße baut. Es ist
0:14:01.870,0:14:04.980
aber diese Geistesarbeit finden wir nicht[br]nur im Training von Machine Learning
0:14:04.980,0:14:08.870
Algorithmen, wir haben es bei der[br]Verifizierung von Bankaccount, wenn man
0:14:08.870,0:14:12.450
seine Daten hochlädt und dann plötzlich[br]kommt wie von Geisterhand eine
0:14:12.450,0:14:16.269
Verifizierung oder nicht zurück. Wir haben[br]es bei der Moderation von Inhalten, bei
0:14:16.269,0:14:22.470
Facebook, Twitter oder anderen sozialen[br]Netzwerken. Das alles führt dazu, dass
0:14:22.470,0:14:26.589
diese Erzählung davon, dass uns die[br]Roboter die Arbeit wegnehmen, vielleicht
0:14:26.589,0:14:30.620
nicht stimmt. Vielleicht sollten wir uns[br]nicht davor fürchten, dass uns die
0:14:30.620,0:14:35.329
Technologie ersetzt, sondern eher, dass[br]Menschen entwertet werden, dass Menschen
0:14:35.329,0:14:38.699
Arbeit machen müssen, die immer weniger[br]wert wird und immer weniger wertgeschätzt
0:14:38.699,0:14:42.850
wird. Ich würde deswegen sagen, dass wir[br]es hier mit einer Form von
0:14:42.850,0:14:49.779
Frühkapitalismus im digitalen Gewand zu[br]tun haben. Anderes Beispiel: Am 25. März
0:14:49.779,0:14:55.579
1911 brannte in New York die Triangel[br]Shirtbased Factory. Bei dem Feuer starben
0:14:55.579,0:14:59.570
146 Menschen. Teilweise verbrannten,[br]teilweise, weil sie aus dem Fenster
0:14:59.570,0:15:03.101
springen mussten, weil die[br]Fabrikeigentümer beschlossen hatten, dass
0:15:03.101,0:15:07.460
während der Arbeitszeit die Ausgänge der[br]Fabrik abgeschlossen zu sein haben. Das
0:15:07.460,0:15:15.370
Gebäude wurde so zur Todesfalle. Am 10.[br]12. 2021 traf ein Hurrikan ein Amazon
0:15:15.370,0:15:20.320
Lagerhaus und sechs Menschen starben[br]während Jeff Bezos damit zu zufrieden war,
0:15:20.320,0:15:26.149
dass er bald in den Weltraum fliegen kann.[br]More perfekt Union ist eine Organisation
0:15:26.149,0:15:30.790
aus den USA, veröffentlichte diesen[br]Screenshot einer der Angestellten vor Ort.
0:15:30.790,0:15:36.769
Er schrieb: "I will be at home after the[br]Storm" und seine Freundin schrieb "what do
0:15:36.769,0:15:41.730
you mean?". Und er schrieb zurück "Amazon[br]won't let us leaf". Das ist das letzte,
0:15:41.730,0:15:46.490
was er seinen Geliebten geschrieben hat.[br]Kurz danach traf der Hurrikan das
0:15:46.490,0:15:53.290
Lagerhaus und er starb zusammen mit fünf[br]anderen. Das ist kein Einzelfall, wenn man
0:15:53.290,0:16:00.170
sich die Anzahl schwerer Verletzung in der[br]Lagerindustrie in den USA anguckt, hat
0:16:00.170,0:16:04.790
Revier herausgefunden, dass die Anzahl bei[br]Amazon ungefähr doppelt so hoch ist wie im
0:16:04.790,0:16:10.460
Industriedurchschnitt. Wir haben es hier[br]mit einem Phänomen namens kybernetische
0:16:10.460,0:16:18.290
Verdichtung zu tun. Das haben. *trinkt[br]einen schluck Wasser". Das heißt, dass die
0:16:18.290,0:16:21.919
Arbeitskraft und die Arbeitszeit immer[br]weiter verdichtet wird, dass immer weniger
0:16:21.919,0:16:26.089
Zeit bleibt, die gleichen Sachen zu machen[br]und dass man zum Beispiel das Sortieren
0:16:26.089,0:16:29.639
von Paketen in Amazon Lagerhäusern immer[br]schneller und schneller machen muss. Das
0:16:29.639,0:16:33.790
führt dazu, dass mittlerweile ein[br]Unterschied von einer Sekunde oder zwei
0:16:33.790,0:16:37.459
Sekunden in der durchschnittlichen Zeit[br]dieser Aufgaben zu machen, der Unterschied
0:16:37.459,0:16:40.500
sind, ob man gelobt wird oder ob man[br]gewarnt wird, dass man zu schlecht
0:16:40.500,0:16:47.170
arbeitet. Und das führt natürlich dazu,[br]dass man anfängt, unsicher zu arbeiten,
0:16:47.170,0:16:52.380
dass man nicht auf sich achten kann, weil[br]die Zeit nicht mehr dafür da ist. You have
0:16:52.380,0:16:59.230
to do unsafe things to make you numbers.[br]Man kann nicht mehr auf sich achten. Und
0:16:59.230,0:17:04.100
diese Verdichtung nimmt immer, nimmt immer[br]weiter zu, diese Algorithmifizierung.
0:17:04.100,0:17:09.740
Dabei ist das an sich erst mal kein neues[br]Phänomen. Die Versuche, Arbeitskraft zu
0:17:09.740,0:17:14.870
automatisieren oder durch Automatisierung[br]zu optimieren, sind so alt wie der
0:17:14.870,0:17:23.390
Kapitalismus selber. In 1844 hat Friedrich[br]Engels Andrew Ure zitiert, der schrieb:
0:17:23.390,0:17:27.330
"In wenigen Monaten schon war eine[br]Maschine fertig, die dem Anschein nach mit
0:17:27.330,0:17:34.050
dem Denkvermögen Gefühl und Takt des[br]erfahrenen Arbeiter begabt war." Von Das
0:17:34.050,0:17:40.911
Zitat könnte eigentlich auch heute in der[br]in der verklärten Sicht auf auf
0:17:40.911,0:17:46.750
Automatisierung und Roboter kommen. Aber[br]kommt aus dem 19. Jahrhundert, aus der
0:17:46.750,0:17:51.299
Zeit des Frühkapitalismus. Was aber auch[br]aus der Zeit des Frühkapitalismus und der
0:17:51.299,0:17:54.120
Zeit danach kommt, ist, dass die[br]ArbeiterInnenbewegung sich Sozialstandards
0:17:54.120,0:17:58.000
erkämpft hat. Feste Arbeitsverhältnisse,[br]ein Recht auf Urlaub, Beschränkung der
0:17:58.000,0:18:01.270
Arbeitszeiten, ein Recht auf[br]gewerkschaftliche Organisierung und so
0:18:01.270,0:18:05.570
weiter und so fort. Also alles das, was[br]wir zum Beispiel bei Amazon oder auch in
0:18:05.570,0:18:09.120
anderen Firmen im Amazon. Nur als[br]prominentes Beispiel ist es nicht so, dass
0:18:09.120,0:18:15.059
Amazon der einzig Schuldige wäre. Sehen,[br]was wieder angegriffen wird, was Union
0:18:15.059,0:18:17.950
basstian betrieben wird[br]und so weiter und so fort. Das wurde alles
0:18:17.950,0:18:21.419
schon mal erkämpft und muss jetzt wieder[br]erkämpft werden bzw. muss immer wieder
0:18:21.419,0:18:25.420
erkämpft werden. So haben wir das[br]Phänomen, dass das, was heutzutage als
0:18:25.420,0:18:29.221
radikal neue Form der Arbeit daherkommt,[br]im Licht der historischen Entwicklung
0:18:29.221,0:18:34.030
oftmals nicht mehr, da fehlt ein nicht,[br]nicht mehr ist als eine Wiederkehr
0:18:34.030,0:18:39.809
früherer Arbeitsverhältnisse. Es ist gar[br]nicht so neu, was wir sehen, es ist nur.
0:18:39.809,0:18:45.350
Es hat sich nur in eine moderne Form[br]geändert. Man könnte sagen und ewig grüßt
0:18:45.350,0:18:52.260
das Kapitalverhältnistier. Und deswegen[br]erlaube man mir die Pathetik Friedrich
0:18:52.260,0:18:57.440
Engels selber zu zitieren, der schrieb die[br]Lage der arbeitenden Klasse in England.
0:18:57.440,0:19:01.480
"Die Arbeiter müssen sich also beschrieben[br]bestreben, aus dieser vertiefenden Lage
0:19:01.480,0:19:04.750
herauszukommen, und dies können sie nicht[br]tun, ohne dass gegen das Interesse der
0:19:04.750,0:19:13.500
Bourgeoisie als solcher anzukämpfen." Das[br]ist ein anderer Punkt in dieser Arbeit ist
0:19:13.500,0:19:19.169
die sogenannte algorithmische und[br]Undurchsichtigkeit. Algorithmische
0:19:19.169,0:19:21.690
Undurchsichtigkeit bedeutet entweder, dass[br]ein Algorithmus so kompliziert geworden
0:19:21.690,0:19:25.020
ist, dass man ihn technisch nicht mehr[br]verstehen kann, was vorkommt, oder aber,
0:19:25.020,0:19:28.570
dass man nicht mehr den Einblick in den[br]Algorithmus hat, dass man also die Frage,
0:19:28.570,0:19:33.789
welchen Einfluss haben Algorithmen auf[br]meine Arbeit? Nicht beantworten kann. Das
0:19:33.789,0:19:36.740
ist im Lagerhaus vielleicht noch relativ[br]offensichtlich. Wenn die Picking Raid
0:19:36.740,0:19:40.610
immer schneller, schneller wird, dann kann[br]man das auf den Algorithmus hin
0:19:40.610,0:19:45.590
hinausführen. Aber wenn ich zum Beispiel[br]bei Deliveroo arbeite oder bei Lieferant
0:19:45.590,0:19:50.210
oder Foodora oder wie die ganzen Buden[br]heißen, da ist das nicht unbedingt so
0:19:50.210,0:19:54.220
offensichtlich, weil die Algorithmen[br]natürlich geheim sind und sich von Firma
0:19:54.220,0:19:58.780
zu Firma unterscheiden. Deliveroo wurde in[br]Italien verklagt, weil der Algorithmus
0:19:58.780,0:20:01.410
diskriminiert hat. Wenn man zum Beispiel[br]krank gewesen ist oder sich an
0:20:01.410,0:20:08.160
Arbeitsorganisation beteiligt hat, dann[br]hat der Algorithmus einen so bestraft, wie
0:20:08.160,0:20:12.350
als wenn man einfach nicht gearbeitet[br]hätte. Das führt natürlich dazu, dass
0:20:12.350,0:20:16.570
Gerüchte entstehen und dass diese[br]Unklarheit zu Wissenshierarchien führt,
0:20:16.570,0:20:20.360
dass man nicht mehr verstehen kann, was[br]eigentlich passiert. Wir haben es mit
0:20:20.360,0:20:24.400
einem Phänomen zu tun, wo die Daten, die[br]angesammelt werden, nur noch in eine
0:20:24.400,0:20:28.970
Richtung fließen. Sie werden von den von[br]den Arbeiterinnen extrahiert und fließen
0:20:28.970,0:20:33.919
in den Wissensschatz der der Plattform, wo[br]sie angehäuft werden, ausgewertet werden
0:20:33.919,0:20:38.470
und so weiter. Das führt zu der Frage, wie[br]soll man denn eigentlich verstehen, was
0:20:38.470,0:20:42.260
nicht fassbar ist. Wenn ich nicht weiß,[br]was der Prozess ist, wie soll ich ihn
0:20:42.260,0:20:46.680
verstehen und wie sollen wir ihn überhaupt[br]fassen, was sich, was ich verändert?
0:20:46.680,0:20:49.640
Natürlich werden diese Algorithmen[br]weiterentwickelt und weiterentwickelt.
0:20:49.640,0:20:54.650
Wenn ein Manager von der Lieferkette sagt[br]unsere Algorithmen sind unfassbar dumm,
0:20:54.650,0:20:59.030
was tatsächlich passiert ist. Sie können[br]gar nicht so diskriminierend sein, wie ihr
0:20:59.030,0:21:02.809
euch das vorstellt, dann ist das ja keine[br]Garantie. Erstens, dass er nicht lügt, was
0:21:02.809,0:21:07.230
man im Manager vielleicht zutrauen sollte[br]und zweitens auch nicht, dass der
0:21:07.230,0:21:13.040
Algorithmus das vielleicht in zwei Monaten[br]vielleicht nicht mehr so dumm ist. Und
0:21:13.040,0:21:17.340
diese Hierarchien können nur aufgelöst[br]werden, wenn die Algorithmen offengelegt
0:21:17.340,0:21:25.120
werden, wenn es eine Möglichkeit gibt, zu[br]verstehen, was eigentlich gerade passiert.
0:21:25.120,0:21:27.640
Wir haben es hier also mit einer[br]Verdichtung der Arbeit zu tun, die auch
0:21:27.640,0:21:32.400
eine Verdichtung der Zeit ist. Unternehmen[br]versuchen alle Sekunden, die hinter den
0:21:32.400,0:21:38.001
Fabriktor stecken oder im Fall von Geeck[br]Work vielleicht auch in den Straßen, in
0:21:38.001,0:21:45.789
Arbeitszeit und in kontrollierte Zeit zu[br]verändern. Vielleicht hilft dagegen
0:21:45.789,0:21:49.850
Faulenzen, um die Überwachung zu[br]verändern. Vielleicht aber auch nicht. Die
0:21:49.850,0:21:53.760
Verlangsamung des Arbeit ist der Arbeit[br]ist ein Mittel des Arbeitskampfes. Der
0:21:53.760,0:21:59.760
sogenannte Bummelstreik ist gut erprobt.[br]Vielleicht kann man den noch gegen
0:21:59.760,0:22:04.940
Algorithmen einsetzen. Das wäre eine[br]These, die es auszuprobieren gilt. Und
0:22:04.940,0:22:08.880
dieses Bewusstsein von der Zeit ist nicht[br]unbedingt neu. Walter Benjamin schreibt in
0:22:08.880,0:22:14.429
seinen Geschichtsphilosophischen Thesen[br]über die Uni Revolution 1830. Das ist in
0:22:14.429,0:22:18.660
ganz Paris, also die Uni Revolution 1830, in[br]Paris, das in ganz Paris unabhängig
0:22:18.660,0:22:22.810
voneinander auf die Turnuhren geschossen[br]wurde, weil die Protestierenden verstanden
0:22:22.810,0:22:27.590
haben, dass diese Turnuhren als Symbol der[br]Zeit und als Symbol des Drucks durch die
0:22:27.590,0:22:35.650
Zeit stehen. Dieser Widerstand oder jeder[br]Widerstand an sich braucht Organisierung,
0:22:35.650,0:22:39.240
wir können nicht einfach, es gibt keine[br]Möglichkeit da als Einzelperson was gegen
0:22:39.240,0:22:43.580
zu machen, sondern man muss sich, man muss[br]sich mit seinen Arbeiterinnen und
0:22:43.580,0:22:47.270
Kolleginnen zusammen organisieren. Und[br]natürlich tun die Firmen alles, dass das
0:22:47.270,0:22:51.330
zu verhindern. Aber sie müssen dabei nicht[br]erfolgreich sein. Das zeigt allein schon
0:22:51.330,0:22:59.050
die Geschichte. Okay, das wäre der Teil[br]zur Arbeit. Gucken wir jetzt uns mal an,
0:22:59.050,0:23:04.900
was der Staat mit der ganzen Geschichte zu[br]tun hat. Ich rede hier ein bisschen über
0:23:04.900,0:23:08.840
über Daten und öffentliche Daten, dann[br]über ökonomische Abhängigkeiten in der
0:23:08.840,0:23:12.090
Forschung, über Polizei und Militär. Ein[br]kleines bisschen über Privatsphäre. Und
0:23:12.090,0:23:16.850
dann zum Schluss. Das ist ein schönes[br]Paket. Also öffentliche Daten und privates
0:23:16.850,0:23:20.870
Geld. Ich würde sagen, dass wir es hier[br]mit einer neuen Form der ursprünglichen
0:23:20.870,0:23:25.490
Akkumulation zu tun haben. Also private[br]Unternehmen versuchen möglichst viel
0:23:25.490,0:23:32.190
verwertbare Stoffe in ihre eigenen[br]Privatbesitz zu gelangen, um daraus Profit
0:23:32.190,0:23:38.600
zu schlagen. Der Rohstoff in diesem Fall[br]sind unsere Geschichten, unser Leben. Die
0:23:38.600,0:23:43.010
Märkte sind, wie wir sehen werden,[br]Kontrolle oder wie wir auch im
0:23:43.010,0:23:47.180
Arbeitskapitel schon gesehen haben und[br]Hokuspokus, wo gesagt wird, künstliche
0:23:47.180,0:23:50.679
Intelligenz wäre in der Lage, dies und[br]jenes zu tun, auch wenn es das auf keinen
0:23:50.679,0:23:55.840
Fall ist. Aber wir brauchen eure Daten.[br]Und ich würde deswegen sagen, dass die
0:23:55.840,0:23:58.950
Innovationen, die uns da verkauft werden,[br]keine ist, sondern einfach alt und
0:23:58.950,0:24:04.170
gebrechlich und stinkt. Was wir aber[br]trotzdem immer mehr sehen, ist eine
0:24:04.170,0:24:08.050
Konzentration unserer Daten in den[br]Rechenzentrum einiger weniger privater
0:24:08.050,0:24:12.600
Unternehmen. Und je mehr konzentriert[br]wird, umso mehr sind wir als Gesellschaft
0:24:12.600,0:24:16.510
darauf angewiesen, dass diese privaten[br]Unternehmen gut zu uns sind. Als Beispiel
0:24:16.510,0:24:20.880
zum Beispiel der Übersetzungsassistent von[br]Google, Google Translate, der zwar für
0:24:20.880,0:24:25.669
alle frei nutzbar ist, wir bezahlen nicht[br]dafür. Und trotzdem sammelt Google all
0:24:25.669,0:24:30.669
unsere Daten. Und je mehr wir diese[br]Nutzung in öffentliche Prozesse einbauen
0:24:30.669,0:24:34.419
oder auch in unser Leben einbauen, umso[br]mehr werden wir von Google abhängig und
0:24:34.419,0:24:37.380
umso mehr werden dafür werden wir davon[br]abhängig, dass Google nicht vielleicht
0:24:37.380,0:24:42.190
irgendwann sagt: Na gut, kein Bock mehr[br]auf umsonst, ab jetzt wird bezahlt. Diese
0:24:42.190,0:24:46.299
Abhängigkeit führt zu einer Frage, die wir[br]so in der Bankenkrise vielleicht schon
0:24:46.299,0:24:53.830
gesehen haben, als Finanzinstitute als too[br]big to fail bezeichnet wurden und immense
0:24:53.830,0:24:58.720
Summen Geld dafür ausgegeben werden werden[br]musste, diese diese Institute zu retten.
0:24:58.720,0:25:03.500
Die Tech-Unternehmen befinden sich immer[br]mehr auf dem Weg, so integrale
0:25:03.500,0:25:08.390
Bestandteile unserer Gesellschaften zu[br]werden, dass auch sie diesen too big to
0:25:08.390,0:25:12.620
fail Moment vermutlich erreichen, wenn[br]nicht schon erreicht haben. Aber es ist
0:25:12.620,0:25:16.190
nicht nur die Öffentlichkeit, die davon[br]abhängig ist, ist es auch zunehmend die
0:25:16.190,0:25:21.600
Forschung, die über künstliche Intelligenz[br]oder über tech generell, die mehr und mehr
0:25:21.600,0:25:27.030
davon abhängig ist, dass sie sich mit den[br]mit den Unternehmen gut stellt. Es sind
0:25:27.030,0:25:31.840
ein paar wenige Unternehmen, die nicht nur[br]die Entwicklungsumgebung stellen, die
0:25:31.840,0:25:39.440
Sprachen und aber auch die Software. Das[br]heißt, die um sie schaffen quasi die das
0:25:39.440,0:25:44.610
Wasser, wie Meredith Whitaker sagte, in[br]dem die Forschung zu künstlicher
0:25:44.610,0:25:49.740
Intelligenz schwimmt. Ein Beispiel hierfür[br]ist Timnit Gebru vermutlich das
0:25:49.740,0:25:54.650
prominenteste der letzten Monate und im[br]Februar ist eine der führenden
0:25:54.650,0:26:03.820
Forscherinnen im Bereich der der ethischen[br]KI und war lange Zeit Qlead bei Google. Im
0:26:03.820,0:26:08.580
Dezember letzten Jahres wurde sie[br]plötzlich gefeuert, angeblich weil sie
0:26:08.580,0:26:13.390
eine Mail an eine Mailingliste geschickt[br]hatte, die einem Manager nicht würdig war.
0:26:13.390,0:26:22.860
Die wahrscheinlichere These ist, dreht[br]sich um ein Paar. Ein Paper, in dem es um
0:26:22.860,0:26:28.720
sogenannte stochastische Papageien ging,[br]um stockastic parrats und um die Gefahren,
0:26:28.720,0:26:33.840
die Large Language Models, sehr große[br]Sprach Modelle, wie zum Beispiel das
0:26:33.840,0:26:42.830
bereits erwähnte Gpd3 führen würden, Gibru [br]und ihre Koathorinen haben in dem Paper
0:26:42.830,0:26:49.919
argumentiert, dass diese Language Modells[br]eine große Reichweite, große Vielfalt
0:26:49.919,0:26:53.900
an Kosten, aber auch Gefahren bilden, also[br]zum Beispiel Kosten werden Umweltkosten.
0:26:53.900,0:26:58.640
Es braucht sehr viel Rechenkapazitäten mit[br]diesen Models zu arbeiten. Harms Während
0:26:58.640,0:27:04.021
z.B. Rachel Harms diese sprach,[br]dass die Modelle es schaffen, künftig sehr
0:27:04.021,0:27:07.929
eloquent über Rassismus zu reden, gebe die[br]drei z.B. auch kurz nach seinem
0:27:07.929,0:27:11.740
Release schon angefangen, antisemitischen[br]und rassistischen Müll zu erzählen, auch
0:27:11.740,0:27:16.350
wenn das überhaupt gar nichts mit der[br]Fragestellung zu tun hat. Und wieder tat
0:27:16.350,0:27:23.679
es Google leid. Es tat Google sogar so[br]leid, dass sie im Februar 2021 MMitchel
0:27:23.679,0:27:32.220
gefeiert haben, Lied eines anderen iTeams[br]bei Alphabet Googles Mutterfirma. Und
0:27:32.220,0:27:37.210
Google sendet damit eine ganz eindeutige[br]Nachricht. Wenn wir die führenden Köpfe
0:27:37.210,0:27:41.559
dem Bereich ethical eye feuern können und[br]es uns zwar leid tut, aber wir es trotzdem
0:27:41.559,0:27:48.020
machen, dann seid ihr besser ganz ruhig[br]und benehmt euch oder ihr seid einfach
0:27:48.020,0:27:55.620
raus. Um diese Form der Abhängigkeit ist[br]ein bisschen simultan zu dem, was wir im
0:27:55.620,0:28:00.250
Kalten Krieg gesehen haben, als das US-[br]Militär immer mehr Geld in die Forschung
0:28:00.250,0:28:05.350
gesteckt hat. Technologie und Militär oder[br]wie ich sagen würde ziemlich beste
0:28:05.350,0:28:12.529
Freundinnen. Sie können bis zum Anfang des[br]Internet, als es noch ARPANET zurückdenkt,
0:28:12.529,0:28:18.340
hieß, zurückdenken und sehen, dass das[br]ARPANET eine Erfindung des Militärs war,
0:28:18.340,0:28:25.470
seine Ausgründung des Arpa, Advanced [br]Research Proposal und a und dass
0:28:25.470,0:28:31.700
Départements of Defence. Und von da an[br]gingen die Investitionen in Forschung und
0:28:31.700,0:28:35.740
Technologie immer weiter und weiter und[br]weiter Geschäfte mit dem Militär
0:28:35.740,0:28:40.450
heutzutage sind Teil des Kerngeschäfts von[br]Google, Facebook, Amazon und so weiter und
0:28:40.450,0:28:47.429
so fort. In Amerika ist eines der größten[br]Projekte, Project Maven. Als offizielles
0:28:47.429,0:28:53.990
erstes Logo hatten sie diese Roboter auf[br]Ecstasy, die dem eigentlichen Inhalt des
0:28:53.990,0:28:57.840
Ganzen, nämlich algorithmisch warfare[br]Cross Functional Team, nun wirklich nicht
0:28:57.840,0:29:04.699
gerecht werden. Am Projekt Melvin war ein[br]Projekt von beinahe allen US
0:29:04.699,0:29:13.100
amerikanischen Verteidigungsinstitution,[br]künstlich intelligente Spionage gang und
0:29:13.100,0:29:17.990
gäbe zu machen und nichts mehr auf der[br]Welt zu verpassen. In diesem Projekt
0:29:17.990,0:29:24.480
wurden auch technologische[br]Errungenschaften von YouTube verwendet, wo
0:29:24.480,0:29:29.110
eigentlich im Zivilen entwickelte[br]Techniken dem Militär nutzbar gemacht
0:29:29.110,0:29:33.390
wurden. Ein Beispiel wäre YouTubes[br]Empfehlungslgorithmus, der auch sogenannte
0:29:33.390,0:29:38.570
Cluster Analysis beruht und diese Cluster[br]Analysis, kann man einerseits benutzen, um
0:29:38.570,0:29:41.270
die Videos anzuzeigen, die dich[br]wahrscheinlich interessieren. Man kann sie
0:29:41.270,0:29:47.430
aber auch benutzen, um vermutete[br]Straftäterinnen zum Beispiel im Irak oder
0:29:47.430,0:29:54.590
so zu entdecken. Für Google ging das nicht[br]so gut aus. Bis zu 3000 MitarbeiterInnen haben
0:29:54.590,0:29:59.071
sich, haben protestiert und Google hat[br]sich aus Project Maven zurückgezogen und
0:29:59.071,0:30:04.049
hat gesagt, wir machen keine autonomen[br]Waffen mehr. Es tat Google natürlich leid.
0:30:04.049,0:30:06.510
Google hat aber auch gleichzeitig gesagt,[br]das Geschäft mit den Militärs und so
0:30:06.510,0:30:10.799
wichtig. Wir machen keine Waffen, aber[br]alles andere machen wir schon. Ein
0:30:10.799,0:30:15.490
jüngeres Beispiel aus Europa ist die 100[br]Millionen Dollar Investition von Daniel
0:30:15.490,0:30:21.400
Eck, dem CEO von Spotify, der mit seinem[br]Hedgefonds bei Helsingör eingestiegen ist,
0:30:21.400,0:30:25.210
einer deutschen Firma, die sagt, mit[br]ethischen, autonomen Waffensystemen die
0:30:25.210,0:30:30.440
freiheitlich demokratische Grundordnung[br]verteidigen zu wollen. Wo Amerika Roboter
0:30:30.440,0:30:34.529
auf Ecstasy hat, hat Deutschland das[br]Projekt das Kommando Cyber und
0:30:34.529,0:30:39.781
Informationsraum. Das ist ein Symbolbild[br]aus der Weihnachtszeit, das sich darum
0:30:39.781,0:30:45.090
kümmert, die Truppe zu digitalisieren und[br]voranzubringen. Momentan ist man in der
0:30:45.090,0:30:49.760
Phase des 2.0, was nur 20 Jahre nach dem[br]Web 2.0 für deutsche Verhältnisse ein
0:30:49.760,0:30:56.860
ziemlich ordentliches Tempo ist. Aber die[br]Sache ist ernster als blöde Witze. Mit der
0:30:56.860,0:31:01.460
neuen Koalition steht die Anschaffung[br]bewaffneter Drohnen im Koalitionsvertrag.
0:31:01.460,0:31:06.980
Man sagt zwar, man will sie nur bewaffnen,[br]man will sie nicht autonom machen. Aber
0:31:06.980,0:31:11.200
diese Autonomisierung ist im Endeffekt nur[br]noch ein Software-Update entfernt. Und
0:31:11.200,0:31:15.130
dann sollen sie natürlich nur ethisch[br]töten, weil na klar, wir sind hier in
0:31:15.130,0:31:22.000
Deutschland. Das Problem ist aber alleine[br]schon der Einsatz von normalen, von
0:31:22.000,0:31:26.890
normalen Drohnen mit Waffensystemen fügte,[br]führt dazu, dass die Schwelle zum Einsatz
0:31:26.890,0:31:32.731
militärischer Gewalt sinkt und Krieg[br]entgrenzt wird. Inwieweit entgrenzt wird
0:31:32.731,0:31:38.970
und wie wenig wie schlimm das für die[br]Zivilbevölkerung ausgehen kann, hat die
0:31:38.970,0:31:42.100
New York Times jüngst in einer sehr[br]ausführlichen Reportage belegt, in denen
0:31:42.100,0:31:48.951
sie Pentagon Papiere analysiert haben und[br]so zum Beispiel zivile Opfer der
0:31:48.951,0:31:56.710
Luftangriffe der USA veröffentlicht haben.[br]Aber auch hier haben wir es wieder mit
0:31:56.710,0:32:02.559
Problemen von Algorithmen oder Dummheit zu[br]tun. Das Pentagon hat jüngst über einen
0:32:02.559,0:32:09.320
Algorithmus berichtet, der zu 25 prozent[br]die richtigen Ziele ausgewählt hat. Von
0:32:09.320,0:32:13.650
sich selber aber dachte, es wären 90[br]prozent, der also ziemlich schlecht war,
0:32:13.650,0:32:17.740
aber gleichzeitig gedacht hatte Ich bin[br]richtig gut. Und das ist natürlich ein
0:32:17.740,0:32:23.070
Problem. Es ist auch ein Problem, weil die[br]Algorithmen mit der Zeit besser werden und
0:32:23.070,0:32:30.519
wir dann diese die vielleicht erste[br]offensichtliche Linse Ja, okay. Die
0:32:30.519,0:32:33.010
Algorithmen sind so schlecht und das ist[br]das Problem. Nein, das Problem ist
0:32:33.010,0:32:37.949
eigentlich staatliches Töten und wir[br]müssen uns bewusst sein, dass wir dahin
0:32:37.949,0:32:44.110
müssen, das zu formulieren. Sondern es[br]sagte Herrschaft durch Gewalt ist sowohl
0:32:44.110,0:32:47.809
in autonome Waffentechnologie als auch in[br]den Rahmen des Denkens und der Politik
0:32:47.809,0:32:52.909
eingemeißelt, welcher zu ihrer Entwicklung[br]und ihrem potenziellen Einsatz führt. Es
0:32:52.909,0:32:57.940
geht darum, diese Herrschaft durch Gewalt[br]zu kritisieren und nicht nur das Mittel,
0:32:57.940,0:33:04.010
mit dem sie durchgesetzt wird. Was im[br]Krieg nach außen durch autonome
0:33:04.010,0:33:10.380
Waffensysteme funktioniert, funktioniert[br]im Inneren zum Beispiel durch Gewalt,
0:33:10.380,0:33:13.870
durch Überwachungskameras, die[br]biometrische Daten sammeln. Die deutsche
0:33:13.870,0:33:26.039
Polizei macht da fleißig mit. Es gibt eine[br]gute Chance, dass wenn du Anfang Juli 2017
0:33:26.039,0:33:29.529
in Hamburg fast dein Gesicht für lange[br]Zeit in einer Datenbank der Polizei in
0:33:29.529,0:33:36.210
Hamburg gespeichert war Anfang Juli 2017[br]war die G20 Proteste und den nächsten Teil
0:33:36.210,0:33:43.020
wollte ich eigentlich überspringen. Und im[br]Rahmen dieser Strafprozesse im Rahmen
0:33:43.020,0:33:46.900
dieser Proteste kam es natürlich zu[br]Angriffen auf Polizeikräfte. Es kam aber
0:33:46.900,0:33:53.350
auch durch Angriffe durch, auf[br]Demonstrierende, durch die Polizei. Hier
0:33:53.350,0:33:59.039
zum Beispiel keine Polizeigewalt durch die[br]Polizei Hashtag Polizeiproblem. Diese
0:33:59.039,0:34:04.120
Software, die benutzt wurde, ist wie Demo[br]360 und man hat darin mehrere Terabyte
0:34:04.120,0:34:09.359
Daten hochgeladen, Videoaufnahmen,[br]Fotoaufnahmen, um potenzielle GewalttäterIn
0:34:09.359,0:34:18.179
zu identifizieren. Der Einsatz wurde[br]danach vom Verwaltungsgericht Hamburg für
0:34:18.179,0:34:22.650
rechtmäßig erklärt und eine Beschwerde des[br]Datenschutzbeauftragten Hamburgs
0:34:22.650,0:34:26.639
zurückgesetzt. Im neuen Polizeigesetz[br]wurden die Befugnisse des
0:34:26.639,0:34:29.320
Datenschutzbeauftragten weiter[br]zusammengeschnitten, sodass er einfach
0:34:29.320,0:34:32.720
keine Beschwerde mehr hatte, sondern[br]eigentlich nur noch zu einer doofen
0:34:32.720,0:34:38.050
Marionette wurde. Die Polizei hat diese[br]Datenbank mit den und mit den Daten zwar
0:34:38.050,0:34:43.540
2020 gelöscht, aber nicht, weil es ein[br]Fehler war, sondern weil es keine
0:34:43.540,0:34:49.050
strafrechtlich Erforderlichkeit mehr gab.[br]Das Gerichtsurteil ist bestehen geblieben
0:34:49.050,0:34:52.000
und der Präzedenzfall wurde gesetzt. Die[br]Polizei hat schon gesagt, dass sie
0:34:52.000,0:34:56.490
Interesse hat, mit solchen großen[br]Datenbanken weiterzuarbeiten. Bei neuen
0:34:56.490,0:35:00.900
Protesten deutschlandweit wird im Rahmen[br]des Programms Polizei 2020 an
0:35:00.900,0:35:05.240
bundeseinheitlichen Plattformen[br]gearbeitet, die versuchen, die momentane,
0:35:05.240,0:35:09.690
das momentane Chaos, das föderale[br]Überwachungs zu vereinheitlichen und die
0:35:09.690,0:35:14.540
Daten besser zugänglich zu machen. Die[br]Geschichte zeigt aber immer wieder, dass
0:35:14.540,0:35:18.520
Gesichtserkennung kein Tool ist, was[br]einfach funktioniert. Zum Beispiel in der
0:35:18.520,0:35:23.500
Gender Shell-Studie von 2008 wurde[br]gezeigt, dass eigentlich alle
0:35:23.500,0:35:28.079
Gesichtserkennung, Algorithmen, große[br]Unternehmen, schwarze Frauen wesentlich
0:35:28.079,0:35:33.560
schlechter erkennen als weiße Personen[br]oder auch männliche Person. Diese Bias
0:35:33.560,0:35:39.490
findet sich auch in Amazons Recognition[br]Tool wieder, das auf mehr Mitglieder des
0:35:39.490,0:35:43.070
US amerikanischen Kongresses losgelassen[br]wurde und einige von denen zu
0:35:43.070,0:35:47.240
Straftäterinnen machte. Natürlich, oder[br]das heißt natürlich aber kann es
0:35:47.240,0:35:52.400
überraschenderweise vor allen Dingen[br]People of Color. Aber auch hier gibt es
0:35:52.400,0:35:55.650
wieder ein grundlegendes Problem, nämlich[br]dass das Gesichtserkennung im öffentlichen
0:35:55.650,0:35:59.190
Raum eigentlich überhaupt nichts zu tun[br]hat, zu suchen hat und dass
0:35:59.190,0:36:02.850
Gesichtserkennung auch in den Tools der[br]Polizei nichts zu suchen hat. Die Polizei
0:36:02.850,0:36:09.589
ist ein schwer überwacher Organ und es ist[br]eigentlich unmöglich, demokratische
0:36:09.589,0:36:15.530
Kontrolle auszuüben, ihm dafür zu sorgen,[br]dass die Polizei keinen Unsinn macht. Wenn
0:36:15.530,0:36:20.359
man sich Prozesse wie NSU 2.0 oder[br]rechtsextreme TerrorChatgruppen anguckt,
0:36:20.359,0:36:25.369
sollte man vielleicht eher davon ausgehen,[br]dass das passieren wird. Wir sind hier in
0:36:25.369,0:36:28.700
einer Situation, wo die deutsche Polizei[br]machen will, was Facebook nicht mehr machen
0:36:28.700,0:36:32.290
möchte, nämlich flächendeckende[br]Gesichtserkennung. Und wenn man hinter
0:36:32.290,0:36:36.369
Facebook hinterherhinkt im Jahr 2021, dann[br]sollte man sich vielleicht Gedanken
0:36:36.369,0:36:41.690
machen. Falls ihr an dem Widerstand[br]dagegen interessiert seid. Es gibt eine
0:36:41.690,0:36:45.910
Kampagne namens Reclaim your face, die[br]sich gegen Gesichtserkennung und die
0:36:45.910,0:36:51.030
Sammlung von biometrischen Daten in Europa[br]einsetzt. Dafür gibt es auf diesem
0:36:51.030,0:36:58.000
Raumschiff morgen auch einen Vortrag, wo[br]der momentane Stand vorgestellt wird. Der
0:36:58.000,0:37:02.700
letzte, der letzte Teil des Policing, den[br]ich kurz ansprechen möchte und auch Teil
0:37:02.700,0:37:08.110
des neuen Polizeigesetzes in Hamburg, ist[br]Predictive Policing, Predictive Policing
0:37:08.110,0:37:12.800
oder kurz Voraus in die Vergangenheit. Es[br]wird gesagt, ein Algorithmus stellt fest,
0:37:12.800,0:37:17.920
wo morgen oder vielleicht später des Tages[br]Kriminalität stattfinden wird. Und
0:37:17.920,0:37:21.720
natürlich wird gesagt, das ist neutral.[br]Was soll schon passieren? Wieder Markup
0:37:21.720,0:37:27.640
aber jüngst festgestellt hat, führt es[br]eigentlich nur dazu, dass das die Orte, in
0:37:27.640,0:37:33.500
denen momentan Polizeieinsätze[br]stattfinden, auch morgen wieder Ziel von
0:37:33.500,0:37:38.920
Polizeieinsätzen werden. Niemand kann[br]beantworten, warum oder wie das in
0:37:38.920,0:37:43.619
Deutschland nicht passieren sollte. Ganz[br]im Gegenteil eigentlich sogar ein Panel
0:37:43.619,0:37:50.480
der UN warnt davor, dass der[br]unregulierte Einsatz von künstlicher
0:37:50.480,0:37:56.660
Intelligenz in vielen Regierungen[br]rassistische Vorurteile verstärken kann.
0:37:56.660,0:38:01.040
Wir haben es hier also zu tun mit einer[br]Infrastruktur des ständigen staatlichen
0:38:01.040,0:38:06.350
Zugriffs auf unsere Daten, auf unsere[br]Gesichter, auf unser Leben oder... Und es
0:38:06.350,0:38:10.130
geht nicht nur, es geht nicht mehr nur um[br]die Polizei oder nur um das Militär,
0:38:10.130,0:38:15.000
sondern es geht um eine ganzheitliche[br]Verbindung von Geheimdiensten, Polizei und
0:38:15.000,0:38:18.900
Militär, die alle das Gleiche wollen und[br]deren Daten zunehmend interoperabel
0:38:18.900,0:38:24.330
werden. Firmen wie Palantir z.B.[br]versinnbildlichen diese Gemengelage. Die
0:38:24.330,0:38:28.330
arbeiten zusammen mit der NSA, aber auch[br]mit der ISI , also mit der Behörde in den
0:38:28.330,0:38:33.430
USA, aber auch mit der hessischen Polizei[br]oder mit Europol. Also auch die
0:38:33.430,0:38:38.030
herkömmliche nationale Grenzen[br]verschwimmen, dazu einem gewissen Teil.
0:38:38.030,0:38:42.020
Außen und Innen, Polizei sein[br]Militärgeheimdienst verschmelzen und es
0:38:42.020,0:38:47.040
entsteht eigentlich eine große, umfassende[br]oder der Versuch einer großen, umfassenden
0:38:47.040,0:38:51.589
Überwachungsinfrastruktur. Das Schöne ist,[br]dass auch eine Firma wie Palantir Angst
0:38:51.589,0:38:56.070
hat vor einem Bewusstsein über[br]Privatsphäre und auch über ein Bewusstsein
0:38:56.070,0:39:00.480
dafür, dass die Algorithmen dieser Firmen[br]Scheiße bauen. Das heißt, wenn wir, wenn
0:39:00.480,0:39:05.950
wir daran arbeiten, dass nicht zur[br]Normalität werden zu lassen, dann haben
0:39:05.950,0:39:11.660
wir eine reelle Chance, das auch zu[br]verhindern. Und noch kurz ein paar
0:39:11.660,0:39:14.760
Anmerkungen zu Daten und Privatsphäre. Es[br]geht hier vor allem um Zusammenhang von
0:39:14.760,0:39:19.730
Privatsphäre und nicht um die[br]Datensammelwut von Facebook. Dafür gab es
0:39:19.730,0:39:23.790
jetzt hier gerade vorher zum Beispiel[br]einen Vortrag über die Facebook Papers und
0:39:23.790,0:39:31.820
noch ein, zwei andere Punkte im Fahrplan.[br]Wir haben bis jetzt über über staatliche
0:39:31.820,0:39:38.099
Überwachung gesprochen und wie sie immer[br]allgemeiner wird. Das führt dazu. Dass
0:39:38.099,0:39:42.450
einerseits alle betroffen sind, aber dass[br]andererseits Leute, die dem Staat mehr und
0:39:42.450,0:39:47.140
mehr ausgeliefert sind oder wehrloser[br]gegenüber sind, dass die Intensität der
0:39:47.140,0:39:50.640
Eingriffe diesem gegenüber zunimmt. Als[br]Beispiel werden zum Beispiel Hartz-IV-
0:39:50.640,0:39:54.780
Bezieher, in die quasi ein Offenbarungseid[br]gegenüber den Staat abliefern müssen,
0:39:54.780,0:39:58.730
Geflüchtete bei der Einreise oder auch[br]migrantische Communitys, die traditionell
0:39:58.730,0:40:04.940
immer wieder das gesteigerte Ziel von[br]polizeilicher Arbeit sind. Wir haben hier
0:40:04.940,0:40:11.230
also die Situation, dass Überwachung und[br]die die Aufhebung der Privatsphäre ein
0:40:11.230,0:40:15.030
Problem der betroffenen Individuen ist,[br]erst mal auf den ersten Blick. Aber das
0:40:15.030,0:40:18.380
sollte uns nicht dazu verleiten zu denken,[br]das ist ein individuelles Problem ist,
0:40:18.380,0:40:21.740
sondern es ist ein gesellschaftliches[br]Problem. Wir kommen nicht gegen diese
0:40:21.740,0:40:26.650
Dynamik an, mit dem, ich habe nichts zu[br]verbergen---narrativ, weil wir wissen
0:40:26.650,0:40:30.420
nicht, was morgen morgen trifft. Das[br]heißt, wir müssen diese Datafixierung
0:40:30.420,0:40:33.510
nicht auf einem individuellen Level[br]diskutieren, sondern auf einem
0:40:33.510,0:40:37.290
kollektiven. Auf welche Arten und Weisen[br]wollen wir, dass eine Gesellschaft
0:40:37.290,0:40:42.180
datafiziert ist? Was kann uns als[br]Gesellschaft einen einen Nutzen bringen
0:40:42.180,0:40:46.180
und was nicht? Schlussendlich muss es[br]alles, was es für alle möglich sein, ohne
0:40:46.180,0:40:52.150
Angst vor dem digitalen Panoptikum durch[br]die Straßen zu laufen. Privatsphäre und
0:40:52.150,0:40:56.640
Daten sind aber nicht nur ein Problem, das[br]sei noch kurz angemerkt Ich habe ja am
0:40:56.640,0:41:00.151
Anfang bei ImageNet erwähnt, dass niemand[br]gefragt wurde, ob man in diesem Datensatz
0:41:00.151,0:41:06.250
sein möchte oder nicht. Die Forscherin[br]Sascha Luchoni hat jüngst auf Twitter
0:41:06.250,0:41:12.470
gefragt, was denn ein gutes Example von[br]einem KI-Datensatz wäre, wo wirklich nach
0:41:12.470,0:41:17.780
Einverständnis gefragt wurde. Das it even[br]exists? Es stellt sich heraus in allen
0:41:17.780,0:41:22.480
Responses zu diesem Tweet. Es gibt genau[br]eins: Facebooks Casual Convent
0:41:22.480,0:41:27.030
Conversations Dataset scheint das einzige[br]große Daten, der einzige größere Datensatz
0:41:27.030,0:41:31.020
zu sein, in dem die Beteiligten[br]tatsächlich zugestimmt haben, dass ihre
0:41:31.020,0:41:40.660
Daten für Zwecke des maschinellen Lernens[br]verwendet werden. Okay, was tun jetzt oder
0:41:40.660,0:41:45.350
I want you tech for good? Wir haben[br]gesehen, dass wir einen gespenstischen
0:41:45.350,0:41:48.440
Wind haben, einen gespenstischen digitalen[br]Wind, der durch unser Haus, durch unsere
0:41:48.440,0:41:52.590
Gesellschaft bläst. Wir haben gesehen, wie[br]KI das menschliche Zusammenleben
0:41:52.590,0:41:57.080
kodifiziert und als Mittel staatlicher[br]Überwachung und kapitalistischer Kontrolle
0:41:57.080,0:42:01.849
dienen kann. Das heißt aber auch, dass[br]unsere Rassismen, unsere Sexismen und so
0:42:01.849,0:42:08.839
weiter in diese KI eingeschrieben wird und[br]dass gleichzeitig die Technologie sich
0:42:08.839,0:42:12.740
immer schneller und schneller entwickelt,[br]wir aber als Gesellschaft gar kein
0:42:12.740,0:42:18.900
ethisches Verständnis mehr davon schaffen,[br]dass hinterherkommt in dem Tempo der KI
0:42:18.900,0:42:25.130
und das auch dazu führt. Und dass es geht[br]mir jetzt nicht hier darum, KI an sich zu
0:42:25.130,0:42:29.980
verurteilen, sondern es gibt dafür schöne[br]Beispiele. Man kann KI benutzen, um es
0:42:29.980,0:42:35.350
gegen die Überwacher zu drehen und an zum[br]Beispiel für Gesichtserkennung Programme
0:42:35.350,0:42:39.910
auf die Polizei anzuwenden und so[br]Polizisten zu identifizieren, die gegen
0:42:39.910,0:42:45.460
Protestierende eingesetzt werden. Man kann[br]KI zu Hause rumliegen haben und deutsche
0:42:45.460,0:42:52.380
Behörden Maschinen lesbar machen und so[br]besser verstehbar machen. Aber bei allem,
0:42:52.380,0:42:57.599
dem dürfen wir nicht vergessen, dass[br]solange wir, solange wir die Herrschaft
0:42:57.599,0:43:00.980
der Menschen über die Menschen nicht in[br]den Fokus der Kritik richten, sondern uns
0:43:00.980,0:43:04.700
immer wieder nur an den Symptomen[br]abarbeiten, dass wir immer wieder an den
0:43:04.700,0:43:07.100
gleichen Punkt kommen werden, vielleicht[br]mit einer anderen Technologie, aber an den
0:43:07.100,0:43:14.200
gleichen Punkt. Wie Timnit Gebru sagte[br]daß, es geht darum, dass die wenigen
0:43:14.200,0:43:22.680
Systeme der Unterdrückung schaffen und die[br]"others constantly work to prevent harm
0:43:22.680,0:43:28.010
unable to find the time space or resources[br]to implement their own vision of future".
0:43:28.010,0:43:32.430
Und ich glaube tatsächlich, das ist das,[br]wo es im Endeffekt darum gehen würde, dass
0:43:32.430,0:43:37.090
wir es schaffen, die Zeit und den Willen[br]auch zu finden, unsere eigene Vision von
0:43:37.090,0:43:44.260
der Zukunft zu implementieren. Und dann[br]schlussendlich erst wenn wir als Menschen
0:43:44.260,0:43:50.579
gut zueinander sind, können die Maschinen[br]lernen, auch gut zu uns sein zu sein. Um
0:43:50.579,0:43:55.900
noch mal die Slides wie Sources und alle[br]meine Quellen findet ihr auf
0:43:55.900,0:44:06.680
r.ovl.design/rc3-ki, oder über diesen QR-[br]Code. Oder wie gesagt bei Twitter. Damit
0:44:06.680,0:44:11.131
komme ich zum Ende und möchte mich ganz[br]herzlich bedanken bei euch, die ihr
0:44:11.131,0:44:14.690
zugeguckt haben, bei der C-Base für die[br]Einladung hier sprechen zu dürfen und
0:44:14.690,0:44:17.560
natürlich bei allen Forscherinnen,[br]Aktivistinnen, Journalistinnen und so
0:44:17.560,0:44:24.060
weiter, auf deren Arbeit ich mich implizit[br]oder explizit bezogen habe. Vielen Dank!
0:44:24.060,0:44:26.680
Applaus
0:44:26.680,0:44:33.280
Herald: Das war großartig, Oskar, vielen[br]Dank! 45 Minuten, fast fast ohne Pause, da
0:44:33.280,0:44:37.250
gab es ja wirklich ein ordentliches[br]Update. Wir haben neue Wörter gelernt:
0:44:37.250,0:44:44.140
kybernetische Verdichtung, kybernetische[br]Verdichtung, digitaler Frühkapitalismus.
0:44:44.140,0:44:48.430
Demnach müssten wir Hacker jetzt helfen,[br]dass die modernen digitalen Arbeiter
0:44:48.430,0:44:51.840
wieder sich selbst ermächtigen und es[br]wieder zu einer Aufklärung kommt.
0:44:51.840,0:44:53.140
Wahrscheinlich.[br]Oskar: Zum Beispiel.
0:44:53.140,0:44:56.630
Herald: Algorithmische Undurchsichtigkeit.[br]Da müssten die Hacker dafür sorgen, dass
0:44:56.630,0:44:59.300
die Algorithmen irgendwie durchsichtiger[br]werden. Das Peinliche ist ja auch, dass
0:44:59.300,0:45:01.869
man dann sehen könnte, wie nackt der[br]Kaiser möglicherweise ist.
0:45:01.869,0:45:04.119
Oskar lacht[br]Herald: Und wir müssen den Wissensschatz
0:45:04.119,0:45:07.839
der Arbeiter, die davon überwacht und[br]gesteuert werden, irgendwie zu mehren
0:45:07.839,0:45:13.190
suchen. Und interessant fand ich auch[br]künstliche Ideologie. Das ist also so ein
0:45:13.190,0:45:18.830
bisschen, sonst spin gibt dahingehend zu[br]sagen, dass es künstlich, also ist es
0:45:18.830,0:45:22.010
intelligent, auch wenn es vielleicht gar[br]nicht so intelligent ist. Aber künstliche
0:45:22.010,0:45:26.220
Intelligenz ist ja schon mal ein Wert an[br]sich. Stochastische Papageien fand ich
0:45:26.220,0:45:30.569
auch interessant, dass also so große[br]Mengen an Daten, wenn man sie statistisch
0:45:30.569,0:45:34.740
auswertet, natürlich auch statistische[br]Artefakte produzieren. Wer hätte das nur
0:45:34.740,0:45:38.820
denken können? Aufgabe der Hacker hier[br]also auch Selbstermächtigung, Aufklärung
0:45:38.820,0:45:41.770
und Nachgucken. Wie funktioniert das[br]eigentlich, was wir immer schon gemacht
0:45:41.770,0:45:46.280
haben? Und jetzt die einzige Hörerfrage,[br]die in der kurzen Zeit jetzt gekommen ist.
0:45:46.280,0:45:50.390
Oder vielleicht auch Zuschauerfrage? Ist[br]Glaubst du, dass es einen künstlichen
0:45:50.390,0:45:56.751
Dunning-Krüger Effekt gibt?[br]Oskar: lacht verzweifelt Das ist eine
0:45:56.751,0:46:04.230
sehr interessante Frage, die ich[br]vielleicht nächstes Jahr in einem Vortrag
0:46:04.230,0:46:08.280
beantworten werde. Es ist eine sehr[br]interessante Frage. Ich muss darüber
0:46:08.280,0:46:13.550
nachdenken. Ich kann es mir vorstellen,[br]aber ich möchte, ich kann es jetzt gar
0:46:13.550,0:46:17.310
nicht so kohärent beantworten, wie die[br]Frage vielleicht beantwortet werden
0:46:17.310,0:46:19.990
müsste.[br]Herald: Okay, dafür ist die KI Landschaft
0:46:19.990,0:46:23.390
vielleicht ja auch etwas diverser als die[br]Menschen Landschaft da draußen.
0:46:23.390,0:46:26.970
Oskar: Na ja, bis jetzt hat sich gezeigt,[br]dass die KI Landschaft vor allen Dingen
0:46:26.970,0:46:29.060
ziemlich genau das Abbild der Menschen[br]Landschaft ist. Aber die Menschen
0:46:29.060,0:46:32.560
Landschaft ist natürlich auch sehr divers[br]und das ist ja auch ein Vorteil, den wir
0:46:32.560,0:46:35.540
haben können. Nur weil ich jetzt darüber[br]viel darüber gesprochen habe, wie
0:46:35.540,0:46:39.170
künstliche Intelligenz und Herrschaft[br]interagieren, heißt es ja, heißt das ja
0:46:39.170,0:46:42.920
nicht, dass das für immer so bleiben muss,[br]sondern künstliche Dinge kann auch
0:46:42.920,0:46:46.210
emanzipativ werden.[br]Herald: Ja, das ist ja interessant. Also
0:46:46.210,0:46:49.900
heißt das, die Geschichte wiederholt sich[br]wie immer einerseits ja, am Ende aber doch
0:46:49.900,0:46:53.820
nicht. Und es wird nicht so laufen. Mal[br]wieder nicht so, wie Marx es vorausgesagt
0:46:53.820,0:46:54.820
hat.[br]Oskar: Na ja.
0:46:54.820,0:46:56.010
Herald: Nicht mit wissenschaftlicher[br]Genauigkeit.
0:46:56.010,0:46:59.980
Oskar: Ich glaube, wenn man, wenn man[br]genauer hinguckt, der
0:46:59.980,0:47:03.060
Geschichtsdeterminismus und die[br]Voraussage, dass sich die Geschichte auf
0:47:03.060,0:47:05.320
eine bestimmte Art entwickeln wird, ist[br]wahrscheinlich einer der größten
0:47:05.320,0:47:09.270
Schwachpunkte bei Marx und Engels. Und[br]natürlich ist...
0:47:09.270,0:47:13.070
Herald: Bei der KI auch.[br]Oskar: Bei, bei der KI auch, wobei die KI
0:47:13.070,0:47:15.640
eigentlich immer wieder nur eine[br]Wiedergabe der Vergangenheit ist und
0:47:15.640,0:47:18.319
deswegen ja noch gar nicht damit[br]beschäftigt sein kann, wie die Zukunft
0:47:18.319,0:47:21.180
ist. Alles, was ihr über die Zukunft sagt,[br]so wie es gestern war und das bringt uns
0:47:21.180,0:47:23.599
alles und uns nichts.[br]Herald: Bringt das hier an Bord gar
0:47:23.599,0:47:26.720
nichts, wie wir rekonstruieren. Ja, die[br]Zukunft, das müsste die KI erst mal
0:47:26.720,0:47:29.310
lernen.[br]Oskar: Ja. Und wir können die Zukunft auch
0:47:29.310,0:47:32.430
gestalten, weil wir müssen nicht die[br]Fehler der Vergangenheit immer wieder und
0:47:32.430,0:47:36.450
wieder reproduzieren, sondern wir können[br]tatsächlich sagen, das war ein Fehler, wir
0:47:36.450,0:47:39.360
wollen es jetzt anders machen.[br]Herald: Also eine Riesenaufgabe für
0:47:39.360,0:47:42.770
Hacker. Ich glaube damit zusammen, dass es[br]die Sorte Vortrag, die man noch mal
0:47:42.770,0:47:44.510
angucken kann.[br]Oskar lacht
0:47:44.510,0:47:49.260
Herald: Herzlichen Dank! Grüße von der[br]C-Base. Es geht hier um 21 Uhr weiter. Bis
0:47:49.260,0:47:53.260
dann everything ist Lizenz cc by vor[br]Politisierung des Altvordere Community to
0:47:53.260,0:47:55.590
do what.
0:47:55.590,0:48:01.000
Untertitel erstellt von c3subtitles.de[br]im Jahr 2022. Mach mit und hilf uns!