1
00:00:04,750 --> 00:00:09,660
Herald: Herzlich willkommen im C-Base
Livestream der Raumstation unter Berlin-
2
00:00:09,660 --> 00:00:13,490
Mitte am S-Bahnhof Jannowitzbrücke. Es
freut mich ganz besonders, dass der Oskar
3
00:00:13,490 --> 00:00:18,270
heute hier ist mit dem Thema "Computer
says no. Künstliche Intelligenz und
4
00:00:18,270 --> 00:00:22,490
Herrschaft". Das freut mich deswegen ganz
besonders, weil ich ja ansonsten Technik
5
00:00:22,490 --> 00:00:27,470
Philosophie mache. Und wir sind ja nun
seit ungefähr 25 Jahren darauf warten,
6
00:00:27,470 --> 00:00:30,289
dass die ganzen künstlichen
Minderintelligenzen tatsächlich mal so was
7
00:00:30,289 --> 00:00:33,980
wie Bewusstsein entwickeln. Das scheint
aber noch nicht der Fall zu sein, es sei
8
00:00:33,980 --> 00:00:37,450
denn, Oskar hat hier Neuigkeiten für uns.
Und die interessante Frage ist ja, wie es
9
00:00:37,450 --> 00:00:40,670
zu rechtfertigen ist, dass solche
künstlichen Minderintelligenzen dann
10
00:00:40,670 --> 00:00:45,150
Herrschaft über uns ausüben, indem sie uns
Kredite verweigern, unsere Bankkarte nicht
11
00:00:45,150 --> 00:00:50,000
verlängern oder auch unsere
Steuererklärung für potenziell gefälscht.
12
00:00:50,000 --> 00:00:54,390
Das werden wir jetzt alles genau und näher
erfahren. Wie das fast schon akademische
13
00:00:54,390 --> 00:00:58,969
Tradition ist, gibt es genau 45 Minuten
Zeit für Oskar. Oskar, du hast die Bühne
14
00:00:58,969 --> 00:01:01,739
für ein Update zur künstlichen Intelligenz
und Herrschaft.
15
00:01:01,739 --> 00:01:06,330
Oskar: Vielen Dank! Herzlich willkommen
auch allen Wesen an den Empfangsgeräten.
16
00:01:06,330 --> 00:01:10,500
Die schlechte Nachricht zuerst. Es gibt
keine Neuigkeiten, sondern meine These ist
17
00:01:10,500 --> 00:01:13,690
eher, dass ich seit 1844 ungefähr nichts
geändert hat, außer dass jetzt Computer
18
00:01:13,690 --> 00:01:20,320
dabei sind. Bevor ich anfange, man kann
die Slides, alle meine Quellen und ein
19
00:01:20,320 --> 00:01:28,850
Transkript des Talks unter dem Link
r.ovl.design/rc3-ki sehen oder über diesen
20
00:01:28,850 --> 00:01:34,080
oben eingeblendeten QR-Code. Ich habe den
Link auch um 17:02, was ungefähr jetzt
21
00:01:34,080 --> 00:01:40,829
sein sollte, getwittert. Danke, Künstliche
Intelligenz. Mein Twitter @_ovlb. Fangen
22
00:01:40,829 --> 00:01:47,520
wir an. Künstliche Intelligenz. Was meine
ich eigentlich damit, wenn ich über
23
00:01:47,520 --> 00:01:53,009
Künstliche Intelligenz spreche? Künstliche
Intelligenz an sich ist erst mal eine
24
00:01:53,009 --> 00:01:59,840
recht grobe, grobe Kategorie. Deswegen
vorab auf einer technischen Ebene wird es
25
00:01:59,840 --> 00:02:04,880
vor allen Dingen um Machine Learning
gehen. Ich werde aber trotzdem den Talk
26
00:02:04,880 --> 00:02:10,979
über von KI sprechen. Ich werde von KI
sprechen, weil KI als gesellschaftlicher
27
00:02:10,979 --> 00:02:15,160
Begriff weiter greifend ist als nur die
technische Ebene, sondern eine Formierung
28
00:02:15,160 --> 00:02:22,050
von Politik, Arbeit, Kultur und Kapital
beinhaltet. Im Folgenden gehört es vor
29
00:02:22,050 --> 00:02:30,489
allem um Politik. Arbeit und Kapital gehen
weniger um Kultur. Und das Ganze wird sich
30
00:02:30,489 --> 00:02:35,110
folgendermaßen gliedern. Ich werde erst
über ImageNet reden, eines der vermutlich
31
00:02:35,110 --> 00:02:39,209
einflussreichsten Datensätze in der
Geschichte des Machine Learning, danach
32
00:02:39,209 --> 00:02:43,280
über Algorithmen und Arbeit und
schließlich über einen Teil namens
33
00:02:43,280 --> 00:02:47,490
künstlichen Ideologie, wo ich ein bisschen
über staatliche Herrschaft und wie sich
34
00:02:47,490 --> 00:02:54,739
Militär und Polizei künstliche Intelligenz
zu Nutze machen. Schließlich ein kleiner,
35
00:02:54,739 --> 00:03:00,142
ein kleiner Ausblick unter dem Titel Was
tun? Genau das ist die grobe, grobe
36
00:03:00,142 --> 00:03:05,270
Gliederung. Es ist also kein technischer
Vortrag. Ich werde nicht erklären, wie die
37
00:03:05,270 --> 00:03:09,659
Machine Learning funktioniert und ich werde noch
nicht erklären, was und wie grundlegend
38
00:03:09,659 --> 00:03:13,489
künstliche Intelligenz ist, oder? Also
wenn ihr jetzt einen technischen Vortrag
39
00:03:13,489 --> 00:03:21,790
erwartet habt. Tut mir leid, gibt es
nicht. Okay, los geht's. ImageNet, oder wie
40
00:03:21,790 --> 00:03:25,220
Machine Learning sich für immer
veränderte. Für die Leute von euch, die
41
00:03:25,220 --> 00:03:29,191
vielleicht nicht einen großen Hintergrund
in der Geschichte des der künstlichen
42
00:03:29,191 --> 00:03:34,129
Intelligenz haben. Eine kurze Erklärung, was
mit ImageNet eigentlich
43
00:03:34,129 --> 00:03:37,020
ist. ImageNet ist, wie oben schon
erwähnt, der vermutlich einflussreichste
44
00:03:37,020 --> 00:03:41,319
Datensatz. Warum, erkläre ich gleich. Und
darauf aufbauend wurde vermutlich einer
45
00:03:41,319 --> 00:03:46,280
der einflussreichsten Algorithmen
geschrieben. Die Idee ist so kompliziert
46
00:03:46,280 --> 00:03:52,140
wie simpel und wurde von Fei-Fei Li im
Jahr 2006 formuliert, nämlich den
47
00:03:52,140 --> 00:03:57,409
Goldstandard für Bilder Datensätze zu
sammeln. Die Umsetzung dementsprechend
48
00:03:57,409 --> 00:04:02,689
auch relativ einfach: Bilder sammeln. Nur
ist das natürlich, wenn man von einem
49
00:04:02,689 --> 00:04:07,620
Goldstandard spricht und von den damit von
den Mengen an Bildern, die und die damit
50
00:04:07,620 --> 00:04:11,780
gemeint sind, leichter gesagt als getan.
Fei-Fei Li und ihre Mitfahrenden hatten
51
00:04:11,780 --> 00:04:15,630
zwei Sachen auf ihrer Seite, nämlich
einerseits Bilder suchen, die relativ neu
52
00:04:15,630 --> 00:04:20,320
waren und andererseits immer
leistungsstärkere Computer. Trotzdem
53
00:04:20,320 --> 00:04:25,729
dauert es drei Jahre, bis genug Bilder
zusammengesammelt waren, genug heißt hier
54
00:04:25,729 --> 00:04:31,580
14 Millionen. Und das, um das ein bisschen
in Perspektive zu setzen. Einer der
55
00:04:31,580 --> 00:04:36,600
Hauptvorläufer von imageNet, Pascal VOC
Pascal Virtual Object Classes beinhaltete
56
00:04:36,600 --> 00:04:44,350
19737 Bilder in 20 Kategorien. Anstatt wie
jetzt in der mit 14 Millionen Bildern in
57
00:04:44,350 --> 00:04:52,280
20000 Kategorien. Nun stellt sich aber
eine Frage, wie klassifiziert man denn
58
00:04:52,280 --> 00:04:55,900
eigentlich 14 Millionen Bilder, nur weil
man in einer Bildersuche nach einem Apfel
59
00:04:55,900 --> 00:04:58,880
gesucht hat, heißt das ja nicht, dass
jedes Bild, das bei rausgekommen ist,
60
00:04:58,880 --> 00:05:02,990
einen Apfel beinhaltet. Traditionell wäre
das ein Job für Studienanfängerinnen
61
00:05:02,990 --> 00:05:07,870
gewesen. Das heißt, man hat den Leuten,
die gerade ein Studium angefangen hat,
62
00:05:07,870 --> 00:05:11,900
gesagt, hier einen Datensatz, bearbeite
den bitte. Guck, ob alles korrekt ist. Das
63
00:05:11,900 --> 00:05:15,420
Problem ist, bei 14 Millionen Bildern hat
einer, der Mitforschenden ausgerechnet,
64
00:05:15,420 --> 00:05:19,250
würde es ungefähr 19 Jahre dauern, bis die
Studienanfängerin diese 14 Millionen
65
00:05:19,250 --> 00:05:23,090
Bilder auch wirklich klassifiziert hätten.
Aus der heutigen Perspektive mag man
66
00:05:23,090 --> 00:05:28,090
vielleicht auch sagen, vielleicht ist es
ein Job für einen Algorithmus. Das Problem
67
00:05:28,090 --> 00:05:32,521
ist nur, die Algorithmen, die wir heute
haben, sind schon nicht gut genug, dass
68
00:05:32,521 --> 00:05:34,371
man einfach sagen kann, hier sind die
Bilder, sagt und was ist dann? Das muss
69
00:05:34,371 --> 00:05:39,240
immer wieder kontrolliert werden. Die
Algorithmen, die es damals gab, waren noch
70
00:05:39,240 --> 00:05:45,890
schlechter, also auch nicht wirklich die
Lösung des Problems. Die Lösung des
71
00:05:45,890 --> 00:05:50,130
Problems kam von einer unverhofften
Richtung, von einer micro working, click
72
00:05:50,130 --> 00:05:55,150
working Plattform namens Amazon Mechanical
Turk, die in 2015 eingeführt wurde.
73
00:05:55,150 --> 00:06:01,039
Mechanical Turk ist benannt nach dieser
Konstruktion, wo ein vermeintlicher
74
00:06:01,039 --> 00:06:05,639
Roboter von einem kleinwüchsigen Menschen
in diesem Kasten bedient wurde und dann so
75
00:06:05,639 --> 00:06:13,290
getan hat, als würde er Schach spielen
können. Und Mechanical Turk erlaubte es,
76
00:06:13,290 --> 00:06:17,620
sogenannte Human intelligente Tasks
einzustellen, also kleine Sachen wie zum
77
00:06:17,620 --> 00:06:21,569
Beispiel, Kucke auf diesem Job, auf diesem
Bild ein Apfel ist, die dann von den
78
00:06:21,569 --> 00:06:26,680
Arbeitenden auf der Plattform
vervollständigt werden konnten. Durch
79
00:06:26,680 --> 00:06:30,970
diese Plattform war es möglich, diese 14
Millionen Bilder auf 49 000 Leute
80
00:06:30,970 --> 00:06:37,100
aufzubrechen aufzuteilen, die in 167
Ländern daran gearbeitet haben und so
81
00:06:37,100 --> 00:06:40,770
vergleichsweise schnell oder relativ
schnell, zumindest sehr viel schneller als
82
00:06:40,770 --> 00:06:45,460
19 Jahre in der Lage waren, die Bilder zu
klassifizieren und zu gucken, ob das, was
83
00:06:45,460 --> 00:06:50,639
angeblich auf den Bildern drauf ist, auch
wirklich drauf ist. Wir sehen hier eins
84
00:06:50,639 --> 00:06:54,670
der Probleme, die uns immer wieder
begegnen werden, wenn wir heutzutage auf
85
00:06:54,670 --> 00:06:58,570
Machine Learning gucken und zwar das
menschliche Wahrnehmung auf einen rein
86
00:06:58,570 --> 00:07:03,840
mechanischen Prozess heruntergebrochen
wird. In dem Fall, dass visuelle
87
00:07:03,840 --> 00:07:08,979
Intelligenzen reine Mustererkennung ist.
Das heißt aber auch, dass zum Beispiel
88
00:07:08,979 --> 00:07:13,690
Erfahrungen von Menschen oder einen
Kontext, in welchen die Bilder gesehen
89
00:07:13,690 --> 00:07:16,860
werden, komplett ausgeblendet wird und
dass nur noch über diesen mechanischen
90
00:07:16,860 --> 00:07:21,590
Prozess geht. Bei einem Apfelkuchen mag
das okay sein, aber imageNet hat auch
91
00:07:21,590 --> 00:07:26,580
Kategorien für Menschen enthalten. Und da
wird es schon wesentlich schwieriger zu
92
00:07:26,580 --> 00:07:33,370
sagen, alles ist eins. Trotzdem Sie haben
es gemacht und sie waren damit auch soweit
93
00:07:33,370 --> 00:07:37,650
zufrieden und hatten dann diese 14
Millionen Bilder mehr oder weniger sauber
94
00:07:37,650 --> 00:07:43,870
klassifiziert rumliegen. Dann kam die
nächste Frage. Und jetzt? Was macht man
95
00:07:43,870 --> 00:07:48,349
jetzt mit diesem Datensatz? Was macht man
mit diesen Bildern? Im Rahmen der
96
00:07:48,349 --> 00:07:54,300
Forschung gab es von 2010 bis 2017 die
sogenannte ImageNet Large Scale Visual
97
00:07:54,300 --> 00:07:58,979
Recognition Challenge. In dieser Challenge
hat sich erstmal relativ lange nichts
98
00:07:58,979 --> 00:08:08,419
getan. Es wurde geforscht, bis schließlich
im Jahre 2012 der bereits angesprochene
99
00:08:08,419 --> 00:08:12,880
einflussreiche Algorithmus vorgestellt
wurde. AlexNet. AlexNet ist es
100
00:08:12,880 --> 00:08:17,020
eine Entwicklung von Alex Krichevsky und
seinem Team an der Universität Toronto
101
00:08:17,020 --> 00:08:23,830
gewesen und führte ein neues Konzept ein,
nämlich das der neuronalen Netze, die im
102
00:08:23,830 --> 00:08:27,389
Folgenden zu einem der tonangebenden
Paradigmen in Machine Learning wurden,
103
00:08:27,389 --> 00:08:32,940
weil es dadurch möglich war, diese
Bildmassen und diese an diese Datenmassen
104
00:08:32,940 --> 00:08:37,940
um wesentlich wesentlich schneller zu
bearbeiten bearbeiten, als es vorher
105
00:08:37,940 --> 00:08:43,050
möglich war. Auch heute ist das quasi
immer noch der der Mechanismus, der
106
00:08:43,050 --> 00:08:48,180
meistens verwendet wird. Okay, das quasi
so als kurzer historischer Hintergrund,
107
00:08:48,180 --> 00:08:52,440
worüber wir meistens reden, wenn wir von
Algorithmen reden, nämlich um große
108
00:08:52,440 --> 00:08:57,170
Datenmengen, die im Sinne von Machine
Learning oder Deep Learning, wie man es
109
00:08:57,170 --> 00:09:05,160
auch nennt, bearbeitet werden. Okay. Wir
haben also unfassbare Mengen an Daten. Wir
110
00:09:05,160 --> 00:09:08,470
haben einen fehlenden Konsens, also
niemand der Menschen, die in diesem
111
00:09:08,470 --> 00:09:11,700
Datensatz aufgetaucht wurden, wurde vorher
gefragt, ob das vielleicht auch noch okay
112
00:09:11,700 --> 00:09:14,360
ist, dass deren Bilder da gespeichert
wurden, sondern die Bilder waren einfach
113
00:09:14,360 --> 00:09:19,120
in diesem Datensatz und sind es auch heute
noch größtenteils. Und wir haben ein
114
00:09:19,120 --> 00:09:22,790
mechanisches Verständnis menschlicher
Wahrnehmung. Und schließlich haben wir
115
00:09:22,790 --> 00:09:28,710
Deep Learning, also als technische Art und
Weise, damit umzugehen, dass alles. Diese
116
00:09:28,710 --> 00:09:37,130
vier Punkte werden wir immer wieder und
wieder finden. Damit quasi der ImageNet zu Ende und der
117
00:09:37,130 --> 00:09:41,820
nächste Teil zu Arbeit und Algorithmen.
Noch mal ich auch hier einen Schritt
118
00:09:41,820 --> 00:09:45,859
zurück und die Frage, worüber rede ich
eigentlich, reden wir in diesem Kontext,
119
00:09:45,859 --> 00:09:51,640
wenn wir von Arbeit reden. Wir reden
einerseits von unbezahlter Arbeit. Das
120
00:09:51,640 --> 00:09:55,690
Beispiel dafür ist zum Beispiel Google
Recaptcha, wo wir, um Beweise zu beweisen,
121
00:09:55,690 --> 00:09:59,560
dass wir Menschen sind, beweisen, dass wir
einen Schornstein erkennen können. Wir
122
00:09:59,560 --> 00:10:06,040
haben als zweites unsichtbare Arbeit. Das
bedeutet, wie zum Beispiel die Leute auf
123
00:10:06,040 --> 00:10:10,360
Amazons Mechanical Turk Platform, diese
49000, die tauchen nie als Co-Autorin oder
124
00:10:10,360 --> 00:10:14,990
so was in den Papieren auf. Aber haben wir
doch einen fundamentalen Anteil der Arbeit
125
00:10:14,990 --> 00:10:19,300
geliefert. Schließlich haben wir durch
Algorithmen kontrollierte Arbeit, hier zum
126
00:10:19,300 --> 00:10:23,310
Beispiel Amazons Lagerhäuser oder
Lieferdienste wie Lieferando oder
127
00:10:23,310 --> 00:10:29,050
Delivery. Über unbezahlte Arbeit möchte
ich jetzt nicht richtig sprechen, sondern
128
00:10:29,050 --> 00:10:33,520
eher, sondern ich habe unsichtbare Arbeit
und die modifizierte Arbeit konzentrieren.
129
00:10:33,520 --> 00:10:40,740
Fangen wir mit unsichtbarer Arbeit an..
Wie wir gesehen haben, bei imageNet haben
130
00:10:40,740 --> 00:10:46,440
wir diese Erzählung von KI tut dieses oder
tut jenes. Wenn die KI erkennt, dass etwas
131
00:10:46,440 --> 00:10:51,430
in den Bildern ist oder die KI hat in GO
gewonnen, die KI schreibt mit Gptt drei
132
00:10:51,430 --> 00:10:56,040
unfassbar schöne Texte oder dumme Texte
von Teil zu Teil, KI betreibt Protein
133
00:10:56,040 --> 00:11:02,890
foldern. Das Problem ist nur, die KI tut
das nicht. Die KI ist für die für die
134
00:11:02,890 --> 00:11:07,530
Forscherin, die das eigentlich tun, ein
Werkzeug, das benutzt wird. Und es ist
135
00:11:07,530 --> 00:11:11,250
nicht die KI, die plötzlich vom Himmel
kommt und sagt, Ja, herzlichen
136
00:11:11,250 --> 00:11:18,110
Glückwunsch, GO, kann ich, sondern eher im
Gegenteil. Wie der Economist gezeigt hat,
137
00:11:18,110 --> 00:11:24,250
zeigt es braucht es heutzutage ungefähr 80
prozent der Entwicklungszeit eines Machine
138
00:11:24,250 --> 00:11:30,030
Learning Projektes sind menschliche
Arbeit. Nur da hinten beim Modeltraining,
139
00:11:30,030 --> 00:11:33,779
dann kommt der Computer tatsächlich ins
Spiel. Aber der allergrößte Teil ist
140
00:11:33,779 --> 00:11:39,110
menschliche Arbeit, die aber sowohl in der
öffentlichen Erzählung und in dieser der
141
00:11:39,110 --> 00:11:45,839
Wahrnehmung unsichtbar gemacht wird. Und
es braucht halt genau diese menschliche
142
00:11:45,839 --> 00:11:48,339
Arbeit, damit ein Algorithmus gut
funktioniert und ein Machine Learning
143
00:11:48,339 --> 00:11:53,519
System, braucht es große Mengen an Daten.
Die müssen natürlich sauber sein, weil
144
00:11:53,519 --> 00:11:56,730
wenn die Daten, aus denen der Algorithmus
lernt, nicht sauber sind, dann ist das,
145
00:11:56,730 --> 00:12:01,610
was hinten rauskommt auch Mist. Und
deswegen muss das bis heute von von
146
00:12:01,610 --> 00:12:07,620
Menschen unternommen werden. Wir sind also
wieder da, wo wir bei Mechanical Turk so
147
00:12:07,620 --> 00:12:11,870
ein bisschen waren, bei einer Maschine,
die so tut, als wäre sie keine Maschine.
148
00:12:11,870 --> 00:12:16,100
Eine andere Metapher vielleicht die, die
man benutzen kann, sind potemkinsche
149
00:12:16,100 --> 00:12:20,200
Dörfer, wo vorne alles schön fein gemacht
wird. Und die Fassaden sehen aus, als
150
00:12:20,200 --> 00:12:23,420
hätte man die schönsten, schönsten Häuser
der Welt. Aber hinten, wo es niemand
151
00:12:23,420 --> 00:12:28,920
sieht, verfällt es einfach. Kate Crawford
nennt es, nennt diese Form der KI in
152
00:12:28,920 --> 00:12:33,561
Anlehnung dessen auch potemkinsche KI,
also wenig mehr als Fassaden, die so
153
00:12:33,561 --> 00:12:40,040
demonstrieren, wie ein autonomes System
aussehen würde, wenn es autonom wäre. Wir
154
00:12:40,040 --> 00:12:46,870
es hier zu tun mit einem schönen Schein
des Automatismus. Diese Arbeit kann aber
155
00:12:46,870 --> 00:12:53,660
auch anders aussehen. Das ist ein Foto von
der New York Daily News und diese
156
00:12:53,660 --> 00:12:57,540
Schlange, die ich wir sehen, sind
Obdachlose, meistens schwarze Obdachlose,
157
00:12:57,540 --> 00:13:02,790
die von einer Subfirma oder von einer
Firma oder die von Google da beauftragt
158
00:13:02,790 --> 00:13:08,980
wurden. Eine Firma hat Google beauftragt
Daten zu sammeln, und zwar bestimmte
159
00:13:08,980 --> 00:13:13,411
Daten, Daten der Gesichter von schwarzen
Menschen. Diese Leute haben dafür ein
160
00:13:13,411 --> 00:13:18,089
Geschenkgutschein im Wert von 5 Dollar
gekriegt, dafür, dass ihr 3D-Modell auf
161
00:13:18,089 --> 00:13:23,300
die Server von Google hochgeladen wurde.
Ziemlich niedriger Preis. Warum macht
162
00:13:23,300 --> 00:13:28,120
Google das? Weil Google immer wieder in
Kritik kommt, dass ihre eigenen
163
00:13:28,120 --> 00:13:32,190
Algorithmen schwarze Menschen nicht
erkennen oder wenn sie Schwarze
164
00:13:32,190 --> 00:13:37,280
Menschen erkennen, so wie hier am Beispiel
von Algorithmen Watch aus 2020, ein
165
00:13:37,280 --> 00:13:40,470
Thermometer in der Hand eines schwarzen
Menschen plötzlich für eine Waffe halten.
166
00:13:40,470 --> 00:13:44,510
Wenn man aber mit mittleren Photoshop
Skills die Hand weiß macht, ist es
167
00:13:44,510 --> 00:13:49,220
plötzlich keine Waffe mehr. Sowohl bei dem
Beispiel als auch Atlanta als auch bei dem
168
00:13:49,220 --> 00:13:55,510
Beispiel mit der mit dem Thermometer, tat
es Google danach tierisch leid. Tut es
169
00:13:55,510 --> 00:14:01,870
immer tierisch leid, wenn Google erwischt
wird, wenn es Google scheiße baut. Es ist
170
00:14:01,870 --> 00:14:04,980
aber diese Geistesarbeit finden wir nicht
nur im Training von Machine Learning
171
00:14:04,980 --> 00:14:08,870
Algorithmen, wir haben es bei der
Verifizierung von Bankaccount, wenn man
172
00:14:08,870 --> 00:14:12,450
seine Daten hochlädt und dann plötzlich
kommt wie von Geisterhand eine
173
00:14:12,450 --> 00:14:16,269
Verifizierung oder nicht zurück. Wir haben
es bei der Moderation von Inhalten, bei
174
00:14:16,269 --> 00:14:22,470
Facebook, Twitter oder anderen sozialen
Netzwerken. Das alles führt dazu, dass
175
00:14:22,470 --> 00:14:26,589
diese Erzählung davon, dass uns die
Roboter die Arbeit wegnehmen, vielleicht
176
00:14:26,589 --> 00:14:30,620
nicht stimmt. Vielleicht sollten wir uns
nicht davor fürchten, dass uns die
177
00:14:30,620 --> 00:14:35,329
Technologie ersetzt, sondern eher, dass
Menschen entwertet werden, dass Menschen
178
00:14:35,329 --> 00:14:38,699
Arbeit machen müssen, die immer weniger
wert wird und immer weniger wertgeschätzt
179
00:14:38,699 --> 00:14:42,850
wird. Ich würde deswegen sagen, dass wir
es hier mit einer Form von
180
00:14:42,850 --> 00:14:49,779
Frühkapitalismus im digitalen Gewand zu
tun haben. Anderes Beispiel: Am 25. März
181
00:14:49,779 --> 00:14:55,579
1911 brannte in New York die Triangel
Shirtbased Factory. Bei dem Feuer starben
182
00:14:55,579 --> 00:14:59,570
146 Menschen. Teilweise verbrannten,
teilweise, weil sie aus dem Fenster
183
00:14:59,570 --> 00:15:03,101
springen mussten, weil die
Fabrikeigentümer beschlossen hatten, dass
184
00:15:03,101 --> 00:15:07,460
während der Arbeitszeit die Ausgänge der
Fabrik abgeschlossen zu sein haben. Das
185
00:15:07,460 --> 00:15:15,370
Gebäude wurde so zur Todesfalle. Am 10.
12. 2021 traf ein Hurrikan ein Amazon
186
00:15:15,370 --> 00:15:20,320
Lagerhaus und sechs Menschen starben
während Jeff Bezos damit zu zufrieden war,
187
00:15:20,320 --> 00:15:26,149
dass er bald in den Weltraum fliegen kann.
More perfekt Union ist eine Organisation
188
00:15:26,149 --> 00:15:30,790
aus den USA, veröffentlichte diesen
Screenshot einer der Angestellten vor Ort.
189
00:15:30,790 --> 00:15:36,769
Er schrieb: "I will be at home after the
Storm" und seine Freundin schrieb "what do
190
00:15:36,769 --> 00:15:41,730
you mean?". Und er schrieb zurück "Amazon
won't let us leaf". Das ist das letzte,
191
00:15:41,730 --> 00:15:46,490
was er seinen Geliebten geschrieben hat.
Kurz danach traf der Hurrikan das
192
00:15:46,490 --> 00:15:53,290
Lagerhaus und er starb zusammen mit fünf
anderen. Das ist kein Einzelfall, wenn man
193
00:15:53,290 --> 00:16:00,170
sich die Anzahl schwerer Verletzung in der
Lagerindustrie in den USA anguckt, hat
194
00:16:00,170 --> 00:16:04,790
Revier herausgefunden, dass die Anzahl bei
Amazon ungefähr doppelt so hoch ist wie im
195
00:16:04,790 --> 00:16:10,460
Industriedurchschnitt. Wir haben es hier
mit einem Phänomen namens kybernetische
196
00:16:10,460 --> 00:16:18,290
Verdichtung zu tun. Das haben. *trinkt
einen schluck Wasser". Das heißt, dass die
197
00:16:18,290 --> 00:16:21,919
Arbeitskraft und die Arbeitszeit immer
weiter verdichtet wird, dass immer weniger
198
00:16:21,919 --> 00:16:26,089
Zeit bleibt, die gleichen Sachen zu machen
und dass man zum Beispiel das Sortieren
199
00:16:26,089 --> 00:16:29,639
von Paketen in Amazon Lagerhäusern immer
schneller und schneller machen muss. Das
200
00:16:29,639 --> 00:16:33,790
führt dazu, dass mittlerweile ein
Unterschied von einer Sekunde oder zwei
201
00:16:33,790 --> 00:16:37,459
Sekunden in der durchschnittlichen Zeit
dieser Aufgaben zu machen, der Unterschied
202
00:16:37,459 --> 00:16:40,500
sind, ob man gelobt wird oder ob man
gewarnt wird, dass man zu schlecht
203
00:16:40,500 --> 00:16:47,170
arbeitet. Und das führt natürlich dazu,
dass man anfängt, unsicher zu arbeiten,
204
00:16:47,170 --> 00:16:52,380
dass man nicht auf sich achten kann, weil
die Zeit nicht mehr dafür da ist. You have
205
00:16:52,380 --> 00:16:59,230
to do unsafe things to make you numbers.
Man kann nicht mehr auf sich achten. Und
206
00:16:59,230 --> 00:17:04,100
diese Verdichtung nimmt immer, nimmt immer
weiter zu, diese Algorithmifizierung.
207
00:17:04,100 --> 00:17:09,740
Dabei ist das an sich erst mal kein neues
Phänomen. Die Versuche, Arbeitskraft zu
208
00:17:09,740 --> 00:17:14,870
automatisieren oder durch Automatisierung
zu optimieren, sind so alt wie der
209
00:17:14,870 --> 00:17:23,390
Kapitalismus selber. In 1844 hat Friedrich
Engels Andrew Ure zitiert, der schrieb:
210
00:17:23,390 --> 00:17:27,330
"In wenigen Monaten schon war eine
Maschine fertig, die dem Anschein nach mit
211
00:17:27,330 --> 00:17:34,050
dem Denkvermögen Gefühl und Takt des
erfahrenen Arbeiter begabt war." Von Das
212
00:17:34,050 --> 00:17:40,911
Zitat könnte eigentlich auch heute in der
in der verklärten Sicht auf auf
213
00:17:40,911 --> 00:17:46,750
Automatisierung und Roboter kommen. Aber
kommt aus dem 19. Jahrhundert, aus der
214
00:17:46,750 --> 00:17:51,299
Zeit des Frühkapitalismus. Was aber auch
aus der Zeit des Frühkapitalismus und der
215
00:17:51,299 --> 00:17:54,120
Zeit danach kommt, ist, dass die
ArbeiterInnenbewegung sich Sozialstandards
216
00:17:54,120 --> 00:17:58,000
erkämpft hat. Feste Arbeitsverhältnisse,
ein Recht auf Urlaub, Beschränkung der
217
00:17:58,000 --> 00:18:01,270
Arbeitszeiten, ein Recht auf
gewerkschaftliche Organisierung und so
218
00:18:01,270 --> 00:18:05,570
weiter und so fort. Also alles das, was
wir zum Beispiel bei Amazon oder auch in
219
00:18:05,570 --> 00:18:09,120
anderen Firmen im Amazon. Nur als
prominentes Beispiel ist es nicht so, dass
220
00:18:09,120 --> 00:18:15,059
Amazon der einzig Schuldige wäre. Sehen,
was wieder angegriffen wird, was Union
221
00:18:15,059 --> 00:18:17,950
basstian betrieben wird
und so weiter und so fort. Das wurde alles
222
00:18:17,950 --> 00:18:21,419
schon mal erkämpft und muss jetzt wieder
erkämpft werden bzw. muss immer wieder
223
00:18:21,419 --> 00:18:25,420
erkämpft werden. So haben wir das
Phänomen, dass das, was heutzutage als
224
00:18:25,420 --> 00:18:29,221
radikal neue Form der Arbeit daherkommt,
im Licht der historischen Entwicklung
225
00:18:29,221 --> 00:18:34,030
oftmals nicht mehr, da fehlt ein nicht,
nicht mehr ist als eine Wiederkehr
226
00:18:34,030 --> 00:18:39,809
früherer Arbeitsverhältnisse. Es ist gar
nicht so neu, was wir sehen, es ist nur.
227
00:18:39,809 --> 00:18:45,350
Es hat sich nur in eine moderne Form
geändert. Man könnte sagen und ewig grüßt
228
00:18:45,350 --> 00:18:52,260
das Kapitalverhältnistier. Und deswegen
erlaube man mir die Pathetik Friedrich
229
00:18:52,260 --> 00:18:57,440
Engels selber zu zitieren, der schrieb die
Lage der arbeitenden Klasse in England.
230
00:18:57,440 --> 00:19:01,480
"Die Arbeiter müssen sich also beschrieben
bestreben, aus dieser vertiefenden Lage
231
00:19:01,480 --> 00:19:04,750
herauszukommen, und dies können sie nicht
tun, ohne dass gegen das Interesse der
232
00:19:04,750 --> 00:19:13,500
Bourgeoisie als solcher anzukämpfen." Das
ist ein anderer Punkt in dieser Arbeit ist
233
00:19:13,500 --> 00:19:19,169
die sogenannte algorithmische und
Undurchsichtigkeit. Algorithmische
234
00:19:19,169 --> 00:19:21,690
Undurchsichtigkeit bedeutet entweder, dass
ein Algorithmus so kompliziert geworden
235
00:19:21,690 --> 00:19:25,020
ist, dass man ihn technisch nicht mehr
verstehen kann, was vorkommt, oder aber,
236
00:19:25,020 --> 00:19:28,570
dass man nicht mehr den Einblick in den
Algorithmus hat, dass man also die Frage,
237
00:19:28,570 --> 00:19:33,789
welchen Einfluss haben Algorithmen auf
meine Arbeit? Nicht beantworten kann. Das
238
00:19:33,789 --> 00:19:36,740
ist im Lagerhaus vielleicht noch relativ
offensichtlich. Wenn die Picking Raid
239
00:19:36,740 --> 00:19:40,610
immer schneller, schneller wird, dann kann
man das auf den Algorithmus hin
240
00:19:40,610 --> 00:19:45,590
hinausführen. Aber wenn ich zum Beispiel
bei Deliveroo arbeite oder bei Lieferant
241
00:19:45,590 --> 00:19:50,210
oder Foodora oder wie die ganzen Buden
heißen, da ist das nicht unbedingt so
242
00:19:50,210 --> 00:19:54,220
offensichtlich, weil die Algorithmen
natürlich geheim sind und sich von Firma
243
00:19:54,220 --> 00:19:58,780
zu Firma unterscheiden. Deliveroo wurde in
Italien verklagt, weil der Algorithmus
244
00:19:58,780 --> 00:20:01,410
diskriminiert hat. Wenn man zum Beispiel
krank gewesen ist oder sich an
245
00:20:01,410 --> 00:20:08,160
Arbeitsorganisation beteiligt hat, dann
hat der Algorithmus einen so bestraft, wie
246
00:20:08,160 --> 00:20:12,350
als wenn man einfach nicht gearbeitet
hätte. Das führt natürlich dazu, dass
247
00:20:12,350 --> 00:20:16,570
Gerüchte entstehen und dass diese
Unklarheit zu Wissenshierarchien führt,
248
00:20:16,570 --> 00:20:20,360
dass man nicht mehr verstehen kann, was
eigentlich passiert. Wir haben es mit
249
00:20:20,360 --> 00:20:24,400
einem Phänomen zu tun, wo die Daten, die
angesammelt werden, nur noch in eine
250
00:20:24,400 --> 00:20:28,970
Richtung fließen. Sie werden von den von
den Arbeiterinnen extrahiert und fließen
251
00:20:28,970 --> 00:20:33,919
in den Wissensschatz der der Plattform, wo
sie angehäuft werden, ausgewertet werden
252
00:20:33,919 --> 00:20:38,470
und so weiter. Das führt zu der Frage, wie
soll man denn eigentlich verstehen, was
253
00:20:38,470 --> 00:20:42,260
nicht fassbar ist. Wenn ich nicht weiß,
was der Prozess ist, wie soll ich ihn
254
00:20:42,260 --> 00:20:46,680
verstehen und wie sollen wir ihn überhaupt
fassen, was sich, was ich verändert?
255
00:20:46,680 --> 00:20:49,640
Natürlich werden diese Algorithmen
weiterentwickelt und weiterentwickelt.
256
00:20:49,640 --> 00:20:54,650
Wenn ein Manager von der Lieferkette sagt
unsere Algorithmen sind unfassbar dumm,
257
00:20:54,650 --> 00:20:59,030
was tatsächlich passiert ist. Sie können
gar nicht so diskriminierend sein, wie ihr
258
00:20:59,030 --> 00:21:02,809
euch das vorstellt, dann ist das ja keine
Garantie. Erstens, dass er nicht lügt, was
259
00:21:02,809 --> 00:21:07,230
man im Manager vielleicht zutrauen sollte
und zweitens auch nicht, dass der
260
00:21:07,230 --> 00:21:13,040
Algorithmus das vielleicht in zwei Monaten
vielleicht nicht mehr so dumm ist. Und
261
00:21:13,040 --> 00:21:17,340
diese Hierarchien können nur aufgelöst
werden, wenn die Algorithmen offengelegt
262
00:21:17,340 --> 00:21:25,120
werden, wenn es eine Möglichkeit gibt, zu
verstehen, was eigentlich gerade passiert.
263
00:21:25,120 --> 00:21:27,640
Wir haben es hier also mit einer
Verdichtung der Arbeit zu tun, die auch
264
00:21:27,640 --> 00:21:32,400
eine Verdichtung der Zeit ist. Unternehmen
versuchen alle Sekunden, die hinter den
265
00:21:32,400 --> 00:21:38,001
Fabriktor stecken oder im Fall von Geeck
Work vielleicht auch in den Straßen, in
266
00:21:38,001 --> 00:21:45,789
Arbeitszeit und in kontrollierte Zeit zu
verändern. Vielleicht hilft dagegen
267
00:21:45,789 --> 00:21:49,850
Faulenzen, um die Überwachung zu
verändern. Vielleicht aber auch nicht. Die
268
00:21:49,850 --> 00:21:53,760
Verlangsamung des Arbeit ist der Arbeit
ist ein Mittel des Arbeitskampfes. Der
269
00:21:53,760 --> 00:21:59,760
sogenannte Bummelstreik ist gut erprobt.
Vielleicht kann man den noch gegen
270
00:21:59,760 --> 00:22:04,940
Algorithmen einsetzen. Das wäre eine
These, die es auszuprobieren gilt. Und
271
00:22:04,940 --> 00:22:08,880
dieses Bewusstsein von der Zeit ist nicht
unbedingt neu. Walter Benjamin schreibt in
272
00:22:08,880 --> 00:22:14,429
seinen Geschichtsphilosophischen Thesen
über die Uni Revolution 1830. Das ist in
273
00:22:14,429 --> 00:22:18,660
ganz Paris, also die Uni Revolution 1830, in
Paris, das in ganz Paris unabhängig
274
00:22:18,660 --> 00:22:22,810
voneinander auf die Turnuhren geschossen
wurde, weil die Protestierenden verstanden
275
00:22:22,810 --> 00:22:27,590
haben, dass diese Turnuhren als Symbol der
Zeit und als Symbol des Drucks durch die
276
00:22:27,590 --> 00:22:35,650
Zeit stehen. Dieser Widerstand oder jeder
Widerstand an sich braucht Organisierung,
277
00:22:35,650 --> 00:22:39,240
wir können nicht einfach, es gibt keine
Möglichkeit da als Einzelperson was gegen
278
00:22:39,240 --> 00:22:43,580
zu machen, sondern man muss sich, man muss
sich mit seinen Arbeiterinnen und
279
00:22:43,580 --> 00:22:47,270
Kolleginnen zusammen organisieren. Und
natürlich tun die Firmen alles, dass das
280
00:22:47,270 --> 00:22:51,330
zu verhindern. Aber sie müssen dabei nicht
erfolgreich sein. Das zeigt allein schon
281
00:22:51,330 --> 00:22:59,050
die Geschichte. Okay, das wäre der Teil
zur Arbeit. Gucken wir jetzt uns mal an,
282
00:22:59,050 --> 00:23:04,900
was der Staat mit der ganzen Geschichte zu
tun hat. Ich rede hier ein bisschen über
283
00:23:04,900 --> 00:23:08,840
über Daten und öffentliche Daten, dann
über ökonomische Abhängigkeiten in der
284
00:23:08,840 --> 00:23:12,090
Forschung, über Polizei und Militär. Ein
kleines bisschen über Privatsphäre. Und
285
00:23:12,090 --> 00:23:16,850
dann zum Schluss. Das ist ein schönes
Paket. Also öffentliche Daten und privates
286
00:23:16,850 --> 00:23:20,870
Geld. Ich würde sagen, dass wir es hier
mit einer neuen Form der ursprünglichen
287
00:23:20,870 --> 00:23:25,490
Akkumulation zu tun haben. Also private
Unternehmen versuchen möglichst viel
288
00:23:25,490 --> 00:23:32,190
verwertbare Stoffe in ihre eigenen
Privatbesitz zu gelangen, um daraus Profit
289
00:23:32,190 --> 00:23:38,600
zu schlagen. Der Rohstoff in diesem Fall
sind unsere Geschichten, unser Leben. Die
290
00:23:38,600 --> 00:23:43,010
Märkte sind, wie wir sehen werden,
Kontrolle oder wie wir auch im
291
00:23:43,010 --> 00:23:47,180
Arbeitskapitel schon gesehen haben und
Hokuspokus, wo gesagt wird, künstliche
292
00:23:47,180 --> 00:23:50,679
Intelligenz wäre in der Lage, dies und
jenes zu tun, auch wenn es das auf keinen
293
00:23:50,679 --> 00:23:55,840
Fall ist. Aber wir brauchen eure Daten.
Und ich würde deswegen sagen, dass die
294
00:23:55,840 --> 00:23:58,950
Innovationen, die uns da verkauft werden,
keine ist, sondern einfach alt und
295
00:23:58,950 --> 00:24:04,170
gebrechlich und stinkt. Was wir aber
trotzdem immer mehr sehen, ist eine
296
00:24:04,170 --> 00:24:08,050
Konzentration unserer Daten in den
Rechenzentrum einiger weniger privater
297
00:24:08,050 --> 00:24:12,600
Unternehmen. Und je mehr konzentriert
wird, umso mehr sind wir als Gesellschaft
298
00:24:12,600 --> 00:24:16,510
darauf angewiesen, dass diese privaten
Unternehmen gut zu uns sind. Als Beispiel
299
00:24:16,510 --> 00:24:20,880
zum Beispiel der Übersetzungsassistent von
Google, Google Translate, der zwar für
300
00:24:20,880 --> 00:24:25,669
alle frei nutzbar ist, wir bezahlen nicht
dafür. Und trotzdem sammelt Google all
301
00:24:25,669 --> 00:24:30,669
unsere Daten. Und je mehr wir diese
Nutzung in öffentliche Prozesse einbauen
302
00:24:30,669 --> 00:24:34,419
oder auch in unser Leben einbauen, umso
mehr werden wir von Google abhängig und
303
00:24:34,419 --> 00:24:37,380
umso mehr werden dafür werden wir davon
abhängig, dass Google nicht vielleicht
304
00:24:37,380 --> 00:24:42,190
irgendwann sagt: Na gut, kein Bock mehr
auf umsonst, ab jetzt wird bezahlt. Diese
305
00:24:42,190 --> 00:24:46,299
Abhängigkeit führt zu einer Frage, die wir
so in der Bankenkrise vielleicht schon
306
00:24:46,299 --> 00:24:53,830
gesehen haben, als Finanzinstitute als too
big to fail bezeichnet wurden und immense
307
00:24:53,830 --> 00:24:58,720
Summen Geld dafür ausgegeben werden werden
musste, diese diese Institute zu retten.
308
00:24:58,720 --> 00:25:03,500
Die Tech-Unternehmen befinden sich immer
mehr auf dem Weg, so integrale
309
00:25:03,500 --> 00:25:08,390
Bestandteile unserer Gesellschaften zu
werden, dass auch sie diesen too big to
310
00:25:08,390 --> 00:25:12,620
fail Moment vermutlich erreichen, wenn
nicht schon erreicht haben. Aber es ist
311
00:25:12,620 --> 00:25:16,190
nicht nur die Öffentlichkeit, die davon
abhängig ist, ist es auch zunehmend die
312
00:25:16,190 --> 00:25:21,600
Forschung, die über künstliche Intelligenz
oder über tech generell, die mehr und mehr
313
00:25:21,600 --> 00:25:27,030
davon abhängig ist, dass sie sich mit den
mit den Unternehmen gut stellt. Es sind
314
00:25:27,030 --> 00:25:31,840
ein paar wenige Unternehmen, die nicht nur
die Entwicklungsumgebung stellen, die
315
00:25:31,840 --> 00:25:39,440
Sprachen und aber auch die Software. Das
heißt, die um sie schaffen quasi die das
316
00:25:39,440 --> 00:25:44,610
Wasser, wie Meredith Whitaker sagte, in
dem die Forschung zu künstlicher
317
00:25:44,610 --> 00:25:49,740
Intelligenz schwimmt. Ein Beispiel hierfür
ist Timnit Gebru vermutlich das
318
00:25:49,740 --> 00:25:54,650
prominenteste der letzten Monate und im
Februar ist eine der führenden
319
00:25:54,650 --> 00:26:03,820
Forscherinnen im Bereich der der ethischen
KI und war lange Zeit Qlead bei Google. Im
320
00:26:03,820 --> 00:26:08,580
Dezember letzten Jahres wurde sie
plötzlich gefeuert, angeblich weil sie
321
00:26:08,580 --> 00:26:13,390
eine Mail an eine Mailingliste geschickt
hatte, die einem Manager nicht würdig war.
322
00:26:13,390 --> 00:26:22,860
Die wahrscheinlichere These ist, dreht
sich um ein Paar. Ein Paper, in dem es um
323
00:26:22,860 --> 00:26:28,720
sogenannte stochastische Papageien ging,
um stockastic parrats und um die Gefahren,
324
00:26:28,720 --> 00:26:33,840
die Large Language Models, sehr große
Sprach Modelle, wie zum Beispiel das
325
00:26:33,840 --> 00:26:42,830
bereits erwähnte Gpd3 führen würden, Gibru
und ihre Koathorinen haben in dem Paper
326
00:26:42,830 --> 00:26:49,919
argumentiert, dass diese Language Modells
eine große Reichweite, große Vielfalt
327
00:26:49,919 --> 00:26:53,900
an Kosten, aber auch Gefahren bilden, also
zum Beispiel Kosten werden Umweltkosten.
328
00:26:53,900 --> 00:26:58,640
Es braucht sehr viel Rechenkapazitäten mit
diesen Models zu arbeiten. Harms Während
329
00:26:58,640 --> 00:27:04,021
z.B. Rachel Harms diese sprach,
dass die Modelle es schaffen, künftig sehr
330
00:27:04,021 --> 00:27:07,929
eloquent über Rassismus zu reden, gebe die
drei z.B. auch kurz nach seinem
331
00:27:07,929 --> 00:27:11,740
Release schon angefangen, antisemitischen
und rassistischen Müll zu erzählen, auch
332
00:27:11,740 --> 00:27:16,350
wenn das überhaupt gar nichts mit der
Fragestellung zu tun hat. Und wieder tat
333
00:27:16,350 --> 00:27:23,679
es Google leid. Es tat Google sogar so
leid, dass sie im Februar 2021 MMitchel
334
00:27:23,679 --> 00:27:32,220
gefeiert haben, Lied eines anderen iTeams
bei Alphabet Googles Mutterfirma. Und
335
00:27:32,220 --> 00:27:37,210
Google sendet damit eine ganz eindeutige
Nachricht. Wenn wir die führenden Köpfe
336
00:27:37,210 --> 00:27:41,559
dem Bereich ethical eye feuern können und
es uns zwar leid tut, aber wir es trotzdem
337
00:27:41,559 --> 00:27:48,020
machen, dann seid ihr besser ganz ruhig
und benehmt euch oder ihr seid einfach
338
00:27:48,020 --> 00:27:55,620
raus. Um diese Form der Abhängigkeit ist
ein bisschen simultan zu dem, was wir im
339
00:27:55,620 --> 00:28:00,250
Kalten Krieg gesehen haben, als das US-
Militär immer mehr Geld in die Forschung
340
00:28:00,250 --> 00:28:05,350
gesteckt hat. Technologie und Militär oder
wie ich sagen würde ziemlich beste
341
00:28:05,350 --> 00:28:12,529
Freundinnen. Sie können bis zum Anfang des
Internet, als es noch ARPANET zurückdenkt,
342
00:28:12,529 --> 00:28:18,340
hieß, zurückdenken und sehen, dass das
ARPANET eine Erfindung des Militärs war,
343
00:28:18,340 --> 00:28:25,470
seine Ausgründung des Arpa, Advanced
Research Proposal und a und dass
344
00:28:25,470 --> 00:28:31,700
Départements of Defence. Und von da an
gingen die Investitionen in Forschung und
345
00:28:31,700 --> 00:28:35,740
Technologie immer weiter und weiter und
weiter Geschäfte mit dem Militär
346
00:28:35,740 --> 00:28:40,450
heutzutage sind Teil des Kerngeschäfts von
Google, Facebook, Amazon und so weiter und
347
00:28:40,450 --> 00:28:47,429
so fort. In Amerika ist eines der größten
Projekte, Project Maven. Als offizielles
348
00:28:47,429 --> 00:28:53,990
erstes Logo hatten sie diese Roboter auf
Ecstasy, die dem eigentlichen Inhalt des
349
00:28:53,990 --> 00:28:57,840
Ganzen, nämlich algorithmisch warfare
Cross Functional Team, nun wirklich nicht
350
00:28:57,840 --> 00:29:04,699
gerecht werden. Am Projekt Melvin war ein
Projekt von beinahe allen US
351
00:29:04,699 --> 00:29:13,100
amerikanischen Verteidigungsinstitution,
künstlich intelligente Spionage gang und
352
00:29:13,100 --> 00:29:17,990
gäbe zu machen und nichts mehr auf der
Welt zu verpassen. In diesem Projekt
353
00:29:17,990 --> 00:29:24,480
wurden auch technologische
Errungenschaften von YouTube verwendet, wo
354
00:29:24,480 --> 00:29:29,110
eigentlich im Zivilen entwickelte
Techniken dem Militär nutzbar gemacht
355
00:29:29,110 --> 00:29:33,390
wurden. Ein Beispiel wäre YouTubes
Empfehlungslgorithmus, der auch sogenannte
356
00:29:33,390 --> 00:29:38,570
Cluster Analysis beruht und diese Cluster
Analysis, kann man einerseits benutzen, um
357
00:29:38,570 --> 00:29:41,270
die Videos anzuzeigen, die dich
wahrscheinlich interessieren. Man kann sie
358
00:29:41,270 --> 00:29:47,430
aber auch benutzen, um vermutete
Straftäterinnen zum Beispiel im Irak oder
359
00:29:47,430 --> 00:29:54,590
so zu entdecken. Für Google ging das nicht
so gut aus. Bis zu 3000 MitarbeiterInnen haben
360
00:29:54,590 --> 00:29:59,071
sich, haben protestiert und Google hat
sich aus Project Maven zurückgezogen und
361
00:29:59,071 --> 00:30:04,049
hat gesagt, wir machen keine autonomen
Waffen mehr. Es tat Google natürlich leid.
362
00:30:04,049 --> 00:30:06,510
Google hat aber auch gleichzeitig gesagt,
das Geschäft mit den Militärs und so
363
00:30:06,510 --> 00:30:10,799
wichtig. Wir machen keine Waffen, aber
alles andere machen wir schon. Ein
364
00:30:10,799 --> 00:30:15,490
jüngeres Beispiel aus Europa ist die 100
Millionen Dollar Investition von Daniel
365
00:30:15,490 --> 00:30:21,400
Eck, dem CEO von Spotify, der mit seinem
Hedgefonds bei Helsingör eingestiegen ist,
366
00:30:21,400 --> 00:30:25,210
einer deutschen Firma, die sagt, mit
ethischen, autonomen Waffensystemen die
367
00:30:25,210 --> 00:30:30,440
freiheitlich demokratische Grundordnung
verteidigen zu wollen. Wo Amerika Roboter
368
00:30:30,440 --> 00:30:34,529
auf Ecstasy hat, hat Deutschland das
Projekt das Kommando Cyber und
369
00:30:34,529 --> 00:30:39,781
Informationsraum. Das ist ein Symbolbild
aus der Weihnachtszeit, das sich darum
370
00:30:39,781 --> 00:30:45,090
kümmert, die Truppe zu digitalisieren und
voranzubringen. Momentan ist man in der
371
00:30:45,090 --> 00:30:49,760
Phase des 2.0, was nur 20 Jahre nach dem
Web 2.0 für deutsche Verhältnisse ein
372
00:30:49,760 --> 00:30:56,860
ziemlich ordentliches Tempo ist. Aber die
Sache ist ernster als blöde Witze. Mit der
373
00:30:56,860 --> 00:31:01,460
neuen Koalition steht die Anschaffung
bewaffneter Drohnen im Koalitionsvertrag.
374
00:31:01,460 --> 00:31:06,980
Man sagt zwar, man will sie nur bewaffnen,
man will sie nicht autonom machen. Aber
375
00:31:06,980 --> 00:31:11,200
diese Autonomisierung ist im Endeffekt nur
noch ein Software-Update entfernt. Und
376
00:31:11,200 --> 00:31:15,130
dann sollen sie natürlich nur ethisch
töten, weil na klar, wir sind hier in
377
00:31:15,130 --> 00:31:22,000
Deutschland. Das Problem ist aber alleine
schon der Einsatz von normalen, von
378
00:31:22,000 --> 00:31:26,890
normalen Drohnen mit Waffensystemen fügte,
führt dazu, dass die Schwelle zum Einsatz
379
00:31:26,890 --> 00:31:32,731
militärischer Gewalt sinkt und Krieg
entgrenzt wird. Inwieweit entgrenzt wird
380
00:31:32,731 --> 00:31:38,970
und wie wenig wie schlimm das für die
Zivilbevölkerung ausgehen kann, hat die
381
00:31:38,970 --> 00:31:42,100
New York Times jüngst in einer sehr
ausführlichen Reportage belegt, in denen
382
00:31:42,100 --> 00:31:48,951
sie Pentagon Papiere analysiert haben und
so zum Beispiel zivile Opfer der
383
00:31:48,951 --> 00:31:56,710
Luftangriffe der USA veröffentlicht haben.
Aber auch hier haben wir es wieder mit
384
00:31:56,710 --> 00:32:02,559
Problemen von Algorithmen oder Dummheit zu
tun. Das Pentagon hat jüngst über einen
385
00:32:02,559 --> 00:32:09,320
Algorithmus berichtet, der zu 25 prozent
die richtigen Ziele ausgewählt hat. Von
386
00:32:09,320 --> 00:32:13,650
sich selber aber dachte, es wären 90
prozent, der also ziemlich schlecht war,
387
00:32:13,650 --> 00:32:17,740
aber gleichzeitig gedacht hatte Ich bin
richtig gut. Und das ist natürlich ein
388
00:32:17,740 --> 00:32:23,070
Problem. Es ist auch ein Problem, weil die
Algorithmen mit der Zeit besser werden und
389
00:32:23,070 --> 00:32:30,519
wir dann diese die vielleicht erste
offensichtliche Linse Ja, okay. Die
390
00:32:30,519 --> 00:32:33,010
Algorithmen sind so schlecht und das ist
das Problem. Nein, das Problem ist
391
00:32:33,010 --> 00:32:37,949
eigentlich staatliches Töten und wir
müssen uns bewusst sein, dass wir dahin
392
00:32:37,949 --> 00:32:44,110
müssen, das zu formulieren. Sondern es
sagte Herrschaft durch Gewalt ist sowohl
393
00:32:44,110 --> 00:32:47,809
in autonome Waffentechnologie als auch in
den Rahmen des Denkens und der Politik
394
00:32:47,809 --> 00:32:52,909
eingemeißelt, welcher zu ihrer Entwicklung
und ihrem potenziellen Einsatz führt. Es
395
00:32:52,909 --> 00:32:57,940
geht darum, diese Herrschaft durch Gewalt
zu kritisieren und nicht nur das Mittel,
396
00:32:57,940 --> 00:33:04,010
mit dem sie durchgesetzt wird. Was im
Krieg nach außen durch autonome
397
00:33:04,010 --> 00:33:10,380
Waffensysteme funktioniert, funktioniert
im Inneren zum Beispiel durch Gewalt,
398
00:33:10,380 --> 00:33:13,870
durch Überwachungskameras, die
biometrische Daten sammeln. Die deutsche
399
00:33:13,870 --> 00:33:26,039
Polizei macht da fleißig mit. Es gibt eine
gute Chance, dass wenn du Anfang Juli 2017
400
00:33:26,039 --> 00:33:29,529
in Hamburg fast dein Gesicht für lange
Zeit in einer Datenbank der Polizei in
401
00:33:29,529 --> 00:33:36,210
Hamburg gespeichert war Anfang Juli 2017
war die G20 Proteste und den nächsten Teil
402
00:33:36,210 --> 00:33:43,020
wollte ich eigentlich überspringen. Und im
Rahmen dieser Strafprozesse im Rahmen
403
00:33:43,020 --> 00:33:46,900
dieser Proteste kam es natürlich zu
Angriffen auf Polizeikräfte. Es kam aber
404
00:33:46,900 --> 00:33:53,350
auch durch Angriffe durch, auf
Demonstrierende, durch die Polizei. Hier
405
00:33:53,350 --> 00:33:59,039
zum Beispiel keine Polizeigewalt durch die
Polizei Hashtag Polizeiproblem. Diese
406
00:33:59,039 --> 00:34:04,120
Software, die benutzt wurde, ist wie Demo
360 und man hat darin mehrere Terabyte
407
00:34:04,120 --> 00:34:09,359
Daten hochgeladen, Videoaufnahmen,
Fotoaufnahmen, um potenzielle GewalttäterIn
408
00:34:09,359 --> 00:34:18,179
zu identifizieren. Der Einsatz wurde
danach vom Verwaltungsgericht Hamburg für
409
00:34:18,179 --> 00:34:22,650
rechtmäßig erklärt und eine Beschwerde des
Datenschutzbeauftragten Hamburgs
410
00:34:22,650 --> 00:34:26,639
zurückgesetzt. Im neuen Polizeigesetz
wurden die Befugnisse des
411
00:34:26,639 --> 00:34:29,320
Datenschutzbeauftragten weiter
zusammengeschnitten, sodass er einfach
412
00:34:29,320 --> 00:34:32,720
keine Beschwerde mehr hatte, sondern
eigentlich nur noch zu einer doofen
413
00:34:32,720 --> 00:34:38,050
Marionette wurde. Die Polizei hat diese
Datenbank mit den und mit den Daten zwar
414
00:34:38,050 --> 00:34:43,540
2020 gelöscht, aber nicht, weil es ein
Fehler war, sondern weil es keine
415
00:34:43,540 --> 00:34:49,050
strafrechtlich Erforderlichkeit mehr gab.
Das Gerichtsurteil ist bestehen geblieben
416
00:34:49,050 --> 00:34:52,000
und der Präzedenzfall wurde gesetzt. Die
Polizei hat schon gesagt, dass sie
417
00:34:52,000 --> 00:34:56,490
Interesse hat, mit solchen großen
Datenbanken weiterzuarbeiten. Bei neuen
418
00:34:56,490 --> 00:35:00,900
Protesten deutschlandweit wird im Rahmen
des Programms Polizei 2020 an
419
00:35:00,900 --> 00:35:05,240
bundeseinheitlichen Plattformen
gearbeitet, die versuchen, die momentane,
420
00:35:05,240 --> 00:35:09,690
das momentane Chaos, das föderale
Überwachungs zu vereinheitlichen und die
421
00:35:09,690 --> 00:35:14,540
Daten besser zugänglich zu machen. Die
Geschichte zeigt aber immer wieder, dass
422
00:35:14,540 --> 00:35:18,520
Gesichtserkennung kein Tool ist, was
einfach funktioniert. Zum Beispiel in der
423
00:35:18,520 --> 00:35:23,500
Gender Shell-Studie von 2008 wurde
gezeigt, dass eigentlich alle
424
00:35:23,500 --> 00:35:28,079
Gesichtserkennung, Algorithmen, große
Unternehmen, schwarze Frauen wesentlich
425
00:35:28,079 --> 00:35:33,560
schlechter erkennen als weiße Personen
oder auch männliche Person. Diese Bias
426
00:35:33,560 --> 00:35:39,490
findet sich auch in Amazons Recognition
Tool wieder, das auf mehr Mitglieder des
427
00:35:39,490 --> 00:35:43,070
US amerikanischen Kongresses losgelassen
wurde und einige von denen zu
428
00:35:43,070 --> 00:35:47,240
Straftäterinnen machte. Natürlich, oder
das heißt natürlich aber kann es
429
00:35:47,240 --> 00:35:52,400
überraschenderweise vor allen Dingen
People of Color. Aber auch hier gibt es
430
00:35:52,400 --> 00:35:55,650
wieder ein grundlegendes Problem, nämlich
dass das Gesichtserkennung im öffentlichen
431
00:35:55,650 --> 00:35:59,190
Raum eigentlich überhaupt nichts zu tun
hat, zu suchen hat und dass
432
00:35:59,190 --> 00:36:02,850
Gesichtserkennung auch in den Tools der
Polizei nichts zu suchen hat. Die Polizei
433
00:36:02,850 --> 00:36:09,589
ist ein schwer überwacher Organ und es ist
eigentlich unmöglich, demokratische
434
00:36:09,589 --> 00:36:15,530
Kontrolle auszuüben, ihm dafür zu sorgen,
dass die Polizei keinen Unsinn macht. Wenn
435
00:36:15,530 --> 00:36:20,359
man sich Prozesse wie NSU 2.0 oder
rechtsextreme TerrorChatgruppen anguckt,
436
00:36:20,359 --> 00:36:25,369
sollte man vielleicht eher davon ausgehen,
dass das passieren wird. Wir sind hier in
437
00:36:25,369 --> 00:36:28,700
einer Situation, wo die deutsche Polizei
machen will, was Facebook nicht mehr machen
438
00:36:28,700 --> 00:36:32,290
möchte, nämlich flächendeckende
Gesichtserkennung. Und wenn man hinter
439
00:36:32,290 --> 00:36:36,369
Facebook hinterherhinkt im Jahr 2021, dann
sollte man sich vielleicht Gedanken
440
00:36:36,369 --> 00:36:41,690
machen. Falls ihr an dem Widerstand
dagegen interessiert seid. Es gibt eine
441
00:36:41,690 --> 00:36:45,910
Kampagne namens Reclaim your face, die
sich gegen Gesichtserkennung und die
442
00:36:45,910 --> 00:36:51,030
Sammlung von biometrischen Daten in Europa
einsetzt. Dafür gibt es auf diesem
443
00:36:51,030 --> 00:36:58,000
Raumschiff morgen auch einen Vortrag, wo
der momentane Stand vorgestellt wird. Der
444
00:36:58,000 --> 00:37:02,700
letzte, der letzte Teil des Policing, den
ich kurz ansprechen möchte und auch Teil
445
00:37:02,700 --> 00:37:08,110
des neuen Polizeigesetzes in Hamburg, ist
Predictive Policing, Predictive Policing
446
00:37:08,110 --> 00:37:12,800
oder kurz Voraus in die Vergangenheit. Es
wird gesagt, ein Algorithmus stellt fest,
447
00:37:12,800 --> 00:37:17,920
wo morgen oder vielleicht später des Tages
Kriminalität stattfinden wird. Und
448
00:37:17,920 --> 00:37:21,720
natürlich wird gesagt, das ist neutral.
Was soll schon passieren? Wieder Markup
449
00:37:21,720 --> 00:37:27,640
aber jüngst festgestellt hat, führt es
eigentlich nur dazu, dass das die Orte, in
450
00:37:27,640 --> 00:37:33,500
denen momentan Polizeieinsätze
stattfinden, auch morgen wieder Ziel von
451
00:37:33,500 --> 00:37:38,920
Polizeieinsätzen werden. Niemand kann
beantworten, warum oder wie das in
452
00:37:38,920 --> 00:37:43,619
Deutschland nicht passieren sollte. Ganz
im Gegenteil eigentlich sogar ein Panel
453
00:37:43,619 --> 00:37:50,480
der UN warnt davor, dass der
unregulierte Einsatz von künstlicher
454
00:37:50,480 --> 00:37:56,660
Intelligenz in vielen Regierungen
rassistische Vorurteile verstärken kann.
455
00:37:56,660 --> 00:38:01,040
Wir haben es hier also zu tun mit einer
Infrastruktur des ständigen staatlichen
456
00:38:01,040 --> 00:38:06,350
Zugriffs auf unsere Daten, auf unsere
Gesichter, auf unser Leben oder... Und es
457
00:38:06,350 --> 00:38:10,130
geht nicht nur, es geht nicht mehr nur um
die Polizei oder nur um das Militär,
458
00:38:10,130 --> 00:38:15,000
sondern es geht um eine ganzheitliche
Verbindung von Geheimdiensten, Polizei und
459
00:38:15,000 --> 00:38:18,900
Militär, die alle das Gleiche wollen und
deren Daten zunehmend interoperabel
460
00:38:18,900 --> 00:38:24,330
werden. Firmen wie Palantir z.B.
versinnbildlichen diese Gemengelage. Die
461
00:38:24,330 --> 00:38:28,330
arbeiten zusammen mit der NSA, aber auch
mit der ISI , also mit der Behörde in den
462
00:38:28,330 --> 00:38:33,430
USA, aber auch mit der hessischen Polizei
oder mit Europol. Also auch die
463
00:38:33,430 --> 00:38:38,030
herkömmliche nationale Grenzen
verschwimmen, dazu einem gewissen Teil.
464
00:38:38,030 --> 00:38:42,020
Außen und Innen, Polizei sein
Militärgeheimdienst verschmelzen und es
465
00:38:42,020 --> 00:38:47,040
entsteht eigentlich eine große, umfassende
oder der Versuch einer großen, umfassenden
466
00:38:47,040 --> 00:38:51,589
Überwachungsinfrastruktur. Das Schöne ist,
dass auch eine Firma wie Palantir Angst
467
00:38:51,589 --> 00:38:56,070
hat vor einem Bewusstsein über
Privatsphäre und auch über ein Bewusstsein
468
00:38:56,070 --> 00:39:00,480
dafür, dass die Algorithmen dieser Firmen
Scheiße bauen. Das heißt, wenn wir, wenn
469
00:39:00,480 --> 00:39:05,950
wir daran arbeiten, dass nicht zur
Normalität werden zu lassen, dann haben
470
00:39:05,950 --> 00:39:11,660
wir eine reelle Chance, das auch zu
verhindern. Und noch kurz ein paar
471
00:39:11,660 --> 00:39:14,760
Anmerkungen zu Daten und Privatsphäre. Es
geht hier vor allem um Zusammenhang von
472
00:39:14,760 --> 00:39:19,730
Privatsphäre und nicht um die
Datensammelwut von Facebook. Dafür gab es
473
00:39:19,730 --> 00:39:23,790
jetzt hier gerade vorher zum Beispiel
einen Vortrag über die Facebook Papers und
474
00:39:23,790 --> 00:39:31,820
noch ein, zwei andere Punkte im Fahrplan.
Wir haben bis jetzt über über staatliche
475
00:39:31,820 --> 00:39:38,099
Überwachung gesprochen und wie sie immer
allgemeiner wird. Das führt dazu. Dass
476
00:39:38,099 --> 00:39:42,450
einerseits alle betroffen sind, aber dass
andererseits Leute, die dem Staat mehr und
477
00:39:42,450 --> 00:39:47,140
mehr ausgeliefert sind oder wehrloser
gegenüber sind, dass die Intensität der
478
00:39:47,140 --> 00:39:50,640
Eingriffe diesem gegenüber zunimmt. Als
Beispiel werden zum Beispiel Hartz-IV-
479
00:39:50,640 --> 00:39:54,780
Bezieher, in die quasi ein Offenbarungseid
gegenüber den Staat abliefern müssen,
480
00:39:54,780 --> 00:39:58,730
Geflüchtete bei der Einreise oder auch
migrantische Communitys, die traditionell
481
00:39:58,730 --> 00:40:04,940
immer wieder das gesteigerte Ziel von
polizeilicher Arbeit sind. Wir haben hier
482
00:40:04,940 --> 00:40:11,230
also die Situation, dass Überwachung und
die die Aufhebung der Privatsphäre ein
483
00:40:11,230 --> 00:40:15,030
Problem der betroffenen Individuen ist,
erst mal auf den ersten Blick. Aber das
484
00:40:15,030 --> 00:40:18,380
sollte uns nicht dazu verleiten zu denken,
das ist ein individuelles Problem ist,
485
00:40:18,380 --> 00:40:21,740
sondern es ist ein gesellschaftliches
Problem. Wir kommen nicht gegen diese
486
00:40:21,740 --> 00:40:26,650
Dynamik an, mit dem, ich habe nichts zu
verbergen---narrativ, weil wir wissen
487
00:40:26,650 --> 00:40:30,420
nicht, was morgen morgen trifft. Das
heißt, wir müssen diese Datafixierung
488
00:40:30,420 --> 00:40:33,510
nicht auf einem individuellen Level
diskutieren, sondern auf einem
489
00:40:33,510 --> 00:40:37,290
kollektiven. Auf welche Arten und Weisen
wollen wir, dass eine Gesellschaft
490
00:40:37,290 --> 00:40:42,180
datafiziert ist? Was kann uns als
Gesellschaft einen einen Nutzen bringen
491
00:40:42,180 --> 00:40:46,180
und was nicht? Schlussendlich muss es
alles, was es für alle möglich sein, ohne
492
00:40:46,180 --> 00:40:52,150
Angst vor dem digitalen Panoptikum durch
die Straßen zu laufen. Privatsphäre und
493
00:40:52,150 --> 00:40:56,640
Daten sind aber nicht nur ein Problem, das
sei noch kurz angemerkt Ich habe ja am
494
00:40:56,640 --> 00:41:00,151
Anfang bei ImageNet erwähnt, dass niemand
gefragt wurde, ob man in diesem Datensatz
495
00:41:00,151 --> 00:41:06,250
sein möchte oder nicht. Die Forscherin
Sascha Luchoni hat jüngst auf Twitter
496
00:41:06,250 --> 00:41:12,470
gefragt, was denn ein gutes Example von
einem KI-Datensatz wäre, wo wirklich nach
497
00:41:12,470 --> 00:41:17,780
Einverständnis gefragt wurde. Das it even
exists? Es stellt sich heraus in allen
498
00:41:17,780 --> 00:41:22,480
Responses zu diesem Tweet. Es gibt genau
eins: Facebooks Casual Convent
499
00:41:22,480 --> 00:41:27,030
Conversations Dataset scheint das einzige
große Daten, der einzige größere Datensatz
500
00:41:27,030 --> 00:41:31,020
zu sein, in dem die Beteiligten
tatsächlich zugestimmt haben, dass ihre
501
00:41:31,020 --> 00:41:40,660
Daten für Zwecke des maschinellen Lernens
verwendet werden. Okay, was tun jetzt oder
502
00:41:40,660 --> 00:41:45,350
I want you tech for good? Wir haben
gesehen, dass wir einen gespenstischen
503
00:41:45,350 --> 00:41:48,440
Wind haben, einen gespenstischen digitalen
Wind, der durch unser Haus, durch unsere
504
00:41:48,440 --> 00:41:52,590
Gesellschaft bläst. Wir haben gesehen, wie
KI das menschliche Zusammenleben
505
00:41:52,590 --> 00:41:57,080
kodifiziert und als Mittel staatlicher
Überwachung und kapitalistischer Kontrolle
506
00:41:57,080 --> 00:42:01,849
dienen kann. Das heißt aber auch, dass
unsere Rassismen, unsere Sexismen und so
507
00:42:01,849 --> 00:42:08,839
weiter in diese KI eingeschrieben wird und
dass gleichzeitig die Technologie sich
508
00:42:08,839 --> 00:42:12,740
immer schneller und schneller entwickelt,
wir aber als Gesellschaft gar kein
509
00:42:12,740 --> 00:42:18,900
ethisches Verständnis mehr davon schaffen,
dass hinterherkommt in dem Tempo der KI
510
00:42:18,900 --> 00:42:25,130
und das auch dazu führt. Und dass es geht
mir jetzt nicht hier darum, KI an sich zu
511
00:42:25,130 --> 00:42:29,980
verurteilen, sondern es gibt dafür schöne
Beispiele. Man kann KI benutzen, um es
512
00:42:29,980 --> 00:42:35,350
gegen die Überwacher zu drehen und an zum
Beispiel für Gesichtserkennung Programme
513
00:42:35,350 --> 00:42:39,910
auf die Polizei anzuwenden und so
Polizisten zu identifizieren, die gegen
514
00:42:39,910 --> 00:42:45,460
Protestierende eingesetzt werden. Man kann
KI zu Hause rumliegen haben und deutsche
515
00:42:45,460 --> 00:42:52,380
Behörden Maschinen lesbar machen und so
besser verstehbar machen. Aber bei allem,
516
00:42:52,380 --> 00:42:57,599
dem dürfen wir nicht vergessen, dass
solange wir, solange wir die Herrschaft
517
00:42:57,599 --> 00:43:00,980
der Menschen über die Menschen nicht in
den Fokus der Kritik richten, sondern uns
518
00:43:00,980 --> 00:43:04,700
immer wieder nur an den Symptomen
abarbeiten, dass wir immer wieder an den
519
00:43:04,700 --> 00:43:07,100
gleichen Punkt kommen werden, vielleicht
mit einer anderen Technologie, aber an den
520
00:43:07,100 --> 00:43:14,200
gleichen Punkt. Wie Timnit Gebru sagte
daß, es geht darum, dass die wenigen
521
00:43:14,200 --> 00:43:22,680
Systeme der Unterdrückung schaffen und die
"others constantly work to prevent harm
522
00:43:22,680 --> 00:43:28,010
unable to find the time space or resources
to implement their own vision of future".
523
00:43:28,010 --> 00:43:32,430
Und ich glaube tatsächlich, das ist das,
wo es im Endeffekt darum gehen würde, dass
524
00:43:32,430 --> 00:43:37,090
wir es schaffen, die Zeit und den Willen
auch zu finden, unsere eigene Vision von
525
00:43:37,090 --> 00:43:44,260
der Zukunft zu implementieren. Und dann
schlussendlich erst wenn wir als Menschen
526
00:43:44,260 --> 00:43:50,579
gut zueinander sind, können die Maschinen
lernen, auch gut zu uns sein zu sein. Um
527
00:43:50,579 --> 00:43:55,900
noch mal die Slides wie Sources und alle
meine Quellen findet ihr auf
528
00:43:55,900 --> 00:44:06,680
r.ovl.design/rc3-ki, oder über diesen QR-
Code. Oder wie gesagt bei Twitter. Damit
529
00:44:06,680 --> 00:44:11,131
komme ich zum Ende und möchte mich ganz
herzlich bedanken bei euch, die ihr
530
00:44:11,131 --> 00:44:14,690
zugeguckt haben, bei der C-Base für die
Einladung hier sprechen zu dürfen und
531
00:44:14,690 --> 00:44:17,560
natürlich bei allen Forscherinnen,
Aktivistinnen, Journalistinnen und so
532
00:44:17,560 --> 00:44:24,060
weiter, auf deren Arbeit ich mich implizit
oder explizit bezogen habe. Vielen Dank!
533
00:44:24,060 --> 00:44:26,680
Applaus
534
00:44:26,680 --> 00:44:33,280
Herald: Das war großartig, Oskar, vielen
Dank! 45 Minuten, fast fast ohne Pause, da
535
00:44:33,280 --> 00:44:37,250
gab es ja wirklich ein ordentliches
Update. Wir haben neue Wörter gelernt:
536
00:44:37,250 --> 00:44:44,140
kybernetische Verdichtung, kybernetische
Verdichtung, digitaler Frühkapitalismus.
537
00:44:44,140 --> 00:44:48,430
Demnach müssten wir Hacker jetzt helfen,
dass die modernen digitalen Arbeiter
538
00:44:48,430 --> 00:44:51,840
wieder sich selbst ermächtigen und es
wieder zu einer Aufklärung kommt.
539
00:44:51,840 --> 00:44:53,140
Wahrscheinlich.
Oskar: Zum Beispiel.
540
00:44:53,140 --> 00:44:56,630
Herald: Algorithmische Undurchsichtigkeit.
Da müssten die Hacker dafür sorgen, dass
541
00:44:56,630 --> 00:44:59,300
die Algorithmen irgendwie durchsichtiger
werden. Das Peinliche ist ja auch, dass
542
00:44:59,300 --> 00:45:01,869
man dann sehen könnte, wie nackt der
Kaiser möglicherweise ist.
543
00:45:01,869 --> 00:45:04,119
Oskar lacht
Herald: Und wir müssen den Wissensschatz
544
00:45:04,119 --> 00:45:07,839
der Arbeiter, die davon überwacht und
gesteuert werden, irgendwie zu mehren
545
00:45:07,839 --> 00:45:13,190
suchen. Und interessant fand ich auch
künstliche Ideologie. Das ist also so ein
546
00:45:13,190 --> 00:45:18,830
bisschen, sonst spin gibt dahingehend zu
sagen, dass es künstlich, also ist es
547
00:45:18,830 --> 00:45:22,010
intelligent, auch wenn es vielleicht gar
nicht so intelligent ist. Aber künstliche
548
00:45:22,010 --> 00:45:26,220
Intelligenz ist ja schon mal ein Wert an
sich. Stochastische Papageien fand ich
549
00:45:26,220 --> 00:45:30,569
auch interessant, dass also so große
Mengen an Daten, wenn man sie statistisch
550
00:45:30,569 --> 00:45:34,740
auswertet, natürlich auch statistische
Artefakte produzieren. Wer hätte das nur
551
00:45:34,740 --> 00:45:38,820
denken können? Aufgabe der Hacker hier
also auch Selbstermächtigung, Aufklärung
552
00:45:38,820 --> 00:45:41,770
und Nachgucken. Wie funktioniert das
eigentlich, was wir immer schon gemacht
553
00:45:41,770 --> 00:45:46,280
haben? Und jetzt die einzige Hörerfrage,
die in der kurzen Zeit jetzt gekommen ist.
554
00:45:46,280 --> 00:45:50,390
Oder vielleicht auch Zuschauerfrage? Ist
Glaubst du, dass es einen künstlichen
555
00:45:50,390 --> 00:45:56,751
Dunning-Krüger Effekt gibt?
Oskar: lacht verzweifelt Das ist eine
556
00:45:56,751 --> 00:46:04,230
sehr interessante Frage, die ich
vielleicht nächstes Jahr in einem Vortrag
557
00:46:04,230 --> 00:46:08,280
beantworten werde. Es ist eine sehr
interessante Frage. Ich muss darüber
558
00:46:08,280 --> 00:46:13,550
nachdenken. Ich kann es mir vorstellen,
aber ich möchte, ich kann es jetzt gar
559
00:46:13,550 --> 00:46:17,310
nicht so kohärent beantworten, wie die
Frage vielleicht beantwortet werden
560
00:46:17,310 --> 00:46:19,990
müsste.
Herald: Okay, dafür ist die KI Landschaft
561
00:46:19,990 --> 00:46:23,390
vielleicht ja auch etwas diverser als die
Menschen Landschaft da draußen.
562
00:46:23,390 --> 00:46:26,970
Oskar: Na ja, bis jetzt hat sich gezeigt,
dass die KI Landschaft vor allen Dingen
563
00:46:26,970 --> 00:46:29,060
ziemlich genau das Abbild der Menschen
Landschaft ist. Aber die Menschen
564
00:46:29,060 --> 00:46:32,560
Landschaft ist natürlich auch sehr divers
und das ist ja auch ein Vorteil, den wir
565
00:46:32,560 --> 00:46:35,540
haben können. Nur weil ich jetzt darüber
viel darüber gesprochen habe, wie
566
00:46:35,540 --> 00:46:39,170
künstliche Intelligenz und Herrschaft
interagieren, heißt es ja, heißt das ja
567
00:46:39,170 --> 00:46:42,920
nicht, dass das für immer so bleiben muss,
sondern künstliche Dinge kann auch
568
00:46:42,920 --> 00:46:46,210
emanzipativ werden.
Herald: Ja, das ist ja interessant. Also
569
00:46:46,210 --> 00:46:49,900
heißt das, die Geschichte wiederholt sich
wie immer einerseits ja, am Ende aber doch
570
00:46:49,900 --> 00:46:53,820
nicht. Und es wird nicht so laufen. Mal
wieder nicht so, wie Marx es vorausgesagt
571
00:46:53,820 --> 00:46:54,820
hat.
Oskar: Na ja.
572
00:46:54,820 --> 00:46:56,010
Herald: Nicht mit wissenschaftlicher
Genauigkeit.
573
00:46:56,010 --> 00:46:59,980
Oskar: Ich glaube, wenn man, wenn man
genauer hinguckt, der
574
00:46:59,980 --> 00:47:03,060
Geschichtsdeterminismus und die
Voraussage, dass sich die Geschichte auf
575
00:47:03,060 --> 00:47:05,320
eine bestimmte Art entwickeln wird, ist
wahrscheinlich einer der größten
576
00:47:05,320 --> 00:47:09,270
Schwachpunkte bei Marx und Engels. Und
natürlich ist...
577
00:47:09,270 --> 00:47:13,070
Herald: Bei der KI auch.
Oskar: Bei, bei der KI auch, wobei die KI
578
00:47:13,070 --> 00:47:15,640
eigentlich immer wieder nur eine
Wiedergabe der Vergangenheit ist und
579
00:47:15,640 --> 00:47:18,319
deswegen ja noch gar nicht damit
beschäftigt sein kann, wie die Zukunft
580
00:47:18,319 --> 00:47:21,180
ist. Alles, was ihr über die Zukunft sagt,
so wie es gestern war und das bringt uns
581
00:47:21,180 --> 00:47:23,599
alles und uns nichts.
Herald: Bringt das hier an Bord gar
582
00:47:23,599 --> 00:47:26,720
nichts, wie wir rekonstruieren. Ja, die
Zukunft, das müsste die KI erst mal
583
00:47:26,720 --> 00:47:29,310
lernen.
Oskar: Ja. Und wir können die Zukunft auch
584
00:47:29,310 --> 00:47:32,430
gestalten, weil wir müssen nicht die
Fehler der Vergangenheit immer wieder und
585
00:47:32,430 --> 00:47:36,450
wieder reproduzieren, sondern wir können
tatsächlich sagen, das war ein Fehler, wir
586
00:47:36,450 --> 00:47:39,360
wollen es jetzt anders machen.
Herald: Also eine Riesenaufgabe für
587
00:47:39,360 --> 00:47:42,770
Hacker. Ich glaube damit zusammen, dass es
die Sorte Vortrag, die man noch mal
588
00:47:42,770 --> 00:47:44,510
angucken kann.
Oskar lacht
589
00:47:44,510 --> 00:47:49,260
Herald: Herzlichen Dank! Grüße von der
C-Base. Es geht hier um 21 Uhr weiter. Bis
590
00:47:49,260 --> 00:47:53,260
dann everything ist Lizenz cc by vor
Politisierung des Altvordere Community to
591
00:47:53,260 --> 00:47:55,590
do what.
592
00:47:55,590 --> 00:48:01,000
Untertitel erstellt von c3subtitles.de
im Jahr 2022. Mach mit und hilf uns!