WEBVTT
00:00:04.750 --> 00:00:09.660
Herald: Herzlich willkommen im C-Base
Livestream der Raumstation unter Berlin-
00:00:09.660 --> 00:00:13.490
Mitte am S-Bahnhof Jannowitzbrücke. Es
freut mich ganz besonders, dass der Oskar
00:00:13.490 --> 00:00:18.270
heute hier ist mit dem Thema "Computer
says no. Künstliche Intelligenz und
00:00:18.270 --> 00:00:22.490
Herrschaft". Das freut mich deswegen ganz
besonders, weil ich ja ansonsten Technik
00:00:22.490 --> 00:00:27.470
Philosophie mache. Und wir sind ja nun
seit ungefähr 25 Jahren darauf warten,
00:00:27.470 --> 00:00:30.289
dass die ganzen künstlichen
Minderintelligenzen tatsächlich mal so was
00:00:30.289 --> 00:00:33.980
wie Bewusstsein entwickeln. Das scheint
aber noch nicht der Fall zu sein, es sei
00:00:33.980 --> 00:00:37.450
denn, Oskar hat hier Neuigkeiten für uns.
Und die interessante Frage ist ja, wie es
00:00:37.450 --> 00:00:40.670
zu rechtfertigen ist, dass solche
künstlichen Minderintelligenzen dann
00:00:40.670 --> 00:00:45.150
Herrschaft über uns ausüben, indem sie uns
Kredite verweigern, unsere Bankkarte nicht
00:00:45.150 --> 00:00:50.000
verlängern oder auch unsere
Steuererklärung für potenziell gefälscht.
00:00:50.000 --> 00:00:54.390
Das werden wir jetzt alles genau und näher
erfahren. Wie das fast schon akademische
00:00:54.390 --> 00:00:58.969
Tradition ist, gibt es genau 45 Minuten
Zeit für Oskar. Oskar, du hast die Bühne
00:00:58.969 --> 00:01:01.739
für ein Update zur künstlichen Intelligenz
und Herrschaft.
00:01:01.739 --> 00:01:06.330
Oskar: Vielen Dank! Herzlich willkommen
auch allen Wesen an den Empfangsgeräten.
00:01:06.330 --> 00:01:10.500
Die schlechte Nachricht zuerst. Es gibt
keine Neuigkeiten, sondern meine These ist
00:01:10.500 --> 00:01:13.690
eher, dass ich seit 1844 ungefähr nichts
geändert hat, außer dass jetzt Computer
00:01:13.690 --> 00:01:20.320
dabei sind. Bevor ich anfange, man kann
die Slides, alle meine Quellen und ein
00:01:20.320 --> 00:01:28.850
Transkript des Talks unter dem Link
r.ovl.design/rc3-ki sehen oder über diesen
00:01:28.850 --> 00:01:34.080
oben eingeblendeten QR-Code. Ich habe den
Link auch um 17:02, was ungefähr jetzt
00:01:34.080 --> 00:01:40.829
sein sollte, getwittert. Danke, Künstliche
Intelligenz. Mein Twitter @_ovlb. Fangen
00:01:40.829 --> 00:01:47.520
wir an. Künstliche Intelligenz. Was meine
ich eigentlich damit, wenn ich über
00:01:47.520 --> 00:01:53.009
Künstliche Intelligenz spreche? Künstliche
Intelligenz an sich ist erst mal eine
00:01:53.009 --> 00:01:59.840
recht grobe, grobe Kategorie. Deswegen
vorab auf einer technischen Ebene wird es
00:01:59.840 --> 00:02:04.880
vor allen Dingen um Machine Learning
gehen. Ich werde aber trotzdem den Talk
00:02:04.880 --> 00:02:10.979
über von KI sprechen. Ich werde von KI
sprechen, weil KI als gesellschaftlicher
00:02:10.979 --> 00:02:15.160
Begriff weiter greifend ist als nur die
technische Ebene, sondern eine Formierung
00:02:15.160 --> 00:02:22.050
von Politik, Arbeit, Kultur und Kapital
beinhaltet. Im Folgenden gehört es vor
00:02:22.050 --> 00:02:30.489
allem um Politik. Arbeit und Kapital gehen
weniger um Kultur. Und das Ganze wird sich
00:02:30.489 --> 00:02:35.110
folgendermaßen gliedern. Ich werde erst
über ImageNet reden, eines der vermutlich
00:02:35.110 --> 00:02:39.209
einflussreichsten Datensätze in der
Geschichte des Machine Learning, danach
00:02:39.209 --> 00:02:43.280
über Algorithmen und Arbeit und
schließlich über einen Teil namens
00:02:43.280 --> 00:02:47.490
künstlichen Ideologie, wo ich ein bisschen
über staatliche Herrschaft und wie sich
00:02:47.490 --> 00:02:54.739
Militär und Polizei künstliche Intelligenz
zu Nutze machen. Schließlich ein kleiner,
00:02:54.739 --> 00:03:00.142
ein kleiner Ausblick unter dem Titel Was
tun? Genau das ist die grobe, grobe
00:03:00.142 --> 00:03:05.270
Gliederung. Es ist also kein technischer
Vortrag. Ich werde nicht erklären, wie die
00:03:05.270 --> 00:03:09.659
Machine Learning funktioniert und ich werde noch
nicht erklären, was und wie grundlegend
00:03:09.659 --> 00:03:13.489
künstliche Intelligenz ist, oder? Also
wenn ihr jetzt einen technischen Vortrag
00:03:13.489 --> 00:03:21.790
erwartet habt. Tut mir leid, gibt es
nicht. Okay, los geht's. ImageNet, oder wie
00:03:21.790 --> 00:03:25.220
Machine Learning sich für immer
veränderte. Für die Leute von euch, die
00:03:25.220 --> 00:03:29.191
vielleicht nicht einen großen Hintergrund
in der Geschichte des der künstlichen
00:03:29.191 --> 00:03:34.129
Intelligenz haben. Eine kurze Erklärung, was
mit ImageNet eigentlich
00:03:34.129 --> 00:03:37.020
ist. ImageNet ist, wie oben schon
erwähnt, der vermutlich einflussreichste
00:03:37.020 --> 00:03:41.319
Datensatz. Warum, erkläre ich gleich. Und
darauf aufbauend wurde vermutlich einer
00:03:41.319 --> 00:03:46.280
der einflussreichsten Algorithmen
geschrieben. Die Idee ist so kompliziert
00:03:46.280 --> 00:03:52.140
wie simpel und wurde von Fei-Fei Li im
Jahr 2006 formuliert, nämlich den
00:03:52.140 --> 00:03:57.409
Goldstandard für Bilder Datensätze zu
sammeln. Die Umsetzung dementsprechend
00:03:57.409 --> 00:04:02.689
auch relativ einfach: Bilder sammeln. Nur
ist das natürlich, wenn man von einem
00:04:02.689 --> 00:04:07.620
Goldstandard spricht und von den damit von
den Mengen an Bildern, die und die damit
00:04:07.620 --> 00:04:11.780
gemeint sind, leichter gesagt als getan.
Fei-Fei Li und ihre Mitfahrenden hatten
00:04:11.780 --> 00:04:15.630
zwei Sachen auf ihrer Seite, nämlich
einerseits Bilder suchen, die relativ neu
00:04:15.630 --> 00:04:20.320
waren und andererseits immer
leistungsstärkere Computer. Trotzdem
00:04:20.320 --> 00:04:25.729
dauert es drei Jahre, bis genug Bilder
zusammengesammelt waren, genug heißt hier
00:04:25.729 --> 00:04:31.580
14 Millionen. Und das, um das ein bisschen
in Perspektive zu setzen. Einer der
00:04:31.580 --> 00:04:36.600
Hauptvorläufer von imageNet, Pascal VOC
Pascal Virtual Object Classes beinhaltete
00:04:36.600 --> 00:04:44.350
19737 Bilder in 20 Kategorien. Anstatt wie
jetzt in der mit 14 Millionen Bildern in
00:04:44.350 --> 00:04:52.280
20000 Kategorien. Nun stellt sich aber
eine Frage, wie klassifiziert man denn
00:04:52.280 --> 00:04:55.900
eigentlich 14 Millionen Bilder, nur weil
man in einer Bildersuche nach einem Apfel
00:04:55.900 --> 00:04:58.880
gesucht hat, heißt das ja nicht, dass
jedes Bild, das bei rausgekommen ist,
00:04:58.880 --> 00:05:02.990
einen Apfel beinhaltet. Traditionell wäre
das ein Job für Studienanfängerinnen
00:05:02.990 --> 00:05:07.870
gewesen. Das heißt, man hat den Leuten,
die gerade ein Studium angefangen hat,
00:05:07.870 --> 00:05:11.900
gesagt, hier einen Datensatz, bearbeite
den bitte. Guck, ob alles korrekt ist. Das
00:05:11.900 --> 00:05:15.420
Problem ist, bei 14 Millionen Bildern hat
einer, der Mitforschenden ausgerechnet,
00:05:15.420 --> 00:05:19.250
würde es ungefähr 19 Jahre dauern, bis die
Studienanfängerin diese 14 Millionen
00:05:19.250 --> 00:05:23.090
Bilder auch wirklich klassifiziert hätten.
Aus der heutigen Perspektive mag man
00:05:23.090 --> 00:05:28.090
vielleicht auch sagen, vielleicht ist es
ein Job für einen Algorithmus. Das Problem
00:05:28.090 --> 00:05:32.521
ist nur, die Algorithmen, die wir heute
haben, sind schon nicht gut genug, dass
00:05:32.521 --> 00:05:34.371
man einfach sagen kann, hier sind die
Bilder, sagt und was ist dann? Das muss
00:05:34.371 --> 00:05:39.240
immer wieder kontrolliert werden. Die
Algorithmen, die es damals gab, waren noch
00:05:39.240 --> 00:05:45.890
schlechter, also auch nicht wirklich die
Lösung des Problems. Die Lösung des
00:05:45.890 --> 00:05:50.130
Problems kam von einer unverhofften
Richtung, von einer micro working, click
00:05:50.130 --> 00:05:55.150
working Plattform namens Amazon Mechanical
Turk, die in 2015 eingeführt wurde.
00:05:55.150 --> 00:06:01.039
Mechanical Turk ist benannt nach dieser
Konstruktion, wo ein vermeintlicher
00:06:01.039 --> 00:06:05.639
Roboter von einem kleinwüchsigen Menschen
in diesem Kasten bedient wurde und dann so
00:06:05.639 --> 00:06:13.290
getan hat, als würde er Schach spielen
können. Und Mechanical Turk erlaubte es,
00:06:13.290 --> 00:06:17.620
sogenannte Human intelligente Tasks
einzustellen, also kleine Sachen wie zum
00:06:17.620 --> 00:06:21.569
Beispiel, Kucke auf diesem Job, auf diesem
Bild ein Apfel ist, die dann von den
00:06:21.569 --> 00:06:26.680
Arbeitenden auf der Plattform
vervollständigt werden konnten. Durch
00:06:26.680 --> 00:06:30.970
diese Plattform war es möglich, diese 14
Millionen Bilder auf 49 000 Leute
00:06:30.970 --> 00:06:37.100
aufzubrechen aufzuteilen, die in 167
Ländern daran gearbeitet haben und so
00:06:37.100 --> 00:06:40.770
vergleichsweise schnell oder relativ
schnell, zumindest sehr viel schneller als
00:06:40.770 --> 00:06:45.460
19 Jahre in der Lage waren, die Bilder zu
klassifizieren und zu gucken, ob das, was
00:06:45.460 --> 00:06:50.639
angeblich auf den Bildern drauf ist, auch
wirklich drauf ist. Wir sehen hier eins
00:06:50.639 --> 00:06:54.670
der Probleme, die uns immer wieder
begegnen werden, wenn wir heutzutage auf
00:06:54.670 --> 00:06:58.570
Machine Learning gucken und zwar das
menschliche Wahrnehmung auf einen rein
00:06:58.570 --> 00:07:03.840
mechanischen Prozess heruntergebrochen
wird. In dem Fall, dass visuelle
00:07:03.840 --> 00:07:08.979
Intelligenzen reine Mustererkennung ist.
Das heißt aber auch, dass zum Beispiel
00:07:08.979 --> 00:07:13.690
Erfahrungen von Menschen oder einen
Kontext, in welchen die Bilder gesehen
00:07:13.690 --> 00:07:16.860
werden, komplett ausgeblendet wird und
dass nur noch über diesen mechanischen
00:07:16.860 --> 00:07:21.590
Prozess geht. Bei einem Apfelkuchen mag
das okay sein, aber imageNet hat auch
00:07:21.590 --> 00:07:26.580
Kategorien für Menschen enthalten. Und da
wird es schon wesentlich schwieriger zu
00:07:26.580 --> 00:07:33.370
sagen, alles ist eins. Trotzdem Sie haben
es gemacht und sie waren damit auch soweit
00:07:33.370 --> 00:07:37.650
zufrieden und hatten dann diese 14
Millionen Bilder mehr oder weniger sauber
00:07:37.650 --> 00:07:43.870
klassifiziert rumliegen. Dann kam die
nächste Frage. Und jetzt? Was macht man
00:07:43.870 --> 00:07:48.349
jetzt mit diesem Datensatz? Was macht man
mit diesen Bildern? Im Rahmen der
00:07:48.349 --> 00:07:54.300
Forschung gab es von 2010 bis 2017 die
sogenannte ImageNet Large Scale Visual
00:07:54.300 --> 00:07:58.979
Recognition Challenge. In dieser Challenge
hat sich erstmal relativ lange nichts
00:07:58.979 --> 00:08:08.419
getan. Es wurde geforscht, bis schließlich
im Jahre 2012 der bereits angesprochene
00:08:08.419 --> 00:08:12.880
einflussreiche Algorithmus vorgestellt
wurde. AlexNet. AlexNet ist es
00:08:12.880 --> 00:08:17.020
eine Entwicklung von Alex Krichevsky und
seinem Team an der Universität Toronto
00:08:17.020 --> 00:08:23.830
gewesen und führte ein neues Konzept ein,
nämlich das der neuronalen Netze, die im
00:08:23.830 --> 00:08:27.389
Folgenden zu einem der tonangebenden
Paradigmen in Machine Learning wurden,
00:08:27.389 --> 00:08:32.940
weil es dadurch möglich war, diese
Bildmassen und diese an diese Datenmassen
00:08:32.940 --> 00:08:37.940
um wesentlich wesentlich schneller zu
bearbeiten bearbeiten, als es vorher
00:08:37.940 --> 00:08:43.050
möglich war. Auch heute ist das quasi
immer noch der der Mechanismus, der
00:08:43.050 --> 00:08:48.180
meistens verwendet wird. Okay, das quasi
so als kurzer historischer Hintergrund,
00:08:48.180 --> 00:08:52.440
worüber wir meistens reden, wenn wir von
Algorithmen reden, nämlich um große
00:08:52.440 --> 00:08:57.170
Datenmengen, die im Sinne von Machine
Learning oder Deep Learning, wie man es
00:08:57.170 --> 00:09:05.160
auch nennt, bearbeitet werden. Okay. Wir
haben also unfassbare Mengen an Daten. Wir
00:09:05.160 --> 00:09:08.470
haben einen fehlenden Konsens, also
niemand der Menschen, die in diesem
00:09:08.470 --> 00:09:11.700
Datensatz aufgetaucht wurden, wurde vorher
gefragt, ob das vielleicht auch noch okay
00:09:11.700 --> 00:09:14.360
ist, dass deren Bilder da gespeichert
wurden, sondern die Bilder waren einfach
00:09:14.360 --> 00:09:19.120
in diesem Datensatz und sind es auch heute
noch größtenteils. Und wir haben ein
00:09:19.120 --> 00:09:22.790
mechanisches Verständnis menschlicher
Wahrnehmung. Und schließlich haben wir
00:09:22.790 --> 00:09:28.710
Deep Learning, also als technische Art und
Weise, damit umzugehen, dass alles. Diese
00:09:28.710 --> 00:09:37.130
vier Punkte werden wir immer wieder und
wieder finden. Damit quasi der ImageNet zu Ende und der
00:09:37.130 --> 00:09:41.820
nächste Teil zu Arbeit und Algorithmen.
Noch mal ich auch hier einen Schritt
00:09:41.820 --> 00:09:45.859
zurück und die Frage, worüber rede ich
eigentlich, reden wir in diesem Kontext,
00:09:45.859 --> 00:09:51.640
wenn wir von Arbeit reden. Wir reden
einerseits von unbezahlter Arbeit. Das
00:09:51.640 --> 00:09:55.690
Beispiel dafür ist zum Beispiel Google
Recaptcha, wo wir, um Beweise zu beweisen,
00:09:55.690 --> 00:09:59.560
dass wir Menschen sind, beweisen, dass wir
einen Schornstein erkennen können. Wir
00:09:59.560 --> 00:10:06.040
haben als zweites unsichtbare Arbeit. Das
bedeutet, wie zum Beispiel die Leute auf
00:10:06.040 --> 00:10:10.360
Amazons Mechanical Turk Platform, diese
49000, die tauchen nie als Co-Autorin oder
00:10:10.360 --> 00:10:14.990
so was in den Papieren auf. Aber haben wir
doch einen fundamentalen Anteil der Arbeit
00:10:14.990 --> 00:10:19.300
geliefert. Schließlich haben wir durch
Algorithmen kontrollierte Arbeit, hier zum
00:10:19.300 --> 00:10:23.310
Beispiel Amazons Lagerhäuser oder
Lieferdienste wie Lieferando oder
00:10:23.310 --> 00:10:29.050
Delivery. Über unbezahlte Arbeit möchte
ich jetzt nicht richtig sprechen, sondern
00:10:29.050 --> 00:10:33.520
eher, sondern ich habe unsichtbare Arbeit
und die modifizierte Arbeit konzentrieren.
00:10:33.520 --> 00:10:40.740
Fangen wir mit unsichtbarer Arbeit an..
Wie wir gesehen haben, bei imageNet haben
00:10:40.740 --> 00:10:46.440
wir diese Erzählung von KI tut dieses oder
tut jenes. Wenn die KI erkennt, dass etwas
00:10:46.440 --> 00:10:51.430
in den Bildern ist oder die KI hat in GO
gewonnen, die KI schreibt mit Gptt drei
00:10:51.430 --> 00:10:56.040
unfassbar schöne Texte oder dumme Texte
von Teil zu Teil, KI betreibt Protein
00:10:56.040 --> 00:11:02.890
foldern. Das Problem ist nur, die KI tut
das nicht. Die KI ist für die für die
00:11:02.890 --> 00:11:07.530
Forscherin, die das eigentlich tun, ein
Werkzeug, das benutzt wird. Und es ist
00:11:07.530 --> 00:11:11.250
nicht die KI, die plötzlich vom Himmel
kommt und sagt, Ja, herzlichen
00:11:11.250 --> 00:11:18.110
Glückwunsch, GO, kann ich, sondern eher im
Gegenteil. Wie der Economist gezeigt hat,
00:11:18.110 --> 00:11:24.250
zeigt es braucht es heutzutage ungefähr 80
prozent der Entwicklungszeit eines Machine
00:11:24.250 --> 00:11:30.030
Learning Projektes sind menschliche
Arbeit. Nur da hinten beim Modeltraining,
00:11:30.030 --> 00:11:33.779
dann kommt der Computer tatsächlich ins
Spiel. Aber der allergrößte Teil ist
00:11:33.779 --> 00:11:39.110
menschliche Arbeit, die aber sowohl in der
öffentlichen Erzählung und in dieser der
00:11:39.110 --> 00:11:45.839
Wahrnehmung unsichtbar gemacht wird. Und
es braucht halt genau diese menschliche
00:11:45.839 --> 00:11:48.339
Arbeit, damit ein Algorithmus gut
funktioniert und ein Machine Learning
00:11:48.339 --> 00:11:53.519
System, braucht es große Mengen an Daten.
Die müssen natürlich sauber sein, weil
00:11:53.519 --> 00:11:56.730
wenn die Daten, aus denen der Algorithmus
lernt, nicht sauber sind, dann ist das,
00:11:56.730 --> 00:12:01.610
was hinten rauskommt auch Mist. Und
deswegen muss das bis heute von von
00:12:01.610 --> 00:12:07.620
Menschen unternommen werden. Wir sind also
wieder da, wo wir bei Mechanical Turk so
00:12:07.620 --> 00:12:11.870
ein bisschen waren, bei einer Maschine,
die so tut, als wäre sie keine Maschine.
00:12:11.870 --> 00:12:16.100
Eine andere Metapher vielleicht die, die
man benutzen kann, sind potemkinsche
00:12:16.100 --> 00:12:20.200
Dörfer, wo vorne alles schön fein gemacht
wird. Und die Fassaden sehen aus, als
00:12:20.200 --> 00:12:23.420
hätte man die schönsten, schönsten Häuser
der Welt. Aber hinten, wo es niemand
00:12:23.420 --> 00:12:28.920
sieht, verfällt es einfach. Kate Crawford
nennt es, nennt diese Form der KI in
00:12:28.920 --> 00:12:33.561
Anlehnung dessen auch potemkinsche KI,
also wenig mehr als Fassaden, die so
00:12:33.561 --> 00:12:40.040
demonstrieren, wie ein autonomes System
aussehen würde, wenn es autonom wäre. Wir
00:12:40.040 --> 00:12:46.870
es hier zu tun mit einem schönen Schein
des Automatismus. Diese Arbeit kann aber
00:12:46.870 --> 00:12:53.660
auch anders aussehen. Das ist ein Foto von
der New York Daily News und diese
00:12:53.660 --> 00:12:57.540
Schlange, die ich wir sehen, sind
Obdachlose, meistens schwarze Obdachlose,
00:12:57.540 --> 00:13:02.790
die von einer Subfirma oder von einer
Firma oder die von Google da beauftragt
00:13:02.790 --> 00:13:08.980
wurden. Eine Firma hat Google beauftragt
Daten zu sammeln, und zwar bestimmte
00:13:08.980 --> 00:13:13.411
Daten, Daten der Gesichter von schwarzen
Menschen. Diese Leute haben dafür ein
00:13:13.411 --> 00:13:18.089
Geschenkgutschein im Wert von 5 Dollar
gekriegt, dafür, dass ihr 3D-Modell auf
00:13:18.089 --> 00:13:23.300
die Server von Google hochgeladen wurde.
Ziemlich niedriger Preis. Warum macht
00:13:23.300 --> 00:13:28.120
Google das? Weil Google immer wieder in
Kritik kommt, dass ihre eigenen
00:13:28.120 --> 00:13:32.190
Algorithmen schwarze Menschen nicht
erkennen oder wenn sie Schwarze
00:13:32.190 --> 00:13:37.280
Menschen erkennen, so wie hier am Beispiel
von Algorithmen Watch aus 2020, ein
00:13:37.280 --> 00:13:40.470
Thermometer in der Hand eines schwarzen
Menschen plötzlich für eine Waffe halten.
00:13:40.470 --> 00:13:44.510
Wenn man aber mit mittleren Photoshop
Skills die Hand weiß macht, ist es
00:13:44.510 --> 00:13:49.220
plötzlich keine Waffe mehr. Sowohl bei dem
Beispiel als auch Atlanta als auch bei dem
00:13:49.220 --> 00:13:55.510
Beispiel mit der mit dem Thermometer, tat
es Google danach tierisch leid. Tut es
00:13:55.510 --> 00:14:01.870
immer tierisch leid, wenn Google erwischt
wird, wenn es Google scheiße baut. Es ist
00:14:01.870 --> 00:14:04.980
aber diese Geistesarbeit finden wir nicht
nur im Training von Machine Learning
00:14:04.980 --> 00:14:08.870
Algorithmen, wir haben es bei der
Verifizierung von Bankaccount, wenn man
00:14:08.870 --> 00:14:12.450
seine Daten hochlädt und dann plötzlich
kommt wie von Geisterhand eine
00:14:12.450 --> 00:14:16.269
Verifizierung oder nicht zurück. Wir haben
es bei der Moderation von Inhalten, bei
00:14:16.269 --> 00:14:22.470
Facebook, Twitter oder anderen sozialen
Netzwerken. Das alles führt dazu, dass
00:14:22.470 --> 00:14:26.589
diese Erzählung davon, dass uns die
Roboter die Arbeit wegnehmen, vielleicht
00:14:26.589 --> 00:14:30.620
nicht stimmt. Vielleicht sollten wir uns
nicht davor fürchten, dass uns die
00:14:30.620 --> 00:14:35.329
Technologie ersetzt, sondern eher, dass
Menschen entwertet werden, dass Menschen
00:14:35.329 --> 00:14:38.699
Arbeit machen müssen, die immer weniger
wert wird und immer weniger wertgeschätzt
00:14:38.699 --> 00:14:42.850
wird. Ich würde deswegen sagen, dass wir
es hier mit einer Form von
00:14:42.850 --> 00:14:49.779
Frühkapitalismus im digitalen Gewand zu
tun haben. Anderes Beispiel: Am 25. März
00:14:49.779 --> 00:14:55.579
1911 brannte in New York die Triangel
Shirtbased Factory. Bei dem Feuer starben
00:14:55.579 --> 00:14:59.570
146 Menschen. Teilweise verbrannten,
teilweise, weil sie aus dem Fenster
00:14:59.570 --> 00:15:03.101
springen mussten, weil die
Fabrikeigentümer beschlossen hatten, dass
00:15:03.101 --> 00:15:07.460
während der Arbeitszeit die Ausgänge der
Fabrik abgeschlossen zu sein haben. Das
00:15:07.460 --> 00:15:15.370
Gebäude wurde so zur Todesfalle. Am 10.
12. 2021 traf ein Hurrikan ein Amazon
00:15:15.370 --> 00:15:20.320
Lagerhaus und sechs Menschen starben
während Jeff Bezos damit zu zufrieden war,
00:15:20.320 --> 00:15:26.149
dass er bald in den Weltraum fliegen kann.
More perfekt Union ist eine Organisation
00:15:26.149 --> 00:15:30.790
aus den USA, veröffentlichte diesen
Screenshot einer der Angestellten vor Ort.
00:15:30.790 --> 00:15:36.769
Er schrieb: "I will be at home after the
Storm" und seine Freundin schrieb "what do
00:15:36.769 --> 00:15:41.730
you mean?". Und er schrieb zurück "Amazon
won't let us leaf". Das ist das letzte,
00:15:41.730 --> 00:15:46.490
was er seinen Geliebten geschrieben hat.
Kurz danach traf der Hurrikan das
00:15:46.490 --> 00:15:53.290
Lagerhaus und er starb zusammen mit fünf
anderen. Das ist kein Einzelfall, wenn man
00:15:53.290 --> 00:16:00.170
sich die Anzahl schwerer Verletzung in der
Lagerindustrie in den USA anguckt, hat
00:16:00.170 --> 00:16:04.790
Revier herausgefunden, dass die Anzahl bei
Amazon ungefähr doppelt so hoch ist wie im
00:16:04.790 --> 00:16:10.460
Industriedurchschnitt. Wir haben es hier
mit einem Phänomen namens kybernetische
00:16:10.460 --> 00:16:18.290
Verdichtung zu tun. Das haben. *trinkt
einen schluck Wasser". Das heißt, dass die
00:16:18.290 --> 00:16:21.919
Arbeitskraft und die Arbeitszeit immer
weiter verdichtet wird, dass immer weniger
00:16:21.919 --> 00:16:26.089
Zeit bleibt, die gleichen Sachen zu machen
und dass man zum Beispiel das Sortieren
00:16:26.089 --> 00:16:29.639
von Paketen in Amazon Lagerhäusern immer
schneller und schneller machen muss. Das
00:16:29.639 --> 00:16:33.790
führt dazu, dass mittlerweile ein
Unterschied von einer Sekunde oder zwei
00:16:33.790 --> 00:16:37.459
Sekunden in der durchschnittlichen Zeit
dieser Aufgaben zu machen, der Unterschied
00:16:37.459 --> 00:16:40.500
sind, ob man gelobt wird oder ob man
gewarnt wird, dass man zu schlecht
00:16:40.500 --> 00:16:47.170
arbeitet. Und das führt natürlich dazu,
dass man anfängt, unsicher zu arbeiten,
00:16:47.170 --> 00:16:52.380
dass man nicht auf sich achten kann, weil
die Zeit nicht mehr dafür da ist. You have
00:16:52.380 --> 00:16:59.230
to do unsafe things to make you numbers.
Man kann nicht mehr auf sich achten. Und
00:16:59.230 --> 00:17:04.100
diese Verdichtung nimmt immer, nimmt immer
weiter zu, diese Algorithmifizierung.
00:17:04.100 --> 00:17:09.740
Dabei ist das an sich erst mal kein neues
Phänomen. Die Versuche, Arbeitskraft zu
00:17:09.740 --> 00:17:14.870
automatisieren oder durch Automatisierung
zu optimieren, sind so alt wie der
00:17:14.870 --> 00:17:23.390
Kapitalismus selber. In 1844 hat Friedrich
Engels Andrew Ure zitiert, der schrieb:
00:17:23.390 --> 00:17:27.330
"In wenigen Monaten schon war eine
Maschine fertig, die dem Anschein nach mit
00:17:27.330 --> 00:17:34.050
dem Denkvermögen Gefühl und Takt des
erfahrenen Arbeiter begabt war." Von Das
00:17:34.050 --> 00:17:40.911
Zitat könnte eigentlich auch heute in der
in der verklärten Sicht auf auf
00:17:40.911 --> 00:17:46.750
Automatisierung und Roboter kommen. Aber
kommt aus dem 19. Jahrhundert, aus der
00:17:46.750 --> 00:17:51.299
Zeit des Frühkapitalismus. Was aber auch
aus der Zeit des Frühkapitalismus und der
00:17:51.299 --> 00:17:54.120
Zeit danach kommt, ist, dass die
ArbeiterInnenbewegung sich Sozialstandards
00:17:54.120 --> 00:17:58.000
erkämpft hat. Feste Arbeitsverhältnisse,
ein Recht auf Urlaub, Beschränkung der
00:17:58.000 --> 00:18:01.270
Arbeitszeiten, ein Recht auf
gewerkschaftliche Organisierung und so
00:18:01.270 --> 00:18:05.570
weiter und so fort. Also alles das, was
wir zum Beispiel bei Amazon oder auch in
00:18:05.570 --> 00:18:09.120
anderen Firmen im Amazon. Nur als
prominentes Beispiel ist es nicht so, dass
00:18:09.120 --> 00:18:15.059
Amazon der einzig Schuldige wäre. Sehen,
was wieder angegriffen wird, was Union
00:18:15.059 --> 00:18:17.950
basstian betrieben wird
und so weiter und so fort. Das wurde alles
00:18:17.950 --> 00:18:21.419
schon mal erkämpft und muss jetzt wieder
erkämpft werden bzw. muss immer wieder
00:18:21.419 --> 00:18:25.420
erkämpft werden. So haben wir das
Phänomen, dass das, was heutzutage als
00:18:25.420 --> 00:18:29.221
radikal neue Form der Arbeit daherkommt,
im Licht der historischen Entwicklung
00:18:29.221 --> 00:18:34.030
oftmals nicht mehr, da fehlt ein nicht,
nicht mehr ist als eine Wiederkehr
00:18:34.030 --> 00:18:39.809
früherer Arbeitsverhältnisse. Es ist gar
nicht so neu, was wir sehen, es ist nur.
00:18:39.809 --> 00:18:45.350
Es hat sich nur in eine moderne Form
geändert. Man könnte sagen und ewig grüßt
00:18:45.350 --> 00:18:52.260
das Kapitalverhältnistier. Und deswegen
erlaube man mir die Pathetik Friedrich
00:18:52.260 --> 00:18:57.440
Engels selber zu zitieren, der schrieb die
Lage der arbeitenden Klasse in England.
00:18:57.440 --> 00:19:01.480
"Die Arbeiter müssen sich also beschrieben
bestreben, aus dieser vertiefenden Lage
00:19:01.480 --> 00:19:04.750
herauszukommen, und dies können sie nicht
tun, ohne dass gegen das Interesse der
00:19:04.750 --> 00:19:13.500
Bourgeoisie als solcher anzukämpfen." Das
ist ein anderer Punkt in dieser Arbeit ist
00:19:13.500 --> 00:19:19.169
die sogenannte algorithmische und
Undurchsichtigkeit. Algorithmische
00:19:19.169 --> 00:19:21.690
Undurchsichtigkeit bedeutet entweder, dass
ein Algorithmus so kompliziert geworden
00:19:21.690 --> 00:19:25.020
ist, dass man ihn technisch nicht mehr
verstehen kann, was vorkommt, oder aber,
00:19:25.020 --> 00:19:28.570
dass man nicht mehr den Einblick in den
Algorithmus hat, dass man also die Frage,
00:19:28.570 --> 00:19:33.789
welchen Einfluss haben Algorithmen auf
meine Arbeit? Nicht beantworten kann. Das
00:19:33.789 --> 00:19:36.740
ist im Lagerhaus vielleicht noch relativ
offensichtlich. Wenn die Picking Raid
00:19:36.740 --> 00:19:40.610
immer schneller, schneller wird, dann kann
man das auf den Algorithmus hin
00:19:40.610 --> 00:19:45.590
hinausführen. Aber wenn ich zum Beispiel
bei Deliveroo arbeite oder bei Lieferant
00:19:45.590 --> 00:19:50.210
oder Foodora oder wie die ganzen Buden
heißen, da ist das nicht unbedingt so
00:19:50.210 --> 00:19:54.220
offensichtlich, weil die Algorithmen
natürlich geheim sind und sich von Firma
00:19:54.220 --> 00:19:58.780
zu Firma unterscheiden. Deliveroo wurde in
Italien verklagt, weil der Algorithmus
00:19:58.780 --> 00:20:01.410
diskriminiert hat. Wenn man zum Beispiel
krank gewesen ist oder sich an
00:20:01.410 --> 00:20:08.160
Arbeitsorganisation beteiligt hat, dann
hat der Algorithmus einen so bestraft, wie
00:20:08.160 --> 00:20:12.350
als wenn man einfach nicht gearbeitet
hätte. Das führt natürlich dazu, dass
00:20:12.350 --> 00:20:16.570
Gerüchte entstehen und dass diese
Unklarheit zu Wissenshierarchien führt,
00:20:16.570 --> 00:20:20.360
dass man nicht mehr verstehen kann, was
eigentlich passiert. Wir haben es mit
00:20:20.360 --> 00:20:24.400
einem Phänomen zu tun, wo die Daten, die
angesammelt werden, nur noch in eine
00:20:24.400 --> 00:20:28.970
Richtung fließen. Sie werden von den von
den Arbeiterinnen extrahiert und fließen
00:20:28.970 --> 00:20:33.919
in den Wissensschatz der der Plattform, wo
sie angehäuft werden, ausgewertet werden
00:20:33.919 --> 00:20:38.470
und so weiter. Das führt zu der Frage, wie
soll man denn eigentlich verstehen, was
00:20:38.470 --> 00:20:42.260
nicht fassbar ist. Wenn ich nicht weiß,
was der Prozess ist, wie soll ich ihn
00:20:42.260 --> 00:20:46.680
verstehen und wie sollen wir ihn überhaupt
fassen, was sich, was ich verändert?
00:20:46.680 --> 00:20:49.640
Natürlich werden diese Algorithmen
weiterentwickelt und weiterentwickelt.
00:20:49.640 --> 00:20:54.650
Wenn ein Manager von der Lieferkette sagt
unsere Algorithmen sind unfassbar dumm,
00:20:54.650 --> 00:20:59.030
was tatsächlich passiert ist. Sie können
gar nicht so diskriminierend sein, wie ihr
00:20:59.030 --> 00:21:02.809
euch das vorstellt, dann ist das ja keine
Garantie. Erstens, dass er nicht lügt, was
00:21:02.809 --> 00:21:07.230
man im Manager vielleicht zutrauen sollte
und zweitens auch nicht, dass der
00:21:07.230 --> 00:21:13.040
Algorithmus das vielleicht in zwei Monaten
vielleicht nicht mehr so dumm ist. Und
00:21:13.040 --> 00:21:17.340
diese Hierarchien können nur aufgelöst
werden, wenn die Algorithmen offengelegt
00:21:17.340 --> 00:21:25.120
werden, wenn es eine Möglichkeit gibt, zu
verstehen, was eigentlich gerade passiert.
00:21:25.120 --> 00:21:27.640
Wir haben es hier also mit einer
Verdichtung der Arbeit zu tun, die auch
00:21:27.640 --> 00:21:32.400
eine Verdichtung der Zeit ist. Unternehmen
versuchen alle Sekunden, die hinter den
00:21:32.400 --> 00:21:38.001
Fabriktor stecken oder im Fall von Geeck
Work vielleicht auch in den Straßen, in
00:21:38.001 --> 00:21:45.789
Arbeitszeit und in kontrollierte Zeit zu
verändern. Vielleicht hilft dagegen
00:21:45.789 --> 00:21:49.850
Faulenzen, um die Überwachung zu
verändern. Vielleicht aber auch nicht. Die
00:21:49.850 --> 00:21:53.760
Verlangsamung des Arbeit ist der Arbeit
ist ein Mittel des Arbeitskampfes. Der
00:21:53.760 --> 00:21:59.760
sogenannte Bummelstreik ist gut erprobt.
Vielleicht kann man den noch gegen
00:21:59.760 --> 00:22:04.940
Algorithmen einsetzen. Das wäre eine
These, die es auszuprobieren gilt. Und
00:22:04.940 --> 00:22:08.880
dieses Bewusstsein von der Zeit ist nicht
unbedingt neu. Walter Benjamin schreibt in
00:22:08.880 --> 00:22:14.429
seinen Geschichtsphilosophischen Thesen
über die Uni Revolution 1830. Das ist in
00:22:14.429 --> 00:22:18.660
ganz Paris, also die Uni Revolution 1830, in
Paris, das in ganz Paris unabhängig
00:22:18.660 --> 00:22:22.810
voneinander auf die Turnuhren geschossen
wurde, weil die Protestierenden verstanden
00:22:22.810 --> 00:22:27.590
haben, dass diese Turnuhren als Symbol der
Zeit und als Symbol des Drucks durch die
00:22:27.590 --> 00:22:35.650
Zeit stehen. Dieser Widerstand oder jeder
Widerstand an sich braucht Organisierung,
00:22:35.650 --> 00:22:39.240
wir können nicht einfach, es gibt keine
Möglichkeit da als Einzelperson was gegen
00:22:39.240 --> 00:22:43.580
zu machen, sondern man muss sich, man muss
sich mit seinen Arbeiterinnen und
00:22:43.580 --> 00:22:47.270
Kolleginnen zusammen organisieren. Und
natürlich tun die Firmen alles, dass das
00:22:47.270 --> 00:22:51.330
zu verhindern. Aber sie müssen dabei nicht
erfolgreich sein. Das zeigt allein schon
00:22:51.330 --> 00:22:59.050
die Geschichte. Okay, das wäre der Teil
zur Arbeit. Gucken wir jetzt uns mal an,
00:22:59.050 --> 00:23:04.900
was der Staat mit der ganzen Geschichte zu
tun hat. Ich rede hier ein bisschen über
00:23:04.900 --> 00:23:08.840
über Daten und öffentliche Daten, dann
über ökonomische Abhängigkeiten in der
00:23:08.840 --> 00:23:12.090
Forschung, über Polizei und Militär. Ein
kleines bisschen über Privatsphäre. Und
00:23:12.090 --> 00:23:16.850
dann zum Schluss. Das ist ein schönes
Paket. Also öffentliche Daten und privates
00:23:16.850 --> 00:23:20.870
Geld. Ich würde sagen, dass wir es hier
mit einer neuen Form der ursprünglichen
00:23:20.870 --> 00:23:25.490
Akkumulation zu tun haben. Also private
Unternehmen versuchen möglichst viel
00:23:25.490 --> 00:23:32.190
verwertbare Stoffe in ihre eigenen
Privatbesitz zu gelangen, um daraus Profit
00:23:32.190 --> 00:23:38.600
zu schlagen. Der Rohstoff in diesem Fall
sind unsere Geschichten, unser Leben. Die
00:23:38.600 --> 00:23:43.010
Märkte sind, wie wir sehen werden,
Kontrolle oder wie wir auch im
00:23:43.010 --> 00:23:47.180
Arbeitskapitel schon gesehen haben und
Hokuspokus, wo gesagt wird, künstliche
00:23:47.180 --> 00:23:50.679
Intelligenz wäre in der Lage, dies und
jenes zu tun, auch wenn es das auf keinen
00:23:50.679 --> 00:23:55.840
Fall ist. Aber wir brauchen eure Daten.
Und ich würde deswegen sagen, dass die
00:23:55.840 --> 00:23:58.950
Innovationen, die uns da verkauft werden,
keine ist, sondern einfach alt und
00:23:58.950 --> 00:24:04.170
gebrechlich und stinkt. Was wir aber
trotzdem immer mehr sehen, ist eine
00:24:04.170 --> 00:24:08.050
Konzentration unserer Daten in den
Rechenzentrum einiger weniger privater
00:24:08.050 --> 00:24:12.600
Unternehmen. Und je mehr konzentriert
wird, umso mehr sind wir als Gesellschaft
00:24:12.600 --> 00:24:16.510
darauf angewiesen, dass diese privaten
Unternehmen gut zu uns sind. Als Beispiel
00:24:16.510 --> 00:24:20.880
zum Beispiel der Übersetzungsassistent von
Google, Google Translate, der zwar für
00:24:20.880 --> 00:24:25.669
alle frei nutzbar ist, wir bezahlen nicht
dafür. Und trotzdem sammelt Google all
00:24:25.669 --> 00:24:30.669
unsere Daten. Und je mehr wir diese
Nutzung in öffentliche Prozesse einbauen
00:24:30.669 --> 00:24:34.419
oder auch in unser Leben einbauen, umso
mehr werden wir von Google abhängig und
00:24:34.419 --> 00:24:37.380
umso mehr werden dafür werden wir davon
abhängig, dass Google nicht vielleicht
00:24:37.380 --> 00:24:42.190
irgendwann sagt: Na gut, kein Bock mehr
auf umsonst, ab jetzt wird bezahlt. Diese
00:24:42.190 --> 00:24:46.299
Abhängigkeit führt zu einer Frage, die wir
so in der Bankenkrise vielleicht schon
00:24:46.299 --> 00:24:53.830
gesehen haben, als Finanzinstitute als too
big to fail bezeichnet wurden und immense
00:24:53.830 --> 00:24:58.720
Summen Geld dafür ausgegeben werden werden
musste, diese diese Institute zu retten.
00:24:58.720 --> 00:25:03.500
Die Tech-Unternehmen befinden sich immer
mehr auf dem Weg, so integrale
00:25:03.500 --> 00:25:08.390
Bestandteile unserer Gesellschaften zu
werden, dass auch sie diesen too big to
00:25:08.390 --> 00:25:12.620
fail Moment vermutlich erreichen, wenn
nicht schon erreicht haben. Aber es ist
00:25:12.620 --> 00:25:16.190
nicht nur die Öffentlichkeit, die davon
abhängig ist, ist es auch zunehmend die
00:25:16.190 --> 00:25:21.600
Forschung, die über künstliche Intelligenz
oder über tech generell, die mehr und mehr
00:25:21.600 --> 00:25:27.030
davon abhängig ist, dass sie sich mit den
mit den Unternehmen gut stellt. Es sind
00:25:27.030 --> 00:25:31.840
ein paar wenige Unternehmen, die nicht nur
die Entwicklungsumgebung stellen, die
00:25:31.840 --> 00:25:39.440
Sprachen und aber auch die Software. Das
heißt, die um sie schaffen quasi die das
00:25:39.440 --> 00:25:44.610
Wasser, wie Meredith Whitaker sagte, in
dem die Forschung zu künstlicher
00:25:44.610 --> 00:25:49.740
Intelligenz schwimmt. Ein Beispiel hierfür
ist Timnit Gebru vermutlich das
00:25:49.740 --> 00:25:54.650
prominenteste der letzten Monate und im
Februar ist eine der führenden
00:25:54.650 --> 00:26:03.820
Forscherinnen im Bereich der der ethischen
KI und war lange Zeit Qlead bei Google. Im
00:26:03.820 --> 00:26:08.580
Dezember letzten Jahres wurde sie
plötzlich gefeuert, angeblich weil sie
00:26:08.580 --> 00:26:13.390
eine Mail an eine Mailingliste geschickt
hatte, die einem Manager nicht würdig war.
00:26:13.390 --> 00:26:22.860
Die wahrscheinlichere These ist, dreht
sich um ein Paar. Ein Paper, in dem es um
00:26:22.860 --> 00:26:28.720
sogenannte stochastische Papageien ging,
um stockastic parrats und um die Gefahren,
00:26:28.720 --> 00:26:33.840
die Large Language Models, sehr große
Sprach Modelle, wie zum Beispiel das
00:26:33.840 --> 00:26:42.830
bereits erwähnte Gpd3 führen würden, Gibru
und ihre Koathorinen haben in dem Paper
00:26:42.830 --> 00:26:49.919
argumentiert, dass diese Language Modells
eine große Reichweite, große Vielfalt
00:26:49.919 --> 00:26:53.900
an Kosten, aber auch Gefahren bilden, also
zum Beispiel Kosten werden Umweltkosten.
00:26:53.900 --> 00:26:58.640
Es braucht sehr viel Rechenkapazitäten mit
diesen Models zu arbeiten. Harms Während
00:26:58.640 --> 00:27:04.021
z.B. Rachel Harms diese sprach,
dass die Modelle es schaffen, künftig sehr
00:27:04.021 --> 00:27:07.929
eloquent über Rassismus zu reden, gebe die
drei z.B. auch kurz nach seinem
00:27:07.929 --> 00:27:11.740
Release schon angefangen, antisemitischen
und rassistischen Müll zu erzählen, auch
00:27:11.740 --> 00:27:16.350
wenn das überhaupt gar nichts mit der
Fragestellung zu tun hat. Und wieder tat
00:27:16.350 --> 00:27:23.679
es Google leid. Es tat Google sogar so
leid, dass sie im Februar 2021 MMitchel
00:27:23.679 --> 00:27:32.220
gefeiert haben, Lied eines anderen iTeams
bei Alphabet Googles Mutterfirma. Und
00:27:32.220 --> 00:27:37.210
Google sendet damit eine ganz eindeutige
Nachricht. Wenn wir die führenden Köpfe
00:27:37.210 --> 00:27:41.559
dem Bereich ethical eye feuern können und
es uns zwar leid tut, aber wir es trotzdem
00:27:41.559 --> 00:27:48.020
machen, dann seid ihr besser ganz ruhig
und benehmt euch oder ihr seid einfach
00:27:48.020 --> 00:27:55.620
raus. Um diese Form der Abhängigkeit ist
ein bisschen simultan zu dem, was wir im
00:27:55.620 --> 00:28:00.250
Kalten Krieg gesehen haben, als das US-
Militär immer mehr Geld in die Forschung
00:28:00.250 --> 00:28:05.350
gesteckt hat. Technologie und Militär oder
wie ich sagen würde ziemlich beste
00:28:05.350 --> 00:28:12.529
Freundinnen. Sie können bis zum Anfang des
Internet, als es noch ARPANET zurückdenkt,
00:28:12.529 --> 00:28:18.340
hieß, zurückdenken und sehen, dass das
ARPANET eine Erfindung des Militärs war,
00:28:18.340 --> 00:28:25.470
seine Ausgründung des Arpa, Advanced
Research Proposal und a und dass
00:28:25.470 --> 00:28:31.700
Départements of Defence. Und von da an
gingen die Investitionen in Forschung und
00:28:31.700 --> 00:28:35.740
Technologie immer weiter und weiter und
weiter Geschäfte mit dem Militär
00:28:35.740 --> 00:28:40.450
heutzutage sind Teil des Kerngeschäfts von
Google, Facebook, Amazon und so weiter und
00:28:40.450 --> 00:28:47.429
so fort. In Amerika ist eines der größten
Projekte, Project Maven. Als offizielles
00:28:47.429 --> 00:28:53.990
erstes Logo hatten sie diese Roboter auf
Ecstasy, die dem eigentlichen Inhalt des
00:28:53.990 --> 00:28:57.840
Ganzen, nämlich algorithmisch warfare
Cross Functional Team, nun wirklich nicht
00:28:57.840 --> 00:29:04.699
gerecht werden. Am Projekt Melvin war ein
Projekt von beinahe allen US
00:29:04.699 --> 00:29:13.100
amerikanischen Verteidigungsinstitution,
künstlich intelligente Spionage gang und
00:29:13.100 --> 00:29:17.990
gäbe zu machen und nichts mehr auf der
Welt zu verpassen. In diesem Projekt
00:29:17.990 --> 00:29:24.480
wurden auch technologische
Errungenschaften von YouTube verwendet, wo
00:29:24.480 --> 00:29:29.110
eigentlich im Zivilen entwickelte
Techniken dem Militär nutzbar gemacht
00:29:29.110 --> 00:29:33.390
wurden. Ein Beispiel wäre YouTubes
Empfehlungslgorithmus, der auch sogenannte
00:29:33.390 --> 00:29:38.570
Cluster Analysis beruht und diese Cluster
Analysis, kann man einerseits benutzen, um
00:29:38.570 --> 00:29:41.270
die Videos anzuzeigen, die dich
wahrscheinlich interessieren. Man kann sie
00:29:41.270 --> 00:29:47.430
aber auch benutzen, um vermutete
Straftäterinnen zum Beispiel im Irak oder
00:29:47.430 --> 00:29:54.590
so zu entdecken. Für Google ging das nicht
so gut aus. Bis zu 3000 MitarbeiterInnen haben
00:29:54.590 --> 00:29:59.071
sich, haben protestiert und Google hat
sich aus Project Maven zurückgezogen und
00:29:59.071 --> 00:30:04.049
hat gesagt, wir machen keine autonomen
Waffen mehr. Es tat Google natürlich leid.
00:30:04.049 --> 00:30:06.510
Google hat aber auch gleichzeitig gesagt,
das Geschäft mit den Militärs und so
00:30:06.510 --> 00:30:10.799
wichtig. Wir machen keine Waffen, aber
alles andere machen wir schon. Ein
00:30:10.799 --> 00:30:15.490
jüngeres Beispiel aus Europa ist die 100
Millionen Dollar Investition von Daniel
00:30:15.490 --> 00:30:21.400
Eck, dem CEO von Spotify, der mit seinem
Hedgefonds bei Helsingör eingestiegen ist,
00:30:21.400 --> 00:30:25.210
einer deutschen Firma, die sagt, mit
ethischen, autonomen Waffensystemen die
00:30:25.210 --> 00:30:30.440
freiheitlich demokratische Grundordnung
verteidigen zu wollen. Wo Amerika Roboter
00:30:30.440 --> 00:30:34.529
auf Ecstasy hat, hat Deutschland das
Projekt das Kommando Cyber und
00:30:34.529 --> 00:30:39.781
Informationsraum. Das ist ein Symbolbild
aus der Weihnachtszeit, das sich darum
00:30:39.781 --> 00:30:45.090
kümmert, die Truppe zu digitalisieren und
voranzubringen. Momentan ist man in der
00:30:45.090 --> 00:30:49.760
Phase des 2.0, was nur 20 Jahre nach dem
Web 2.0 für deutsche Verhältnisse ein
00:30:49.760 --> 00:30:56.860
ziemlich ordentliches Tempo ist. Aber die
Sache ist ernster als blöde Witze. Mit der
00:30:56.860 --> 00:31:01.460
neuen Koalition steht die Anschaffung
bewaffneter Drohnen im Koalitionsvertrag.
00:31:01.460 --> 00:31:06.980
Man sagt zwar, man will sie nur bewaffnen,
man will sie nicht autonom machen. Aber
00:31:06.980 --> 00:31:11.200
diese Autonomisierung ist im Endeffekt nur
noch ein Software-Update entfernt. Und
00:31:11.200 --> 00:31:15.130
dann sollen sie natürlich nur ethisch
töten, weil na klar, wir sind hier in
00:31:15.130 --> 00:31:22.000
Deutschland. Das Problem ist aber alleine
schon der Einsatz von normalen, von
00:31:22.000 --> 00:31:26.890
normalen Drohnen mit Waffensystemen fügte,
führt dazu, dass die Schwelle zum Einsatz
00:31:26.890 --> 00:31:32.731
militärischer Gewalt sinkt und Krieg
entgrenzt wird. Inwieweit entgrenzt wird
00:31:32.731 --> 00:31:38.970
und wie wenig wie schlimm das für die
Zivilbevölkerung ausgehen kann, hat die
00:31:38.970 --> 00:31:42.100
New York Times jüngst in einer sehr
ausführlichen Reportage belegt, in denen
00:31:42.100 --> 00:31:48.951
sie Pentagon Papiere analysiert haben und
so zum Beispiel zivile Opfer der
00:31:48.951 --> 00:31:56.710
Luftangriffe der USA veröffentlicht haben.
Aber auch hier haben wir es wieder mit
00:31:56.710 --> 00:32:02.559
Problemen von Algorithmen oder Dummheit zu
tun. Das Pentagon hat jüngst über einen
00:32:02.559 --> 00:32:09.320
Algorithmus berichtet, der zu 25 prozent
die richtigen Ziele ausgewählt hat. Von
00:32:09.320 --> 00:32:13.650
sich selber aber dachte, es wären 90
prozent, der also ziemlich schlecht war,
00:32:13.650 --> 00:32:17.740
aber gleichzeitig gedacht hatte Ich bin
richtig gut. Und das ist natürlich ein
00:32:17.740 --> 00:32:23.070
Problem. Es ist auch ein Problem, weil die
Algorithmen mit der Zeit besser werden und
00:32:23.070 --> 00:32:30.519
wir dann diese die vielleicht erste
offensichtliche Linse Ja, okay. Die
00:32:30.519 --> 00:32:33.010
Algorithmen sind so schlecht und das ist
das Problem. Nein, das Problem ist
00:32:33.010 --> 00:32:37.949
eigentlich staatliches Töten und wir
müssen uns bewusst sein, dass wir dahin
00:32:37.949 --> 00:32:44.110
müssen, das zu formulieren. Sondern es
sagte Herrschaft durch Gewalt ist sowohl
00:32:44.110 --> 00:32:47.809
in autonome Waffentechnologie als auch in
den Rahmen des Denkens und der Politik
00:32:47.809 --> 00:32:52.909
eingemeißelt, welcher zu ihrer Entwicklung
und ihrem potenziellen Einsatz führt. Es
00:32:52.909 --> 00:32:57.940
geht darum, diese Herrschaft durch Gewalt
zu kritisieren und nicht nur das Mittel,
00:32:57.940 --> 00:33:04.010
mit dem sie durchgesetzt wird. Was im
Krieg nach außen durch autonome
00:33:04.010 --> 00:33:10.380
Waffensysteme funktioniert, funktioniert
im Inneren zum Beispiel durch Gewalt,
00:33:10.380 --> 00:33:13.870
durch Überwachungskameras, die
biometrische Daten sammeln. Die deutsche
00:33:13.870 --> 00:33:26.039
Polizei macht da fleißig mit. Es gibt eine
gute Chance, dass wenn du Anfang Juli 2017
00:33:26.039 --> 00:33:29.529
in Hamburg fast dein Gesicht für lange
Zeit in einer Datenbank der Polizei in
00:33:29.529 --> 00:33:36.210
Hamburg gespeichert war Anfang Juli 2017
war die G20 Proteste und den nächsten Teil
00:33:36.210 --> 00:33:43.020
wollte ich eigentlich überspringen. Und im
Rahmen dieser Strafprozesse im Rahmen
00:33:43.020 --> 00:33:46.900
dieser Proteste kam es natürlich zu
Angriffen auf Polizeikräfte. Es kam aber
00:33:46.900 --> 00:33:53.350
auch durch Angriffe durch, auf
Demonstrierende, durch die Polizei. Hier
00:33:53.350 --> 00:33:59.039
zum Beispiel keine Polizeigewalt durch die
Polizei Hashtag Polizeiproblem. Diese
00:33:59.039 --> 00:34:04.120
Software, die benutzt wurde, ist wie Demo
360 und man hat darin mehrere Terabyte
00:34:04.120 --> 00:34:09.359
Daten hochgeladen, Videoaufnahmen,
Fotoaufnahmen, um potenzielle GewalttäterIn
00:34:09.359 --> 00:34:18.179
zu identifizieren. Der Einsatz wurde
danach vom Verwaltungsgericht Hamburg für
00:34:18.179 --> 00:34:22.650
rechtmäßig erklärt und eine Beschwerde des
Datenschutzbeauftragten Hamburgs
00:34:22.650 --> 00:34:26.639
zurückgesetzt. Im neuen Polizeigesetz
wurden die Befugnisse des
00:34:26.639 --> 00:34:29.320
Datenschutzbeauftragten weiter
zusammengeschnitten, sodass er einfach
00:34:29.320 --> 00:34:32.720
keine Beschwerde mehr hatte, sondern
eigentlich nur noch zu einer doofen
00:34:32.720 --> 00:34:38.050
Marionette wurde. Die Polizei hat diese
Datenbank mit den und mit den Daten zwar
00:34:38.050 --> 00:34:43.540
2020 gelöscht, aber nicht, weil es ein
Fehler war, sondern weil es keine
00:34:43.540 --> 00:34:49.050
strafrechtlich Erforderlichkeit mehr gab.
Das Gerichtsurteil ist bestehen geblieben
00:34:49.050 --> 00:34:52.000
und der Präzedenzfall wurde gesetzt. Die
Polizei hat schon gesagt, dass sie
00:34:52.000 --> 00:34:56.490
Interesse hat, mit solchen großen
Datenbanken weiterzuarbeiten. Bei neuen
00:34:56.490 --> 00:35:00.900
Protesten deutschlandweit wird im Rahmen
des Programms Polizei 2020 an
00:35:00.900 --> 00:35:05.240
bundeseinheitlichen Plattformen
gearbeitet, die versuchen, die momentane,
00:35:05.240 --> 00:35:09.690
das momentane Chaos, das föderale
Überwachungs zu vereinheitlichen und die
00:35:09.690 --> 00:35:14.540
Daten besser zugänglich zu machen. Die
Geschichte zeigt aber immer wieder, dass
00:35:14.540 --> 00:35:18.520
Gesichtserkennung kein Tool ist, was
einfach funktioniert. Zum Beispiel in der
00:35:18.520 --> 00:35:23.500
Gender Shell-Studie von 2008 wurde
gezeigt, dass eigentlich alle
00:35:23.500 --> 00:35:28.079
Gesichtserkennung, Algorithmen, große
Unternehmen, schwarze Frauen wesentlich
00:35:28.079 --> 00:35:33.560
schlechter erkennen als weiße Personen
oder auch männliche Person. Diese Bias
00:35:33.560 --> 00:35:39.490
findet sich auch in Amazons Recognition
Tool wieder, das auf mehr Mitglieder des
00:35:39.490 --> 00:35:43.070
US amerikanischen Kongresses losgelassen
wurde und einige von denen zu
00:35:43.070 --> 00:35:47.240
Straftäterinnen machte. Natürlich, oder
das heißt natürlich aber kann es
00:35:47.240 --> 00:35:52.400
überraschenderweise vor allen Dingen
People of Color. Aber auch hier gibt es
00:35:52.400 --> 00:35:55.650
wieder ein grundlegendes Problem, nämlich
dass das Gesichtserkennung im öffentlichen
00:35:55.650 --> 00:35:59.190
Raum eigentlich überhaupt nichts zu tun
hat, zu suchen hat und dass
00:35:59.190 --> 00:36:02.850
Gesichtserkennung auch in den Tools der
Polizei nichts zu suchen hat. Die Polizei
00:36:02.850 --> 00:36:09.589
ist ein schwer überwacher Organ und es ist
eigentlich unmöglich, demokratische
00:36:09.589 --> 00:36:15.530
Kontrolle auszuüben, ihm dafür zu sorgen,
dass die Polizei keinen Unsinn macht. Wenn
00:36:15.530 --> 00:36:20.359
man sich Prozesse wie NSU 2.0 oder
rechtsextreme TerrorChatgruppen anguckt,
00:36:20.359 --> 00:36:25.369
sollte man vielleicht eher davon ausgehen,
dass das passieren wird. Wir sind hier in
00:36:25.369 --> 00:36:28.700
einer Situation, wo die deutsche Polizei
machen will, was Facebook nicht mehr machen
00:36:28.700 --> 00:36:32.290
möchte, nämlich flächendeckende
Gesichtserkennung. Und wenn man hinter
00:36:32.290 --> 00:36:36.369
Facebook hinterherhinkt im Jahr 2021, dann
sollte man sich vielleicht Gedanken
00:36:36.369 --> 00:36:41.690
machen. Falls ihr an dem Widerstand
dagegen interessiert seid. Es gibt eine
00:36:41.690 --> 00:36:45.910
Kampagne namens Reclaim your face, die
sich gegen Gesichtserkennung und die
00:36:45.910 --> 00:36:51.030
Sammlung von biometrischen Daten in Europa
einsetzt. Dafür gibt es auf diesem
00:36:51.030 --> 00:36:58.000
Raumschiff morgen auch einen Vortrag, wo
der momentane Stand vorgestellt wird. Der
00:36:58.000 --> 00:37:02.700
letzte, der letzte Teil des Policing, den
ich kurz ansprechen möchte und auch Teil
00:37:02.700 --> 00:37:08.110
des neuen Polizeigesetzes in Hamburg, ist
Predictive Policing, Predictive Policing
00:37:08.110 --> 00:37:12.800
oder kurz Voraus in die Vergangenheit. Es
wird gesagt, ein Algorithmus stellt fest,
00:37:12.800 --> 00:37:17.920
wo morgen oder vielleicht später des Tages
Kriminalität stattfinden wird. Und
00:37:17.920 --> 00:37:21.720
natürlich wird gesagt, das ist neutral.
Was soll schon passieren? Wieder Markup
00:37:21.720 --> 00:37:27.640
aber jüngst festgestellt hat, führt es
eigentlich nur dazu, dass das die Orte, in
00:37:27.640 --> 00:37:33.500
denen momentan Polizeieinsätze
stattfinden, auch morgen wieder Ziel von
00:37:33.500 --> 00:37:38.920
Polizeieinsätzen werden. Niemand kann
beantworten, warum oder wie das in
00:37:38.920 --> 00:37:43.619
Deutschland nicht passieren sollte. Ganz
im Gegenteil eigentlich sogar ein Panel
00:37:43.619 --> 00:37:50.480
der UN warnt davor, dass der
unregulierte Einsatz von künstlicher
00:37:50.480 --> 00:37:56.660
Intelligenz in vielen Regierungen
rassistische Vorurteile verstärken kann.
00:37:56.660 --> 00:38:01.040
Wir haben es hier also zu tun mit einer
Infrastruktur des ständigen staatlichen
00:38:01.040 --> 00:38:06.350
Zugriffs auf unsere Daten, auf unsere
Gesichter, auf unser Leben oder... Und es
00:38:06.350 --> 00:38:10.130
geht nicht nur, es geht nicht mehr nur um
die Polizei oder nur um das Militär,
00:38:10.130 --> 00:38:15.000
sondern es geht um eine ganzheitliche
Verbindung von Geheimdiensten, Polizei und
00:38:15.000 --> 00:38:18.900
Militär, die alle das Gleiche wollen und
deren Daten zunehmend interoperabel
00:38:18.900 --> 00:38:24.330
werden. Firmen wie Palantir z.B.
versinnbildlichen diese Gemengelage. Die
00:38:24.330 --> 00:38:28.330
arbeiten zusammen mit der NSA, aber auch
mit der ISI , also mit der Behörde in den
00:38:28.330 --> 00:38:33.430
USA, aber auch mit der hessischen Polizei
oder mit Europol. Also auch die
00:38:33.430 --> 00:38:38.030
herkömmliche nationale Grenzen
verschwimmen, dazu einem gewissen Teil.
00:38:38.030 --> 00:38:42.020
Außen und Innen, Polizei sein
Militärgeheimdienst verschmelzen und es
00:38:42.020 --> 00:38:47.040
entsteht eigentlich eine große, umfassende
oder der Versuch einer großen, umfassenden
00:38:47.040 --> 00:38:51.589
Überwachungsinfrastruktur. Das Schöne ist,
dass auch eine Firma wie Palantir Angst
00:38:51.589 --> 00:38:56.070
hat vor einem Bewusstsein über
Privatsphäre und auch über ein Bewusstsein
00:38:56.070 --> 00:39:00.480
dafür, dass die Algorithmen dieser Firmen
Scheiße bauen. Das heißt, wenn wir, wenn
00:39:00.480 --> 00:39:05.950
wir daran arbeiten, dass nicht zur
Normalität werden zu lassen, dann haben
00:39:05.950 --> 00:39:11.660
wir eine reelle Chance, das auch zu
verhindern. Und noch kurz ein paar
00:39:11.660 --> 00:39:14.760
Anmerkungen zu Daten und Privatsphäre. Es
geht hier vor allem um Zusammenhang von
00:39:14.760 --> 00:39:19.730
Privatsphäre und nicht um die
Datensammelwut von Facebook. Dafür gab es
00:39:19.730 --> 00:39:23.790
jetzt hier gerade vorher zum Beispiel
einen Vortrag über die Facebook Papers und
00:39:23.790 --> 00:39:31.820
noch ein, zwei andere Punkte im Fahrplan.
Wir haben bis jetzt über über staatliche
00:39:31.820 --> 00:39:38.099
Überwachung gesprochen und wie sie immer
allgemeiner wird. Das führt dazu. Dass
00:39:38.099 --> 00:39:42.450
einerseits alle betroffen sind, aber dass
andererseits Leute, die dem Staat mehr und
00:39:42.450 --> 00:39:47.140
mehr ausgeliefert sind oder wehrloser
gegenüber sind, dass die Intensität der
00:39:47.140 --> 00:39:50.640
Eingriffe diesem gegenüber zunimmt. Als
Beispiel werden zum Beispiel Hartz-IV-
00:39:50.640 --> 00:39:54.780
Bezieher, in die quasi ein Offenbarungseid
gegenüber den Staat abliefern müssen,
00:39:54.780 --> 00:39:58.730
Geflüchtete bei der Einreise oder auch
migrantische Communitys, die traditionell
00:39:58.730 --> 00:40:04.940
immer wieder das gesteigerte Ziel von
polizeilicher Arbeit sind. Wir haben hier
00:40:04.940 --> 00:40:11.230
also die Situation, dass Überwachung und
die die Aufhebung der Privatsphäre ein
00:40:11.230 --> 00:40:15.030
Problem der betroffenen Individuen ist,
erst mal auf den ersten Blick. Aber das
00:40:15.030 --> 00:40:18.380
sollte uns nicht dazu verleiten zu denken,
das ist ein individuelles Problem ist,
00:40:18.380 --> 00:40:21.740
sondern es ist ein gesellschaftliches
Problem. Wir kommen nicht gegen diese
00:40:21.740 --> 00:40:26.650
Dynamik an, mit dem, ich habe nichts zu
verbergen---narrativ, weil wir wissen
00:40:26.650 --> 00:40:30.420
nicht, was morgen morgen trifft. Das
heißt, wir müssen diese Datafixierung
00:40:30.420 --> 00:40:33.510
nicht auf einem individuellen Level
diskutieren, sondern auf einem
00:40:33.510 --> 00:40:37.290
kollektiven. Auf welche Arten und Weisen
wollen wir, dass eine Gesellschaft
00:40:37.290 --> 00:40:42.180
datafiziert ist? Was kann uns als
Gesellschaft einen einen Nutzen bringen
00:40:42.180 --> 00:40:46.180
und was nicht? Schlussendlich muss es
alles, was es für alle möglich sein, ohne
00:40:46.180 --> 00:40:52.150
Angst vor dem digitalen Panoptikum durch
die Straßen zu laufen. Privatsphäre und
00:40:52.150 --> 00:40:56.640
Daten sind aber nicht nur ein Problem, das
sei noch kurz angemerkt Ich habe ja am
00:40:56.640 --> 00:41:00.151
Anfang bei ImageNet erwähnt, dass niemand
gefragt wurde, ob man in diesem Datensatz
00:41:00.151 --> 00:41:06.250
sein möchte oder nicht. Die Forscherin
Sascha Luchoni hat jüngst auf Twitter
00:41:06.250 --> 00:41:12.470
gefragt, was denn ein gutes Example von
einem KI-Datensatz wäre, wo wirklich nach
00:41:12.470 --> 00:41:17.780
Einverständnis gefragt wurde. Das it even
exists? Es stellt sich heraus in allen
00:41:17.780 --> 00:41:22.480
Responses zu diesem Tweet. Es gibt genau
eins: Facebooks Casual Convent
00:41:22.480 --> 00:41:27.030
Conversations Dataset scheint das einzige
große Daten, der einzige größere Datensatz
00:41:27.030 --> 00:41:31.020
zu sein, in dem die Beteiligten
tatsächlich zugestimmt haben, dass ihre
00:41:31.020 --> 00:41:40.660
Daten für Zwecke des maschinellen Lernens
verwendet werden. Okay, was tun jetzt oder
00:41:40.660 --> 00:41:45.350
I want you tech for good? Wir haben
gesehen, dass wir einen gespenstischen
00:41:45.350 --> 00:41:48.440
Wind haben, einen gespenstischen digitalen
Wind, der durch unser Haus, durch unsere
00:41:48.440 --> 00:41:52.590
Gesellschaft bläst. Wir haben gesehen, wie
KI das menschliche Zusammenleben
00:41:52.590 --> 00:41:57.080
kodifiziert und als Mittel staatlicher
Überwachung und kapitalistischer Kontrolle
00:41:57.080 --> 00:42:01.849
dienen kann. Das heißt aber auch, dass
unsere Rassismen, unsere Sexismen und so
00:42:01.849 --> 00:42:08.839
weiter in diese KI eingeschrieben wird und
dass gleichzeitig die Technologie sich
00:42:08.839 --> 00:42:12.740
immer schneller und schneller entwickelt,
wir aber als Gesellschaft gar kein
00:42:12.740 --> 00:42:18.900
ethisches Verständnis mehr davon schaffen,
dass hinterherkommt in dem Tempo der KI
00:42:18.900 --> 00:42:25.130
und das auch dazu führt. Und dass es geht
mir jetzt nicht hier darum, KI an sich zu
00:42:25.130 --> 00:42:29.980
verurteilen, sondern es gibt dafür schöne
Beispiele. Man kann KI benutzen, um es
00:42:29.980 --> 00:42:35.350
gegen die Überwacher zu drehen und an zum
Beispiel für Gesichtserkennung Programme
00:42:35.350 --> 00:42:39.910
auf die Polizei anzuwenden und so
Polizisten zu identifizieren, die gegen
00:42:39.910 --> 00:42:45.460
Protestierende eingesetzt werden. Man kann
KI zu Hause rumliegen haben und deutsche
00:42:45.460 --> 00:42:52.380
Behörden Maschinen lesbar machen und so
besser verstehbar machen. Aber bei allem,
00:42:52.380 --> 00:42:57.599
dem dürfen wir nicht vergessen, dass
solange wir, solange wir die Herrschaft
00:42:57.599 --> 00:43:00.980
der Menschen über die Menschen nicht in
den Fokus der Kritik richten, sondern uns
00:43:00.980 --> 00:43:04.700
immer wieder nur an den Symptomen
abarbeiten, dass wir immer wieder an den
00:43:04.700 --> 00:43:07.100
gleichen Punkt kommen werden, vielleicht
mit einer anderen Technologie, aber an den
00:43:07.100 --> 00:43:14.200
gleichen Punkt. Wie Timnit Gebru sagte
daß, es geht darum, dass die wenigen
00:43:14.200 --> 00:43:22.680
Systeme der Unterdrückung schaffen und die
"others constantly work to prevent harm
00:43:22.680 --> 00:43:28.010
unable to find the time space or resources
to implement their own vision of future".
00:43:28.010 --> 00:43:32.430
Und ich glaube tatsächlich, das ist das,
wo es im Endeffekt darum gehen würde, dass
00:43:32.430 --> 00:43:37.090
wir es schaffen, die Zeit und den Willen
auch zu finden, unsere eigene Vision von
00:43:37.090 --> 00:43:44.260
der Zukunft zu implementieren. Und dann
schlussendlich erst wenn wir als Menschen
00:43:44.260 --> 00:43:50.579
gut zueinander sind, können die Maschinen
lernen, auch gut zu uns sein zu sein. Um
00:43:50.579 --> 00:43:55.900
noch mal die Slides wie Sources und alle
meine Quellen findet ihr auf
00:43:55.900 --> 00:44:06.680
r.ovl.design/rc3-ki, oder über diesen QR-
Code. Oder wie gesagt bei Twitter. Damit
00:44:06.680 --> 00:44:11.131
komme ich zum Ende und möchte mich ganz
herzlich bedanken bei euch, die ihr
00:44:11.131 --> 00:44:14.690
zugeguckt haben, bei der C-Base für die
Einladung hier sprechen zu dürfen und
00:44:14.690 --> 00:44:17.560
natürlich bei allen Forscherinnen,
Aktivistinnen, Journalistinnen und so
00:44:17.560 --> 00:44:24.060
weiter, auf deren Arbeit ich mich implizit
oder explizit bezogen habe. Vielen Dank!
00:44:24.060 --> 00:44:26.680
Applaus
00:44:26.680 --> 00:44:33.280
Herald: Das war großartig, Oskar, vielen
Dank! 45 Minuten, fast fast ohne Pause, da
00:44:33.280 --> 00:44:37.250
gab es ja wirklich ein ordentliches
Update. Wir haben neue Wörter gelernt:
00:44:37.250 --> 00:44:44.140
kybernetische Verdichtung, kybernetische
Verdichtung, digitaler Frühkapitalismus.
00:44:44.140 --> 00:44:48.430
Demnach müssten wir Hacker jetzt helfen,
dass die modernen digitalen Arbeiter
00:44:48.430 --> 00:44:51.840
wieder sich selbst ermächtigen und es
wieder zu einer Aufklärung kommt.
00:44:51.840 --> 00:44:53.140
Wahrscheinlich.
Oskar: Zum Beispiel.
00:44:53.140 --> 00:44:56.630
Herald: Algorithmische Undurchsichtigkeit.
Da müssten die Hacker dafür sorgen, dass
00:44:56.630 --> 00:44:59.300
die Algorithmen irgendwie durchsichtiger
werden. Das Peinliche ist ja auch, dass
00:44:59.300 --> 00:45:01.869
man dann sehen könnte, wie nackt der
Kaiser möglicherweise ist.
00:45:01.869 --> 00:45:04.119
Oskar lacht
Herald: Und wir müssen den Wissensschatz
00:45:04.119 --> 00:45:07.839
der Arbeiter, die davon überwacht und
gesteuert werden, irgendwie zu mehren
00:45:07.839 --> 00:45:13.190
suchen. Und interessant fand ich auch
künstliche Ideologie. Das ist also so ein
00:45:13.190 --> 00:45:18.830
bisschen, sonst spin gibt dahingehend zu
sagen, dass es künstlich, also ist es
00:45:18.830 --> 00:45:22.010
intelligent, auch wenn es vielleicht gar
nicht so intelligent ist. Aber künstliche
00:45:22.010 --> 00:45:26.220
Intelligenz ist ja schon mal ein Wert an
sich. Stochastische Papageien fand ich
00:45:26.220 --> 00:45:30.569
auch interessant, dass also so große
Mengen an Daten, wenn man sie statistisch
00:45:30.569 --> 00:45:34.740
auswertet, natürlich auch statistische
Artefakte produzieren. Wer hätte das nur
00:45:34.740 --> 00:45:38.820
denken können? Aufgabe der Hacker hier
also auch Selbstermächtigung, Aufklärung
00:45:38.820 --> 00:45:41.770
und Nachgucken. Wie funktioniert das
eigentlich, was wir immer schon gemacht
00:45:41.770 --> 00:45:46.280
haben? Und jetzt die einzige Hörerfrage,
die in der kurzen Zeit jetzt gekommen ist.
00:45:46.280 --> 00:45:50.390
Oder vielleicht auch Zuschauerfrage? Ist
Glaubst du, dass es einen künstlichen
00:45:50.390 --> 00:45:56.751
Dunning-Krüger Effekt gibt?
Oskar: lacht verzweifelt Das ist eine
00:45:56.751 --> 00:46:04.230
sehr interessante Frage, die ich
vielleicht nächstes Jahr in einem Vortrag
00:46:04.230 --> 00:46:08.280
beantworten werde. Es ist eine sehr
interessante Frage. Ich muss darüber
00:46:08.280 --> 00:46:13.550
nachdenken. Ich kann es mir vorstellen,
aber ich möchte, ich kann es jetzt gar
00:46:13.550 --> 00:46:17.310
nicht so kohärent beantworten, wie die
Frage vielleicht beantwortet werden
00:46:17.310 --> 00:46:19.990
müsste.
Herald: Okay, dafür ist die KI Landschaft
00:46:19.990 --> 00:46:23.390
vielleicht ja auch etwas diverser als die
Menschen Landschaft da draußen.
00:46:23.390 --> 00:46:26.970
Oskar: Na ja, bis jetzt hat sich gezeigt,
dass die KI Landschaft vor allen Dingen
00:46:26.970 --> 00:46:29.060
ziemlich genau das Abbild der Menschen
Landschaft ist. Aber die Menschen
00:46:29.060 --> 00:46:32.560
Landschaft ist natürlich auch sehr divers
und das ist ja auch ein Vorteil, den wir
00:46:32.560 --> 00:46:35.540
haben können. Nur weil ich jetzt darüber
viel darüber gesprochen habe, wie
00:46:35.540 --> 00:46:39.170
künstliche Intelligenz und Herrschaft
interagieren, heißt es ja, heißt das ja
00:46:39.170 --> 00:46:42.920
nicht, dass das für immer so bleiben muss,
sondern künstliche Dinge kann auch
00:46:42.920 --> 00:46:46.210
emanzipativ werden.
Herald: Ja, das ist ja interessant. Also
00:46:46.210 --> 00:46:49.900
heißt das, die Geschichte wiederholt sich
wie immer einerseits ja, am Ende aber doch
00:46:49.900 --> 00:46:53.820
nicht. Und es wird nicht so laufen. Mal
wieder nicht so, wie Marx es vorausgesagt
00:46:53.820 --> 00:46:54.820
hat.
Oskar: Na ja.
00:46:54.820 --> 00:46:56.010
Herald: Nicht mit wissenschaftlicher
Genauigkeit.
00:46:56.010 --> 00:46:59.980
Oskar: Ich glaube, wenn man, wenn man
genauer hinguckt, der
00:46:59.980 --> 00:47:03.060
Geschichtsdeterminismus und die
Voraussage, dass sich die Geschichte auf
00:47:03.060 --> 00:47:05.320
eine bestimmte Art entwickeln wird, ist
wahrscheinlich einer der größten
00:47:05.320 --> 00:47:09.270
Schwachpunkte bei Marx und Engels. Und
natürlich ist...
00:47:09.270 --> 00:47:13.070
Herald: Bei der KI auch.
Oskar: Bei, bei der KI auch, wobei die KI
00:47:13.070 --> 00:47:15.640
eigentlich immer wieder nur eine
Wiedergabe der Vergangenheit ist und
00:47:15.640 --> 00:47:18.319
deswegen ja noch gar nicht damit
beschäftigt sein kann, wie die Zukunft
00:47:18.319 --> 00:47:21.180
ist. Alles, was ihr über die Zukunft sagt,
so wie es gestern war und das bringt uns
00:47:21.180 --> 00:47:23.599
alles und uns nichts.
Herald: Bringt das hier an Bord gar
00:47:23.599 --> 00:47:26.720
nichts, wie wir rekonstruieren. Ja, die
Zukunft, das müsste die KI erst mal
00:47:26.720 --> 00:47:29.310
lernen.
Oskar: Ja. Und wir können die Zukunft auch
00:47:29.310 --> 00:47:32.430
gestalten, weil wir müssen nicht die
Fehler der Vergangenheit immer wieder und
00:47:32.430 --> 00:47:36.450
wieder reproduzieren, sondern wir können
tatsächlich sagen, das war ein Fehler, wir
00:47:36.450 --> 00:47:39.360
wollen es jetzt anders machen.
Herald: Also eine Riesenaufgabe für
00:47:39.360 --> 00:47:42.770
Hacker. Ich glaube damit zusammen, dass es
die Sorte Vortrag, die man noch mal
00:47:42.770 --> 00:47:44.510
angucken kann.
Oskar lacht
00:47:44.510 --> 00:47:49.260
Herald: Herzlichen Dank! Grüße von der
C-Base. Es geht hier um 21 Uhr weiter. Bis
00:47:49.260 --> 00:47:53.260
dann everything ist Lizenz cc by vor
Politisierung des Altvordere Community to
00:47:53.260 --> 00:47:55.590
do what.
00:47:55.590 --> 00:48:01.000
Untertitel erstellt von c3subtitles.de
im Jahr 2022. Mach mit und hilf uns!