-
Herald: Herzlich willkommen im C-Base
Livestream der Raumstation unter Berlin-
-
Mitte am S-Bahnhof Jannowitzbrücke. Es
freut mich ganz besonders, dass der Oskar
-
heute hier ist mit dem Thema "Computer
says no. Künstliche Intelligenz und
-
Herrschaft". Das freut mich deswegen ganz
besonders, weil ich ja ansonsten Technik
-
Philosophie mache. Und wir sind ja nun
seit ungefähr 25 Jahren darauf warten,
-
dass die ganzen künstlichen
Minderintelligenzen tatsächlich mal so was
-
wie Bewusstsein entwickeln. Das scheint
aber noch nicht der Fall zu sein, es sei
-
denn, Oskar hat hier Neuigkeiten für uns.
Und die interessante Frage ist ja, wie es
-
zu rechtfertigen ist, dass solche
künstlichen Minderintelligenzen dann
-
Herrschaft über uns ausüben, indem sie uns
Kredite verweigern, unsere Bankkarte nicht
-
verlängern oder auch unsere
Steuererklärung für potenziell gefälscht.
-
Das werden wir jetzt alles genau und näher
erfahren. Wie das fast schon akademische
-
Tradition ist, gibt es genau 45 Minuten
Zeit für Oskar. Oskar, du hast die Bühne
-
für ein Update zur künstlichen Intelligenz
und Herrschaft.
-
Oskar: Vielen Dank! Herzlich willkommen
auch allen Wesen an den Empfangsgeräten.
-
Die schlechte Nachricht zuerst. Es gibt
keine Neuigkeiten, sondern meine These ist
-
eher, dass ich seit 1844 ungefähr nichts
geändert hat, außer dass jetzt Computer
-
dabei sind. Bevor ich anfange, man kann
die Slides, alle meine Quellen und ein
-
Transkript des Talks unter dem Link
r.ovl.design/rc3-ki sehen oder über diesen
-
oben eingeblendeten QR-Code. Ich habe den
Link auch um 17:02, was ungefähr jetzt
-
sein sollte, getwittert. Danke, Künstliche
Intelligenz. Mein Twitter @_ovlb. Fangen
-
wir an. Künstliche Intelligenz. Was meine
ich eigentlich damit, wenn ich über
-
Künstliche Intelligenz spreche? Künstliche
Intelligenz an sich ist erst mal eine
-
recht grobe, grobe Kategorie. Deswegen
vorab auf einer technischen Ebene wird es
-
vor allen Dingen um Machine Learning
gehen. Ich werde aber trotzdem den Talk
-
über von KI sprechen. Ich werde von KI
sprechen, weil KI als gesellschaftlicher
-
Begriff weiter greifend ist als nur die
technische Ebene, sondern eine Formierung
-
von Politik, Arbeit, Kultur und Kapital
beinhaltet. Im Folgenden gehört es vor
-
allem um Politik. Arbeit und Kapital gehen
weniger um Kultur. Und das Ganze wird sich
-
folgendermaßen gliedern. Ich werde erst
über ImageNet reden, eines der vermutlich
-
einflussreichsten Datensätze in der
Geschichte des Machine Learning, danach
-
über Algorithmen und Arbeit und
schließlich über einen Teil namens
-
künstlichen Ideologie, wo ich ein bisschen
über staatliche Herrschaft und wie sich
-
Militär und Polizei künstliche Intelligenz
zu Nutze machen. Schließlich ein kleiner,
-
ein kleiner Ausblick unter dem Titel Was
tun? Genau das ist die grobe, grobe
-
Gliederung. Es ist also kein technischer
Vortrag. Ich werde nicht erklären, wie die
-
Machine Learning funktioniert und ich werde noch
nicht erklären, was und wie grundlegend
-
künstliche Intelligenz ist, oder? Also
wenn ihr jetzt einen technischen Vortrag
-
erwartet habt. Tut mir leid, gibt es
nicht. Okay, los geht's. ImageNet, oder wie
-
Machine Learning sich für immer
veränderte. Für die Leute von euch, die
-
vielleicht nicht einen großen Hintergrund
in der Geschichte des der künstlichen
-
Intelligenz haben. Eine kurze Erklärung, was
mit ImageNet eigentlich
-
ist. ImageNet ist, wie oben schon
erwähnt, der vermutlich einflussreichste
-
Datensatz. Warum, erkläre ich gleich. Und
darauf aufbauend wurde vermutlich einer
-
der einflussreichsten Algorithmen
geschrieben. Die Idee ist so kompliziert
-
wie simpel und wurde von Fei-Fei Li im
Jahr 2006 formuliert, nämlich den
-
Goldstandard für Bilder Datensätze zu
sammeln. Die Umsetzung dementsprechend
-
auch relativ einfach: Bilder sammeln. Nur
ist das natürlich, wenn man von einem
-
Goldstandard spricht und von den damit von
den Mengen an Bildern, die und die damit
-
gemeint sind, leichter gesagt als getan.
Fei-Fei Li und ihre Mitfahrenden hatten
-
zwei Sachen auf ihrer Seite, nämlich
einerseits Bilder suchen, die relativ neu
-
waren und andererseits immer
leistungsstärkere Computer. Trotzdem
-
dauert es drei Jahre, bis genug Bilder
zusammengesammelt waren, genug heißt hier
-
14 Millionen. Und das, um das ein bisschen
in Perspektive zu setzen. Einer der
-
Hauptvorläufer von imageNet, Pascal VOC
Pascal Virtual Object Classes beinhaltete
-
19737 Bilder in 20 Kategorien. Anstatt wie
jetzt in der mit 14 Millionen Bildern in
-
20000 Kategorien. Nun stellt sich aber
eine Frage, wie klassifiziert man denn
-
eigentlich 14 Millionen Bilder, nur weil
man in einer Bildersuche nach einem Apfel
-
gesucht hat, heißt das ja nicht, dass
jedes Bild, das bei rausgekommen ist,
-
einen Apfel beinhaltet. Traditionell wäre
das ein Job für Studienanfängerinnen
-
gewesen. Das heißt, man hat den Leuten,
die gerade ein Studium angefangen hat,
-
gesagt, hier einen Datensatz, bearbeite
den bitte. Guck, ob alles korrekt ist. Das
-
Problem ist, bei 14 Millionen Bildern hat
einer, der Mitforschenden ausgerechnet,
-
würde es ungefähr 19 Jahre dauern, bis die
Studienanfängerin diese 14 Millionen
-
Bilder auch wirklich klassifiziert hätten.
Aus der heutigen Perspektive mag man
-
vielleicht auch sagen, vielleicht ist es
ein Job für einen Algorithmus. Das Problem
-
ist nur, die Algorithmen, die wir heute
haben, sind schon nicht gut genug, dass
-
man einfach sagen kann, hier sind die
Bilder, sagt und was ist dann? Das muss
-
immer wieder kontrolliert werden. Die
Algorithmen, die es damals gab, waren noch
-
schlechter, also auch nicht wirklich die
Lösung des Problems. Die Lösung des
-
Problems kam von einer unverhofften
Richtung, von einer micro working, click
-
working Plattform namens Amazon Mechanical
Turk, die in 2015 eingeführt wurde.
-
Mechanical Turk ist benannt nach dieser
Konstruktion, wo ein vermeintlicher
-
Roboter von einem kleinwüchsigen Menschen
in diesem Kasten bedient wurde und dann so
-
getan hat, als würde er Schach spielen
können. Und Mechanical Turk erlaubte es,
-
sogenannte Human intelligente Tasks
einzustellen, also kleine Sachen wie zum
-
Beispiel, Kucke auf diesem Job, auf diesem
Bild ein Apfel ist, die dann von den
-
Arbeitenden auf der Plattform
vervollständigt werden konnten. Durch
-
diese Plattform war es möglich, diese 14
Millionen Bilder auf 49 000 Leute
-
aufzubrechen aufzuteilen, die in 167
Ländern daran gearbeitet haben und so
-
vergleichsweise schnell oder relativ
schnell, zumindest sehr viel schneller als
-
19 Jahre in der Lage waren, die Bilder zu
klassifizieren und zu gucken, ob das, was
-
angeblich auf den Bildern drauf ist, auch
wirklich drauf ist. Wir sehen hier eins
-
der Probleme, die uns immer wieder
begegnen werden, wenn wir heutzutage auf
-
Machine Learning gucken und zwar das
menschliche Wahrnehmung auf einen rein
-
mechanischen Prozess heruntergebrochen
wird. In dem Fall, dass visuelle
-
Intelligenzen reine Mustererkennung ist.
Das heißt aber auch, dass zum Beispiel
-
Erfahrungen von Menschen oder einen
Kontext, in welchen die Bilder gesehen
-
werden, komplett ausgeblendet wird und
dass nur noch über diesen mechanischen
-
Prozess geht. Bei einem Apfelkuchen mag
das okay sein, aber imageNet hat auch
-
Kategorien für Menschen enthalten. Und da
wird es schon wesentlich schwieriger zu
-
sagen, alles ist eins. Trotzdem Sie haben
es gemacht und sie waren damit auch soweit
-
zufrieden und hatten dann diese 14
Millionen Bilder mehr oder weniger sauber
-
klassifiziert rumliegen. Dann kam die
nächste Frage. Und jetzt? Was macht man
-
jetzt mit diesem Datensatz? Was macht man
mit diesen Bildern? Im Rahmen der
-
Forschung gab es von 2010 bis 2017 die
sogenannte ImageNet Large Scale Visual
-
Recognition Challenge. In dieser Challenge
hat sich erstmal relativ lange nichts
-
getan. Es wurde geforscht, bis schließlich
im Jahre 2012 der bereits angesprochene
-
einflussreiche Algorithmus vorgestellt
wurde. AlexNet. AlexNet ist es
-
eine Entwicklung von Alex Krichevsky und
seinem Team an der Universität Toronto
-
gewesen und führte ein neues Konzept ein,
nämlich das der neuronalen Netze, die im
-
Folgenden zu einem der tonangebenden
Paradigmen in Machine Learning wurden,
-
weil es dadurch möglich war, diese
Bildmassen und diese an diese Datenmassen
-
um wesentlich wesentlich schneller zu
bearbeiten bearbeiten, als es vorher
-
möglich war. Auch heute ist das quasi
immer noch der der Mechanismus, der
-
meistens verwendet wird. Okay, das quasi
so als kurzer historischer Hintergrund,
-
worüber wir meistens reden, wenn wir von
Algorithmen reden, nämlich um große
-
Datenmengen, die im Sinne von Machine
Learning oder Deep Learning, wie man es
-
auch nennt, bearbeitet werden. Okay. Wir
haben also unfassbare Mengen an Daten. Wir
-
haben einen fehlenden Konsens, also
niemand der Menschen, die in diesem
-
Datensatz aufgetaucht wurden, wurde vorher
gefragt, ob das vielleicht auch noch okay
-
ist, dass deren Bilder da gespeichert
wurden, sondern die Bilder waren einfach
-
in diesem Datensatz und sind es auch heute
noch größtenteils. Und wir haben ein
-
mechanisches Verständnis menschlicher
Wahrnehmung. Und schließlich haben wir
-
Deep Learning, also als technische Art und
Weise, damit umzugehen, dass alles. Diese
-
vier Punkte werden wir immer wieder und
wieder finden. Damit quasi der ImageNet zu Ende und der
-
nächste Teil zu Arbeit und Algorithmen.
Noch mal ich auch hier einen Schritt
-
zurück und die Frage, worüber rede ich
eigentlich, reden wir in diesem Kontext,
-
wenn wir von Arbeit reden. Wir reden
einerseits von unbezahlter Arbeit. Das
-
Beispiel dafür ist zum Beispiel Google
Recaptcha, wo wir, um Beweise zu beweisen,
-
dass wir Menschen sind, beweisen, dass wir
einen Schornstein erkennen können. Wir
-
haben als zweites unsichtbare Arbeit. Das
bedeutet, wie zum Beispiel die Leute auf
-
Amazons Mechanical Turk Platform, diese
49000, die tauchen nie als Co-Autorin oder
-
so was in den Papieren auf. Aber haben wir
doch einen fundamentalen Anteil der Arbeit
-
geliefert. Schließlich haben wir durch
Algorithmen kontrollierte Arbeit, hier zum
-
Beispiel Amazons Lagerhäuser oder
Lieferdienste wie Lieferando oder
-
Delivery. Über unbezahlte Arbeit möchte
ich jetzt nicht richtig sprechen, sondern
-
eher, sondern ich habe unsichtbare Arbeit
und die modifizierte Arbeit konzentrieren.
-
Fangen wir mit unsichtbarer Arbeit an..
Wie wir gesehen haben, bei imageNet haben
-
wir diese Erzählung von KI tut dieses oder
tut jenes. Wenn die KI erkennt, dass etwas
-
in den Bildern ist oder die KI hat in GO
gewonnen, die KI schreibt mit Gptt drei
-
unfassbar schöne Texte oder dumme Texte
von Teil zu Teil, KI betreibt Protein
-
foldern. Das Problem ist nur, die KI tut
das nicht. Die KI ist für die für die
-
Forscherin, die das eigentlich tun, ein
Werkzeug, das benutzt wird. Und es ist
-
nicht die KI, die plötzlich vom Himmel
kommt und sagt, Ja, herzlichen
-
Glückwunsch, GO, kann ich, sondern eher im
Gegenteil. Wie der Economist gezeigt hat,
-
zeigt es braucht es heutzutage ungefähr 80
prozent der Entwicklungszeit eines Machine
-
Learning Projektes sind menschliche
Arbeit. Nur da hinten beim Modeltraining,
-
dann kommt der Computer tatsächlich ins
Spiel. Aber der allergrößte Teil ist
-
menschliche Arbeit, die aber sowohl in der
öffentlichen Erzählung und in dieser der
-
Wahrnehmung unsichtbar gemacht wird. Und
es braucht halt genau diese menschliche
-
Arbeit, damit ein Algorithmus gut
funktioniert und ein Machine Learning
-
System, braucht es große Mengen an Daten.
Die müssen natürlich sauber sein, weil
-
wenn die Daten, aus denen der Algorithmus
lernt, nicht sauber sind, dann ist das,
-
was hinten rauskommt auch Mist. Und
deswegen muss das bis heute von von
-
Menschen unternommen werden. Wir sind also
wieder da, wo wir bei Mechanical Turk so
-
ein bisschen waren, bei einer Maschine,
die so tut, als wäre sie keine Maschine.
-
Eine andere Metapher vielleicht die, die
man benutzen kann, sind potemkinsche
-
Dörfer, wo vorne alles schön fein gemacht
wird. Und die Fassaden sehen aus, als
-
hätte man die schönsten, schönsten Häuser
der Welt. Aber hinten, wo es niemand
-
sieht, verfällt es einfach. Kate Crawford
nennt es, nennt diese Form der KI in
-
Anlehnung dessen auch potemkinsche KI,
also wenig mehr als Fassaden, die so
-
demonstrieren, wie ein autonomes System
aussehen würde, wenn es autonom wäre. Wir
-
es hier zu tun mit einem schönen Schein
des Automatismus. Diese Arbeit kann aber
-
auch anders aussehen. Das ist ein Foto von
der New York Daily News und diese
-
Schlange, die ich wir sehen, sind
Obdachlose, meistens schwarze Obdachlose,
-
die von einer Subfirma oder von einer
Firma oder die von Google da beauftragt
-
wurden. Eine Firma hat Google beauftragt
Daten zu sammeln, und zwar bestimmte
-
Daten, Daten der Gesichter von schwarzen
Menschen. Diese Leute haben dafür ein
-
Geschenkgutschein im Wert von 5 Dollar
gekriegt, dafür, dass ihr 3D-Modell auf
-
die Server von Google hochgeladen wurde.
Ziemlich niedriger Preis. Warum macht
-
Google das? Weil Google immer wieder in
Kritik kommt, dass ihre eigenen
-
Algorithmen schwarze Menschen nicht
erkennen oder wenn sie Schwarze
-
Menschen erkennen, so wie hier am Beispiel
von Algorithmen Watch aus 2020, ein
-
Thermometer in der Hand eines schwarzen
Menschen plötzlich für eine Waffe halten.
-
Wenn man aber mit mittleren Photoshop
Skills die Hand weiß macht, ist es
-
plötzlich keine Waffe mehr. Sowohl bei dem
Beispiel als auch Atlanta als auch bei dem
-
Beispiel mit der mit dem Thermometer, tat
es Google danach tierisch leid. Tut es
-
immer tierisch leid, wenn Google erwischt
wird, wenn es Google scheiße baut. Es ist
-
aber diese Geistesarbeit finden wir nicht
nur im Training von Machine Learning
-
Algorithmen, wir haben es bei der
Verifizierung von Bankaccount, wenn man
-
seine Daten hochlädt und dann plötzlich
kommt wie von Geisterhand eine
-
Verifizierung oder nicht zurück. Wir haben
es bei der Moderation von Inhalten, bei
-
Facebook, Twitter oder anderen sozialen
Netzwerken. Das alles führt dazu, dass
-
diese Erzählung davon, dass uns die
Roboter die Arbeit wegnehmen, vielleicht
-
nicht stimmt. Vielleicht sollten wir uns
nicht davor fürchten, dass uns die
-
Technologie ersetzt, sondern eher, dass
Menschen entwertet werden, dass Menschen
-
Arbeit machen müssen, die immer weniger
wert wird und immer weniger wertgeschätzt
-
wird. Ich würde deswegen sagen, dass wir
es hier mit einer Form von
-
Frühkapitalismus im digitalen Gewand zu
tun haben. Anderes Beispiel: Am 25. März
-
1911 brannte in New York die Triangel
Shirtbased Factory. Bei dem Feuer starben
-
146 Menschen. Teilweise verbrannten,
teilweise, weil sie aus dem Fenster
-
springen mussten, weil die
Fabrikeigentümer beschlossen hatten, dass
-
während der Arbeitszeit die Ausgänge der
Fabrik abgeschlossen zu sein haben. Das
-
Gebäude wurde so zur Todesfalle. Am 10.
12. 2021 traf ein Hurrikan ein Amazon
-
Lagerhaus und sechs Menschen starben
während Jeff Bezos damit zu zufrieden war,
-
dass er bald in den Weltraum fliegen kann.
More perfekt Union ist eine Organisation
-
aus den USA, veröffentlichte diesen
Screenshot einer der Angestellten vor Ort.
-
Er schrieb: "I will be at home after the
Storm" und seine Freundin schrieb "what do
-
you mean?". Und er schrieb zurück "Amazon
won't let us leaf". Das ist das letzte,
-
was er seinen Geliebten geschrieben hat.
Kurz danach traf der Hurrikan das
-
Lagerhaus und er starb zusammen mit fünf
anderen. Das ist kein Einzelfall, wenn man
-
sich die Anzahl schwerer Verletzung in der
Lagerindustrie in den USA anguckt, hat
-
Revier herausgefunden, dass die Anzahl bei
Amazon ungefähr doppelt so hoch ist wie im
-
Industriedurchschnitt. Wir haben es hier
mit einem Phänomen namens kybernetische
-
Verdichtung zu tun. Das haben. *trinkt
einen schluck Wasser". Das heißt, dass die
-
Arbeitskraft und die Arbeitszeit immer
weiter verdichtet wird, dass immer weniger
-
Zeit bleibt, die gleichen Sachen zu machen
und dass man zum Beispiel das Sortieren
-
von Paketen in Amazon Lagerhäusern immer
schneller und schneller machen muss. Das
-
führt dazu, dass mittlerweile ein
Unterschied von einer Sekunde oder zwei
-
Sekunden in der durchschnittlichen Zeit
dieser Aufgaben zu machen, der Unterschied
-
sind, ob man gelobt wird oder ob man
gewarnt wird, dass man zu schlecht
-
arbeitet. Und das führt natürlich dazu,
dass man anfängt, unsicher zu arbeiten,
-
dass man nicht auf sich achten kann, weil
die Zeit nicht mehr dafür da ist. You have
-
to do unsafe things to make you numbers.
Man kann nicht mehr auf sich achten. Und
-
diese Verdichtung nimmt immer, nimmt immer
weiter zu, diese Algorithmifizierung.
-
Dabei ist das an sich erst mal kein neues
Phänomen. Die Versuche, Arbeitskraft zu
-
automatisieren oder durch Automatisierung
zu optimieren, sind so alt wie der
-
Kapitalismus selber. In 1844 hat Friedrich
Engels Andrew Ure zitiert, der schrieb:
-
"In wenigen Monaten schon war eine
Maschine fertig, die dem Anschein nach mit
-
dem Denkvermögen Gefühl und Takt des
erfahrenen Arbeiter begabt war." Von Das
-
Zitat könnte eigentlich auch heute in der
in der verklärten Sicht auf auf
-
Automatisierung und Roboter kommen. Aber
kommt aus dem 19. Jahrhundert, aus der
-
Zeit des Frühkapitalismus. Was aber auch
aus der Zeit des Frühkapitalismus und der
-
Zeit danach kommt, ist, dass die
ArbeiterInnenbewegung sich Sozialstandards
-
erkämpft hat. Feste Arbeitsverhältnisse,
ein Recht auf Urlaub, Beschränkung der
-
Arbeitszeiten, ein Recht auf
gewerkschaftliche Organisierung und so
-
weiter und so fort. Also alles das, was
wir zum Beispiel bei Amazon oder auch in
-
anderen Firmen im Amazon. Nur als
prominentes Beispiel ist es nicht so, dass
-
Amazon der einzig Schuldige wäre. Sehen,
was wieder angegriffen wird, was Union
-
basstian betrieben wird
und so weiter und so fort. Das wurde alles
-
schon mal erkämpft und muss jetzt wieder
erkämpft werden bzw. muss immer wieder
-
erkämpft werden. So haben wir das
Phänomen, dass das, was heutzutage als
-
radikal neue Form der Arbeit daherkommt,
im Licht der historischen Entwicklung
-
oftmals nicht mehr, da fehlt ein nicht,
nicht mehr ist als eine Wiederkehr
-
früherer Arbeitsverhältnisse. Es ist gar
nicht so neu, was wir sehen, es ist nur.
-
Es hat sich nur in eine moderne Form
geändert. Man könnte sagen und ewig grüßt
-
das Kapitalverhältnistier. Und deswegen
erlaube man mir die Pathetik Friedrich
-
Engels selber zu zitieren, der schrieb die
Lage der arbeitenden Klasse in England.
-
"Die Arbeiter müssen sich also beschrieben
bestreben, aus dieser vertiefenden Lage
-
herauszukommen, und dies können sie nicht
tun, ohne dass gegen das Interesse der
-
Bourgeoisie als solcher anzukämpfen." Das
ist ein anderer Punkt in dieser Arbeit ist
-
die sogenannte algorithmische und
Undurchsichtigkeit. Algorithmische
-
Undurchsichtigkeit bedeutet entweder, dass
ein Algorithmus so kompliziert geworden
-
ist, dass man ihn technisch nicht mehr
verstehen kann, was vorkommt, oder aber,
-
dass man nicht mehr den Einblick in den
Algorithmus hat, dass man also die Frage,
-
welchen Einfluss haben Algorithmen auf
meine Arbeit? Nicht beantworten kann. Das
-
ist im Lagerhaus vielleicht noch relativ
offensichtlich. Wenn die Picking Raid
-
immer schneller, schneller wird, dann kann
man das auf den Algorithmus hin
-
hinausführen. Aber wenn ich zum Beispiel
bei Deliveroo arbeite oder bei Lieferant
-
oder Foodora oder wie die ganzen Buden
heißen, da ist das nicht unbedingt so
-
offensichtlich, weil die Algorithmen
natürlich geheim sind und sich von Firma
-
zu Firma unterscheiden. Deliveroo wurde in
Italien verklagt, weil der Algorithmus
-
diskriminiert hat. Wenn man zum Beispiel
krank gewesen ist oder sich an
-
Arbeitsorganisation beteiligt hat, dann
hat der Algorithmus einen so bestraft, wie
-
als wenn man einfach nicht gearbeitet
hätte. Das führt natürlich dazu, dass
-
Gerüchte entstehen und dass diese
Unklarheit zu Wissenshierarchien führt,
-
dass man nicht mehr verstehen kann, was
eigentlich passiert. Wir haben es mit
-
einem Phänomen zu tun, wo die Daten, die
angesammelt werden, nur noch in eine
-
Richtung fließen. Sie werden von den von
den Arbeiterinnen extrahiert und fließen
-
in den Wissensschatz der der Plattform, wo
sie angehäuft werden, ausgewertet werden
-
und so weiter. Das führt zu der Frage, wie
soll man denn eigentlich verstehen, was
-
nicht fassbar ist. Wenn ich nicht weiß,
was der Prozess ist, wie soll ich ihn
-
verstehen und wie sollen wir ihn überhaupt
fassen, was sich, was ich verändert?
-
Natürlich werden diese Algorithmen
weiterentwickelt und weiterentwickelt.
-
Wenn ein Manager von der Lieferkette sagt
unsere Algorithmen sind unfassbar dumm,
-
was tatsächlich passiert ist. Sie können
gar nicht so diskriminierend sein, wie ihr
-
euch das vorstellt, dann ist das ja keine
Garantie. Erstens, dass er nicht lügt, was
-
man im Manager vielleicht zutrauen sollte
und zweitens auch nicht, dass der
-
Algorithmus das vielleicht in zwei Monaten
vielleicht nicht mehr so dumm ist. Und
-
diese Hierarchien können nur aufgelöst
werden, wenn die Algorithmen offengelegt
-
werden, wenn es eine Möglichkeit gibt, zu
verstehen, was eigentlich gerade passiert.
-
Wir haben es hier also mit einer
Verdichtung der Arbeit zu tun, die auch
-
eine Verdichtung der Zeit ist. Unternehmen
versuchen alle Sekunden, die hinter den
-
Fabriktor stecken oder im Fall von Geeck
Work vielleicht auch in den Straßen, in
-
Arbeitszeit und in kontrollierte Zeit zu
verändern. Vielleicht hilft dagegen
-
Faulenzen, um die Überwachung zu
verändern. Vielleicht aber auch nicht. Die
-
Verlangsamung des Arbeit ist der Arbeit
ist ein Mittel des Arbeitskampfes. Der
-
sogenannte Bummelstreik ist gut erprobt.
Vielleicht kann man den noch gegen
-
Algorithmen einsetzen. Das wäre eine
These, die es auszuprobieren gilt. Und
-
dieses Bewusstsein von der Zeit ist nicht
unbedingt neu. Walter Benjamin schreibt in
-
seinen Geschichtsphilosophischen Thesen
über die Uni Revolution 1830. Das ist in
-
ganz Paris, also die Uni Revolution 1830, in
Paris, das in ganz Paris unabhängig
-
voneinander auf die Turnuhren geschossen
wurde, weil die Protestierenden verstanden
-
haben, dass diese Turnuhren als Symbol der
Zeit und als Symbol des Drucks durch die
-
Zeit stehen. Dieser Widerstand oder jeder
Widerstand an sich braucht Organisierung,
-
wir können nicht einfach, es gibt keine
Möglichkeit da als Einzelperson was gegen
-
zu machen, sondern man muss sich, man muss
sich mit seinen Arbeiterinnen und
-
Kolleginnen zusammen organisieren. Und
natürlich tun die Firmen alles, dass das
-
zu verhindern. Aber sie müssen dabei nicht
erfolgreich sein. Das zeigt allein schon
-
die Geschichte. Okay, das wäre der Teil
zur Arbeit. Gucken wir jetzt uns mal an,
-
was der Staat mit der ganzen Geschichte zu
tun hat. Ich rede hier ein bisschen über
-
über Daten und öffentliche Daten, dann
über ökonomische Abhängigkeiten in der
-
Forschung, über Polizei und Militär. Ein
kleines bisschen über Privatsphäre. Und
-
dann zum Schluss. Das ist ein schönes
Paket. Also öffentliche Daten und privates
-
Geld. Ich würde sagen, dass wir es hier
mit einer neuen Form der ursprünglichen
-
Akkumulation zu tun haben. Also private
Unternehmen versuchen möglichst viel
-
verwertbare Stoffe in ihre eigenen
Privatbesitz zu gelangen, um daraus Profit
-
zu schlagen. Der Rohstoff in diesem Fall
sind unsere Geschichten, unser Leben. Die
-
Märkte sind, wie wir sehen werden,
Kontrolle oder wie wir auch im
-
Arbeitskapitel schon gesehen haben und
Hokuspokus, wo gesagt wird, künstliche
-
Intelligenz wäre in der Lage, dies und
jenes zu tun, auch wenn es das auf keinen
-
Fall ist. Aber wir brauchen eure Daten.
Und ich würde deswegen sagen, dass die
-
Innovationen, die uns da verkauft werden,
keine ist, sondern einfach alt und
-
gebrechlich und stinkt. Was wir aber
trotzdem immer mehr sehen, ist eine
-
Konzentration unserer Daten in den
Rechenzentrum einiger weniger privater
-
Unternehmen. Und je mehr konzentriert
wird, umso mehr sind wir als Gesellschaft
-
darauf angewiesen, dass diese privaten
Unternehmen gut zu uns sind. Als Beispiel
-
zum Beispiel der Übersetzungsassistent von
Google, Google Translate, der zwar für
-
alle frei nutzbar ist, wir bezahlen nicht
dafür. Und trotzdem sammelt Google all
-
unsere Daten. Und je mehr wir diese
Nutzung in öffentliche Prozesse einbauen
-
oder auch in unser Leben einbauen, umso
mehr werden wir von Google abhängig und
-
umso mehr werden dafür werden wir davon
abhängig, dass Google nicht vielleicht
-
irgendwann sagt: Na gut, kein Bock mehr
auf umsonst, ab jetzt wird bezahlt. Diese
-
Abhängigkeit führt zu einer Frage, die wir
so in der Bankenkrise vielleicht schon
-
gesehen haben, als Finanzinstitute als too
big to fail bezeichnet wurden und immense
-
Summen Geld dafür ausgegeben werden werden
musste, diese diese Institute zu retten.
-
Die Tech-Unternehmen befinden sich immer
mehr auf dem Weg, so integrale
-
Bestandteile unserer Gesellschaften zu
werden, dass auch sie diesen too big to
-
fail Moment vermutlich erreichen, wenn
nicht schon erreicht haben. Aber es ist
-
nicht nur die Öffentlichkeit, die davon
abhängig ist, ist es auch zunehmend die
-
Forschung, die über künstliche Intelligenz
oder über tech generell, die mehr und mehr
-
davon abhängig ist, dass sie sich mit den
mit den Unternehmen gut stellt. Es sind
-
ein paar wenige Unternehmen, die nicht nur
die Entwicklungsumgebung stellen, die
-
Sprachen und aber auch die Software. Das
heißt, die um sie schaffen quasi die das
-
Wasser, wie Meredith Whitaker sagte, in
dem die Forschung zu künstlicher
-
Intelligenz schwimmt. Ein Beispiel hierfür
ist Timnit Gebru vermutlich das
-
prominenteste der letzten Monate und im
Februar ist eine der führenden
-
Forscherinnen im Bereich der der ethischen
KI und war lange Zeit Qlead bei Google. Im
-
Dezember letzten Jahres wurde sie
plötzlich gefeuert, angeblich weil sie
-
eine Mail an eine Mailingliste geschickt
hatte, die einem Manager nicht würdig war.
-
Die wahrscheinlichere These ist, dreht
sich um ein Paar. Ein Paper, in dem es um
-
sogenannte stochastische Papageien ging,
um stockastic parrats und um die Gefahren,
-
die Large Language Models, sehr große
Sprach Modelle, wie zum Beispiel das
-
bereits erwähnte Gpd3 führen würden, Gibru
und ihre Koathorinen haben in dem Paper
-
argumentiert, dass diese Language Modells
eine große Reichweite, große Vielfalt
-
an Kosten, aber auch Gefahren bilden, also
zum Beispiel Kosten werden Umweltkosten.
-
Es braucht sehr viel Rechenkapazitäten mit
diesen Models zu arbeiten. Harms Während
-
z.B. Rachel Harms diese sprach,
dass die Modelle es schaffen, künftig sehr
-
eloquent über Rassismus zu reden, gebe die
drei z.B. auch kurz nach seinem
-
Release schon angefangen, antisemitischen
und rassistischen Müll zu erzählen, auch
-
wenn das überhaupt gar nichts mit der
Fragestellung zu tun hat. Und wieder tat
-
es Google leid. Es tat Google sogar so
leid, dass sie im Februar 2021 MMitchel
-
gefeiert haben, Lied eines anderen iTeams
bei Alphabet Googles Mutterfirma. Und
-
Google sendet damit eine ganz eindeutige
Nachricht. Wenn wir die führenden Köpfe
-
dem Bereich ethical eye feuern können und
es uns zwar leid tut, aber wir es trotzdem
-
machen, dann seid ihr besser ganz ruhig
und benehmt euch oder ihr seid einfach
-
raus. Um diese Form der Abhängigkeit ist
ein bisschen simultan zu dem, was wir im
-
Kalten Krieg gesehen haben, als das US-
Militär immer mehr Geld in die Forschung
-
gesteckt hat. Technologie und Militär oder
wie ich sagen würde ziemlich beste
-
Freundinnen. Sie können bis zum Anfang des
Internet, als es noch ARPANET zurückdenkt,
-
hieß, zurückdenken und sehen, dass das
ARPANET eine Erfindung des Militärs war,
-
seine Ausgründung des Arpa, Advanced
Research Proposal und a und dass
-
Départements of Defence. Und von da an
gingen die Investitionen in Forschung und
-
Technologie immer weiter und weiter und
weiter Geschäfte mit dem Militär
-
heutzutage sind Teil des Kerngeschäfts von
Google, Facebook, Amazon und so weiter und
-
so fort. In Amerika ist eines der größten
Projekte, Project Maven. Als offizielles
-
erstes Logo hatten sie diese Roboter auf
Ecstasy, die dem eigentlichen Inhalt des
-
Ganzen, nämlich algorithmisch warfare
Cross Functional Team, nun wirklich nicht
-
gerecht werden. Am Projekt Melvin war ein
Projekt von beinahe allen US
-
amerikanischen Verteidigungsinstitution,
künstlich intelligente Spionage gang und
-
gäbe zu machen und nichts mehr auf der
Welt zu verpassen. In diesem Projekt
-
wurden auch technologische
Errungenschaften von YouTube verwendet, wo
-
eigentlich im Zivilen entwickelte
Techniken dem Militär nutzbar gemacht
-
wurden. Ein Beispiel wäre YouTubes
Empfehlungslgorithmus, der auch sogenannte
-
Cluster Analysis beruht und diese Cluster
Analysis, kann man einerseits benutzen, um
-
die Videos anzuzeigen, die dich
wahrscheinlich interessieren. Man kann sie
-
aber auch benutzen, um vermutete
Straftäterinnen zum Beispiel im Irak oder
-
so zu entdecken. Für Google ging das nicht
so gut aus. Bis zu 3000 MitarbeiterInnen haben
-
sich, haben protestiert und Google hat
sich aus Project Maven zurückgezogen und
-
hat gesagt, wir machen keine autonomen
Waffen mehr. Es tat Google natürlich leid.
-
Google hat aber auch gleichzeitig gesagt,
das Geschäft mit den Militärs und so
-
wichtig. Wir machen keine Waffen, aber
alles andere machen wir schon. Ein
-
jüngeres Beispiel aus Europa ist die 100
Millionen Dollar Investition von Daniel
-
Eck, dem CEO von Spotify, der mit seinem
Hedgefonds bei Helsingör eingestiegen ist,
-
einer deutschen Firma, die sagt, mit
ethischen, autonomen Waffensystemen die
-
freiheitlich demokratische Grundordnung
verteidigen zu wollen. Wo Amerika Roboter
-
auf Ecstasy hat, hat Deutschland das
Projekt das Kommando Cyber und
-
Informationsraum. Das ist ein Symbolbild
aus der Weihnachtszeit, das sich darum
-
kümmert, die Truppe zu digitalisieren und
voranzubringen. Momentan ist man in der
-
Phase des 2.0, was nur 20 Jahre nach dem
Web 2.0 für deutsche Verhältnisse ein
-
ziemlich ordentliches Tempo ist. Aber die
Sache ist ernster als blöde Witze. Mit der
-
neuen Koalition steht die Anschaffung
bewaffneter Drohnen im Koalitionsvertrag.
-
Man sagt zwar, man will sie nur bewaffnen,
man will sie nicht autonom machen. Aber
-
diese Autonomisierung ist im Endeffekt nur
noch ein Software-Update entfernt. Und
-
dann sollen sie natürlich nur ethisch
töten, weil na klar, wir sind hier in
-
Deutschland. Das Problem ist aber alleine
schon der Einsatz von normalen, von
-
normalen Drohnen mit Waffensystemen fügte,
führt dazu, dass die Schwelle zum Einsatz
-
militärischer Gewalt sinkt und Krieg
entgrenzt wird. Inwieweit entgrenzt wird
-
und wie wenig wie schlimm das für die
Zivilbevölkerung ausgehen kann, hat die
-
New York Times jüngst in einer sehr
ausführlichen Reportage belegt, in denen
-
sie Pentagon Papiere analysiert haben und
so zum Beispiel zivile Opfer der
-
Luftangriffe der USA veröffentlicht haben.
Aber auch hier haben wir es wieder mit
-
Problemen von Algorithmen oder Dummheit zu
tun. Das Pentagon hat jüngst über einen
-
Algorithmus berichtet, der zu 25 prozent
die richtigen Ziele ausgewählt hat. Von
-
sich selber aber dachte, es wären 90
prozent, der also ziemlich schlecht war,
-
aber gleichzeitig gedacht hatte Ich bin
richtig gut. Und das ist natürlich ein
-
Problem. Es ist auch ein Problem, weil die
Algorithmen mit der Zeit besser werden und
-
wir dann diese die vielleicht erste
offensichtliche Linse Ja, okay. Die
-
Algorithmen sind so schlecht und das ist
das Problem. Nein, das Problem ist
-
eigentlich staatliches Töten und wir
müssen uns bewusst sein, dass wir dahin
-
müssen, das zu formulieren. Sondern es
sagte Herrschaft durch Gewalt ist sowohl
-
in autonome Waffentechnologie als auch in
den Rahmen des Denkens und der Politik
-
eingemeißelt, welcher zu ihrer Entwicklung
und ihrem potenziellen Einsatz führt. Es
-
geht darum, diese Herrschaft durch Gewalt
zu kritisieren und nicht nur das Mittel,
-
mit dem sie durchgesetzt wird. Was im
Krieg nach außen durch autonome
-
Waffensysteme funktioniert, funktioniert
im Inneren zum Beispiel durch Gewalt,
-
durch Überwachungskameras, die
biometrische Daten sammeln. Die deutsche
-
Polizei macht da fleißig mit. Es gibt eine
gute Chance, dass wenn du Anfang Juli 2017
-
in Hamburg fast dein Gesicht für lange
Zeit in einer Datenbank der Polizei in
-
Hamburg gespeichert war Anfang Juli 2017
war die G20 Proteste und den nächsten Teil
-
wollte ich eigentlich überspringen. Und im
Rahmen dieser Strafprozesse im Rahmen
-
dieser Proteste kam es natürlich zu
Angriffen auf Polizeikräfte. Es kam aber
-
auch durch Angriffe durch, auf
Demonstrierende, durch die Polizei. Hier
-
zum Beispiel keine Polizeigewalt durch die
Polizei Hashtag Polizeiproblem. Diese
-
Software, die benutzt wurde, ist wie Demo
360 und man hat darin mehrere Terabyte
-
Daten hochgeladen, Videoaufnahmen,
Fotoaufnahmen, um potenzielle GewalttäterIn
-
zu identifizieren. Der Einsatz wurde
danach vom Verwaltungsgericht Hamburg für
-
rechtmäßig erklärt und eine Beschwerde des
Datenschutzbeauftragten Hamburgs
-
zurückgesetzt. Im neuen Polizeigesetz
wurden die Befugnisse des
-
Datenschutzbeauftragten weiter
zusammengeschnitten, sodass er einfach
-
keine Beschwerde mehr hatte, sondern
eigentlich nur noch zu einer doofen
-
Marionette wurde. Die Polizei hat diese
Datenbank mit den und mit den Daten zwar
-
2020 gelöscht, aber nicht, weil es ein
Fehler war, sondern weil es keine
-
strafrechtlich Erforderlichkeit mehr gab.
Das Gerichtsurteil ist bestehen geblieben
-
und der Präzedenzfall wurde gesetzt. Die
Polizei hat schon gesagt, dass sie
-
Interesse hat, mit solchen großen
Datenbanken weiterzuarbeiten. Bei neuen
-
Protesten deutschlandweit wird im Rahmen
des Programms Polizei 2020 an
-
bundeseinheitlichen Plattformen
gearbeitet, die versuchen, die momentane,
-
das momentane Chaos, das föderale
Überwachungs zu vereinheitlichen und die
-
Daten besser zugänglich zu machen. Die
Geschichte zeigt aber immer wieder, dass
-
Gesichtserkennung kein Tool ist, was
einfach funktioniert. Zum Beispiel in der
-
Gender Shell-Studie von 2008 wurde
gezeigt, dass eigentlich alle
-
Gesichtserkennung, Algorithmen, große
Unternehmen, schwarze Frauen wesentlich
-
schlechter erkennen als weiße Personen
oder auch männliche Person. Diese Bias
-
findet sich auch in Amazons Recognition
Tool wieder, das auf mehr Mitglieder des
-
US amerikanischen Kongresses losgelassen
wurde und einige von denen zu
-
Straftäterinnen machte. Natürlich, oder
das heißt natürlich aber kann es
-
überraschenderweise vor allen Dingen
People of Color. Aber auch hier gibt es
-
wieder ein grundlegendes Problem, nämlich
dass das Gesichtserkennung im öffentlichen
-
Raum eigentlich überhaupt nichts zu tun
hat, zu suchen hat und dass
-
Gesichtserkennung auch in den Tools der
Polizei nichts zu suchen hat. Die Polizei
-
ist ein schwer überwacher Organ und es ist
eigentlich unmöglich, demokratische
-
Kontrolle auszuüben, ihm dafür zu sorgen,
dass die Polizei keinen Unsinn macht. Wenn
-
man sich Prozesse wie NSU 2.0 oder
rechtsextreme TerrorChatgruppen anguckt,
-
sollte man vielleicht eher davon ausgehen,
dass das passieren wird. Wir sind hier in
-
einer Situation, wo die deutsche Polizei
machen will, was Facebook nicht mehr machen
-
möchte, nämlich flächendeckende
Gesichtserkennung. Und wenn man hinter
-
Facebook hinterherhinkt im Jahr 2021, dann
sollte man sich vielleicht Gedanken
-
machen. Falls ihr an dem Widerstand
dagegen interessiert seid. Es gibt eine
-
Kampagne namens Reclaim your face, die
sich gegen Gesichtserkennung und die
-
Sammlung von biometrischen Daten in Europa
einsetzt. Dafür gibt es auf diesem
-
Raumschiff morgen auch einen Vortrag, wo
der momentane Stand vorgestellt wird. Der
-
letzte, der letzte Teil des Policing, den
ich kurz ansprechen möchte und auch Teil
-
des neuen Polizeigesetzes in Hamburg, ist
Predictive Policing, Predictive Policing
-
oder kurz Voraus in die Vergangenheit. Es
wird gesagt, ein Algorithmus stellt fest,
-
wo morgen oder vielleicht später des Tages
Kriminalität stattfinden wird. Und
-
natürlich wird gesagt, das ist neutral.
Was soll schon passieren? Wieder Markup
-
aber jüngst festgestellt hat, führt es
eigentlich nur dazu, dass das die Orte, in
-
denen momentan Polizeieinsätze
stattfinden, auch morgen wieder Ziel von
-
Polizeieinsätzen werden. Niemand kann
beantworten, warum oder wie das in
-
Deutschland nicht passieren sollte. Ganz
im Gegenteil eigentlich sogar ein Panel
-
der UN warnt davor, dass der
unregulierte Einsatz von künstlicher
-
Intelligenz in vielen Regierungen
rassistische Vorurteile verstärken kann.
-
Wir haben es hier also zu tun mit einer
Infrastruktur des ständigen staatlichen
-
Zugriffs auf unsere Daten, auf unsere
Gesichter, auf unser Leben oder... Und es
-
geht nicht nur, es geht nicht mehr nur um
die Polizei oder nur um das Militär,
-
sondern es geht um eine ganzheitliche
Verbindung von Geheimdiensten, Polizei und
-
Militär, die alle das Gleiche wollen und
deren Daten zunehmend interoperabel
-
werden. Firmen wie Palantir z.B.
versinnbildlichen diese Gemengelage. Die
-
arbeiten zusammen mit der NSA, aber auch
mit der ISI , also mit der Behörde in den
-
USA, aber auch mit der hessischen Polizei
oder mit Europol. Also auch die
-
herkömmliche nationale Grenzen
verschwimmen, dazu einem gewissen Teil.
-
Außen und Innen, Polizei sein
Militärgeheimdienst verschmelzen und es
-
entsteht eigentlich eine große, umfassende
oder der Versuch einer großen, umfassenden
-
Überwachungsinfrastruktur. Das Schöne ist,
dass auch eine Firma wie Palantir Angst
-
hat vor einem Bewusstsein über
Privatsphäre und auch über ein Bewusstsein
-
dafür, dass die Algorithmen dieser Firmen
Scheiße bauen. Das heißt, wenn wir, wenn
-
wir daran arbeiten, dass nicht zur
Normalität werden zu lassen, dann haben
-
wir eine reelle Chance, das auch zu
verhindern. Und noch kurz ein paar
-
Anmerkungen zu Daten und Privatsphäre. Es
geht hier vor allem um Zusammenhang von
-
Privatsphäre und nicht um die
Datensammelwut von Facebook. Dafür gab es
-
jetzt hier gerade vorher zum Beispiel
einen Vortrag über die Facebook Papers und
-
noch ein, zwei andere Punkte im Fahrplan.
Wir haben bis jetzt über über staatliche
-
Überwachung gesprochen und wie sie immer
allgemeiner wird. Das führt dazu. Dass
-
einerseits alle betroffen sind, aber dass
andererseits Leute, die dem Staat mehr und
-
mehr ausgeliefert sind oder wehrloser
gegenüber sind, dass die Intensität der
-
Eingriffe diesem gegenüber zunimmt. Als
Beispiel werden zum Beispiel Hartz-IV-
-
Bezieher, in die quasi ein Offenbarungseid
gegenüber den Staat abliefern müssen,
-
Geflüchtete bei der Einreise oder auch
migrantische Communitys, die traditionell
-
immer wieder das gesteigerte Ziel von
polizeilicher Arbeit sind. Wir haben hier
-
also die Situation, dass Überwachung und
die die Aufhebung der Privatsphäre ein
-
Problem der betroffenen Individuen ist,
erst mal auf den ersten Blick. Aber das
-
sollte uns nicht dazu verleiten zu denken,
das ist ein individuelles Problem ist,
-
sondern es ist ein gesellschaftliches
Problem. Wir kommen nicht gegen diese
-
Dynamik an, mit dem, ich habe nichts zu
verbergen---narrativ, weil wir wissen
-
nicht, was morgen morgen trifft. Das
heißt, wir müssen diese Datafixierung
-
nicht auf einem individuellen Level
diskutieren, sondern auf einem
-
kollektiven. Auf welche Arten und Weisen
wollen wir, dass eine Gesellschaft
-
datafiziert ist? Was kann uns als
Gesellschaft einen einen Nutzen bringen
-
und was nicht? Schlussendlich muss es
alles, was es für alle möglich sein, ohne
-
Angst vor dem digitalen Panoptikum durch
die Straßen zu laufen. Privatsphäre und
-
Daten sind aber nicht nur ein Problem, das
sei noch kurz angemerkt Ich habe ja am
-
Anfang bei ImageNet erwähnt, dass niemand
gefragt wurde, ob man in diesem Datensatz
-
sein möchte oder nicht. Die Forscherin
Sascha Luchoni hat jüngst auf Twitter
-
gefragt, was denn ein gutes Example von
einem KI-Datensatz wäre, wo wirklich nach
-
Einverständnis gefragt wurde. Das it even
exists? Es stellt sich heraus in allen
-
Responses zu diesem Tweet. Es gibt genau
eins: Facebooks Casual Convent
-
Conversations Dataset scheint das einzige
große Daten, der einzige größere Datensatz
-
zu sein, in dem die Beteiligten
tatsächlich zugestimmt haben, dass ihre
-
Daten für Zwecke des maschinellen Lernens
verwendet werden. Okay, was tun jetzt oder
-
I want you tech for good? Wir haben
gesehen, dass wir einen gespenstischen
-
Wind haben, einen gespenstischen digitalen
Wind, der durch unser Haus, durch unsere
-
Gesellschaft bläst. Wir haben gesehen, wie
KI das menschliche Zusammenleben
-
kodifiziert und als Mittel staatlicher
Überwachung und kapitalistischer Kontrolle
-
dienen kann. Das heißt aber auch, dass
unsere Rassismen, unsere Sexismen und so
-
weiter in diese KI eingeschrieben wird und
dass gleichzeitig die Technologie sich
-
immer schneller und schneller entwickelt,
wir aber als Gesellschaft gar kein
-
ethisches Verständnis mehr davon schaffen,
dass hinterherkommt in dem Tempo der KI
-
und das auch dazu führt. Und dass es geht
mir jetzt nicht hier darum, KI an sich zu
-
verurteilen, sondern es gibt dafür schöne
Beispiele. Man kann KI benutzen, um es
-
gegen die Überwacher zu drehen und an zum
Beispiel für Gesichtserkennung Programme
-
auf die Polizei anzuwenden und so
Polizisten zu identifizieren, die gegen
-
Protestierende eingesetzt werden. Man kann
KI zu Hause rumliegen haben und deutsche
-
Behörden Maschinen lesbar machen und so
besser verstehbar machen. Aber bei allem,
-
dem dürfen wir nicht vergessen, dass
solange wir, solange wir die Herrschaft
-
der Menschen über die Menschen nicht in
den Fokus der Kritik richten, sondern uns
-
immer wieder nur an den Symptomen
abarbeiten, dass wir immer wieder an den
-
gleichen Punkt kommen werden, vielleicht
mit einer anderen Technologie, aber an den
-
gleichen Punkt. Wie Timnit Gebru sagte
daß, es geht darum, dass die wenigen
-
Systeme der Unterdrückung schaffen und die
"others constantly work to prevent harm
-
unable to find the time space or resources
to implement their own vision of future".
-
Und ich glaube tatsächlich, das ist das,
wo es im Endeffekt darum gehen würde, dass
-
wir es schaffen, die Zeit und den Willen
auch zu finden, unsere eigene Vision von
-
der Zukunft zu implementieren. Und dann
schlussendlich erst wenn wir als Menschen
-
gut zueinander sind, können die Maschinen
lernen, auch gut zu uns sein zu sein. Um
-
noch mal die Slides wie Sources und alle
meine Quellen findet ihr auf
-
r.ovl.design/rc3-ki, oder über diesen QR-
Code. Oder wie gesagt bei Twitter. Damit
-
komme ich zum Ende und möchte mich ganz
herzlich bedanken bei euch, die ihr
-
zugeguckt haben, bei der C-Base für die
Einladung hier sprechen zu dürfen und
-
natürlich bei allen Forscherinnen,
Aktivistinnen, Journalistinnen und so
-
weiter, auf deren Arbeit ich mich implizit
oder explizit bezogen habe. Vielen Dank!
-
Applaus
-
Herald: Das war großartig, Oskar, vielen
Dank! 45 Minuten, fast fast ohne Pause, da
-
gab es ja wirklich ein ordentliches
Update. Wir haben neue Wörter gelernt:
-
kybernetische Verdichtung, kybernetische
Verdichtung, digitaler Frühkapitalismus.
-
Demnach müssten wir Hacker jetzt helfen,
dass die modernen digitalen Arbeiter
-
wieder sich selbst ermächtigen und es
wieder zu einer Aufklärung kommt.
-
Wahrscheinlich.
Oskar: Zum Beispiel.
-
Herald: Algorithmische Undurchsichtigkeit.
Da müssten die Hacker dafür sorgen, dass
-
die Algorithmen irgendwie durchsichtiger
werden. Das Peinliche ist ja auch, dass
-
man dann sehen könnte, wie nackt der
Kaiser möglicherweise ist.
-
Oskar lacht
Herald: Und wir müssen den Wissensschatz
-
der Arbeiter, die davon überwacht und
gesteuert werden, irgendwie zu mehren
-
suchen. Und interessant fand ich auch
künstliche Ideologie. Das ist also so ein
-
bisschen, sonst spin gibt dahingehend zu
sagen, dass es künstlich, also ist es
-
intelligent, auch wenn es vielleicht gar
nicht so intelligent ist. Aber künstliche
-
Intelligenz ist ja schon mal ein Wert an
sich. Stochastische Papageien fand ich
-
auch interessant, dass also so große
Mengen an Daten, wenn man sie statistisch
-
auswertet, natürlich auch statistische
Artefakte produzieren. Wer hätte das nur
-
denken können? Aufgabe der Hacker hier
also auch Selbstermächtigung, Aufklärung
-
und Nachgucken. Wie funktioniert das
eigentlich, was wir immer schon gemacht
-
haben? Und jetzt die einzige Hörerfrage,
die in der kurzen Zeit jetzt gekommen ist.
-
Oder vielleicht auch Zuschauerfrage? Ist
Glaubst du, dass es einen künstlichen
-
Dunning-Krüger Effekt gibt?
Oskar: lacht verzweifelt Das ist eine
-
sehr interessante Frage, die ich
vielleicht nächstes Jahr in einem Vortrag
-
beantworten werde. Es ist eine sehr
interessante Frage. Ich muss darüber
-
nachdenken. Ich kann es mir vorstellen,
aber ich möchte, ich kann es jetzt gar
-
nicht so kohärent beantworten, wie die
Frage vielleicht beantwortet werden
-
müsste.
Herald: Okay, dafür ist die KI Landschaft
-
vielleicht ja auch etwas diverser als die
Menschen Landschaft da draußen.
-
Oskar: Na ja, bis jetzt hat sich gezeigt,
dass die KI Landschaft vor allen Dingen
-
ziemlich genau das Abbild der Menschen
Landschaft ist. Aber die Menschen
-
Landschaft ist natürlich auch sehr divers
und das ist ja auch ein Vorteil, den wir
-
haben können. Nur weil ich jetzt darüber
viel darüber gesprochen habe, wie
-
künstliche Intelligenz und Herrschaft
interagieren, heißt es ja, heißt das ja
-
nicht, dass das für immer so bleiben muss,
sondern künstliche Dinge kann auch
-
emanzipativ werden.
Herald: Ja, das ist ja interessant. Also
-
heißt das, die Geschichte wiederholt sich
wie immer einerseits ja, am Ende aber doch
-
nicht. Und es wird nicht so laufen. Mal
wieder nicht so, wie Marx es vorausgesagt
-
hat.
Oskar: Na ja.
-
Herald: Nicht mit wissenschaftlicher
Genauigkeit.
-
Oskar: Ich glaube, wenn man, wenn man
genauer hinguckt, der
-
Geschichtsdeterminismus und die
Voraussage, dass sich die Geschichte auf
-
eine bestimmte Art entwickeln wird, ist
wahrscheinlich einer der größten
-
Schwachpunkte bei Marx und Engels. Und
natürlich ist...
-
Herald: Bei der KI auch.
Oskar: Bei, bei der KI auch, wobei die KI
-
eigentlich immer wieder nur eine
Wiedergabe der Vergangenheit ist und
-
deswegen ja noch gar nicht damit
beschäftigt sein kann, wie die Zukunft
-
ist. Alles, was ihr über die Zukunft sagt,
so wie es gestern war und das bringt uns
-
alles und uns nichts.
Herald: Bringt das hier an Bord gar
-
nichts, wie wir rekonstruieren. Ja, die
Zukunft, das müsste die KI erst mal
-
lernen.
Oskar: Ja. Und wir können die Zukunft auch
-
gestalten, weil wir müssen nicht die
Fehler der Vergangenheit immer wieder und
-
wieder reproduzieren, sondern wir können
tatsächlich sagen, das war ein Fehler, wir
-
wollen es jetzt anders machen.
Herald: Also eine Riesenaufgabe für
-
Hacker. Ich glaube damit zusammen, dass es
die Sorte Vortrag, die man noch mal
-
angucken kann.
Oskar lacht
-
Herald: Herzlichen Dank! Grüße von der
C-Base. Es geht hier um 21 Uhr weiter. Bis
-
dann everything ist Lizenz cc by vor
Politisierung des Altvordere Community to
-
do what.
-
Untertitel erstellt von c3subtitles.de
im Jahr 2022. Mach mit und hilf uns!