Herald: Herzlich willkommen im C-Base
Livestream der Raumstation unter Berlin-
Mitte am S-Bahnhof Jannowitzbrücke. Es
freut mich ganz besonders, dass der Oskar
heute hier ist mit dem Thema "Computer
says no. Künstliche Intelligenz und
Herrschaft". Das freut mich deswegen ganz
besonders, weil ich ja ansonsten Technik
Philosophie mache. Und wir sind ja nun
seit ungefähr 25 Jahren darauf warten,
dass die ganzen künstlichen
Minderintelligenzen tatsächlich mal so was
wie Bewusstsein entwickeln. Das scheint
aber noch nicht der Fall zu sein, es sei
denn, Oskar hat hier Neuigkeiten für uns.
Und die interessante Frage ist ja, wie es
zu rechtfertigen ist, dass solche
künstlichen Minderintelligenzen dann
Herrschaft über uns ausüben, indem sie uns
Kredite verweigern, unsere Bankkarte nicht
verlängern oder auch unsere
Steuererklärung für potenziell gefälscht.
Das werden wir jetzt alles genau und näher
erfahren. Wie das fast schon akademische
Tradition ist, gibt es genau 45 Minuten
Zeit für Oskar. Oskar, du hast die Bühne
für ein Update zur künstlichen Intelligenz
und Herrschaft.
Oskar: Vielen Dank! Herzlich willkommen
auch allen Wesen an den Empfangsgeräten.
Die schlechte Nachricht zuerst. Es gibt
keine Neuigkeiten, sondern meine These ist
eher, dass ich seit 1844 ungefähr nichts
geändert hat, außer dass jetzt Computer
dabei sind. Bevor ich anfange, man kann
die Slides, alle meine Quellen und ein
Transkript des Talks unter dem Link
r.ovl.design/rc3-ki sehen oder über diesen
oben eingeblendeten QR-Code. Ich habe den
Link auch um 17:02, was ungefähr jetzt
sein sollte, getwittert. Danke, Künstliche
Intelligenz. Mein Twitter @_ovlb. Fangen
wir an. Künstliche Intelligenz. Was meine
ich eigentlich damit, wenn ich über
Künstliche Intelligenz spreche? Künstliche
Intelligenz an sich ist erst mal eine
recht grobe, grobe Kategorie. Deswegen
vorab auf einer technischen Ebene wird es
vor allen Dingen um Machine Learning
gehen. Ich werde aber trotzdem den Talk
über von KI sprechen. Ich werde von KI
sprechen, weil KI als gesellschaftlicher
Begriff weiter greifend ist als nur die
technische Ebene, sondern eine Formierung
von Politik, Arbeit, Kultur und Kapital
beinhaltet. Im Folgenden gehört es vor
allem um Politik. Arbeit und Kapital gehen
weniger um Kultur. Und das Ganze wird sich
folgendermaßen gliedern. Ich werde erst
über ImageNet reden, eines der vermutlich
einflussreichsten Datensätze in der
Geschichte des Machine Learning, danach
über Algorithmen und Arbeit und
schließlich über einen Teil namens
künstlichen Ideologie, wo ich ein bisschen
über staatliche Herrschaft und wie sich
Militär und Polizei künstliche Intelligenz
zu Nutze machen. Schließlich ein kleiner,
ein kleiner Ausblick unter dem Titel Was
tun? Genau das ist die grobe, grobe
Gliederung. Es ist also kein technischer
Vortrag. Ich werde nicht erklären, wie die
Machine Learning funktioniert und ich werde noch
nicht erklären, was und wie grundlegend
künstliche Intelligenz ist, oder? Also
wenn ihr jetzt einen technischen Vortrag
erwartet habt. Tut mir leid, gibt es
nicht. Okay, los geht's. ImageNet, oder wie
Machine Learning sich für immer
veränderte. Für die Leute von euch, die
vielleicht nicht einen großen Hintergrund
in der Geschichte des der künstlichen
Intelligenz haben. Eine kurze Erklärung, was
mit ImageNet eigentlich
ist. ImageNet ist, wie oben schon
erwähnt, der vermutlich einflussreichste
Datensatz. Warum, erkläre ich gleich. Und
darauf aufbauend wurde vermutlich einer
der einflussreichsten Algorithmen
geschrieben. Die Idee ist so kompliziert
wie simpel und wurde von Fei-Fei Li im
Jahr 2006 formuliert, nämlich den
Goldstandard für Bilder Datensätze zu
sammeln. Die Umsetzung dementsprechend
auch relativ einfach: Bilder sammeln. Nur
ist das natürlich, wenn man von einem
Goldstandard spricht und von den damit von
den Mengen an Bildern, die und die damit
gemeint sind, leichter gesagt als getan.
Fei-Fei Li und ihre Mitfahrenden hatten
zwei Sachen auf ihrer Seite, nämlich
einerseits Bilder suchen, die relativ neu
waren und andererseits immer
leistungsstärkere Computer. Trotzdem
dauert es drei Jahre, bis genug Bilder
zusammengesammelt waren, genug heißt hier
14 Millionen. Und das, um das ein bisschen
in Perspektive zu setzen. Einer der
Hauptvorläufer von imageNet, Pascal VOC
Pascal Virtual Object Classes beinhaltete
19737 Bilder in 20 Kategorien. Anstatt wie
jetzt in der mit 14 Millionen Bildern in
20000 Kategorien. Nun stellt sich aber
eine Frage, wie klassifiziert man denn
eigentlich 14 Millionen Bilder, nur weil
man in einer Bildersuche nach einem Apfel
gesucht hat, heißt das ja nicht, dass
jedes Bild, das bei rausgekommen ist,
einen Apfel beinhaltet. Traditionell wäre
das ein Job für Studienanfängerinnen
gewesen. Das heißt, man hat den Leuten,
die gerade ein Studium angefangen hat,
gesagt, hier einen Datensatz, bearbeite
den bitte. Guck, ob alles korrekt ist. Das
Problem ist, bei 14 Millionen Bildern hat
einer, der Mitforschenden ausgerechnet,
würde es ungefähr 19 Jahre dauern, bis die
Studienanfängerin diese 14 Millionen
Bilder auch wirklich klassifiziert hätten.
Aus der heutigen Perspektive mag man
vielleicht auch sagen, vielleicht ist es
ein Job für einen Algorithmus. Das Problem
ist nur, die Algorithmen, die wir heute
haben, sind schon nicht gut genug, dass
man einfach sagen kann, hier sind die
Bilder, sagt und was ist dann? Das muss
immer wieder kontrolliert werden. Die
Algorithmen, die es damals gab, waren noch
schlechter, also auch nicht wirklich die
Lösung des Problems. Die Lösung des
Problems kam von einer unverhofften
Richtung, von einer micro working, click
working Plattform namens Amazon Mechanical
Turk, die in 2015 eingeführt wurde.
Mechanical Turk ist benannt nach dieser
Konstruktion, wo ein vermeintlicher
Roboter von einem kleinwüchsigen Menschen
in diesem Kasten bedient wurde und dann so
getan hat, als würde er Schach spielen
können. Und Mechanical Turk erlaubte es,
sogenannte Human intelligente Tasks
einzustellen, also kleine Sachen wie zum
Beispiel, Kucke auf diesem Job, auf diesem
Bild ein Apfel ist, die dann von den
Arbeitenden auf der Plattform
vervollständigt werden konnten. Durch
diese Plattform war es möglich, diese 14
Millionen Bilder auf 49 000 Leute
aufzubrechen aufzuteilen, die in 167
Ländern daran gearbeitet haben und so
vergleichsweise schnell oder relativ
schnell, zumindest sehr viel schneller als
19 Jahre in der Lage waren, die Bilder zu
klassifizieren und zu gucken, ob das, was
angeblich auf den Bildern drauf ist, auch
wirklich drauf ist. Wir sehen hier eins
der Probleme, die uns immer wieder
begegnen werden, wenn wir heutzutage auf
Machine Learning gucken und zwar das
menschliche Wahrnehmung auf einen rein
mechanischen Prozess heruntergebrochen
wird. In dem Fall, dass visuelle
Intelligenzen reine Mustererkennung ist.
Das heißt aber auch, dass zum Beispiel
Erfahrungen von Menschen oder einen
Kontext, in welchen die Bilder gesehen
werden, komplett ausgeblendet wird und
dass nur noch über diesen mechanischen
Prozess geht. Bei einem Apfelkuchen mag
das okay sein, aber imageNet hat auch
Kategorien für Menschen enthalten. Und da
wird es schon wesentlich schwieriger zu
sagen, alles ist eins. Trotzdem Sie haben
es gemacht und sie waren damit auch soweit
zufrieden und hatten dann diese 14
Millionen Bilder mehr oder weniger sauber
klassifiziert rumliegen. Dann kam die
nächste Frage. Und jetzt? Was macht man
jetzt mit diesem Datensatz? Was macht man
mit diesen Bildern? Im Rahmen der
Forschung gab es von 2010 bis 2017 die
sogenannte ImageNet Large Scale Visual
Recognition Challenge. In dieser Challenge
hat sich erstmal relativ lange nichts
getan. Es wurde geforscht, bis schließlich
im Jahre 2012 der bereits angesprochene
einflussreiche Algorithmus vorgestellt
wurde. AlexNet. AlexNet ist es
eine Entwicklung von Alex Krichevsky und
seinem Team an der Universität Toronto
gewesen und führte ein neues Konzept ein,
nämlich das der neuronalen Netze, die im
Folgenden zu einem der tonangebenden
Paradigmen in Machine Learning wurden,
weil es dadurch möglich war, diese
Bildmassen und diese an diese Datenmassen
um wesentlich wesentlich schneller zu
bearbeiten bearbeiten, als es vorher
möglich war. Auch heute ist das quasi
immer noch der der Mechanismus, der
meistens verwendet wird. Okay, das quasi
so als kurzer historischer Hintergrund,
worüber wir meistens reden, wenn wir von
Algorithmen reden, nämlich um große
Datenmengen, die im Sinne von Machine
Learning oder Deep Learning, wie man es
auch nennt, bearbeitet werden. Okay. Wir
haben also unfassbare Mengen an Daten. Wir
haben einen fehlenden Konsens, also
niemand der Menschen, die in diesem
Datensatz aufgetaucht wurden, wurde vorher
gefragt, ob das vielleicht auch noch okay
ist, dass deren Bilder da gespeichert
wurden, sondern die Bilder waren einfach
in diesem Datensatz und sind es auch heute
noch größtenteils. Und wir haben ein
mechanisches Verständnis menschlicher
Wahrnehmung. Und schließlich haben wir
Deep Learning, also als technische Art und
Weise, damit umzugehen, dass alles. Diese
vier Punkte werden wir immer wieder und
wieder finden. Damit quasi der ImageNet zu Ende und der
nächste Teil zu Arbeit und Algorithmen.
Noch mal ich auch hier einen Schritt
zurück und die Frage, worüber rede ich
eigentlich, reden wir in diesem Kontext,
wenn wir von Arbeit reden. Wir reden
einerseits von unbezahlter Arbeit. Das
Beispiel dafür ist zum Beispiel Google
Recaptcha, wo wir, um Beweise zu beweisen,
dass wir Menschen sind, beweisen, dass wir
einen Schornstein erkennen können. Wir
haben als zweites unsichtbare Arbeit. Das
bedeutet, wie zum Beispiel die Leute auf
Amazons Mechanical Turk Platform, diese
49000, die tauchen nie als Co-Autorin oder
so was in den Papieren auf. Aber haben wir
doch einen fundamentalen Anteil der Arbeit
geliefert. Schließlich haben wir durch
Algorithmen kontrollierte Arbeit, hier zum
Beispiel Amazons Lagerhäuser oder
Lieferdienste wie Lieferando oder
Delivery. Über unbezahlte Arbeit möchte
ich jetzt nicht richtig sprechen, sondern
eher, sondern ich habe unsichtbare Arbeit
und die modifizierte Arbeit konzentrieren.
Fangen wir mit unsichtbarer Arbeit an..
Wie wir gesehen haben, bei imageNet haben
wir diese Erzählung von KI tut dieses oder
tut jenes. Wenn die KI erkennt, dass etwas
in den Bildern ist oder die KI hat in GO
gewonnen, die KI schreibt mit Gptt drei
unfassbar schöne Texte oder dumme Texte
von Teil zu Teil, KI betreibt Protein
foldern. Das Problem ist nur, die KI tut
das nicht. Die KI ist für die für die
Forscherin, die das eigentlich tun, ein
Werkzeug, das benutzt wird. Und es ist
nicht die KI, die plötzlich vom Himmel
kommt und sagt, Ja, herzlichen
Glückwunsch, GO, kann ich, sondern eher im
Gegenteil. Wie der Economist gezeigt hat,
zeigt es braucht es heutzutage ungefähr 80
prozent der Entwicklungszeit eines Machine
Learning Projektes sind menschliche
Arbeit. Nur da hinten beim Modeltraining,
dann kommt der Computer tatsächlich ins
Spiel. Aber der allergrößte Teil ist
menschliche Arbeit, die aber sowohl in der
öffentlichen Erzählung und in dieser der
Wahrnehmung unsichtbar gemacht wird. Und
es braucht halt genau diese menschliche
Arbeit, damit ein Algorithmus gut
funktioniert und ein Machine Learning
System, braucht es große Mengen an Daten.
Die müssen natürlich sauber sein, weil
wenn die Daten, aus denen der Algorithmus
lernt, nicht sauber sind, dann ist das,
was hinten rauskommt auch Mist. Und
deswegen muss das bis heute von von
Menschen unternommen werden. Wir sind also
wieder da, wo wir bei Mechanical Turk so
ein bisschen waren, bei einer Maschine,
die so tut, als wäre sie keine Maschine.
Eine andere Metapher vielleicht die, die
man benutzen kann, sind potemkinsche
Dörfer, wo vorne alles schön fein gemacht
wird. Und die Fassaden sehen aus, als
hätte man die schönsten, schönsten Häuser
der Welt. Aber hinten, wo es niemand
sieht, verfällt es einfach. Kate Crawford
nennt es, nennt diese Form der KI in
Anlehnung dessen auch potemkinsche KI,
also wenig mehr als Fassaden, die so
demonstrieren, wie ein autonomes System
aussehen würde, wenn es autonom wäre. Wir
es hier zu tun mit einem schönen Schein
des Automatismus. Diese Arbeit kann aber
auch anders aussehen. Das ist ein Foto von
der New York Daily News und diese
Schlange, die ich wir sehen, sind
Obdachlose, meistens schwarze Obdachlose,
die von einer Subfirma oder von einer
Firma oder die von Google da beauftragt
wurden. Eine Firma hat Google beauftragt
Daten zu sammeln, und zwar bestimmte
Daten, Daten der Gesichter von schwarzen
Menschen. Diese Leute haben dafür ein
Geschenkgutschein im Wert von 5 Dollar
gekriegt, dafür, dass ihr 3D-Modell auf
die Server von Google hochgeladen wurde.
Ziemlich niedriger Preis. Warum macht
Google das? Weil Google immer wieder in
Kritik kommt, dass ihre eigenen
Algorithmen schwarze Menschen nicht
erkennen oder wenn sie Schwarze
Menschen erkennen, so wie hier am Beispiel
von Algorithmen Watch aus 2020, ein
Thermometer in der Hand eines schwarzen
Menschen plötzlich für eine Waffe halten.
Wenn man aber mit mittleren Photoshop
Skills die Hand weiß macht, ist es
plötzlich keine Waffe mehr. Sowohl bei dem
Beispiel als auch Atlanta als auch bei dem
Beispiel mit der mit dem Thermometer, tat
es Google danach tierisch leid. Tut es
immer tierisch leid, wenn Google erwischt
wird, wenn es Google scheiße baut. Es ist
aber diese Geistesarbeit finden wir nicht
nur im Training von Machine Learning
Algorithmen, wir haben es bei der
Verifizierung von Bankaccount, wenn man
seine Daten hochlädt und dann plötzlich
kommt wie von Geisterhand eine
Verifizierung oder nicht zurück. Wir haben
es bei der Moderation von Inhalten, bei
Facebook, Twitter oder anderen sozialen
Netzwerken. Das alles führt dazu, dass
diese Erzählung davon, dass uns die
Roboter die Arbeit wegnehmen, vielleicht
nicht stimmt. Vielleicht sollten wir uns
nicht davor fürchten, dass uns die
Technologie ersetzt, sondern eher, dass
Menschen entwertet werden, dass Menschen
Arbeit machen müssen, die immer weniger
wert wird und immer weniger wertgeschätzt
wird. Ich würde deswegen sagen, dass wir
es hier mit einer Form von
Frühkapitalismus im digitalen Gewand zu
tun haben. Anderes Beispiel: Am 25. März
1911 brannte in New York die Triangel
Shirtbased Factory. Bei dem Feuer starben
146 Menschen. Teilweise verbrannten,
teilweise, weil sie aus dem Fenster
springen mussten, weil die
Fabrikeigentümer beschlossen hatten, dass
während der Arbeitszeit die Ausgänge der
Fabrik abgeschlossen zu sein haben. Das
Gebäude wurde so zur Todesfalle. Am 10.
12. 2021 traf ein Hurrikan ein Amazon
Lagerhaus und sechs Menschen starben
während Jeff Bezos damit zu zufrieden war,
dass er bald in den Weltraum fliegen kann.
More perfekt Union ist eine Organisation
aus den USA, veröffentlichte diesen
Screenshot einer der Angestellten vor Ort.
Er schrieb: "I will be at home after the
Storm" und seine Freundin schrieb "what do
you mean?". Und er schrieb zurück "Amazon
won't let us leaf". Das ist das letzte,
was er seinen Geliebten geschrieben hat.
Kurz danach traf der Hurrikan das
Lagerhaus und er starb zusammen mit fünf
anderen. Das ist kein Einzelfall, wenn man
sich die Anzahl schwerer Verletzung in der
Lagerindustrie in den USA anguckt, hat
Revier herausgefunden, dass die Anzahl bei
Amazon ungefähr doppelt so hoch ist wie im
Industriedurchschnitt. Wir haben es hier
mit einem Phänomen namens kybernetische
Verdichtung zu tun. Das haben. *trinkt
einen schluck Wasser". Das heißt, dass die
Arbeitskraft und die Arbeitszeit immer
weiter verdichtet wird, dass immer weniger
Zeit bleibt, die gleichen Sachen zu machen
und dass man zum Beispiel das Sortieren
von Paketen in Amazon Lagerhäusern immer
schneller und schneller machen muss. Das
führt dazu, dass mittlerweile ein
Unterschied von einer Sekunde oder zwei
Sekunden in der durchschnittlichen Zeit
dieser Aufgaben zu machen, der Unterschied
sind, ob man gelobt wird oder ob man
gewarnt wird, dass man zu schlecht
arbeitet. Und das führt natürlich dazu,
dass man anfängt, unsicher zu arbeiten,
dass man nicht auf sich achten kann, weil
die Zeit nicht mehr dafür da ist. You have
to do unsafe things to make you numbers.
Man kann nicht mehr auf sich achten. Und
diese Verdichtung nimmt immer, nimmt immer
weiter zu, diese Algorithmifizierung.
Dabei ist das an sich erst mal kein neues
Phänomen. Die Versuche, Arbeitskraft zu
automatisieren oder durch Automatisierung
zu optimieren, sind so alt wie der
Kapitalismus selber. In 1844 hat Friedrich
Engels Andrew Ure zitiert, der schrieb:
"In wenigen Monaten schon war eine
Maschine fertig, die dem Anschein nach mit
dem Denkvermögen Gefühl und Takt des
erfahrenen Arbeiter begabt war." Von Das
Zitat könnte eigentlich auch heute in der
in der verklärten Sicht auf auf
Automatisierung und Roboter kommen. Aber
kommt aus dem 19. Jahrhundert, aus der
Zeit des Frühkapitalismus. Was aber auch
aus der Zeit des Frühkapitalismus und der
Zeit danach kommt, ist, dass die
ArbeiterInnenbewegung sich Sozialstandards
erkämpft hat. Feste Arbeitsverhältnisse,
ein Recht auf Urlaub, Beschränkung der
Arbeitszeiten, ein Recht auf
gewerkschaftliche Organisierung und so
weiter und so fort. Also alles das, was
wir zum Beispiel bei Amazon oder auch in
anderen Firmen im Amazon. Nur als
prominentes Beispiel ist es nicht so, dass
Amazon der einzig Schuldige wäre. Sehen,
was wieder angegriffen wird, was Union
basstian betrieben wird
und so weiter und so fort. Das wurde alles
schon mal erkämpft und muss jetzt wieder
erkämpft werden bzw. muss immer wieder
erkämpft werden. So haben wir das
Phänomen, dass das, was heutzutage als
radikal neue Form der Arbeit daherkommt,
im Licht der historischen Entwicklung
oftmals nicht mehr, da fehlt ein nicht,
nicht mehr ist als eine Wiederkehr
früherer Arbeitsverhältnisse. Es ist gar
nicht so neu, was wir sehen, es ist nur.
Es hat sich nur in eine moderne Form
geändert. Man könnte sagen und ewig grüßt
das Kapitalverhältnistier. Und deswegen
erlaube man mir die Pathetik Friedrich
Engels selber zu zitieren, der schrieb die
Lage der arbeitenden Klasse in England.
"Die Arbeiter müssen sich also beschrieben
bestreben, aus dieser vertiefenden Lage
herauszukommen, und dies können sie nicht
tun, ohne dass gegen das Interesse der
Bourgeoisie als solcher anzukämpfen." Das
ist ein anderer Punkt in dieser Arbeit ist
die sogenannte algorithmische und
Undurchsichtigkeit. Algorithmische
Undurchsichtigkeit bedeutet entweder, dass
ein Algorithmus so kompliziert geworden
ist, dass man ihn technisch nicht mehr
verstehen kann, was vorkommt, oder aber,
dass man nicht mehr den Einblick in den
Algorithmus hat, dass man also die Frage,
welchen Einfluss haben Algorithmen auf
meine Arbeit? Nicht beantworten kann. Das
ist im Lagerhaus vielleicht noch relativ
offensichtlich. Wenn die Picking Raid
immer schneller, schneller wird, dann kann
man das auf den Algorithmus hin
hinausführen. Aber wenn ich zum Beispiel
bei Deliveroo arbeite oder bei Lieferant
oder Foodora oder wie die ganzen Buden
heißen, da ist das nicht unbedingt so
offensichtlich, weil die Algorithmen
natürlich geheim sind und sich von Firma
zu Firma unterscheiden. Deliveroo wurde in
Italien verklagt, weil der Algorithmus
diskriminiert hat. Wenn man zum Beispiel
krank gewesen ist oder sich an
Arbeitsorganisation beteiligt hat, dann
hat der Algorithmus einen so bestraft, wie
als wenn man einfach nicht gearbeitet
hätte. Das führt natürlich dazu, dass
Gerüchte entstehen und dass diese
Unklarheit zu Wissenshierarchien führt,
dass man nicht mehr verstehen kann, was
eigentlich passiert. Wir haben es mit
einem Phänomen zu tun, wo die Daten, die
angesammelt werden, nur noch in eine
Richtung fließen. Sie werden von den von
den Arbeiterinnen extrahiert und fließen
in den Wissensschatz der der Plattform, wo
sie angehäuft werden, ausgewertet werden
und so weiter. Das führt zu der Frage, wie
soll man denn eigentlich verstehen, was
nicht fassbar ist. Wenn ich nicht weiß,
was der Prozess ist, wie soll ich ihn
verstehen und wie sollen wir ihn überhaupt
fassen, was sich, was ich verändert?
Natürlich werden diese Algorithmen
weiterentwickelt und weiterentwickelt.
Wenn ein Manager von der Lieferkette sagt
unsere Algorithmen sind unfassbar dumm,
was tatsächlich passiert ist. Sie können
gar nicht so diskriminierend sein, wie ihr
euch das vorstellt, dann ist das ja keine
Garantie. Erstens, dass er nicht lügt, was
man im Manager vielleicht zutrauen sollte
und zweitens auch nicht, dass der
Algorithmus das vielleicht in zwei Monaten
vielleicht nicht mehr so dumm ist. Und
diese Hierarchien können nur aufgelöst
werden, wenn die Algorithmen offengelegt
werden, wenn es eine Möglichkeit gibt, zu
verstehen, was eigentlich gerade passiert.
Wir haben es hier also mit einer
Verdichtung der Arbeit zu tun, die auch
eine Verdichtung der Zeit ist. Unternehmen
versuchen alle Sekunden, die hinter den
Fabriktor stecken oder im Fall von Geeck
Work vielleicht auch in den Straßen, in
Arbeitszeit und in kontrollierte Zeit zu
verändern. Vielleicht hilft dagegen
Faulenzen, um die Überwachung zu
verändern. Vielleicht aber auch nicht. Die
Verlangsamung des Arbeit ist der Arbeit
ist ein Mittel des Arbeitskampfes. Der
sogenannte Bummelstreik ist gut erprobt.
Vielleicht kann man den noch gegen
Algorithmen einsetzen. Das wäre eine
These, die es auszuprobieren gilt. Und
dieses Bewusstsein von der Zeit ist nicht
unbedingt neu. Walter Benjamin schreibt in
seinen Geschichtsphilosophischen Thesen
über die Uni Revolution 1830. Das ist in
ganz Paris, also die Uni Revolution 1830, in
Paris, das in ganz Paris unabhängig
voneinander auf die Turnuhren geschossen
wurde, weil die Protestierenden verstanden
haben, dass diese Turnuhren als Symbol der
Zeit und als Symbol des Drucks durch die
Zeit stehen. Dieser Widerstand oder jeder
Widerstand an sich braucht Organisierung,
wir können nicht einfach, es gibt keine
Möglichkeit da als Einzelperson was gegen
zu machen, sondern man muss sich, man muss
sich mit seinen Arbeiterinnen und
Kolleginnen zusammen organisieren. Und
natürlich tun die Firmen alles, dass das
zu verhindern. Aber sie müssen dabei nicht
erfolgreich sein. Das zeigt allein schon
die Geschichte. Okay, das wäre der Teil
zur Arbeit. Gucken wir jetzt uns mal an,
was der Staat mit der ganzen Geschichte zu
tun hat. Ich rede hier ein bisschen über
über Daten und öffentliche Daten, dann
über ökonomische Abhängigkeiten in der
Forschung, über Polizei und Militär. Ein
kleines bisschen über Privatsphäre. Und
dann zum Schluss. Das ist ein schönes
Paket. Also öffentliche Daten und privates
Geld. Ich würde sagen, dass wir es hier
mit einer neuen Form der ursprünglichen
Akkumulation zu tun haben. Also private
Unternehmen versuchen möglichst viel
verwertbare Stoffe in ihre eigenen
Privatbesitz zu gelangen, um daraus Profit
zu schlagen. Der Rohstoff in diesem Fall
sind unsere Geschichten, unser Leben. Die
Märkte sind, wie wir sehen werden,
Kontrolle oder wie wir auch im
Arbeitskapitel schon gesehen haben und
Hokuspokus, wo gesagt wird, künstliche
Intelligenz wäre in der Lage, dies und
jenes zu tun, auch wenn es das auf keinen
Fall ist. Aber wir brauchen eure Daten.
Und ich würde deswegen sagen, dass die
Innovationen, die uns da verkauft werden,
keine ist, sondern einfach alt und
gebrechlich und stinkt. Was wir aber
trotzdem immer mehr sehen, ist eine
Konzentration unserer Daten in den
Rechenzentrum einiger weniger privater
Unternehmen. Und je mehr konzentriert
wird, umso mehr sind wir als Gesellschaft
darauf angewiesen, dass diese privaten
Unternehmen gut zu uns sind. Als Beispiel
zum Beispiel der Übersetzungsassistent von
Google, Google Translate, der zwar für
alle frei nutzbar ist, wir bezahlen nicht
dafür. Und trotzdem sammelt Google all
unsere Daten. Und je mehr wir diese
Nutzung in öffentliche Prozesse einbauen
oder auch in unser Leben einbauen, umso
mehr werden wir von Google abhängig und
umso mehr werden dafür werden wir davon
abhängig, dass Google nicht vielleicht
irgendwann sagt: Na gut, kein Bock mehr
auf umsonst, ab jetzt wird bezahlt. Diese
Abhängigkeit führt zu einer Frage, die wir
so in der Bankenkrise vielleicht schon
gesehen haben, als Finanzinstitute als too
big to fail bezeichnet wurden und immense
Summen Geld dafür ausgegeben werden werden
musste, diese diese Institute zu retten.
Die Tech-Unternehmen befinden sich immer
mehr auf dem Weg, so integrale
Bestandteile unserer Gesellschaften zu
werden, dass auch sie diesen too big to
fail Moment vermutlich erreichen, wenn
nicht schon erreicht haben. Aber es ist
nicht nur die Öffentlichkeit, die davon
abhängig ist, ist es auch zunehmend die
Forschung, die über künstliche Intelligenz
oder über tech generell, die mehr und mehr
davon abhängig ist, dass sie sich mit den
mit den Unternehmen gut stellt. Es sind
ein paar wenige Unternehmen, die nicht nur
die Entwicklungsumgebung stellen, die
Sprachen und aber auch die Software. Das
heißt, die um sie schaffen quasi die das
Wasser, wie Meredith Whitaker sagte, in
dem die Forschung zu künstlicher
Intelligenz schwimmt. Ein Beispiel hierfür
ist Timnit Gebru vermutlich das
prominenteste der letzten Monate und im
Februar ist eine der führenden
Forscherinnen im Bereich der der ethischen
KI und war lange Zeit Qlead bei Google. Im
Dezember letzten Jahres wurde sie
plötzlich gefeuert, angeblich weil sie
eine Mail an eine Mailingliste geschickt
hatte, die einem Manager nicht würdig war.
Die wahrscheinlichere These ist, dreht
sich um ein Paar. Ein Paper, in dem es um
sogenannte stochastische Papageien ging,
um stockastic parrats und um die Gefahren,
die Large Language Models, sehr große
Sprach Modelle, wie zum Beispiel das
bereits erwähnte Gpd3 führen würden, Gibru
und ihre Koathorinen haben in dem Paper
argumentiert, dass diese Language Modells
eine große Reichweite, große Vielfalt
an Kosten, aber auch Gefahren bilden, also
zum Beispiel Kosten werden Umweltkosten.
Es braucht sehr viel Rechenkapazitäten mit
diesen Models zu arbeiten. Harms Während
z.B. Rachel Harms diese sprach,
dass die Modelle es schaffen, künftig sehr
eloquent über Rassismus zu reden, gebe die
drei z.B. auch kurz nach seinem
Release schon angefangen, antisemitischen
und rassistischen Müll zu erzählen, auch
wenn das überhaupt gar nichts mit der
Fragestellung zu tun hat. Und wieder tat
es Google leid. Es tat Google sogar so
leid, dass sie im Februar 2021 MMitchel
gefeiert haben, Lied eines anderen iTeams
bei Alphabet Googles Mutterfirma. Und
Google sendet damit eine ganz eindeutige
Nachricht. Wenn wir die führenden Köpfe
dem Bereich ethical eye feuern können und
es uns zwar leid tut, aber wir es trotzdem
machen, dann seid ihr besser ganz ruhig
und benehmt euch oder ihr seid einfach
raus. Um diese Form der Abhängigkeit ist
ein bisschen simultan zu dem, was wir im
Kalten Krieg gesehen haben, als das US-
Militär immer mehr Geld in die Forschung
gesteckt hat. Technologie und Militär oder
wie ich sagen würde ziemlich beste
Freundinnen. Sie können bis zum Anfang des
Internet, als es noch ARPANET zurückdenkt,
hieß, zurückdenken und sehen, dass das
ARPANET eine Erfindung des Militärs war,
seine Ausgründung des Arpa, Advanced
Research Proposal und a und dass
Départements of Defence. Und von da an
gingen die Investitionen in Forschung und
Technologie immer weiter und weiter und
weiter Geschäfte mit dem Militär
heutzutage sind Teil des Kerngeschäfts von
Google, Facebook, Amazon und so weiter und
so fort. In Amerika ist eines der größten
Projekte, Project Maven. Als offizielles
erstes Logo hatten sie diese Roboter auf
Ecstasy, die dem eigentlichen Inhalt des
Ganzen, nämlich algorithmisch warfare
Cross Functional Team, nun wirklich nicht
gerecht werden. Am Projekt Melvin war ein
Projekt von beinahe allen US
amerikanischen Verteidigungsinstitution,
künstlich intelligente Spionage gang und
gäbe zu machen und nichts mehr auf der
Welt zu verpassen. In diesem Projekt
wurden auch technologische
Errungenschaften von YouTube verwendet, wo
eigentlich im Zivilen entwickelte
Techniken dem Militär nutzbar gemacht
wurden. Ein Beispiel wäre YouTubes
Empfehlungslgorithmus, der auch sogenannte
Cluster Analysis beruht und diese Cluster
Analysis, kann man einerseits benutzen, um
die Videos anzuzeigen, die dich
wahrscheinlich interessieren. Man kann sie
aber auch benutzen, um vermutete
Straftäterinnen zum Beispiel im Irak oder
so zu entdecken. Für Google ging das nicht
so gut aus. Bis zu 3000 MitarbeiterInnen haben
sich, haben protestiert und Google hat
sich aus Project Maven zurückgezogen und
hat gesagt, wir machen keine autonomen
Waffen mehr. Es tat Google natürlich leid.
Google hat aber auch gleichzeitig gesagt,
das Geschäft mit den Militärs und so
wichtig. Wir machen keine Waffen, aber
alles andere machen wir schon. Ein
jüngeres Beispiel aus Europa ist die 100
Millionen Dollar Investition von Daniel
Eck, dem CEO von Spotify, der mit seinem
Hedgefonds bei Helsingör eingestiegen ist,
einer deutschen Firma, die sagt, mit
ethischen, autonomen Waffensystemen die
freiheitlich demokratische Grundordnung
verteidigen zu wollen. Wo Amerika Roboter
auf Ecstasy hat, hat Deutschland das
Projekt das Kommando Cyber und
Informationsraum. Das ist ein Symbolbild
aus der Weihnachtszeit, das sich darum
kümmert, die Truppe zu digitalisieren und
voranzubringen. Momentan ist man in der
Phase des 2.0, was nur 20 Jahre nach dem
Web 2.0 für deutsche Verhältnisse ein
ziemlich ordentliches Tempo ist. Aber die
Sache ist ernster als blöde Witze. Mit der
neuen Koalition steht die Anschaffung
bewaffneter Drohnen im Koalitionsvertrag.
Man sagt zwar, man will sie nur bewaffnen,
man will sie nicht autonom machen. Aber
diese Autonomisierung ist im Endeffekt nur
noch ein Software-Update entfernt. Und
dann sollen sie natürlich nur ethisch
töten, weil na klar, wir sind hier in
Deutschland. Das Problem ist aber alleine
schon der Einsatz von normalen, von
normalen Drohnen mit Waffensystemen fügte,
führt dazu, dass die Schwelle zum Einsatz
militärischer Gewalt sinkt und Krieg
entgrenzt wird. Inwieweit entgrenzt wird
und wie wenig wie schlimm das für die
Zivilbevölkerung ausgehen kann, hat die
New York Times jüngst in einer sehr
ausführlichen Reportage belegt, in denen
sie Pentagon Papiere analysiert haben und
so zum Beispiel zivile Opfer der
Luftangriffe der USA veröffentlicht haben.
Aber auch hier haben wir es wieder mit
Problemen von Algorithmen oder Dummheit zu
tun. Das Pentagon hat jüngst über einen
Algorithmus berichtet, der zu 25 prozent
die richtigen Ziele ausgewählt hat. Von
sich selber aber dachte, es wären 90
prozent, der also ziemlich schlecht war,
aber gleichzeitig gedacht hatte Ich bin
richtig gut. Und das ist natürlich ein
Problem. Es ist auch ein Problem, weil die
Algorithmen mit der Zeit besser werden und
wir dann diese die vielleicht erste
offensichtliche Linse Ja, okay. Die
Algorithmen sind so schlecht und das ist
das Problem. Nein, das Problem ist
eigentlich staatliches Töten und wir
müssen uns bewusst sein, dass wir dahin
müssen, das zu formulieren. Sondern es
sagte Herrschaft durch Gewalt ist sowohl
in autonome Waffentechnologie als auch in
den Rahmen des Denkens und der Politik
eingemeißelt, welcher zu ihrer Entwicklung
und ihrem potenziellen Einsatz führt. Es
geht darum, diese Herrschaft durch Gewalt
zu kritisieren und nicht nur das Mittel,
mit dem sie durchgesetzt wird. Was im
Krieg nach außen durch autonome
Waffensysteme funktioniert, funktioniert
im Inneren zum Beispiel durch Gewalt,
durch Überwachungskameras, die
biometrische Daten sammeln. Die deutsche
Polizei macht da fleißig mit. Es gibt eine
gute Chance, dass wenn du Anfang Juli 2017
in Hamburg fast dein Gesicht für lange
Zeit in einer Datenbank der Polizei in
Hamburg gespeichert war Anfang Juli 2017
war die G20 Proteste und den nächsten Teil
wollte ich eigentlich überspringen. Und im
Rahmen dieser Strafprozesse im Rahmen
dieser Proteste kam es natürlich zu
Angriffen auf Polizeikräfte. Es kam aber
auch durch Angriffe durch, auf
Demonstrierende, durch die Polizei. Hier
zum Beispiel keine Polizeigewalt durch die
Polizei Hashtag Polizeiproblem. Diese
Software, die benutzt wurde, ist wie Demo
360 und man hat darin mehrere Terabyte
Daten hochgeladen, Videoaufnahmen,
Fotoaufnahmen, um potenzielle GewalttäterIn
zu identifizieren. Der Einsatz wurde
danach vom Verwaltungsgericht Hamburg für
rechtmäßig erklärt und eine Beschwerde des
Datenschutzbeauftragten Hamburgs
zurückgesetzt. Im neuen Polizeigesetz
wurden die Befugnisse des
Datenschutzbeauftragten weiter
zusammengeschnitten, sodass er einfach
keine Beschwerde mehr hatte, sondern
eigentlich nur noch zu einer doofen
Marionette wurde. Die Polizei hat diese
Datenbank mit den und mit den Daten zwar
2020 gelöscht, aber nicht, weil es ein
Fehler war, sondern weil es keine
strafrechtlich Erforderlichkeit mehr gab.
Das Gerichtsurteil ist bestehen geblieben
und der Präzedenzfall wurde gesetzt. Die
Polizei hat schon gesagt, dass sie
Interesse hat, mit solchen großen
Datenbanken weiterzuarbeiten. Bei neuen
Protesten deutschlandweit wird im Rahmen
des Programms Polizei 2020 an
bundeseinheitlichen Plattformen
gearbeitet, die versuchen, die momentane,
das momentane Chaos, das föderale
Überwachungs zu vereinheitlichen und die
Daten besser zugänglich zu machen. Die
Geschichte zeigt aber immer wieder, dass
Gesichtserkennung kein Tool ist, was
einfach funktioniert. Zum Beispiel in der
Gender Shell-Studie von 2008 wurde
gezeigt, dass eigentlich alle
Gesichtserkennung, Algorithmen, große
Unternehmen, schwarze Frauen wesentlich
schlechter erkennen als weiße Personen
oder auch männliche Person. Diese Bias
findet sich auch in Amazons Recognition
Tool wieder, das auf mehr Mitglieder des
US amerikanischen Kongresses losgelassen
wurde und einige von denen zu
Straftäterinnen machte. Natürlich, oder
das heißt natürlich aber kann es
überraschenderweise vor allen Dingen
People of Color. Aber auch hier gibt es
wieder ein grundlegendes Problem, nämlich
dass das Gesichtserkennung im öffentlichen
Raum eigentlich überhaupt nichts zu tun
hat, zu suchen hat und dass
Gesichtserkennung auch in den Tools der
Polizei nichts zu suchen hat. Die Polizei
ist ein schwer überwacher Organ und es ist
eigentlich unmöglich, demokratische
Kontrolle auszuüben, ihm dafür zu sorgen,
dass die Polizei keinen Unsinn macht. Wenn
man sich Prozesse wie NSU 2.0 oder
rechtsextreme TerrorChatgruppen anguckt,
sollte man vielleicht eher davon ausgehen,
dass das passieren wird. Wir sind hier in
einer Situation, wo die deutsche Polizei
machen will, was Facebook nicht mehr machen
möchte, nämlich flächendeckende
Gesichtserkennung. Und wenn man hinter
Facebook hinterherhinkt im Jahr 2021, dann
sollte man sich vielleicht Gedanken
machen. Falls ihr an dem Widerstand
dagegen interessiert seid. Es gibt eine
Kampagne namens Reclaim your face, die
sich gegen Gesichtserkennung und die
Sammlung von biometrischen Daten in Europa
einsetzt. Dafür gibt es auf diesem
Raumschiff morgen auch einen Vortrag, wo
der momentane Stand vorgestellt wird. Der
letzte, der letzte Teil des Policing, den
ich kurz ansprechen möchte und auch Teil
des neuen Polizeigesetzes in Hamburg, ist
Predictive Policing, Predictive Policing
oder kurz Voraus in die Vergangenheit. Es
wird gesagt, ein Algorithmus stellt fest,
wo morgen oder vielleicht später des Tages
Kriminalität stattfinden wird. Und
natürlich wird gesagt, das ist neutral.
Was soll schon passieren? Wieder Markup
aber jüngst festgestellt hat, führt es
eigentlich nur dazu, dass das die Orte, in
denen momentan Polizeieinsätze
stattfinden, auch morgen wieder Ziel von
Polizeieinsätzen werden. Niemand kann
beantworten, warum oder wie das in
Deutschland nicht passieren sollte. Ganz
im Gegenteil eigentlich sogar ein Panel
der UN warnt davor, dass der
unregulierte Einsatz von künstlicher
Intelligenz in vielen Regierungen
rassistische Vorurteile verstärken kann.
Wir haben es hier also zu tun mit einer
Infrastruktur des ständigen staatlichen
Zugriffs auf unsere Daten, auf unsere
Gesichter, auf unser Leben oder... Und es
geht nicht nur, es geht nicht mehr nur um
die Polizei oder nur um das Militär,
sondern es geht um eine ganzheitliche
Verbindung von Geheimdiensten, Polizei und
Militär, die alle das Gleiche wollen und
deren Daten zunehmend interoperabel
werden. Firmen wie Palantir z.B.
versinnbildlichen diese Gemengelage. Die
arbeiten zusammen mit der NSA, aber auch
mit der ISI , also mit der Behörde in den
USA, aber auch mit der hessischen Polizei
oder mit Europol. Also auch die
herkömmliche nationale Grenzen
verschwimmen, dazu einem gewissen Teil.
Außen und Innen, Polizei sein
Militärgeheimdienst verschmelzen und es
entsteht eigentlich eine große, umfassende
oder der Versuch einer großen, umfassenden
Überwachungsinfrastruktur. Das Schöne ist,
dass auch eine Firma wie Palantir Angst
hat vor einem Bewusstsein über
Privatsphäre und auch über ein Bewusstsein
dafür, dass die Algorithmen dieser Firmen
Scheiße bauen. Das heißt, wenn wir, wenn
wir daran arbeiten, dass nicht zur
Normalität werden zu lassen, dann haben
wir eine reelle Chance, das auch zu
verhindern. Und noch kurz ein paar
Anmerkungen zu Daten und Privatsphäre. Es
geht hier vor allem um Zusammenhang von
Privatsphäre und nicht um die
Datensammelwut von Facebook. Dafür gab es
jetzt hier gerade vorher zum Beispiel
einen Vortrag über die Facebook Papers und
noch ein, zwei andere Punkte im Fahrplan.
Wir haben bis jetzt über über staatliche
Überwachung gesprochen und wie sie immer
allgemeiner wird. Das führt dazu. Dass
einerseits alle betroffen sind, aber dass
andererseits Leute, die dem Staat mehr und
mehr ausgeliefert sind oder wehrloser
gegenüber sind, dass die Intensität der
Eingriffe diesem gegenüber zunimmt. Als
Beispiel werden zum Beispiel Hartz-IV-
Bezieher, in die quasi ein Offenbarungseid
gegenüber den Staat abliefern müssen,
Geflüchtete bei der Einreise oder auch
migrantische Communitys, die traditionell
immer wieder das gesteigerte Ziel von
polizeilicher Arbeit sind. Wir haben hier
also die Situation, dass Überwachung und
die die Aufhebung der Privatsphäre ein
Problem der betroffenen Individuen ist,
erst mal auf den ersten Blick. Aber das
sollte uns nicht dazu verleiten zu denken,
das ist ein individuelles Problem ist,
sondern es ist ein gesellschaftliches
Problem. Wir kommen nicht gegen diese
Dynamik an, mit dem, ich habe nichts zu
verbergen---narrativ, weil wir wissen
nicht, was morgen morgen trifft. Das
heißt, wir müssen diese Datafixierung
nicht auf einem individuellen Level
diskutieren, sondern auf einem
kollektiven. Auf welche Arten und Weisen
wollen wir, dass eine Gesellschaft
datafiziert ist? Was kann uns als
Gesellschaft einen einen Nutzen bringen
und was nicht? Schlussendlich muss es
alles, was es für alle möglich sein, ohne
Angst vor dem digitalen Panoptikum durch
die Straßen zu laufen. Privatsphäre und
Daten sind aber nicht nur ein Problem, das
sei noch kurz angemerkt Ich habe ja am
Anfang bei ImageNet erwähnt, dass niemand
gefragt wurde, ob man in diesem Datensatz
sein möchte oder nicht. Die Forscherin
Sascha Luchoni hat jüngst auf Twitter
gefragt, was denn ein gutes Example von
einem KI-Datensatz wäre, wo wirklich nach
Einverständnis gefragt wurde. Das it even
exists? Es stellt sich heraus in allen
Responses zu diesem Tweet. Es gibt genau
eins: Facebooks Casual Convent
Conversations Dataset scheint das einzige
große Daten, der einzige größere Datensatz
zu sein, in dem die Beteiligten
tatsächlich zugestimmt haben, dass ihre
Daten für Zwecke des maschinellen Lernens
verwendet werden. Okay, was tun jetzt oder
I want you tech for good? Wir haben
gesehen, dass wir einen gespenstischen
Wind haben, einen gespenstischen digitalen
Wind, der durch unser Haus, durch unsere
Gesellschaft bläst. Wir haben gesehen, wie
KI das menschliche Zusammenleben
kodifiziert und als Mittel staatlicher
Überwachung und kapitalistischer Kontrolle
dienen kann. Das heißt aber auch, dass
unsere Rassismen, unsere Sexismen und so
weiter in diese KI eingeschrieben wird und
dass gleichzeitig die Technologie sich
immer schneller und schneller entwickelt,
wir aber als Gesellschaft gar kein
ethisches Verständnis mehr davon schaffen,
dass hinterherkommt in dem Tempo der KI
und das auch dazu führt. Und dass es geht
mir jetzt nicht hier darum, KI an sich zu
verurteilen, sondern es gibt dafür schöne
Beispiele. Man kann KI benutzen, um es
gegen die Überwacher zu drehen und an zum
Beispiel für Gesichtserkennung Programme
auf die Polizei anzuwenden und so
Polizisten zu identifizieren, die gegen
Protestierende eingesetzt werden. Man kann
KI zu Hause rumliegen haben und deutsche
Behörden Maschinen lesbar machen und so
besser verstehbar machen. Aber bei allem,
dem dürfen wir nicht vergessen, dass
solange wir, solange wir die Herrschaft
der Menschen über die Menschen nicht in
den Fokus der Kritik richten, sondern uns
immer wieder nur an den Symptomen
abarbeiten, dass wir immer wieder an den
gleichen Punkt kommen werden, vielleicht
mit einer anderen Technologie, aber an den
gleichen Punkt. Wie Timnit Gebru sagte
daß, es geht darum, dass die wenigen
Systeme der Unterdrückung schaffen und die
"others constantly work to prevent harm
unable to find the time space or resources
to implement their own vision of future".
Und ich glaube tatsächlich, das ist das,
wo es im Endeffekt darum gehen würde, dass
wir es schaffen, die Zeit und den Willen
auch zu finden, unsere eigene Vision von
der Zukunft zu implementieren. Und dann
schlussendlich erst wenn wir als Menschen
gut zueinander sind, können die Maschinen
lernen, auch gut zu uns sein zu sein. Um
noch mal die Slides wie Sources und alle
meine Quellen findet ihr auf
r.ovl.design/rc3-ki, oder über diesen QR-
Code. Oder wie gesagt bei Twitter. Damit
komme ich zum Ende und möchte mich ganz
herzlich bedanken bei euch, die ihr
zugeguckt haben, bei der C-Base für die
Einladung hier sprechen zu dürfen und
natürlich bei allen Forscherinnen,
Aktivistinnen, Journalistinnen und so
weiter, auf deren Arbeit ich mich implizit
oder explizit bezogen habe. Vielen Dank!
Applaus
Herald: Das war großartig, Oskar, vielen
Dank! 45 Minuten, fast fast ohne Pause, da
gab es ja wirklich ein ordentliches
Update. Wir haben neue Wörter gelernt:
kybernetische Verdichtung, kybernetische
Verdichtung, digitaler Frühkapitalismus.
Demnach müssten wir Hacker jetzt helfen,
dass die modernen digitalen Arbeiter
wieder sich selbst ermächtigen und es
wieder zu einer Aufklärung kommt.
Wahrscheinlich.
Oskar: Zum Beispiel.
Herald: Algorithmische Undurchsichtigkeit.
Da müssten die Hacker dafür sorgen, dass
die Algorithmen irgendwie durchsichtiger
werden. Das Peinliche ist ja auch, dass
man dann sehen könnte, wie nackt der
Kaiser möglicherweise ist.
Oskar lacht
Herald: Und wir müssen den Wissensschatz
der Arbeiter, die davon überwacht und
gesteuert werden, irgendwie zu mehren
suchen. Und interessant fand ich auch
künstliche Ideologie. Das ist also so ein
bisschen, sonst spin gibt dahingehend zu
sagen, dass es künstlich, also ist es
intelligent, auch wenn es vielleicht gar
nicht so intelligent ist. Aber künstliche
Intelligenz ist ja schon mal ein Wert an
sich. Stochastische Papageien fand ich
auch interessant, dass also so große
Mengen an Daten, wenn man sie statistisch
auswertet, natürlich auch statistische
Artefakte produzieren. Wer hätte das nur
denken können? Aufgabe der Hacker hier
also auch Selbstermächtigung, Aufklärung
und Nachgucken. Wie funktioniert das
eigentlich, was wir immer schon gemacht
haben? Und jetzt die einzige Hörerfrage,
die in der kurzen Zeit jetzt gekommen ist.
Oder vielleicht auch Zuschauerfrage? Ist
Glaubst du, dass es einen künstlichen
Dunning-Krüger Effekt gibt?
Oskar: lacht verzweifelt Das ist eine
sehr interessante Frage, die ich
vielleicht nächstes Jahr in einem Vortrag
beantworten werde. Es ist eine sehr
interessante Frage. Ich muss darüber
nachdenken. Ich kann es mir vorstellen,
aber ich möchte, ich kann es jetzt gar
nicht so kohärent beantworten, wie die
Frage vielleicht beantwortet werden
müsste.
Herald: Okay, dafür ist die KI Landschaft
vielleicht ja auch etwas diverser als die
Menschen Landschaft da draußen.
Oskar: Na ja, bis jetzt hat sich gezeigt,
dass die KI Landschaft vor allen Dingen
ziemlich genau das Abbild der Menschen
Landschaft ist. Aber die Menschen
Landschaft ist natürlich auch sehr divers
und das ist ja auch ein Vorteil, den wir
haben können. Nur weil ich jetzt darüber
viel darüber gesprochen habe, wie
künstliche Intelligenz und Herrschaft
interagieren, heißt es ja, heißt das ja
nicht, dass das für immer so bleiben muss,
sondern künstliche Dinge kann auch
emanzipativ werden.
Herald: Ja, das ist ja interessant. Also
heißt das, die Geschichte wiederholt sich
wie immer einerseits ja, am Ende aber doch
nicht. Und es wird nicht so laufen. Mal
wieder nicht so, wie Marx es vorausgesagt
hat.
Oskar: Na ja.
Herald: Nicht mit wissenschaftlicher
Genauigkeit.
Oskar: Ich glaube, wenn man, wenn man
genauer hinguckt, der
Geschichtsdeterminismus und die
Voraussage, dass sich die Geschichte auf
eine bestimmte Art entwickeln wird, ist
wahrscheinlich einer der größten
Schwachpunkte bei Marx und Engels. Und
natürlich ist...
Herald: Bei der KI auch.
Oskar: Bei, bei der KI auch, wobei die KI
eigentlich immer wieder nur eine
Wiedergabe der Vergangenheit ist und
deswegen ja noch gar nicht damit
beschäftigt sein kann, wie die Zukunft
ist. Alles, was ihr über die Zukunft sagt,
so wie es gestern war und das bringt uns
alles und uns nichts.
Herald: Bringt das hier an Bord gar
nichts, wie wir rekonstruieren. Ja, die
Zukunft, das müsste die KI erst mal
lernen.
Oskar: Ja. Und wir können die Zukunft auch
gestalten, weil wir müssen nicht die
Fehler der Vergangenheit immer wieder und
wieder reproduzieren, sondern wir können
tatsächlich sagen, das war ein Fehler, wir
wollen es jetzt anders machen.
Herald: Also eine Riesenaufgabe für
Hacker. Ich glaube damit zusammen, dass es
die Sorte Vortrag, die man noch mal
angucken kann.
Oskar lacht
Herald: Herzlichen Dank! Grüße von der
C-Base. Es geht hier um 21 Uhr weiter. Bis
dann everything ist Lizenz cc by vor
Politisierung des Altvordere Community to
do what.
Untertitel erstellt von c3subtitles.de
im Jahr 2022. Mach mit und hilf uns!