Herald: Herzlich willkommen im C-Base Livestream der Raumstation unter Berlin- Mitte am S-Bahnhof Jannowitzbrücke. Es freut mich ganz besonders, dass der Oskar heute hier ist mit dem Thema "Computer says no. Künstliche Intelligenz und Herrschaft". Das freut mich deswegen ganz besonders, weil ich ja ansonsten Technik Philosophie mache. Und wir sind ja nun seit ungefähr 25 Jahren darauf warten, dass die ganzen künstlichen Minderintelligenzen tatsächlich mal so was wie Bewusstsein entwickeln. Das scheint aber noch nicht der Fall zu sein, es sei denn, Oskar hat hier Neuigkeiten für uns. Und die interessante Frage ist ja, wie es zu rechtfertigen ist, dass solche künstlichen Minderintelligenzen dann Herrschaft über uns ausüben, indem sie uns Kredite verweigern, unsere Bankkarte nicht verlängern oder auch unsere Steuererklärung für potenziell gefälscht. Das werden wir jetzt alles genau und näher erfahren. Wie das fast schon akademische Tradition ist, gibt es genau 45 Minuten Zeit für Oskar. Oskar, du hast die Bühne für ein Update zur künstlichen Intelligenz und Herrschaft. Oskar: Vielen Dank! Herzlich willkommen auch allen Wesen an den Empfangsgeräten. Die schlechte Nachricht zuerst. Es gibt keine Neuigkeiten, sondern meine These ist eher, dass ich seit 1844 ungefähr nichts geändert hat, außer dass jetzt Computer dabei sind. Bevor ich anfange, man kann die Slides, alle meine Quellen und ein Transkript des Talks unter dem Link r.ovl.design/rc3-ki sehen oder über diesen oben eingeblendeten QR-Code. Ich habe den Link auch um 17:02, was ungefähr jetzt sein sollte, getwittert. Danke, Künstliche Intelligenz. Mein Twitter @_ovlb. Fangen wir an. Künstliche Intelligenz. Was meine ich eigentlich damit, wenn ich über Künstliche Intelligenz spreche? Künstliche Intelligenz an sich ist erst mal eine recht grobe, grobe Kategorie. Deswegen vorab auf einer technischen Ebene wird es vor allen Dingen um Machine Learning gehen. Ich werde aber trotzdem den Talk über von KI sprechen. Ich werde von KI sprechen, weil KI als gesellschaftlicher Begriff weiter greifend ist als nur die technische Ebene, sondern eine Formierung von Politik, Arbeit, Kultur und Kapital beinhaltet. Im Folgenden gehört es vor allem um Politik. Arbeit und Kapital gehen weniger um Kultur. Und das Ganze wird sich folgendermaßen gliedern. Ich werde erst über ImageNet reden, eines der vermutlich einflussreichsten Datensätze in der Geschichte des Machine Learning, danach über Algorithmen und Arbeit und schließlich über einen Teil namens künstlichen Ideologie, wo ich ein bisschen über staatliche Herrschaft und wie sich Militär und Polizei künstliche Intelligenz zu Nutze machen. Schließlich ein kleiner, ein kleiner Ausblick unter dem Titel Was tun? Genau das ist die grobe, grobe Gliederung. Es ist also kein technischer Vortrag. Ich werde nicht erklären, wie die Machine Learning funktioniert und ich werde noch nicht erklären, was und wie grundlegend künstliche Intelligenz ist, oder? Also wenn ihr jetzt einen technischen Vortrag erwartet habt. Tut mir leid, gibt es nicht. Okay, los geht's. ImageNet, oder wie Machine Learning sich für immer veränderte. Für die Leute von euch, die vielleicht nicht einen großen Hintergrund in der Geschichte des der künstlichen Intelligenz haben. Eine kurze Erklärung, was mit ImageNet eigentlich ist. ImageNet ist, wie oben schon erwähnt, der vermutlich einflussreichste Datensatz. Warum, erkläre ich gleich. Und darauf aufbauend wurde vermutlich einer der einflussreichsten Algorithmen geschrieben. Die Idee ist so kompliziert wie simpel und wurde von Fei-Fei Li im Jahr 2006 formuliert, nämlich den Goldstandard für Bilder Datensätze zu sammeln. Die Umsetzung dementsprechend auch relativ einfach: Bilder sammeln. Nur ist das natürlich, wenn man von einem Goldstandard spricht und von den damit von den Mengen an Bildern, die und die damit gemeint sind, leichter gesagt als getan. Fei-Fei Li und ihre Mitfahrenden hatten zwei Sachen auf ihrer Seite, nämlich einerseits Bilder suchen, die relativ neu waren und andererseits immer leistungsstärkere Computer. Trotzdem dauert es drei Jahre, bis genug Bilder zusammengesammelt waren, genug heißt hier 14 Millionen. Und das, um das ein bisschen in Perspektive zu setzen. Einer der Hauptvorläufer von imageNet, Pascal VOC Pascal Virtual Object Classes beinhaltete 19737 Bilder in 20 Kategorien. Anstatt wie jetzt in der mit 14 Millionen Bildern in 20000 Kategorien. Nun stellt sich aber eine Frage, wie klassifiziert man denn eigentlich 14 Millionen Bilder, nur weil man in einer Bildersuche nach einem Apfel gesucht hat, heißt das ja nicht, dass jedes Bild, das bei rausgekommen ist, einen Apfel beinhaltet. Traditionell wäre das ein Job für Studienanfängerinnen gewesen. Das heißt, man hat den Leuten, die gerade ein Studium angefangen hat, gesagt, hier einen Datensatz, bearbeite den bitte. Guck, ob alles korrekt ist. Das Problem ist, bei 14 Millionen Bildern hat einer, der Mitforschenden ausgerechnet, würde es ungefähr 19 Jahre dauern, bis die Studienanfängerin diese 14 Millionen Bilder auch wirklich klassifiziert hätten. Aus der heutigen Perspektive mag man vielleicht auch sagen, vielleicht ist es ein Job für einen Algorithmus. Das Problem ist nur, die Algorithmen, die wir heute haben, sind schon nicht gut genug, dass man einfach sagen kann, hier sind die Bilder, sagt und was ist dann? Das muss immer wieder kontrolliert werden. Die Algorithmen, die es damals gab, waren noch schlechter, also auch nicht wirklich die Lösung des Problems. Die Lösung des Problems kam von einer unverhofften Richtung, von einer micro working, click working Plattform namens Amazon Mechanical Turk, die in 2015 eingeführt wurde. Mechanical Turk ist benannt nach dieser Konstruktion, wo ein vermeintlicher Roboter von einem kleinwüchsigen Menschen in diesem Kasten bedient wurde und dann so getan hat, als würde er Schach spielen können. Und Mechanical Turk erlaubte es, sogenannte Human intelligente Tasks einzustellen, also kleine Sachen wie zum Beispiel, Kucke auf diesem Job, auf diesem Bild ein Apfel ist, die dann von den Arbeitenden auf der Plattform vervollständigt werden konnten. Durch diese Plattform war es möglich, diese 14 Millionen Bilder auf 49 000 Leute aufzubrechen aufzuteilen, die in 167 Ländern daran gearbeitet haben und so vergleichsweise schnell oder relativ schnell, zumindest sehr viel schneller als 19 Jahre in der Lage waren, die Bilder zu klassifizieren und zu gucken, ob das, was angeblich auf den Bildern drauf ist, auch wirklich drauf ist. Wir sehen hier eins der Probleme, die uns immer wieder begegnen werden, wenn wir heutzutage auf Machine Learning gucken und zwar das menschliche Wahrnehmung auf einen rein mechanischen Prozess heruntergebrochen wird. In dem Fall, dass visuelle Intelligenzen reine Mustererkennung ist. Das heißt aber auch, dass zum Beispiel Erfahrungen von Menschen oder einen Kontext, in welchen die Bilder gesehen werden, komplett ausgeblendet wird und dass nur noch über diesen mechanischen Prozess geht. Bei einem Apfelkuchen mag das okay sein, aber imageNet hat auch Kategorien für Menschen enthalten. Und da wird es schon wesentlich schwieriger zu sagen, alles ist eins. Trotzdem Sie haben es gemacht und sie waren damit auch soweit zufrieden und hatten dann diese 14 Millionen Bilder mehr oder weniger sauber klassifiziert rumliegen. Dann kam die nächste Frage. Und jetzt? Was macht man jetzt mit diesem Datensatz? Was macht man mit diesen Bildern? Im Rahmen der Forschung gab es von 2010 bis 2017 die sogenannte ImageNet Large Scale Visual Recognition Challenge. In dieser Challenge hat sich erstmal relativ lange nichts getan. Es wurde geforscht, bis schließlich im Jahre 2012 der bereits angesprochene einflussreiche Algorithmus vorgestellt wurde. AlexNet. AlexNet ist es eine Entwicklung von Alex Krichevsky und seinem Team an der Universität Toronto gewesen und führte ein neues Konzept ein, nämlich das der neuronalen Netze, die im Folgenden zu einem der tonangebenden Paradigmen in Machine Learning wurden, weil es dadurch möglich war, diese Bildmassen und diese an diese Datenmassen um wesentlich wesentlich schneller zu bearbeiten bearbeiten, als es vorher möglich war. Auch heute ist das quasi immer noch der der Mechanismus, der meistens verwendet wird. Okay, das quasi so als kurzer historischer Hintergrund, worüber wir meistens reden, wenn wir von Algorithmen reden, nämlich um große Datenmengen, die im Sinne von Machine Learning oder Deep Learning, wie man es auch nennt, bearbeitet werden. Okay. Wir haben also unfassbare Mengen an Daten. Wir haben einen fehlenden Konsens, also niemand der Menschen, die in diesem Datensatz aufgetaucht wurden, wurde vorher gefragt, ob das vielleicht auch noch okay ist, dass deren Bilder da gespeichert wurden, sondern die Bilder waren einfach in diesem Datensatz und sind es auch heute noch größtenteils. Und wir haben ein mechanisches Verständnis menschlicher Wahrnehmung. Und schließlich haben wir Deep Learning, also als technische Art und Weise, damit umzugehen, dass alles. Diese vier Punkte werden wir immer wieder und wieder finden. Damit quasi der ImageNet zu Ende und der nächste Teil zu Arbeit und Algorithmen. Noch mal ich auch hier einen Schritt zurück und die Frage, worüber rede ich eigentlich, reden wir in diesem Kontext, wenn wir von Arbeit reden. Wir reden einerseits von unbezahlter Arbeit. Das Beispiel dafür ist zum Beispiel Google Recaptcha, wo wir, um Beweise zu beweisen, dass wir Menschen sind, beweisen, dass wir einen Schornstein erkennen können. Wir haben als zweites unsichtbare Arbeit. Das bedeutet, wie zum Beispiel die Leute auf Amazons Mechanical Turk Platform, diese 49000, die tauchen nie als Co-Autorin oder so was in den Papieren auf. Aber haben wir doch einen fundamentalen Anteil der Arbeit geliefert. Schließlich haben wir durch Algorithmen kontrollierte Arbeit, hier zum Beispiel Amazons Lagerhäuser oder Lieferdienste wie Lieferando oder Delivery. Über unbezahlte Arbeit möchte ich jetzt nicht richtig sprechen, sondern eher, sondern ich habe unsichtbare Arbeit und die modifizierte Arbeit konzentrieren. Fangen wir mit unsichtbarer Arbeit an.. Wie wir gesehen haben, bei imageNet haben wir diese Erzählung von KI tut dieses oder tut jenes. Wenn die KI erkennt, dass etwas in den Bildern ist oder die KI hat in GO gewonnen, die KI schreibt mit Gptt drei unfassbar schöne Texte oder dumme Texte von Teil zu Teil, KI betreibt Protein foldern. Das Problem ist nur, die KI tut das nicht. Die KI ist für die für die Forscherin, die das eigentlich tun, ein Werkzeug, das benutzt wird. Und es ist nicht die KI, die plötzlich vom Himmel kommt und sagt, Ja, herzlichen Glückwunsch, GO, kann ich, sondern eher im Gegenteil. Wie der Economist gezeigt hat, zeigt es braucht es heutzutage ungefähr 80 prozent der Entwicklungszeit eines Machine Learning Projektes sind menschliche Arbeit. Nur da hinten beim Modeltraining, dann kommt der Computer tatsächlich ins Spiel. Aber der allergrößte Teil ist menschliche Arbeit, die aber sowohl in der öffentlichen Erzählung und in dieser der Wahrnehmung unsichtbar gemacht wird. Und es braucht halt genau diese menschliche Arbeit, damit ein Algorithmus gut funktioniert und ein Machine Learning System, braucht es große Mengen an Daten. Die müssen natürlich sauber sein, weil wenn die Daten, aus denen der Algorithmus lernt, nicht sauber sind, dann ist das, was hinten rauskommt auch Mist. Und deswegen muss das bis heute von von Menschen unternommen werden. Wir sind also wieder da, wo wir bei Mechanical Turk so ein bisschen waren, bei einer Maschine, die so tut, als wäre sie keine Maschine. Eine andere Metapher vielleicht die, die man benutzen kann, sind potemkinsche Dörfer, wo vorne alles schön fein gemacht wird. Und die Fassaden sehen aus, als hätte man die schönsten, schönsten Häuser der Welt. Aber hinten, wo es niemand sieht, verfällt es einfach. Kate Crawford nennt es, nennt diese Form der KI in Anlehnung dessen auch potemkinsche KI, also wenig mehr als Fassaden, die so demonstrieren, wie ein autonomes System aussehen würde, wenn es autonom wäre. Wir es hier zu tun mit einem schönen Schein des Automatismus. Diese Arbeit kann aber auch anders aussehen. Das ist ein Foto von der New York Daily News und diese Schlange, die ich wir sehen, sind Obdachlose, meistens schwarze Obdachlose, die von einer Subfirma oder von einer Firma oder die von Google da beauftragt wurden. Eine Firma hat Google beauftragt Daten zu sammeln, und zwar bestimmte Daten, Daten der Gesichter von schwarzen Menschen. Diese Leute haben dafür ein Geschenkgutschein im Wert von 5 Dollar gekriegt, dafür, dass ihr 3D-Modell auf die Server von Google hochgeladen wurde. Ziemlich niedriger Preis. Warum macht Google das? Weil Google immer wieder in Kritik kommt, dass ihre eigenen Algorithmen schwarze Menschen nicht erkennen oder wenn sie Schwarze Menschen erkennen, so wie hier am Beispiel von Algorithmen Watch aus 2020, ein Thermometer in der Hand eines schwarzen Menschen plötzlich für eine Waffe halten. Wenn man aber mit mittleren Photoshop Skills die Hand weiß macht, ist es plötzlich keine Waffe mehr. Sowohl bei dem Beispiel als auch Atlanta als auch bei dem Beispiel mit der mit dem Thermometer, tat es Google danach tierisch leid. Tut es immer tierisch leid, wenn Google erwischt wird, wenn es Google scheiße baut. Es ist aber diese Geistesarbeit finden wir nicht nur im Training von Machine Learning Algorithmen, wir haben es bei der Verifizierung von Bankaccount, wenn man seine Daten hochlädt und dann plötzlich kommt wie von Geisterhand eine Verifizierung oder nicht zurück. Wir haben es bei der Moderation von Inhalten, bei Facebook, Twitter oder anderen sozialen Netzwerken. Das alles führt dazu, dass diese Erzählung davon, dass uns die Roboter die Arbeit wegnehmen, vielleicht nicht stimmt. Vielleicht sollten wir uns nicht davor fürchten, dass uns die Technologie ersetzt, sondern eher, dass Menschen entwertet werden, dass Menschen Arbeit machen müssen, die immer weniger wert wird und immer weniger wertgeschätzt wird. Ich würde deswegen sagen, dass wir es hier mit einer Form von Frühkapitalismus im digitalen Gewand zu tun haben. Anderes Beispiel: Am 25. März 1911 brannte in New York die Triangel Shirtbased Factory. Bei dem Feuer starben 146 Menschen. Teilweise verbrannten, teilweise, weil sie aus dem Fenster springen mussten, weil die Fabrikeigentümer beschlossen hatten, dass während der Arbeitszeit die Ausgänge der Fabrik abgeschlossen zu sein haben. Das Gebäude wurde so zur Todesfalle. Am 10. 12. 2021 traf ein Hurrikan ein Amazon Lagerhaus und sechs Menschen starben während Jeff Bezos damit zu zufrieden war, dass er bald in den Weltraum fliegen kann. More perfekt Union ist eine Organisation aus den USA, veröffentlichte diesen Screenshot einer der Angestellten vor Ort. Er schrieb: "I will be at home after the Storm" und seine Freundin schrieb "what do you mean?". Und er schrieb zurück "Amazon won't let us leaf". Das ist das letzte, was er seinen Geliebten geschrieben hat. Kurz danach traf der Hurrikan das Lagerhaus und er starb zusammen mit fünf anderen. Das ist kein Einzelfall, wenn man sich die Anzahl schwerer Verletzung in der Lagerindustrie in den USA anguckt, hat Revier herausgefunden, dass die Anzahl bei Amazon ungefähr doppelt so hoch ist wie im Industriedurchschnitt. Wir haben es hier mit einem Phänomen namens kybernetische Verdichtung zu tun. Das haben. *trinkt einen schluck Wasser". Das heißt, dass die Arbeitskraft und die Arbeitszeit immer weiter verdichtet wird, dass immer weniger Zeit bleibt, die gleichen Sachen zu machen und dass man zum Beispiel das Sortieren von Paketen in Amazon Lagerhäusern immer schneller und schneller machen muss. Das führt dazu, dass mittlerweile ein Unterschied von einer Sekunde oder zwei Sekunden in der durchschnittlichen Zeit dieser Aufgaben zu machen, der Unterschied sind, ob man gelobt wird oder ob man gewarnt wird, dass man zu schlecht arbeitet. Und das führt natürlich dazu, dass man anfängt, unsicher zu arbeiten, dass man nicht auf sich achten kann, weil die Zeit nicht mehr dafür da ist. You have to do unsafe things to make you numbers. Man kann nicht mehr auf sich achten. Und diese Verdichtung nimmt immer, nimmt immer weiter zu, diese Algorithmifizierung. Dabei ist das an sich erst mal kein neues Phänomen. Die Versuche, Arbeitskraft zu automatisieren oder durch Automatisierung zu optimieren, sind so alt wie der Kapitalismus selber. In 1844 hat Friedrich Engels Andrew Ure zitiert, der schrieb: "In wenigen Monaten schon war eine Maschine fertig, die dem Anschein nach mit dem Denkvermögen Gefühl und Takt des erfahrenen Arbeiter begabt war." Von Das Zitat könnte eigentlich auch heute in der in der verklärten Sicht auf auf Automatisierung und Roboter kommen. Aber kommt aus dem 19. Jahrhundert, aus der Zeit des Frühkapitalismus. Was aber auch aus der Zeit des Frühkapitalismus und der Zeit danach kommt, ist, dass die ArbeiterInnenbewegung sich Sozialstandards erkämpft hat. Feste Arbeitsverhältnisse, ein Recht auf Urlaub, Beschränkung der Arbeitszeiten, ein Recht auf gewerkschaftliche Organisierung und so weiter und so fort. Also alles das, was wir zum Beispiel bei Amazon oder auch in anderen Firmen im Amazon. Nur als prominentes Beispiel ist es nicht so, dass Amazon der einzig Schuldige wäre. Sehen, was wieder angegriffen wird, was Union basstian betrieben wird und so weiter und so fort. Das wurde alles schon mal erkämpft und muss jetzt wieder erkämpft werden bzw. muss immer wieder erkämpft werden. So haben wir das Phänomen, dass das, was heutzutage als radikal neue Form der Arbeit daherkommt, im Licht der historischen Entwicklung oftmals nicht mehr, da fehlt ein nicht, nicht mehr ist als eine Wiederkehr früherer Arbeitsverhältnisse. Es ist gar nicht so neu, was wir sehen, es ist nur. Es hat sich nur in eine moderne Form geändert. Man könnte sagen und ewig grüßt das Kapitalverhältnistier. Und deswegen erlaube man mir die Pathetik Friedrich Engels selber zu zitieren, der schrieb die Lage der arbeitenden Klasse in England. "Die Arbeiter müssen sich also beschrieben bestreben, aus dieser vertiefenden Lage herauszukommen, und dies können sie nicht tun, ohne dass gegen das Interesse der Bourgeoisie als solcher anzukämpfen." Das ist ein anderer Punkt in dieser Arbeit ist die sogenannte algorithmische und Undurchsichtigkeit. Algorithmische Undurchsichtigkeit bedeutet entweder, dass ein Algorithmus so kompliziert geworden ist, dass man ihn technisch nicht mehr verstehen kann, was vorkommt, oder aber, dass man nicht mehr den Einblick in den Algorithmus hat, dass man also die Frage, welchen Einfluss haben Algorithmen auf meine Arbeit? Nicht beantworten kann. Das ist im Lagerhaus vielleicht noch relativ offensichtlich. Wenn die Picking Raid immer schneller, schneller wird, dann kann man das auf den Algorithmus hin hinausführen. Aber wenn ich zum Beispiel bei Deliveroo arbeite oder bei Lieferant oder Foodora oder wie die ganzen Buden heißen, da ist das nicht unbedingt so offensichtlich, weil die Algorithmen natürlich geheim sind und sich von Firma zu Firma unterscheiden. Deliveroo wurde in Italien verklagt, weil der Algorithmus diskriminiert hat. Wenn man zum Beispiel krank gewesen ist oder sich an Arbeitsorganisation beteiligt hat, dann hat der Algorithmus einen so bestraft, wie als wenn man einfach nicht gearbeitet hätte. Das führt natürlich dazu, dass Gerüchte entstehen und dass diese Unklarheit zu Wissenshierarchien führt, dass man nicht mehr verstehen kann, was eigentlich passiert. Wir haben es mit einem Phänomen zu tun, wo die Daten, die angesammelt werden, nur noch in eine Richtung fließen. Sie werden von den von den Arbeiterinnen extrahiert und fließen in den Wissensschatz der der Plattform, wo sie angehäuft werden, ausgewertet werden und so weiter. Das führt zu der Frage, wie soll man denn eigentlich verstehen, was nicht fassbar ist. Wenn ich nicht weiß, was der Prozess ist, wie soll ich ihn verstehen und wie sollen wir ihn überhaupt fassen, was sich, was ich verändert? Natürlich werden diese Algorithmen weiterentwickelt und weiterentwickelt. Wenn ein Manager von der Lieferkette sagt unsere Algorithmen sind unfassbar dumm, was tatsächlich passiert ist. Sie können gar nicht so diskriminierend sein, wie ihr euch das vorstellt, dann ist das ja keine Garantie. Erstens, dass er nicht lügt, was man im Manager vielleicht zutrauen sollte und zweitens auch nicht, dass der Algorithmus das vielleicht in zwei Monaten vielleicht nicht mehr so dumm ist. Und diese Hierarchien können nur aufgelöst werden, wenn die Algorithmen offengelegt werden, wenn es eine Möglichkeit gibt, zu verstehen, was eigentlich gerade passiert. Wir haben es hier also mit einer Verdichtung der Arbeit zu tun, die auch eine Verdichtung der Zeit ist. Unternehmen versuchen alle Sekunden, die hinter den Fabriktor stecken oder im Fall von Geeck Work vielleicht auch in den Straßen, in Arbeitszeit und in kontrollierte Zeit zu verändern. Vielleicht hilft dagegen Faulenzen, um die Überwachung zu verändern. Vielleicht aber auch nicht. Die Verlangsamung des Arbeit ist der Arbeit ist ein Mittel des Arbeitskampfes. Der sogenannte Bummelstreik ist gut erprobt. Vielleicht kann man den noch gegen Algorithmen einsetzen. Das wäre eine These, die es auszuprobieren gilt. Und dieses Bewusstsein von der Zeit ist nicht unbedingt neu. Walter Benjamin schreibt in seinen Geschichtsphilosophischen Thesen über die Uni Revolution 1830. Das ist in ganz Paris, also die Uni Revolution 1830, in Paris, das in ganz Paris unabhängig voneinander auf die Turnuhren geschossen wurde, weil die Protestierenden verstanden haben, dass diese Turnuhren als Symbol der Zeit und als Symbol des Drucks durch die Zeit stehen. Dieser Widerstand oder jeder Widerstand an sich braucht Organisierung, wir können nicht einfach, es gibt keine Möglichkeit da als Einzelperson was gegen zu machen, sondern man muss sich, man muss sich mit seinen Arbeiterinnen und Kolleginnen zusammen organisieren. Und natürlich tun die Firmen alles, dass das zu verhindern. Aber sie müssen dabei nicht erfolgreich sein. Das zeigt allein schon die Geschichte. Okay, das wäre der Teil zur Arbeit. Gucken wir jetzt uns mal an, was der Staat mit der ganzen Geschichte zu tun hat. Ich rede hier ein bisschen über über Daten und öffentliche Daten, dann über ökonomische Abhängigkeiten in der Forschung, über Polizei und Militär. Ein kleines bisschen über Privatsphäre. Und dann zum Schluss. Das ist ein schönes Paket. Also öffentliche Daten und privates Geld. Ich würde sagen, dass wir es hier mit einer neuen Form der ursprünglichen Akkumulation zu tun haben. Also private Unternehmen versuchen möglichst viel verwertbare Stoffe in ihre eigenen Privatbesitz zu gelangen, um daraus Profit zu schlagen. Der Rohstoff in diesem Fall sind unsere Geschichten, unser Leben. Die Märkte sind, wie wir sehen werden, Kontrolle oder wie wir auch im Arbeitskapitel schon gesehen haben und Hokuspokus, wo gesagt wird, künstliche Intelligenz wäre in der Lage, dies und jenes zu tun, auch wenn es das auf keinen Fall ist. Aber wir brauchen eure Daten. Und ich würde deswegen sagen, dass die Innovationen, die uns da verkauft werden, keine ist, sondern einfach alt und gebrechlich und stinkt. Was wir aber trotzdem immer mehr sehen, ist eine Konzentration unserer Daten in den Rechenzentrum einiger weniger privater Unternehmen. Und je mehr konzentriert wird, umso mehr sind wir als Gesellschaft darauf angewiesen, dass diese privaten Unternehmen gut zu uns sind. Als Beispiel zum Beispiel der Übersetzungsassistent von Google, Google Translate, der zwar für alle frei nutzbar ist, wir bezahlen nicht dafür. Und trotzdem sammelt Google all unsere Daten. Und je mehr wir diese Nutzung in öffentliche Prozesse einbauen oder auch in unser Leben einbauen, umso mehr werden wir von Google abhängig und umso mehr werden dafür werden wir davon abhängig, dass Google nicht vielleicht irgendwann sagt: Na gut, kein Bock mehr auf umsonst, ab jetzt wird bezahlt. Diese Abhängigkeit führt zu einer Frage, die wir so in der Bankenkrise vielleicht schon gesehen haben, als Finanzinstitute als too big to fail bezeichnet wurden und immense Summen Geld dafür ausgegeben werden werden musste, diese diese Institute zu retten. Die Tech-Unternehmen befinden sich immer mehr auf dem Weg, so integrale Bestandteile unserer Gesellschaften zu werden, dass auch sie diesen too big to fail Moment vermutlich erreichen, wenn nicht schon erreicht haben. Aber es ist nicht nur die Öffentlichkeit, die davon abhängig ist, ist es auch zunehmend die Forschung, die über künstliche Intelligenz oder über tech generell, die mehr und mehr davon abhängig ist, dass sie sich mit den mit den Unternehmen gut stellt. Es sind ein paar wenige Unternehmen, die nicht nur die Entwicklungsumgebung stellen, die Sprachen und aber auch die Software. Das heißt, die um sie schaffen quasi die das Wasser, wie Meredith Whitaker sagte, in dem die Forschung zu künstlicher Intelligenz schwimmt. Ein Beispiel hierfür ist Timnit Gebru vermutlich das prominenteste der letzten Monate und im Februar ist eine der führenden Forscherinnen im Bereich der der ethischen KI und war lange Zeit Qlead bei Google. Im Dezember letzten Jahres wurde sie plötzlich gefeuert, angeblich weil sie eine Mail an eine Mailingliste geschickt hatte, die einem Manager nicht würdig war. Die wahrscheinlichere These ist, dreht sich um ein Paar. Ein Paper, in dem es um sogenannte stochastische Papageien ging, um stockastic parrats und um die Gefahren, die Large Language Models, sehr große Sprach Modelle, wie zum Beispiel das bereits erwähnte Gpd3 führen würden, Gibru und ihre Koathorinen haben in dem Paper argumentiert, dass diese Language Modells eine große Reichweite, große Vielfalt an Kosten, aber auch Gefahren bilden, also zum Beispiel Kosten werden Umweltkosten. Es braucht sehr viel Rechenkapazitäten mit diesen Models zu arbeiten. Harms Während z.B. Rachel Harms diese sprach, dass die Modelle es schaffen, künftig sehr eloquent über Rassismus zu reden, gebe die drei z.B. auch kurz nach seinem Release schon angefangen, antisemitischen und rassistischen Müll zu erzählen, auch wenn das überhaupt gar nichts mit der Fragestellung zu tun hat. Und wieder tat es Google leid. Es tat Google sogar so leid, dass sie im Februar 2021 MMitchel gefeiert haben, Lied eines anderen iTeams bei Alphabet Googles Mutterfirma. Und Google sendet damit eine ganz eindeutige Nachricht. Wenn wir die führenden Köpfe dem Bereich ethical eye feuern können und es uns zwar leid tut, aber wir es trotzdem machen, dann seid ihr besser ganz ruhig und benehmt euch oder ihr seid einfach raus. Um diese Form der Abhängigkeit ist ein bisschen simultan zu dem, was wir im Kalten Krieg gesehen haben, als das US- Militär immer mehr Geld in die Forschung gesteckt hat. Technologie und Militär oder wie ich sagen würde ziemlich beste Freundinnen. Sie können bis zum Anfang des Internet, als es noch ARPANET zurückdenkt, hieß, zurückdenken und sehen, dass das ARPANET eine Erfindung des Militärs war, seine Ausgründung des Arpa, Advanced Research Proposal und a und dass Départements of Defence. Und von da an gingen die Investitionen in Forschung und Technologie immer weiter und weiter und weiter Geschäfte mit dem Militär heutzutage sind Teil des Kerngeschäfts von Google, Facebook, Amazon und so weiter und so fort. In Amerika ist eines der größten Projekte, Project Maven. Als offizielles erstes Logo hatten sie diese Roboter auf Ecstasy, die dem eigentlichen Inhalt des Ganzen, nämlich algorithmisch warfare Cross Functional Team, nun wirklich nicht gerecht werden. Am Projekt Melvin war ein Projekt von beinahe allen US amerikanischen Verteidigungsinstitution, künstlich intelligente Spionage gang und gäbe zu machen und nichts mehr auf der Welt zu verpassen. In diesem Projekt wurden auch technologische Errungenschaften von YouTube verwendet, wo eigentlich im Zivilen entwickelte Techniken dem Militär nutzbar gemacht wurden. Ein Beispiel wäre YouTubes Empfehlungslgorithmus, der auch sogenannte Cluster Analysis beruht und diese Cluster Analysis, kann man einerseits benutzen, um die Videos anzuzeigen, die dich wahrscheinlich interessieren. Man kann sie aber auch benutzen, um vermutete Straftäterinnen zum Beispiel im Irak oder so zu entdecken. Für Google ging das nicht so gut aus. Bis zu 3000 MitarbeiterInnen haben sich, haben protestiert und Google hat sich aus Project Maven zurückgezogen und hat gesagt, wir machen keine autonomen Waffen mehr. Es tat Google natürlich leid. Google hat aber auch gleichzeitig gesagt, das Geschäft mit den Militärs und so wichtig. Wir machen keine Waffen, aber alles andere machen wir schon. Ein jüngeres Beispiel aus Europa ist die 100 Millionen Dollar Investition von Daniel Eck, dem CEO von Spotify, der mit seinem Hedgefonds bei Helsingör eingestiegen ist, einer deutschen Firma, die sagt, mit ethischen, autonomen Waffensystemen die freiheitlich demokratische Grundordnung verteidigen zu wollen. Wo Amerika Roboter auf Ecstasy hat, hat Deutschland das Projekt das Kommando Cyber und Informationsraum. Das ist ein Symbolbild aus der Weihnachtszeit, das sich darum kümmert, die Truppe zu digitalisieren und voranzubringen. Momentan ist man in der Phase des 2.0, was nur 20 Jahre nach dem Web 2.0 für deutsche Verhältnisse ein ziemlich ordentliches Tempo ist. Aber die Sache ist ernster als blöde Witze. Mit der neuen Koalition steht die Anschaffung bewaffneter Drohnen im Koalitionsvertrag. Man sagt zwar, man will sie nur bewaffnen, man will sie nicht autonom machen. Aber diese Autonomisierung ist im Endeffekt nur noch ein Software-Update entfernt. Und dann sollen sie natürlich nur ethisch töten, weil na klar, wir sind hier in Deutschland. Das Problem ist aber alleine schon der Einsatz von normalen, von normalen Drohnen mit Waffensystemen fügte, führt dazu, dass die Schwelle zum Einsatz militärischer Gewalt sinkt und Krieg entgrenzt wird. Inwieweit entgrenzt wird und wie wenig wie schlimm das für die Zivilbevölkerung ausgehen kann, hat die New York Times jüngst in einer sehr ausführlichen Reportage belegt, in denen sie Pentagon Papiere analysiert haben und so zum Beispiel zivile Opfer der Luftangriffe der USA veröffentlicht haben. Aber auch hier haben wir es wieder mit Problemen von Algorithmen oder Dummheit zu tun. Das Pentagon hat jüngst über einen Algorithmus berichtet, der zu 25 prozent die richtigen Ziele ausgewählt hat. Von sich selber aber dachte, es wären 90 prozent, der also ziemlich schlecht war, aber gleichzeitig gedacht hatte Ich bin richtig gut. Und das ist natürlich ein Problem. Es ist auch ein Problem, weil die Algorithmen mit der Zeit besser werden und wir dann diese die vielleicht erste offensichtliche Linse Ja, okay. Die Algorithmen sind so schlecht und das ist das Problem. Nein, das Problem ist eigentlich staatliches Töten und wir müssen uns bewusst sein, dass wir dahin müssen, das zu formulieren. Sondern es sagte Herrschaft durch Gewalt ist sowohl in autonome Waffentechnologie als auch in den Rahmen des Denkens und der Politik eingemeißelt, welcher zu ihrer Entwicklung und ihrem potenziellen Einsatz führt. Es geht darum, diese Herrschaft durch Gewalt zu kritisieren und nicht nur das Mittel, mit dem sie durchgesetzt wird. Was im Krieg nach außen durch autonome Waffensysteme funktioniert, funktioniert im Inneren zum Beispiel durch Gewalt, durch Überwachungskameras, die biometrische Daten sammeln. Die deutsche Polizei macht da fleißig mit. Es gibt eine gute Chance, dass wenn du Anfang Juli 2017 in Hamburg fast dein Gesicht für lange Zeit in einer Datenbank der Polizei in Hamburg gespeichert war Anfang Juli 2017 war die G20 Proteste und den nächsten Teil wollte ich eigentlich überspringen. Und im Rahmen dieser Strafprozesse im Rahmen dieser Proteste kam es natürlich zu Angriffen auf Polizeikräfte. Es kam aber auch durch Angriffe durch, auf Demonstrierende, durch die Polizei. Hier zum Beispiel keine Polizeigewalt durch die Polizei Hashtag Polizeiproblem. Diese Software, die benutzt wurde, ist wie Demo 360 und man hat darin mehrere Terabyte Daten hochgeladen, Videoaufnahmen, Fotoaufnahmen, um potenzielle GewalttäterIn zu identifizieren. Der Einsatz wurde danach vom Verwaltungsgericht Hamburg für rechtmäßig erklärt und eine Beschwerde des Datenschutzbeauftragten Hamburgs zurückgesetzt. Im neuen Polizeigesetz wurden die Befugnisse des Datenschutzbeauftragten weiter zusammengeschnitten, sodass er einfach keine Beschwerde mehr hatte, sondern eigentlich nur noch zu einer doofen Marionette wurde. Die Polizei hat diese Datenbank mit den und mit den Daten zwar 2020 gelöscht, aber nicht, weil es ein Fehler war, sondern weil es keine strafrechtlich Erforderlichkeit mehr gab. Das Gerichtsurteil ist bestehen geblieben und der Präzedenzfall wurde gesetzt. Die Polizei hat schon gesagt, dass sie Interesse hat, mit solchen großen Datenbanken weiterzuarbeiten. Bei neuen Protesten deutschlandweit wird im Rahmen des Programms Polizei 2020 an bundeseinheitlichen Plattformen gearbeitet, die versuchen, die momentane, das momentane Chaos, das föderale Überwachungs zu vereinheitlichen und die Daten besser zugänglich zu machen. Die Geschichte zeigt aber immer wieder, dass Gesichtserkennung kein Tool ist, was einfach funktioniert. Zum Beispiel in der Gender Shell-Studie von 2008 wurde gezeigt, dass eigentlich alle Gesichtserkennung, Algorithmen, große Unternehmen, schwarze Frauen wesentlich schlechter erkennen als weiße Personen oder auch männliche Person. Diese Bias findet sich auch in Amazons Recognition Tool wieder, das auf mehr Mitglieder des US amerikanischen Kongresses losgelassen wurde und einige von denen zu Straftäterinnen machte. Natürlich, oder das heißt natürlich aber kann es überraschenderweise vor allen Dingen People of Color. Aber auch hier gibt es wieder ein grundlegendes Problem, nämlich dass das Gesichtserkennung im öffentlichen Raum eigentlich überhaupt nichts zu tun hat, zu suchen hat und dass Gesichtserkennung auch in den Tools der Polizei nichts zu suchen hat. Die Polizei ist ein schwer überwacher Organ und es ist eigentlich unmöglich, demokratische Kontrolle auszuüben, ihm dafür zu sorgen, dass die Polizei keinen Unsinn macht. Wenn man sich Prozesse wie NSU 2.0 oder rechtsextreme TerrorChatgruppen anguckt, sollte man vielleicht eher davon ausgehen, dass das passieren wird. Wir sind hier in einer Situation, wo die deutsche Polizei machen will, was Facebook nicht mehr machen möchte, nämlich flächendeckende Gesichtserkennung. Und wenn man hinter Facebook hinterherhinkt im Jahr 2021, dann sollte man sich vielleicht Gedanken machen. Falls ihr an dem Widerstand dagegen interessiert seid. Es gibt eine Kampagne namens Reclaim your face, die sich gegen Gesichtserkennung und die Sammlung von biometrischen Daten in Europa einsetzt. Dafür gibt es auf diesem Raumschiff morgen auch einen Vortrag, wo der momentane Stand vorgestellt wird. Der letzte, der letzte Teil des Policing, den ich kurz ansprechen möchte und auch Teil des neuen Polizeigesetzes in Hamburg, ist Predictive Policing, Predictive Policing oder kurz Voraus in die Vergangenheit. Es wird gesagt, ein Algorithmus stellt fest, wo morgen oder vielleicht später des Tages Kriminalität stattfinden wird. Und natürlich wird gesagt, das ist neutral. Was soll schon passieren? Wieder Markup aber jüngst festgestellt hat, führt es eigentlich nur dazu, dass das die Orte, in denen momentan Polizeieinsätze stattfinden, auch morgen wieder Ziel von Polizeieinsätzen werden. Niemand kann beantworten, warum oder wie das in Deutschland nicht passieren sollte. Ganz im Gegenteil eigentlich sogar ein Panel der UN warnt davor, dass der unregulierte Einsatz von künstlicher Intelligenz in vielen Regierungen rassistische Vorurteile verstärken kann. Wir haben es hier also zu tun mit einer Infrastruktur des ständigen staatlichen Zugriffs auf unsere Daten, auf unsere Gesichter, auf unser Leben oder... Und es geht nicht nur, es geht nicht mehr nur um die Polizei oder nur um das Militär, sondern es geht um eine ganzheitliche Verbindung von Geheimdiensten, Polizei und Militär, die alle das Gleiche wollen und deren Daten zunehmend interoperabel werden. Firmen wie Palantir z.B. versinnbildlichen diese Gemengelage. Die arbeiten zusammen mit der NSA, aber auch mit der ISI , also mit der Behörde in den USA, aber auch mit der hessischen Polizei oder mit Europol. Also auch die herkömmliche nationale Grenzen verschwimmen, dazu einem gewissen Teil. Außen und Innen, Polizei sein Militärgeheimdienst verschmelzen und es entsteht eigentlich eine große, umfassende oder der Versuch einer großen, umfassenden Überwachungsinfrastruktur. Das Schöne ist, dass auch eine Firma wie Palantir Angst hat vor einem Bewusstsein über Privatsphäre und auch über ein Bewusstsein dafür, dass die Algorithmen dieser Firmen Scheiße bauen. Das heißt, wenn wir, wenn wir daran arbeiten, dass nicht zur Normalität werden zu lassen, dann haben wir eine reelle Chance, das auch zu verhindern. Und noch kurz ein paar Anmerkungen zu Daten und Privatsphäre. Es geht hier vor allem um Zusammenhang von Privatsphäre und nicht um die Datensammelwut von Facebook. Dafür gab es jetzt hier gerade vorher zum Beispiel einen Vortrag über die Facebook Papers und noch ein, zwei andere Punkte im Fahrplan. Wir haben bis jetzt über über staatliche Überwachung gesprochen und wie sie immer allgemeiner wird. Das führt dazu. Dass einerseits alle betroffen sind, aber dass andererseits Leute, die dem Staat mehr und mehr ausgeliefert sind oder wehrloser gegenüber sind, dass die Intensität der Eingriffe diesem gegenüber zunimmt. Als Beispiel werden zum Beispiel Hartz-IV- Bezieher, in die quasi ein Offenbarungseid gegenüber den Staat abliefern müssen, Geflüchtete bei der Einreise oder auch migrantische Communitys, die traditionell immer wieder das gesteigerte Ziel von polizeilicher Arbeit sind. Wir haben hier also die Situation, dass Überwachung und die die Aufhebung der Privatsphäre ein Problem der betroffenen Individuen ist, erst mal auf den ersten Blick. Aber das sollte uns nicht dazu verleiten zu denken, das ist ein individuelles Problem ist, sondern es ist ein gesellschaftliches Problem. Wir kommen nicht gegen diese Dynamik an, mit dem, ich habe nichts zu verbergen---narrativ, weil wir wissen nicht, was morgen morgen trifft. Das heißt, wir müssen diese Datafixierung nicht auf einem individuellen Level diskutieren, sondern auf einem kollektiven. Auf welche Arten und Weisen wollen wir, dass eine Gesellschaft datafiziert ist? Was kann uns als Gesellschaft einen einen Nutzen bringen und was nicht? Schlussendlich muss es alles, was es für alle möglich sein, ohne Angst vor dem digitalen Panoptikum durch die Straßen zu laufen. Privatsphäre und Daten sind aber nicht nur ein Problem, das sei noch kurz angemerkt Ich habe ja am Anfang bei ImageNet erwähnt, dass niemand gefragt wurde, ob man in diesem Datensatz sein möchte oder nicht. Die Forscherin Sascha Luchoni hat jüngst auf Twitter gefragt, was denn ein gutes Example von einem KI-Datensatz wäre, wo wirklich nach Einverständnis gefragt wurde. Das it even exists? Es stellt sich heraus in allen Responses zu diesem Tweet. Es gibt genau eins: Facebooks Casual Convent Conversations Dataset scheint das einzige große Daten, der einzige größere Datensatz zu sein, in dem die Beteiligten tatsächlich zugestimmt haben, dass ihre Daten für Zwecke des maschinellen Lernens verwendet werden. Okay, was tun jetzt oder I want you tech for good? Wir haben gesehen, dass wir einen gespenstischen Wind haben, einen gespenstischen digitalen Wind, der durch unser Haus, durch unsere Gesellschaft bläst. Wir haben gesehen, wie KI das menschliche Zusammenleben kodifiziert und als Mittel staatlicher Überwachung und kapitalistischer Kontrolle dienen kann. Das heißt aber auch, dass unsere Rassismen, unsere Sexismen und so weiter in diese KI eingeschrieben wird und dass gleichzeitig die Technologie sich immer schneller und schneller entwickelt, wir aber als Gesellschaft gar kein ethisches Verständnis mehr davon schaffen, dass hinterherkommt in dem Tempo der KI und das auch dazu führt. Und dass es geht mir jetzt nicht hier darum, KI an sich zu verurteilen, sondern es gibt dafür schöne Beispiele. Man kann KI benutzen, um es gegen die Überwacher zu drehen und an zum Beispiel für Gesichtserkennung Programme auf die Polizei anzuwenden und so Polizisten zu identifizieren, die gegen Protestierende eingesetzt werden. Man kann KI zu Hause rumliegen haben und deutsche Behörden Maschinen lesbar machen und so besser verstehbar machen. Aber bei allem, dem dürfen wir nicht vergessen, dass solange wir, solange wir die Herrschaft der Menschen über die Menschen nicht in den Fokus der Kritik richten, sondern uns immer wieder nur an den Symptomen abarbeiten, dass wir immer wieder an den gleichen Punkt kommen werden, vielleicht mit einer anderen Technologie, aber an den gleichen Punkt. Wie Timnit Gebru sagte daß, es geht darum, dass die wenigen Systeme der Unterdrückung schaffen und die "others constantly work to prevent harm unable to find the time space or resources to implement their own vision of future". Und ich glaube tatsächlich, das ist das, wo es im Endeffekt darum gehen würde, dass wir es schaffen, die Zeit und den Willen auch zu finden, unsere eigene Vision von der Zukunft zu implementieren. Und dann schlussendlich erst wenn wir als Menschen gut zueinander sind, können die Maschinen lernen, auch gut zu uns sein zu sein. Um noch mal die Slides wie Sources und alle meine Quellen findet ihr auf r.ovl.design/rc3-ki, oder über diesen QR- Code. Oder wie gesagt bei Twitter. Damit komme ich zum Ende und möchte mich ganz herzlich bedanken bei euch, die ihr zugeguckt haben, bei der C-Base für die Einladung hier sprechen zu dürfen und natürlich bei allen Forscherinnen, Aktivistinnen, Journalistinnen und so weiter, auf deren Arbeit ich mich implizit oder explizit bezogen habe. Vielen Dank! Applaus Herald: Das war großartig, Oskar, vielen Dank! 45 Minuten, fast fast ohne Pause, da gab es ja wirklich ein ordentliches Update. Wir haben neue Wörter gelernt: kybernetische Verdichtung, kybernetische Verdichtung, digitaler Frühkapitalismus. Demnach müssten wir Hacker jetzt helfen, dass die modernen digitalen Arbeiter wieder sich selbst ermächtigen und es wieder zu einer Aufklärung kommt. Wahrscheinlich. Oskar: Zum Beispiel. Herald: Algorithmische Undurchsichtigkeit. Da müssten die Hacker dafür sorgen, dass die Algorithmen irgendwie durchsichtiger werden. Das Peinliche ist ja auch, dass man dann sehen könnte, wie nackt der Kaiser möglicherweise ist. Oskar lacht Herald: Und wir müssen den Wissensschatz der Arbeiter, die davon überwacht und gesteuert werden, irgendwie zu mehren suchen. Und interessant fand ich auch künstliche Ideologie. Das ist also so ein bisschen, sonst spin gibt dahingehend zu sagen, dass es künstlich, also ist es intelligent, auch wenn es vielleicht gar nicht so intelligent ist. Aber künstliche Intelligenz ist ja schon mal ein Wert an sich. Stochastische Papageien fand ich auch interessant, dass also so große Mengen an Daten, wenn man sie statistisch auswertet, natürlich auch statistische Artefakte produzieren. Wer hätte das nur denken können? Aufgabe der Hacker hier also auch Selbstermächtigung, Aufklärung und Nachgucken. Wie funktioniert das eigentlich, was wir immer schon gemacht haben? Und jetzt die einzige Hörerfrage, die in der kurzen Zeit jetzt gekommen ist. Oder vielleicht auch Zuschauerfrage? Ist Glaubst du, dass es einen künstlichen Dunning-Krüger Effekt gibt? Oskar: lacht verzweifelt Das ist eine sehr interessante Frage, die ich vielleicht nächstes Jahr in einem Vortrag beantworten werde. Es ist eine sehr interessante Frage. Ich muss darüber nachdenken. Ich kann es mir vorstellen, aber ich möchte, ich kann es jetzt gar nicht so kohärent beantworten, wie die Frage vielleicht beantwortet werden müsste. Herald: Okay, dafür ist die KI Landschaft vielleicht ja auch etwas diverser als die Menschen Landschaft da draußen. Oskar: Na ja, bis jetzt hat sich gezeigt, dass die KI Landschaft vor allen Dingen ziemlich genau das Abbild der Menschen Landschaft ist. Aber die Menschen Landschaft ist natürlich auch sehr divers und das ist ja auch ein Vorteil, den wir haben können. Nur weil ich jetzt darüber viel darüber gesprochen habe, wie künstliche Intelligenz und Herrschaft interagieren, heißt es ja, heißt das ja nicht, dass das für immer so bleiben muss, sondern künstliche Dinge kann auch emanzipativ werden. Herald: Ja, das ist ja interessant. Also heißt das, die Geschichte wiederholt sich wie immer einerseits ja, am Ende aber doch nicht. Und es wird nicht so laufen. Mal wieder nicht so, wie Marx es vorausgesagt hat. Oskar: Na ja. Herald: Nicht mit wissenschaftlicher Genauigkeit. Oskar: Ich glaube, wenn man, wenn man genauer hinguckt, der Geschichtsdeterminismus und die Voraussage, dass sich die Geschichte auf eine bestimmte Art entwickeln wird, ist wahrscheinlich einer der größten Schwachpunkte bei Marx und Engels. Und natürlich ist... Herald: Bei der KI auch. Oskar: Bei, bei der KI auch, wobei die KI eigentlich immer wieder nur eine Wiedergabe der Vergangenheit ist und deswegen ja noch gar nicht damit beschäftigt sein kann, wie die Zukunft ist. Alles, was ihr über die Zukunft sagt, so wie es gestern war und das bringt uns alles und uns nichts. Herald: Bringt das hier an Bord gar nichts, wie wir rekonstruieren. Ja, die Zukunft, das müsste die KI erst mal lernen. Oskar: Ja. Und wir können die Zukunft auch gestalten, weil wir müssen nicht die Fehler der Vergangenheit immer wieder und wieder reproduzieren, sondern wir können tatsächlich sagen, das war ein Fehler, wir wollen es jetzt anders machen. Herald: Also eine Riesenaufgabe für Hacker. Ich glaube damit zusammen, dass es die Sorte Vortrag, die man noch mal angucken kann. Oskar lacht Herald: Herzlichen Dank! Grüße von der C-Base. Es geht hier um 21 Uhr weiter. Bis dann everything ist Lizenz cc by vor Politisierung des Altvordere Community to do what. Untertitel erstellt von c3subtitles.de im Jahr 2022. Mach mit und hilf uns!