< Return to Video

Computer Says No – Künstliche Intelligenz & Herrschaft

  • 0:05 - 0:10
    Herald: Herzlich willkommen im C-Base
    Livestream der Raumstation unter Berlin-
  • 0:10 - 0:13
    Mitte am S-Bahnhof Jannowitzbrücke. Es
    freut mich ganz besonders, dass der Oskar
  • 0:13 - 0:18
    heute hier ist mit dem Thema "Computer
    says no. Künstliche Intelligenz und
  • 0:18 - 0:22
    Herrschaft". Das freut mich deswegen ganz
    besonders, weil ich ja ansonsten Technik
  • 0:22 - 0:27
    Philosophie mache. Und wir sind ja nun
    seit ungefähr 25 Jahren darauf warten,
  • 0:27 - 0:30
    dass die ganzen künstlichen
    Minderintelligenzen tatsächlich mal so was
  • 0:30 - 0:34
    wie Bewusstsein entwickeln. Das scheint
    aber noch nicht der Fall zu sein, es sei
  • 0:34 - 0:37
    denn, Oskar hat hier Neuigkeiten für uns.
    Und die interessante Frage ist ja, wie es
  • 0:37 - 0:41
    zu rechtfertigen ist, dass solche
    künstlichen Minderintelligenzen dann
  • 0:41 - 0:45
    Herrschaft über uns ausüben, indem sie uns
    Kredite verweigern, unsere Bankkarte nicht
  • 0:45 - 0:50
    verlängern oder auch unsere
    Steuererklärung für potenziell gefälscht.
  • 0:50 - 0:54
    Das werden wir jetzt alles genau und näher
    erfahren. Wie das fast schon akademische
  • 0:54 - 0:59
    Tradition ist, gibt es genau 45 Minuten
    Zeit für Oskar. Oskar, du hast die Bühne
  • 0:59 - 1:02
    für ein Update zur künstlichen Intelligenz
    und Herrschaft.
  • 1:02 - 1:06
    Oskar: Vielen Dank! Herzlich willkommen
    auch allen Wesen an den Empfangsgeräten.
  • 1:06 - 1:10
    Die schlechte Nachricht zuerst. Es gibt
    keine Neuigkeiten, sondern meine These ist
  • 1:10 - 1:14
    eher, dass ich seit 1844 ungefähr nichts
    geändert hat, außer dass jetzt Computer
  • 1:14 - 1:20
    dabei sind. Bevor ich anfange, man kann
    die Slides, alle meine Quellen und ein
  • 1:20 - 1:29
    Transkript des Talks unter dem Link
    r.ovl.design/rc3-ki sehen oder über diesen
  • 1:29 - 1:34
    oben eingeblendeten QR-Code. Ich habe den
    Link auch um 17:02, was ungefähr jetzt
  • 1:34 - 1:41
    sein sollte, getwittert. Danke, Künstliche
    Intelligenz. Mein Twitter @_ovlb. Fangen
  • 1:41 - 1:48
    wir an. Künstliche Intelligenz. Was meine
    ich eigentlich damit, wenn ich über
  • 1:48 - 1:53
    Künstliche Intelligenz spreche? Künstliche
    Intelligenz an sich ist erst mal eine
  • 1:53 - 2:00
    recht grobe, grobe Kategorie. Deswegen
    vorab auf einer technischen Ebene wird es
  • 2:00 - 2:05
    vor allen Dingen um Machine Learning
    gehen. Ich werde aber trotzdem den Talk
  • 2:05 - 2:11
    über von KI sprechen. Ich werde von KI
    sprechen, weil KI als gesellschaftlicher
  • 2:11 - 2:15
    Begriff weiter greifend ist als nur die
    technische Ebene, sondern eine Formierung
  • 2:15 - 2:22
    von Politik, Arbeit, Kultur und Kapital
    beinhaltet. Im Folgenden gehört es vor
  • 2:22 - 2:30
    allem um Politik. Arbeit und Kapital gehen
    weniger um Kultur. Und das Ganze wird sich
  • 2:30 - 2:35
    folgendermaßen gliedern. Ich werde erst
    über ImageNet reden, eines der vermutlich
  • 2:35 - 2:39
    einflussreichsten Datensätze in der
    Geschichte des Machine Learning, danach
  • 2:39 - 2:43
    über Algorithmen und Arbeit und
    schließlich über einen Teil namens
  • 2:43 - 2:47
    künstlichen Ideologie, wo ich ein bisschen
    über staatliche Herrschaft und wie sich
  • 2:47 - 2:55
    Militär und Polizei künstliche Intelligenz
    zu Nutze machen. Schließlich ein kleiner,
  • 2:55 - 3:00
    ein kleiner Ausblick unter dem Titel Was
    tun? Genau das ist die grobe, grobe
  • 3:00 - 3:05
    Gliederung. Es ist also kein technischer
    Vortrag. Ich werde nicht erklären, wie die
  • 3:05 - 3:10
    Machine Learning funktioniert und ich werde noch
    nicht erklären, was und wie grundlegend
  • 3:10 - 3:13
    künstliche Intelligenz ist, oder? Also
    wenn ihr jetzt einen technischen Vortrag
  • 3:13 - 3:22
    erwartet habt. Tut mir leid, gibt es
    nicht. Okay, los geht's. ImageNet, oder wie
  • 3:22 - 3:25
    Machine Learning sich für immer
    veränderte. Für die Leute von euch, die
  • 3:25 - 3:29
    vielleicht nicht einen großen Hintergrund
    in der Geschichte des der künstlichen
  • 3:29 - 3:34
    Intelligenz haben. Eine kurze Erklärung, was
    mit ImageNet eigentlich
  • 3:34 - 3:37
    ist. ImageNet ist, wie oben schon
    erwähnt, der vermutlich einflussreichste
  • 3:37 - 3:41
    Datensatz. Warum, erkläre ich gleich. Und
    darauf aufbauend wurde vermutlich einer
  • 3:41 - 3:46
    der einflussreichsten Algorithmen
    geschrieben. Die Idee ist so kompliziert
  • 3:46 - 3:52
    wie simpel und wurde von Fei-Fei Li im
    Jahr 2006 formuliert, nämlich den
  • 3:52 - 3:57
    Goldstandard für Bilder Datensätze zu
    sammeln. Die Umsetzung dementsprechend
  • 3:57 - 4:03
    auch relativ einfach: Bilder sammeln. Nur
    ist das natürlich, wenn man von einem
  • 4:03 - 4:08
    Goldstandard spricht und von den damit von
    den Mengen an Bildern, die und die damit
  • 4:08 - 4:12
    gemeint sind, leichter gesagt als getan.
    Fei-Fei Li und ihre Mitfahrenden hatten
  • 4:12 - 4:16
    zwei Sachen auf ihrer Seite, nämlich
    einerseits Bilder suchen, die relativ neu
  • 4:16 - 4:20
    waren und andererseits immer
    leistungsstärkere Computer. Trotzdem
  • 4:20 - 4:26
    dauert es drei Jahre, bis genug Bilder
    zusammengesammelt waren, genug heißt hier
  • 4:26 - 4:32
    14 Millionen. Und das, um das ein bisschen
    in Perspektive zu setzen. Einer der
  • 4:32 - 4:37
    Hauptvorläufer von imageNet, Pascal VOC
    Pascal Virtual Object Classes beinhaltete
  • 4:37 - 4:44
    19737 Bilder in 20 Kategorien. Anstatt wie
    jetzt in der mit 14 Millionen Bildern in
  • 4:44 - 4:52
    20000 Kategorien. Nun stellt sich aber
    eine Frage, wie klassifiziert man denn
  • 4:52 - 4:56
    eigentlich 14 Millionen Bilder, nur weil
    man in einer Bildersuche nach einem Apfel
  • 4:56 - 4:59
    gesucht hat, heißt das ja nicht, dass
    jedes Bild, das bei rausgekommen ist,
  • 4:59 - 5:03
    einen Apfel beinhaltet. Traditionell wäre
    das ein Job für Studienanfängerinnen
  • 5:03 - 5:08
    gewesen. Das heißt, man hat den Leuten,
    die gerade ein Studium angefangen hat,
  • 5:08 - 5:12
    gesagt, hier einen Datensatz, bearbeite
    den bitte. Guck, ob alles korrekt ist. Das
  • 5:12 - 5:15
    Problem ist, bei 14 Millionen Bildern hat
    einer, der Mitforschenden ausgerechnet,
  • 5:15 - 5:19
    würde es ungefähr 19 Jahre dauern, bis die
    Studienanfängerin diese 14 Millionen
  • 5:19 - 5:23
    Bilder auch wirklich klassifiziert hätten.
    Aus der heutigen Perspektive mag man
  • 5:23 - 5:28
    vielleicht auch sagen, vielleicht ist es
    ein Job für einen Algorithmus. Das Problem
  • 5:28 - 5:33
    ist nur, die Algorithmen, die wir heute
    haben, sind schon nicht gut genug, dass
  • 5:33 - 5:34
    man einfach sagen kann, hier sind die
    Bilder, sagt und was ist dann? Das muss
  • 5:34 - 5:39
    immer wieder kontrolliert werden. Die
    Algorithmen, die es damals gab, waren noch
  • 5:39 - 5:46
    schlechter, also auch nicht wirklich die
    Lösung des Problems. Die Lösung des
  • 5:46 - 5:50
    Problems kam von einer unverhofften
    Richtung, von einer micro working, click
  • 5:50 - 5:55
    working Plattform namens Amazon Mechanical
    Turk, die in 2015 eingeführt wurde.
  • 5:55 - 6:01
    Mechanical Turk ist benannt nach dieser
    Konstruktion, wo ein vermeintlicher
  • 6:01 - 6:06
    Roboter von einem kleinwüchsigen Menschen
    in diesem Kasten bedient wurde und dann so
  • 6:06 - 6:13
    getan hat, als würde er Schach spielen
    können. Und Mechanical Turk erlaubte es,
  • 6:13 - 6:18
    sogenannte Human intelligente Tasks
    einzustellen, also kleine Sachen wie zum
  • 6:18 - 6:22
    Beispiel, Kucke auf diesem Job, auf diesem
    Bild ein Apfel ist, die dann von den
  • 6:22 - 6:27
    Arbeitenden auf der Plattform
    vervollständigt werden konnten. Durch
  • 6:27 - 6:31
    diese Plattform war es möglich, diese 14
    Millionen Bilder auf 49 000 Leute
  • 6:31 - 6:37
    aufzubrechen aufzuteilen, die in 167
    Ländern daran gearbeitet haben und so
  • 6:37 - 6:41
    vergleichsweise schnell oder relativ
    schnell, zumindest sehr viel schneller als
  • 6:41 - 6:45
    19 Jahre in der Lage waren, die Bilder zu
    klassifizieren und zu gucken, ob das, was
  • 6:45 - 6:51
    angeblich auf den Bildern drauf ist, auch
    wirklich drauf ist. Wir sehen hier eins
  • 6:51 - 6:55
    der Probleme, die uns immer wieder
    begegnen werden, wenn wir heutzutage auf
  • 6:55 - 6:59
    Machine Learning gucken und zwar das
    menschliche Wahrnehmung auf einen rein
  • 6:59 - 7:04
    mechanischen Prozess heruntergebrochen
    wird. In dem Fall, dass visuelle
  • 7:04 - 7:09
    Intelligenzen reine Mustererkennung ist.
    Das heißt aber auch, dass zum Beispiel
  • 7:09 - 7:14
    Erfahrungen von Menschen oder einen
    Kontext, in welchen die Bilder gesehen
  • 7:14 - 7:17
    werden, komplett ausgeblendet wird und
    dass nur noch über diesen mechanischen
  • 7:17 - 7:22
    Prozess geht. Bei einem Apfelkuchen mag
    das okay sein, aber imageNet hat auch
  • 7:22 - 7:27
    Kategorien für Menschen enthalten. Und da
    wird es schon wesentlich schwieriger zu
  • 7:27 - 7:33
    sagen, alles ist eins. Trotzdem Sie haben
    es gemacht und sie waren damit auch soweit
  • 7:33 - 7:38
    zufrieden und hatten dann diese 14
    Millionen Bilder mehr oder weniger sauber
  • 7:38 - 7:44
    klassifiziert rumliegen. Dann kam die
    nächste Frage. Und jetzt? Was macht man
  • 7:44 - 7:48
    jetzt mit diesem Datensatz? Was macht man
    mit diesen Bildern? Im Rahmen der
  • 7:48 - 7:54
    Forschung gab es von 2010 bis 2017 die
    sogenannte ImageNet Large Scale Visual
  • 7:54 - 7:59
    Recognition Challenge. In dieser Challenge
    hat sich erstmal relativ lange nichts
  • 7:59 - 8:08
    getan. Es wurde geforscht, bis schließlich
    im Jahre 2012 der bereits angesprochene
  • 8:08 - 8:13
    einflussreiche Algorithmus vorgestellt
    wurde. AlexNet. AlexNet ist es
  • 8:13 - 8:17
    eine Entwicklung von Alex Krichevsky und
    seinem Team an der Universität Toronto
  • 8:17 - 8:24
    gewesen und führte ein neues Konzept ein,
    nämlich das der neuronalen Netze, die im
  • 8:24 - 8:27
    Folgenden zu einem der tonangebenden
    Paradigmen in Machine Learning wurden,
  • 8:27 - 8:33
    weil es dadurch möglich war, diese
    Bildmassen und diese an diese Datenmassen
  • 8:33 - 8:38
    um wesentlich wesentlich schneller zu
    bearbeiten bearbeiten, als es vorher
  • 8:38 - 8:43
    möglich war. Auch heute ist das quasi
    immer noch der der Mechanismus, der
  • 8:43 - 8:48
    meistens verwendet wird. Okay, das quasi
    so als kurzer historischer Hintergrund,
  • 8:48 - 8:52
    worüber wir meistens reden, wenn wir von
    Algorithmen reden, nämlich um große
  • 8:52 - 8:57
    Datenmengen, die im Sinne von Machine
    Learning oder Deep Learning, wie man es
  • 8:57 - 9:05
    auch nennt, bearbeitet werden. Okay. Wir
    haben also unfassbare Mengen an Daten. Wir
  • 9:05 - 9:08
    haben einen fehlenden Konsens, also
    niemand der Menschen, die in diesem
  • 9:08 - 9:12
    Datensatz aufgetaucht wurden, wurde vorher
    gefragt, ob das vielleicht auch noch okay
  • 9:12 - 9:14
    ist, dass deren Bilder da gespeichert
    wurden, sondern die Bilder waren einfach
  • 9:14 - 9:19
    in diesem Datensatz und sind es auch heute
    noch größtenteils. Und wir haben ein
  • 9:19 - 9:23
    mechanisches Verständnis menschlicher
    Wahrnehmung. Und schließlich haben wir
  • 9:23 - 9:29
    Deep Learning, also als technische Art und
    Weise, damit umzugehen, dass alles. Diese
  • 9:29 - 9:37
    vier Punkte werden wir immer wieder und
    wieder finden. Damit quasi der ImageNet zu Ende und der
  • 9:37 - 9:42
    nächste Teil zu Arbeit und Algorithmen.
    Noch mal ich auch hier einen Schritt
  • 9:42 - 9:46
    zurück und die Frage, worüber rede ich
    eigentlich, reden wir in diesem Kontext,
  • 9:46 - 9:52
    wenn wir von Arbeit reden. Wir reden
    einerseits von unbezahlter Arbeit. Das
  • 9:52 - 9:56
    Beispiel dafür ist zum Beispiel Google
    Recaptcha, wo wir, um Beweise zu beweisen,
  • 9:56 - 10:00
    dass wir Menschen sind, beweisen, dass wir
    einen Schornstein erkennen können. Wir
  • 10:00 - 10:06
    haben als zweites unsichtbare Arbeit. Das
    bedeutet, wie zum Beispiel die Leute auf
  • 10:06 - 10:10
    Amazons Mechanical Turk Platform, diese
    49000, die tauchen nie als Co-Autorin oder
  • 10:10 - 10:15
    so was in den Papieren auf. Aber haben wir
    doch einen fundamentalen Anteil der Arbeit
  • 10:15 - 10:19
    geliefert. Schließlich haben wir durch
    Algorithmen kontrollierte Arbeit, hier zum
  • 10:19 - 10:23
    Beispiel Amazons Lagerhäuser oder
    Lieferdienste wie Lieferando oder
  • 10:23 - 10:29
    Delivery. Über unbezahlte Arbeit möchte
    ich jetzt nicht richtig sprechen, sondern
  • 10:29 - 10:34
    eher, sondern ich habe unsichtbare Arbeit
    und die modifizierte Arbeit konzentrieren.
  • 10:34 - 10:41
    Fangen wir mit unsichtbarer Arbeit an..
    Wie wir gesehen haben, bei imageNet haben
  • 10:41 - 10:46
    wir diese Erzählung von KI tut dieses oder
    tut jenes. Wenn die KI erkennt, dass etwas
  • 10:46 - 10:51
    in den Bildern ist oder die KI hat in GO
    gewonnen, die KI schreibt mit Gptt drei
  • 10:51 - 10:56
    unfassbar schöne Texte oder dumme Texte
    von Teil zu Teil, KI betreibt Protein
  • 10:56 - 11:03
    foldern. Das Problem ist nur, die KI tut
    das nicht. Die KI ist für die für die
  • 11:03 - 11:08
    Forscherin, die das eigentlich tun, ein
    Werkzeug, das benutzt wird. Und es ist
  • 11:08 - 11:11
    nicht die KI, die plötzlich vom Himmel
    kommt und sagt, Ja, herzlichen
  • 11:11 - 11:18
    Glückwunsch, GO, kann ich, sondern eher im
    Gegenteil. Wie der Economist gezeigt hat,
  • 11:18 - 11:24
    zeigt es braucht es heutzutage ungefähr 80
    prozent der Entwicklungszeit eines Machine
  • 11:24 - 11:30
    Learning Projektes sind menschliche
    Arbeit. Nur da hinten beim Modeltraining,
  • 11:30 - 11:34
    dann kommt der Computer tatsächlich ins
    Spiel. Aber der allergrößte Teil ist
  • 11:34 - 11:39
    menschliche Arbeit, die aber sowohl in der
    öffentlichen Erzählung und in dieser der
  • 11:39 - 11:46
    Wahrnehmung unsichtbar gemacht wird. Und
    es braucht halt genau diese menschliche
  • 11:46 - 11:48
    Arbeit, damit ein Algorithmus gut
    funktioniert und ein Machine Learning
  • 11:48 - 11:54
    System, braucht es große Mengen an Daten.
    Die müssen natürlich sauber sein, weil
  • 11:54 - 11:57
    wenn die Daten, aus denen der Algorithmus
    lernt, nicht sauber sind, dann ist das,
  • 11:57 - 12:02
    was hinten rauskommt auch Mist. Und
    deswegen muss das bis heute von von
  • 12:02 - 12:08
    Menschen unternommen werden. Wir sind also
    wieder da, wo wir bei Mechanical Turk so
  • 12:08 - 12:12
    ein bisschen waren, bei einer Maschine,
    die so tut, als wäre sie keine Maschine.
  • 12:12 - 12:16
    Eine andere Metapher vielleicht die, die
    man benutzen kann, sind potemkinsche
  • 12:16 - 12:20
    Dörfer, wo vorne alles schön fein gemacht
    wird. Und die Fassaden sehen aus, als
  • 12:20 - 12:23
    hätte man die schönsten, schönsten Häuser
    der Welt. Aber hinten, wo es niemand
  • 12:23 - 12:29
    sieht, verfällt es einfach. Kate Crawford
    nennt es, nennt diese Form der KI in
  • 12:29 - 12:34
    Anlehnung dessen auch potemkinsche KI,
    also wenig mehr als Fassaden, die so
  • 12:34 - 12:40
    demonstrieren, wie ein autonomes System
    aussehen würde, wenn es autonom wäre. Wir
  • 12:40 - 12:47
    es hier zu tun mit einem schönen Schein
    des Automatismus. Diese Arbeit kann aber
  • 12:47 - 12:54
    auch anders aussehen. Das ist ein Foto von
    der New York Daily News und diese
  • 12:54 - 12:58
    Schlange, die ich wir sehen, sind
    Obdachlose, meistens schwarze Obdachlose,
  • 12:58 - 13:03
    die von einer Subfirma oder von einer
    Firma oder die von Google da beauftragt
  • 13:03 - 13:09
    wurden. Eine Firma hat Google beauftragt
    Daten zu sammeln, und zwar bestimmte
  • 13:09 - 13:13
    Daten, Daten der Gesichter von schwarzen
    Menschen. Diese Leute haben dafür ein
  • 13:13 - 13:18
    Geschenkgutschein im Wert von 5 Dollar
    gekriegt, dafür, dass ihr 3D-Modell auf
  • 13:18 - 13:23
    die Server von Google hochgeladen wurde.
    Ziemlich niedriger Preis. Warum macht
  • 13:23 - 13:28
    Google das? Weil Google immer wieder in
    Kritik kommt, dass ihre eigenen
  • 13:28 - 13:32
    Algorithmen schwarze Menschen nicht
    erkennen oder wenn sie Schwarze
  • 13:32 - 13:37
    Menschen erkennen, so wie hier am Beispiel
    von Algorithmen Watch aus 2020, ein
  • 13:37 - 13:40
    Thermometer in der Hand eines schwarzen
    Menschen plötzlich für eine Waffe halten.
  • 13:40 - 13:45
    Wenn man aber mit mittleren Photoshop
    Skills die Hand weiß macht, ist es
  • 13:45 - 13:49
    plötzlich keine Waffe mehr. Sowohl bei dem
    Beispiel als auch Atlanta als auch bei dem
  • 13:49 - 13:56
    Beispiel mit der mit dem Thermometer, tat
    es Google danach tierisch leid. Tut es
  • 13:56 - 14:02
    immer tierisch leid, wenn Google erwischt
    wird, wenn es Google scheiße baut. Es ist
  • 14:02 - 14:05
    aber diese Geistesarbeit finden wir nicht
    nur im Training von Machine Learning
  • 14:05 - 14:09
    Algorithmen, wir haben es bei der
    Verifizierung von Bankaccount, wenn man
  • 14:09 - 14:12
    seine Daten hochlädt und dann plötzlich
    kommt wie von Geisterhand eine
  • 14:12 - 14:16
    Verifizierung oder nicht zurück. Wir haben
    es bei der Moderation von Inhalten, bei
  • 14:16 - 14:22
    Facebook, Twitter oder anderen sozialen
    Netzwerken. Das alles führt dazu, dass
  • 14:22 - 14:27
    diese Erzählung davon, dass uns die
    Roboter die Arbeit wegnehmen, vielleicht
  • 14:27 - 14:31
    nicht stimmt. Vielleicht sollten wir uns
    nicht davor fürchten, dass uns die
  • 14:31 - 14:35
    Technologie ersetzt, sondern eher, dass
    Menschen entwertet werden, dass Menschen
  • 14:35 - 14:39
    Arbeit machen müssen, die immer weniger
    wert wird und immer weniger wertgeschätzt
  • 14:39 - 14:43
    wird. Ich würde deswegen sagen, dass wir
    es hier mit einer Form von
  • 14:43 - 14:50
    Frühkapitalismus im digitalen Gewand zu
    tun haben. Anderes Beispiel: Am 25. März
  • 14:50 - 14:56
    1911 brannte in New York die Triangel
    Shirtbased Factory. Bei dem Feuer starben
  • 14:56 - 15:00
    146 Menschen. Teilweise verbrannten,
    teilweise, weil sie aus dem Fenster
  • 15:00 - 15:03
    springen mussten, weil die
    Fabrikeigentümer beschlossen hatten, dass
  • 15:03 - 15:07
    während der Arbeitszeit die Ausgänge der
    Fabrik abgeschlossen zu sein haben. Das
  • 15:07 - 15:15
    Gebäude wurde so zur Todesfalle. Am 10.
    12. 2021 traf ein Hurrikan ein Amazon
  • 15:15 - 15:20
    Lagerhaus und sechs Menschen starben
    während Jeff Bezos damit zu zufrieden war,
  • 15:20 - 15:26
    dass er bald in den Weltraum fliegen kann.
    More perfekt Union ist eine Organisation
  • 15:26 - 15:31
    aus den USA, veröffentlichte diesen
    Screenshot einer der Angestellten vor Ort.
  • 15:31 - 15:37
    Er schrieb: "I will be at home after the
    Storm" und seine Freundin schrieb "what do
  • 15:37 - 15:42
    you mean?". Und er schrieb zurück "Amazon
    won't let us leaf". Das ist das letzte,
  • 15:42 - 15:46
    was er seinen Geliebten geschrieben hat.
    Kurz danach traf der Hurrikan das
  • 15:46 - 15:53
    Lagerhaus und er starb zusammen mit fünf
    anderen. Das ist kein Einzelfall, wenn man
  • 15:53 - 16:00
    sich die Anzahl schwerer Verletzung in der
    Lagerindustrie in den USA anguckt, hat
  • 16:00 - 16:05
    Revier herausgefunden, dass die Anzahl bei
    Amazon ungefähr doppelt so hoch ist wie im
  • 16:05 - 16:10
    Industriedurchschnitt. Wir haben es hier
    mit einem Phänomen namens kybernetische
  • 16:10 - 16:18
    Verdichtung zu tun. Das haben. *trinkt
    einen schluck Wasser". Das heißt, dass die
  • 16:18 - 16:22
    Arbeitskraft und die Arbeitszeit immer
    weiter verdichtet wird, dass immer weniger
  • 16:22 - 16:26
    Zeit bleibt, die gleichen Sachen zu machen
    und dass man zum Beispiel das Sortieren
  • 16:26 - 16:30
    von Paketen in Amazon Lagerhäusern immer
    schneller und schneller machen muss. Das
  • 16:30 - 16:34
    führt dazu, dass mittlerweile ein
    Unterschied von einer Sekunde oder zwei
  • 16:34 - 16:37
    Sekunden in der durchschnittlichen Zeit
    dieser Aufgaben zu machen, der Unterschied
  • 16:37 - 16:40
    sind, ob man gelobt wird oder ob man
    gewarnt wird, dass man zu schlecht
  • 16:40 - 16:47
    arbeitet. Und das führt natürlich dazu,
    dass man anfängt, unsicher zu arbeiten,
  • 16:47 - 16:52
    dass man nicht auf sich achten kann, weil
    die Zeit nicht mehr dafür da ist. You have
  • 16:52 - 16:59
    to do unsafe things to make you numbers.
    Man kann nicht mehr auf sich achten. Und
  • 16:59 - 17:04
    diese Verdichtung nimmt immer, nimmt immer
    weiter zu, diese Algorithmifizierung.
  • 17:04 - 17:10
    Dabei ist das an sich erst mal kein neues
    Phänomen. Die Versuche, Arbeitskraft zu
  • 17:10 - 17:15
    automatisieren oder durch Automatisierung
    zu optimieren, sind so alt wie der
  • 17:15 - 17:23
    Kapitalismus selber. In 1844 hat Friedrich
    Engels Andrew Ure zitiert, der schrieb:
  • 17:23 - 17:27
    "In wenigen Monaten schon war eine
    Maschine fertig, die dem Anschein nach mit
  • 17:27 - 17:34
    dem Denkvermögen Gefühl und Takt des
    erfahrenen Arbeiter begabt war." Von Das
  • 17:34 - 17:41
    Zitat könnte eigentlich auch heute in der
    in der verklärten Sicht auf auf
  • 17:41 - 17:47
    Automatisierung und Roboter kommen. Aber
    kommt aus dem 19. Jahrhundert, aus der
  • 17:47 - 17:51
    Zeit des Frühkapitalismus. Was aber auch
    aus der Zeit des Frühkapitalismus und der
  • 17:51 - 17:54
    Zeit danach kommt, ist, dass die
    ArbeiterInnenbewegung sich Sozialstandards
  • 17:54 - 17:58
    erkämpft hat. Feste Arbeitsverhältnisse,
    ein Recht auf Urlaub, Beschränkung der
  • 17:58 - 18:01
    Arbeitszeiten, ein Recht auf
    gewerkschaftliche Organisierung und so
  • 18:01 - 18:06
    weiter und so fort. Also alles das, was
    wir zum Beispiel bei Amazon oder auch in
  • 18:06 - 18:09
    anderen Firmen im Amazon. Nur als
    prominentes Beispiel ist es nicht so, dass
  • 18:09 - 18:15
    Amazon der einzig Schuldige wäre. Sehen,
    was wieder angegriffen wird, was Union
  • 18:15 - 18:18
    basstian betrieben wird
    und so weiter und so fort. Das wurde alles
  • 18:18 - 18:21
    schon mal erkämpft und muss jetzt wieder
    erkämpft werden bzw. muss immer wieder
  • 18:21 - 18:25
    erkämpft werden. So haben wir das
    Phänomen, dass das, was heutzutage als
  • 18:25 - 18:29
    radikal neue Form der Arbeit daherkommt,
    im Licht der historischen Entwicklung
  • 18:29 - 18:34
    oftmals nicht mehr, da fehlt ein nicht,
    nicht mehr ist als eine Wiederkehr
  • 18:34 - 18:40
    früherer Arbeitsverhältnisse. Es ist gar
    nicht so neu, was wir sehen, es ist nur.
  • 18:40 - 18:45
    Es hat sich nur in eine moderne Form
    geändert. Man könnte sagen und ewig grüßt
  • 18:45 - 18:52
    das Kapitalverhältnistier. Und deswegen
    erlaube man mir die Pathetik Friedrich
  • 18:52 - 18:57
    Engels selber zu zitieren, der schrieb die
    Lage der arbeitenden Klasse in England.
  • 18:57 - 19:01
    "Die Arbeiter müssen sich also beschrieben
    bestreben, aus dieser vertiefenden Lage
  • 19:01 - 19:05
    herauszukommen, und dies können sie nicht
    tun, ohne dass gegen das Interesse der
  • 19:05 - 19:14
    Bourgeoisie als solcher anzukämpfen." Das
    ist ein anderer Punkt in dieser Arbeit ist
  • 19:14 - 19:19
    die sogenannte algorithmische und
    Undurchsichtigkeit. Algorithmische
  • 19:19 - 19:22
    Undurchsichtigkeit bedeutet entweder, dass
    ein Algorithmus so kompliziert geworden
  • 19:22 - 19:25
    ist, dass man ihn technisch nicht mehr
    verstehen kann, was vorkommt, oder aber,
  • 19:25 - 19:29
    dass man nicht mehr den Einblick in den
    Algorithmus hat, dass man also die Frage,
  • 19:29 - 19:34
    welchen Einfluss haben Algorithmen auf
    meine Arbeit? Nicht beantworten kann. Das
  • 19:34 - 19:37
    ist im Lagerhaus vielleicht noch relativ
    offensichtlich. Wenn die Picking Raid
  • 19:37 - 19:41
    immer schneller, schneller wird, dann kann
    man das auf den Algorithmus hin
  • 19:41 - 19:46
    hinausführen. Aber wenn ich zum Beispiel
    bei Deliveroo arbeite oder bei Lieferant
  • 19:46 - 19:50
    oder Foodora oder wie die ganzen Buden
    heißen, da ist das nicht unbedingt so
  • 19:50 - 19:54
    offensichtlich, weil die Algorithmen
    natürlich geheim sind und sich von Firma
  • 19:54 - 19:59
    zu Firma unterscheiden. Deliveroo wurde in
    Italien verklagt, weil der Algorithmus
  • 19:59 - 20:01
    diskriminiert hat. Wenn man zum Beispiel
    krank gewesen ist oder sich an
  • 20:01 - 20:08
    Arbeitsorganisation beteiligt hat, dann
    hat der Algorithmus einen so bestraft, wie
  • 20:08 - 20:12
    als wenn man einfach nicht gearbeitet
    hätte. Das führt natürlich dazu, dass
  • 20:12 - 20:17
    Gerüchte entstehen und dass diese
    Unklarheit zu Wissenshierarchien führt,
  • 20:17 - 20:20
    dass man nicht mehr verstehen kann, was
    eigentlich passiert. Wir haben es mit
  • 20:20 - 20:24
    einem Phänomen zu tun, wo die Daten, die
    angesammelt werden, nur noch in eine
  • 20:24 - 20:29
    Richtung fließen. Sie werden von den von
    den Arbeiterinnen extrahiert und fließen
  • 20:29 - 20:34
    in den Wissensschatz der der Plattform, wo
    sie angehäuft werden, ausgewertet werden
  • 20:34 - 20:38
    und so weiter. Das führt zu der Frage, wie
    soll man denn eigentlich verstehen, was
  • 20:38 - 20:42
    nicht fassbar ist. Wenn ich nicht weiß,
    was der Prozess ist, wie soll ich ihn
  • 20:42 - 20:47
    verstehen und wie sollen wir ihn überhaupt
    fassen, was sich, was ich verändert?
  • 20:47 - 20:50
    Natürlich werden diese Algorithmen
    weiterentwickelt und weiterentwickelt.
  • 20:50 - 20:55
    Wenn ein Manager von der Lieferkette sagt
    unsere Algorithmen sind unfassbar dumm,
  • 20:55 - 20:59
    was tatsächlich passiert ist. Sie können
    gar nicht so diskriminierend sein, wie ihr
  • 20:59 - 21:03
    euch das vorstellt, dann ist das ja keine
    Garantie. Erstens, dass er nicht lügt, was
  • 21:03 - 21:07
    man im Manager vielleicht zutrauen sollte
    und zweitens auch nicht, dass der
  • 21:07 - 21:13
    Algorithmus das vielleicht in zwei Monaten
    vielleicht nicht mehr so dumm ist. Und
  • 21:13 - 21:17
    diese Hierarchien können nur aufgelöst
    werden, wenn die Algorithmen offengelegt
  • 21:17 - 21:25
    werden, wenn es eine Möglichkeit gibt, zu
    verstehen, was eigentlich gerade passiert.
  • 21:25 - 21:28
    Wir haben es hier also mit einer
    Verdichtung der Arbeit zu tun, die auch
  • 21:28 - 21:32
    eine Verdichtung der Zeit ist. Unternehmen
    versuchen alle Sekunden, die hinter den
  • 21:32 - 21:38
    Fabriktor stecken oder im Fall von Geeck
    Work vielleicht auch in den Straßen, in
  • 21:38 - 21:46
    Arbeitszeit und in kontrollierte Zeit zu
    verändern. Vielleicht hilft dagegen
  • 21:46 - 21:50
    Faulenzen, um die Überwachung zu
    verändern. Vielleicht aber auch nicht. Die
  • 21:50 - 21:54
    Verlangsamung des Arbeit ist der Arbeit
    ist ein Mittel des Arbeitskampfes. Der
  • 21:54 - 22:00
    sogenannte Bummelstreik ist gut erprobt.
    Vielleicht kann man den noch gegen
  • 22:00 - 22:05
    Algorithmen einsetzen. Das wäre eine
    These, die es auszuprobieren gilt. Und
  • 22:05 - 22:09
    dieses Bewusstsein von der Zeit ist nicht
    unbedingt neu. Walter Benjamin schreibt in
  • 22:09 - 22:14
    seinen Geschichtsphilosophischen Thesen
    über die Uni Revolution 1830. Das ist in
  • 22:14 - 22:19
    ganz Paris, also die Uni Revolution 1830, in
    Paris, das in ganz Paris unabhängig
  • 22:19 - 22:23
    voneinander auf die Turnuhren geschossen
    wurde, weil die Protestierenden verstanden
  • 22:23 - 22:28
    haben, dass diese Turnuhren als Symbol der
    Zeit und als Symbol des Drucks durch die
  • 22:28 - 22:36
    Zeit stehen. Dieser Widerstand oder jeder
    Widerstand an sich braucht Organisierung,
  • 22:36 - 22:39
    wir können nicht einfach, es gibt keine
    Möglichkeit da als Einzelperson was gegen
  • 22:39 - 22:44
    zu machen, sondern man muss sich, man muss
    sich mit seinen Arbeiterinnen und
  • 22:44 - 22:47
    Kolleginnen zusammen organisieren. Und
    natürlich tun die Firmen alles, dass das
  • 22:47 - 22:51
    zu verhindern. Aber sie müssen dabei nicht
    erfolgreich sein. Das zeigt allein schon
  • 22:51 - 22:59
    die Geschichte. Okay, das wäre der Teil
    zur Arbeit. Gucken wir jetzt uns mal an,
  • 22:59 - 23:05
    was der Staat mit der ganzen Geschichte zu
    tun hat. Ich rede hier ein bisschen über
  • 23:05 - 23:09
    über Daten und öffentliche Daten, dann
    über ökonomische Abhängigkeiten in der
  • 23:09 - 23:12
    Forschung, über Polizei und Militär. Ein
    kleines bisschen über Privatsphäre. Und
  • 23:12 - 23:17
    dann zum Schluss. Das ist ein schönes
    Paket. Also öffentliche Daten und privates
  • 23:17 - 23:21
    Geld. Ich würde sagen, dass wir es hier
    mit einer neuen Form der ursprünglichen
  • 23:21 - 23:25
    Akkumulation zu tun haben. Also private
    Unternehmen versuchen möglichst viel
  • 23:25 - 23:32
    verwertbare Stoffe in ihre eigenen
    Privatbesitz zu gelangen, um daraus Profit
  • 23:32 - 23:39
    zu schlagen. Der Rohstoff in diesem Fall
    sind unsere Geschichten, unser Leben. Die
  • 23:39 - 23:43
    Märkte sind, wie wir sehen werden,
    Kontrolle oder wie wir auch im
  • 23:43 - 23:47
    Arbeitskapitel schon gesehen haben und
    Hokuspokus, wo gesagt wird, künstliche
  • 23:47 - 23:51
    Intelligenz wäre in der Lage, dies und
    jenes zu tun, auch wenn es das auf keinen
  • 23:51 - 23:56
    Fall ist. Aber wir brauchen eure Daten.
    Und ich würde deswegen sagen, dass die
  • 23:56 - 23:59
    Innovationen, die uns da verkauft werden,
    keine ist, sondern einfach alt und
  • 23:59 - 24:04
    gebrechlich und stinkt. Was wir aber
    trotzdem immer mehr sehen, ist eine
  • 24:04 - 24:08
    Konzentration unserer Daten in den
    Rechenzentrum einiger weniger privater
  • 24:08 - 24:13
    Unternehmen. Und je mehr konzentriert
    wird, umso mehr sind wir als Gesellschaft
  • 24:13 - 24:17
    darauf angewiesen, dass diese privaten
    Unternehmen gut zu uns sind. Als Beispiel
  • 24:17 - 24:21
    zum Beispiel der Übersetzungsassistent von
    Google, Google Translate, der zwar für
  • 24:21 - 24:26
    alle frei nutzbar ist, wir bezahlen nicht
    dafür. Und trotzdem sammelt Google all
  • 24:26 - 24:31
    unsere Daten. Und je mehr wir diese
    Nutzung in öffentliche Prozesse einbauen
  • 24:31 - 24:34
    oder auch in unser Leben einbauen, umso
    mehr werden wir von Google abhängig und
  • 24:34 - 24:37
    umso mehr werden dafür werden wir davon
    abhängig, dass Google nicht vielleicht
  • 24:37 - 24:42
    irgendwann sagt: Na gut, kein Bock mehr
    auf umsonst, ab jetzt wird bezahlt. Diese
  • 24:42 - 24:46
    Abhängigkeit führt zu einer Frage, die wir
    so in der Bankenkrise vielleicht schon
  • 24:46 - 24:54
    gesehen haben, als Finanzinstitute als too
    big to fail bezeichnet wurden und immense
  • 24:54 - 24:59
    Summen Geld dafür ausgegeben werden werden
    musste, diese diese Institute zu retten.
  • 24:59 - 25:04
    Die Tech-Unternehmen befinden sich immer
    mehr auf dem Weg, so integrale
  • 25:04 - 25:08
    Bestandteile unserer Gesellschaften zu
    werden, dass auch sie diesen too big to
  • 25:08 - 25:13
    fail Moment vermutlich erreichen, wenn
    nicht schon erreicht haben. Aber es ist
  • 25:13 - 25:16
    nicht nur die Öffentlichkeit, die davon
    abhängig ist, ist es auch zunehmend die
  • 25:16 - 25:22
    Forschung, die über künstliche Intelligenz
    oder über tech generell, die mehr und mehr
  • 25:22 - 25:27
    davon abhängig ist, dass sie sich mit den
    mit den Unternehmen gut stellt. Es sind
  • 25:27 - 25:32
    ein paar wenige Unternehmen, die nicht nur
    die Entwicklungsumgebung stellen, die
  • 25:32 - 25:39
    Sprachen und aber auch die Software. Das
    heißt, die um sie schaffen quasi die das
  • 25:39 - 25:45
    Wasser, wie Meredith Whitaker sagte, in
    dem die Forschung zu künstlicher
  • 25:45 - 25:50
    Intelligenz schwimmt. Ein Beispiel hierfür
    ist Timnit Gebru vermutlich das
  • 25:50 - 25:55
    prominenteste der letzten Monate und im
    Februar ist eine der führenden
  • 25:55 - 26:04
    Forscherinnen im Bereich der der ethischen
    KI und war lange Zeit Qlead bei Google. Im
  • 26:04 - 26:09
    Dezember letzten Jahres wurde sie
    plötzlich gefeuert, angeblich weil sie
  • 26:09 - 26:13
    eine Mail an eine Mailingliste geschickt
    hatte, die einem Manager nicht würdig war.
  • 26:13 - 26:23
    Die wahrscheinlichere These ist, dreht
    sich um ein Paar. Ein Paper, in dem es um
  • 26:23 - 26:29
    sogenannte stochastische Papageien ging,
    um stockastic parrats und um die Gefahren,
  • 26:29 - 26:34
    die Large Language Models, sehr große
    Sprach Modelle, wie zum Beispiel das
  • 26:34 - 26:43
    bereits erwähnte Gpd3 führen würden, Gibru
    und ihre Koathorinen haben in dem Paper
  • 26:43 - 26:50
    argumentiert, dass diese Language Modells
    eine große Reichweite, große Vielfalt
  • 26:50 - 26:54
    an Kosten, aber auch Gefahren bilden, also
    zum Beispiel Kosten werden Umweltkosten.
  • 26:54 - 26:59
    Es braucht sehr viel Rechenkapazitäten mit
    diesen Models zu arbeiten. Harms Während
  • 26:59 - 27:04
    z.B. Rachel Harms diese sprach,
    dass die Modelle es schaffen, künftig sehr
  • 27:04 - 27:08
    eloquent über Rassismus zu reden, gebe die
    drei z.B. auch kurz nach seinem
  • 27:08 - 27:12
    Release schon angefangen, antisemitischen
    und rassistischen Müll zu erzählen, auch
  • 27:12 - 27:16
    wenn das überhaupt gar nichts mit der
    Fragestellung zu tun hat. Und wieder tat
  • 27:16 - 27:24
    es Google leid. Es tat Google sogar so
    leid, dass sie im Februar 2021 MMitchel
  • 27:24 - 27:32
    gefeiert haben, Lied eines anderen iTeams
    bei Alphabet Googles Mutterfirma. Und
  • 27:32 - 27:37
    Google sendet damit eine ganz eindeutige
    Nachricht. Wenn wir die führenden Köpfe
  • 27:37 - 27:42
    dem Bereich ethical eye feuern können und
    es uns zwar leid tut, aber wir es trotzdem
  • 27:42 - 27:48
    machen, dann seid ihr besser ganz ruhig
    und benehmt euch oder ihr seid einfach
  • 27:48 - 27:56
    raus. Um diese Form der Abhängigkeit ist
    ein bisschen simultan zu dem, was wir im
  • 27:56 - 28:00
    Kalten Krieg gesehen haben, als das US-
    Militär immer mehr Geld in die Forschung
  • 28:00 - 28:05
    gesteckt hat. Technologie und Militär oder
    wie ich sagen würde ziemlich beste
  • 28:05 - 28:13
    Freundinnen. Sie können bis zum Anfang des
    Internet, als es noch ARPANET zurückdenkt,
  • 28:13 - 28:18
    hieß, zurückdenken und sehen, dass das
    ARPANET eine Erfindung des Militärs war,
  • 28:18 - 28:25
    seine Ausgründung des Arpa, Advanced
    Research Proposal und a und dass
  • 28:25 - 28:32
    Départements of Defence. Und von da an
    gingen die Investitionen in Forschung und
  • 28:32 - 28:36
    Technologie immer weiter und weiter und
    weiter Geschäfte mit dem Militär
  • 28:36 - 28:40
    heutzutage sind Teil des Kerngeschäfts von
    Google, Facebook, Amazon und so weiter und
  • 28:40 - 28:47
    so fort. In Amerika ist eines der größten
    Projekte, Project Maven. Als offizielles
  • 28:47 - 28:54
    erstes Logo hatten sie diese Roboter auf
    Ecstasy, die dem eigentlichen Inhalt des
  • 28:54 - 28:58
    Ganzen, nämlich algorithmisch warfare
    Cross Functional Team, nun wirklich nicht
  • 28:58 - 29:05
    gerecht werden. Am Projekt Melvin war ein
    Projekt von beinahe allen US
  • 29:05 - 29:13
    amerikanischen Verteidigungsinstitution,
    künstlich intelligente Spionage gang und
  • 29:13 - 29:18
    gäbe zu machen und nichts mehr auf der
    Welt zu verpassen. In diesem Projekt
  • 29:18 - 29:24
    wurden auch technologische
    Errungenschaften von YouTube verwendet, wo
  • 29:24 - 29:29
    eigentlich im Zivilen entwickelte
    Techniken dem Militär nutzbar gemacht
  • 29:29 - 29:33
    wurden. Ein Beispiel wäre YouTubes
    Empfehlungslgorithmus, der auch sogenannte
  • 29:33 - 29:39
    Cluster Analysis beruht und diese Cluster
    Analysis, kann man einerseits benutzen, um
  • 29:39 - 29:41
    die Videos anzuzeigen, die dich
    wahrscheinlich interessieren. Man kann sie
  • 29:41 - 29:47
    aber auch benutzen, um vermutete
    Straftäterinnen zum Beispiel im Irak oder
  • 29:47 - 29:55
    so zu entdecken. Für Google ging das nicht
    so gut aus. Bis zu 3000 MitarbeiterInnen haben
  • 29:55 - 29:59
    sich, haben protestiert und Google hat
    sich aus Project Maven zurückgezogen und
  • 29:59 - 30:04
    hat gesagt, wir machen keine autonomen
    Waffen mehr. Es tat Google natürlich leid.
  • 30:04 - 30:07
    Google hat aber auch gleichzeitig gesagt,
    das Geschäft mit den Militärs und so
  • 30:07 - 30:11
    wichtig. Wir machen keine Waffen, aber
    alles andere machen wir schon. Ein
  • 30:11 - 30:15
    jüngeres Beispiel aus Europa ist die 100
    Millionen Dollar Investition von Daniel
  • 30:15 - 30:21
    Eck, dem CEO von Spotify, der mit seinem
    Hedgefonds bei Helsingör eingestiegen ist,
  • 30:21 - 30:25
    einer deutschen Firma, die sagt, mit
    ethischen, autonomen Waffensystemen die
  • 30:25 - 30:30
    freiheitlich demokratische Grundordnung
    verteidigen zu wollen. Wo Amerika Roboter
  • 30:30 - 30:35
    auf Ecstasy hat, hat Deutschland das
    Projekt das Kommando Cyber und
  • 30:35 - 30:40
    Informationsraum. Das ist ein Symbolbild
    aus der Weihnachtszeit, das sich darum
  • 30:40 - 30:45
    kümmert, die Truppe zu digitalisieren und
    voranzubringen. Momentan ist man in der
  • 30:45 - 30:50
    Phase des 2.0, was nur 20 Jahre nach dem
    Web 2.0 für deutsche Verhältnisse ein
  • 30:50 - 30:57
    ziemlich ordentliches Tempo ist. Aber die
    Sache ist ernster als blöde Witze. Mit der
  • 30:57 - 31:01
    neuen Koalition steht die Anschaffung
    bewaffneter Drohnen im Koalitionsvertrag.
  • 31:01 - 31:07
    Man sagt zwar, man will sie nur bewaffnen,
    man will sie nicht autonom machen. Aber
  • 31:07 - 31:11
    diese Autonomisierung ist im Endeffekt nur
    noch ein Software-Update entfernt. Und
  • 31:11 - 31:15
    dann sollen sie natürlich nur ethisch
    töten, weil na klar, wir sind hier in
  • 31:15 - 31:22
    Deutschland. Das Problem ist aber alleine
    schon der Einsatz von normalen, von
  • 31:22 - 31:27
    normalen Drohnen mit Waffensystemen fügte,
    führt dazu, dass die Schwelle zum Einsatz
  • 31:27 - 31:33
    militärischer Gewalt sinkt und Krieg
    entgrenzt wird. Inwieweit entgrenzt wird
  • 31:33 - 31:39
    und wie wenig wie schlimm das für die
    Zivilbevölkerung ausgehen kann, hat die
  • 31:39 - 31:42
    New York Times jüngst in einer sehr
    ausführlichen Reportage belegt, in denen
  • 31:42 - 31:49
    sie Pentagon Papiere analysiert haben und
    so zum Beispiel zivile Opfer der
  • 31:49 - 31:57
    Luftangriffe der USA veröffentlicht haben.
    Aber auch hier haben wir es wieder mit
  • 31:57 - 32:03
    Problemen von Algorithmen oder Dummheit zu
    tun. Das Pentagon hat jüngst über einen
  • 32:03 - 32:09
    Algorithmus berichtet, der zu 25 prozent
    die richtigen Ziele ausgewählt hat. Von
  • 32:09 - 32:14
    sich selber aber dachte, es wären 90
    prozent, der also ziemlich schlecht war,
  • 32:14 - 32:18
    aber gleichzeitig gedacht hatte Ich bin
    richtig gut. Und das ist natürlich ein
  • 32:18 - 32:23
    Problem. Es ist auch ein Problem, weil die
    Algorithmen mit der Zeit besser werden und
  • 32:23 - 32:31
    wir dann diese die vielleicht erste
    offensichtliche Linse Ja, okay. Die
  • 32:31 - 32:33
    Algorithmen sind so schlecht und das ist
    das Problem. Nein, das Problem ist
  • 32:33 - 32:38
    eigentlich staatliches Töten und wir
    müssen uns bewusst sein, dass wir dahin
  • 32:38 - 32:44
    müssen, das zu formulieren. Sondern es
    sagte Herrschaft durch Gewalt ist sowohl
  • 32:44 - 32:48
    in autonome Waffentechnologie als auch in
    den Rahmen des Denkens und der Politik
  • 32:48 - 32:53
    eingemeißelt, welcher zu ihrer Entwicklung
    und ihrem potenziellen Einsatz führt. Es
  • 32:53 - 32:58
    geht darum, diese Herrschaft durch Gewalt
    zu kritisieren und nicht nur das Mittel,
  • 32:58 - 33:04
    mit dem sie durchgesetzt wird. Was im
    Krieg nach außen durch autonome
  • 33:04 - 33:10
    Waffensysteme funktioniert, funktioniert
    im Inneren zum Beispiel durch Gewalt,
  • 33:10 - 33:14
    durch Überwachungskameras, die
    biometrische Daten sammeln. Die deutsche
  • 33:14 - 33:26
    Polizei macht da fleißig mit. Es gibt eine
    gute Chance, dass wenn du Anfang Juli 2017
  • 33:26 - 33:30
    in Hamburg fast dein Gesicht für lange
    Zeit in einer Datenbank der Polizei in
  • 33:30 - 33:36
    Hamburg gespeichert war Anfang Juli 2017
    war die G20 Proteste und den nächsten Teil
  • 33:36 - 33:43
    wollte ich eigentlich überspringen. Und im
    Rahmen dieser Strafprozesse im Rahmen
  • 33:43 - 33:47
    dieser Proteste kam es natürlich zu
    Angriffen auf Polizeikräfte. Es kam aber
  • 33:47 - 33:53
    auch durch Angriffe durch, auf
    Demonstrierende, durch die Polizei. Hier
  • 33:53 - 33:59
    zum Beispiel keine Polizeigewalt durch die
    Polizei Hashtag Polizeiproblem. Diese
  • 33:59 - 34:04
    Software, die benutzt wurde, ist wie Demo
    360 und man hat darin mehrere Terabyte
  • 34:04 - 34:09
    Daten hochgeladen, Videoaufnahmen,
    Fotoaufnahmen, um potenzielle GewalttäterIn
  • 34:09 - 34:18
    zu identifizieren. Der Einsatz wurde
    danach vom Verwaltungsgericht Hamburg für
  • 34:18 - 34:23
    rechtmäßig erklärt und eine Beschwerde des
    Datenschutzbeauftragten Hamburgs
  • 34:23 - 34:27
    zurückgesetzt. Im neuen Polizeigesetz
    wurden die Befugnisse des
  • 34:27 - 34:29
    Datenschutzbeauftragten weiter
    zusammengeschnitten, sodass er einfach
  • 34:29 - 34:33
    keine Beschwerde mehr hatte, sondern
    eigentlich nur noch zu einer doofen
  • 34:33 - 34:38
    Marionette wurde. Die Polizei hat diese
    Datenbank mit den und mit den Daten zwar
  • 34:38 - 34:44
    2020 gelöscht, aber nicht, weil es ein
    Fehler war, sondern weil es keine
  • 34:44 - 34:49
    strafrechtlich Erforderlichkeit mehr gab.
    Das Gerichtsurteil ist bestehen geblieben
  • 34:49 - 34:52
    und der Präzedenzfall wurde gesetzt. Die
    Polizei hat schon gesagt, dass sie
  • 34:52 - 34:56
    Interesse hat, mit solchen großen
    Datenbanken weiterzuarbeiten. Bei neuen
  • 34:56 - 35:01
    Protesten deutschlandweit wird im Rahmen
    des Programms Polizei 2020 an
  • 35:01 - 35:05
    bundeseinheitlichen Plattformen
    gearbeitet, die versuchen, die momentane,
  • 35:05 - 35:10
    das momentane Chaos, das föderale
    Überwachungs zu vereinheitlichen und die
  • 35:10 - 35:15
    Daten besser zugänglich zu machen. Die
    Geschichte zeigt aber immer wieder, dass
  • 35:15 - 35:19
    Gesichtserkennung kein Tool ist, was
    einfach funktioniert. Zum Beispiel in der
  • 35:19 - 35:24
    Gender Shell-Studie von 2008 wurde
    gezeigt, dass eigentlich alle
  • 35:24 - 35:28
    Gesichtserkennung, Algorithmen, große
    Unternehmen, schwarze Frauen wesentlich
  • 35:28 - 35:34
    schlechter erkennen als weiße Personen
    oder auch männliche Person. Diese Bias
  • 35:34 - 35:39
    findet sich auch in Amazons Recognition
    Tool wieder, das auf mehr Mitglieder des
  • 35:39 - 35:43
    US amerikanischen Kongresses losgelassen
    wurde und einige von denen zu
  • 35:43 - 35:47
    Straftäterinnen machte. Natürlich, oder
    das heißt natürlich aber kann es
  • 35:47 - 35:52
    überraschenderweise vor allen Dingen
    People of Color. Aber auch hier gibt es
  • 35:52 - 35:56
    wieder ein grundlegendes Problem, nämlich
    dass das Gesichtserkennung im öffentlichen
  • 35:56 - 35:59
    Raum eigentlich überhaupt nichts zu tun
    hat, zu suchen hat und dass
  • 35:59 - 36:03
    Gesichtserkennung auch in den Tools der
    Polizei nichts zu suchen hat. Die Polizei
  • 36:03 - 36:10
    ist ein schwer überwacher Organ und es ist
    eigentlich unmöglich, demokratische
  • 36:10 - 36:16
    Kontrolle auszuüben, ihm dafür zu sorgen,
    dass die Polizei keinen Unsinn macht. Wenn
  • 36:16 - 36:20
    man sich Prozesse wie NSU 2.0 oder
    rechtsextreme TerrorChatgruppen anguckt,
  • 36:20 - 36:25
    sollte man vielleicht eher davon ausgehen,
    dass das passieren wird. Wir sind hier in
  • 36:25 - 36:29
    einer Situation, wo die deutsche Polizei
    machen will, was Facebook nicht mehr machen
  • 36:29 - 36:32
    möchte, nämlich flächendeckende
    Gesichtserkennung. Und wenn man hinter
  • 36:32 - 36:36
    Facebook hinterherhinkt im Jahr 2021, dann
    sollte man sich vielleicht Gedanken
  • 36:36 - 36:42
    machen. Falls ihr an dem Widerstand
    dagegen interessiert seid. Es gibt eine
  • 36:42 - 36:46
    Kampagne namens Reclaim your face, die
    sich gegen Gesichtserkennung und die
  • 36:46 - 36:51
    Sammlung von biometrischen Daten in Europa
    einsetzt. Dafür gibt es auf diesem
  • 36:51 - 36:58
    Raumschiff morgen auch einen Vortrag, wo
    der momentane Stand vorgestellt wird. Der
  • 36:58 - 37:03
    letzte, der letzte Teil des Policing, den
    ich kurz ansprechen möchte und auch Teil
  • 37:03 - 37:08
    des neuen Polizeigesetzes in Hamburg, ist
    Predictive Policing, Predictive Policing
  • 37:08 - 37:13
    oder kurz Voraus in die Vergangenheit. Es
    wird gesagt, ein Algorithmus stellt fest,
  • 37:13 - 37:18
    wo morgen oder vielleicht später des Tages
    Kriminalität stattfinden wird. Und
  • 37:18 - 37:22
    natürlich wird gesagt, das ist neutral.
    Was soll schon passieren? Wieder Markup
  • 37:22 - 37:28
    aber jüngst festgestellt hat, führt es
    eigentlich nur dazu, dass das die Orte, in
  • 37:28 - 37:34
    denen momentan Polizeieinsätze
    stattfinden, auch morgen wieder Ziel von
  • 37:34 - 37:39
    Polizeieinsätzen werden. Niemand kann
    beantworten, warum oder wie das in
  • 37:39 - 37:44
    Deutschland nicht passieren sollte. Ganz
    im Gegenteil eigentlich sogar ein Panel
  • 37:44 - 37:50
    der UN warnt davor, dass der
    unregulierte Einsatz von künstlicher
  • 37:50 - 37:57
    Intelligenz in vielen Regierungen
    rassistische Vorurteile verstärken kann.
  • 37:57 - 38:01
    Wir haben es hier also zu tun mit einer
    Infrastruktur des ständigen staatlichen
  • 38:01 - 38:06
    Zugriffs auf unsere Daten, auf unsere
    Gesichter, auf unser Leben oder... Und es
  • 38:06 - 38:10
    geht nicht nur, es geht nicht mehr nur um
    die Polizei oder nur um das Militär,
  • 38:10 - 38:15
    sondern es geht um eine ganzheitliche
    Verbindung von Geheimdiensten, Polizei und
  • 38:15 - 38:19
    Militär, die alle das Gleiche wollen und
    deren Daten zunehmend interoperabel
  • 38:19 - 38:24
    werden. Firmen wie Palantir z.B.
    versinnbildlichen diese Gemengelage. Die
  • 38:24 - 38:28
    arbeiten zusammen mit der NSA, aber auch
    mit der ISI , also mit der Behörde in den
  • 38:28 - 38:33
    USA, aber auch mit der hessischen Polizei
    oder mit Europol. Also auch die
  • 38:33 - 38:38
    herkömmliche nationale Grenzen
    verschwimmen, dazu einem gewissen Teil.
  • 38:38 - 38:42
    Außen und Innen, Polizei sein
    Militärgeheimdienst verschmelzen und es
  • 38:42 - 38:47
    entsteht eigentlich eine große, umfassende
    oder der Versuch einer großen, umfassenden
  • 38:47 - 38:52
    Überwachungsinfrastruktur. Das Schöne ist,
    dass auch eine Firma wie Palantir Angst
  • 38:52 - 38:56
    hat vor einem Bewusstsein über
    Privatsphäre und auch über ein Bewusstsein
  • 38:56 - 39:00
    dafür, dass die Algorithmen dieser Firmen
    Scheiße bauen. Das heißt, wenn wir, wenn
  • 39:00 - 39:06
    wir daran arbeiten, dass nicht zur
    Normalität werden zu lassen, dann haben
  • 39:06 - 39:12
    wir eine reelle Chance, das auch zu
    verhindern. Und noch kurz ein paar
  • 39:12 - 39:15
    Anmerkungen zu Daten und Privatsphäre. Es
    geht hier vor allem um Zusammenhang von
  • 39:15 - 39:20
    Privatsphäre und nicht um die
    Datensammelwut von Facebook. Dafür gab es
  • 39:20 - 39:24
    jetzt hier gerade vorher zum Beispiel
    einen Vortrag über die Facebook Papers und
  • 39:24 - 39:32
    noch ein, zwei andere Punkte im Fahrplan.
    Wir haben bis jetzt über über staatliche
  • 39:32 - 39:38
    Überwachung gesprochen und wie sie immer
    allgemeiner wird. Das führt dazu. Dass
  • 39:38 - 39:42
    einerseits alle betroffen sind, aber dass
    andererseits Leute, die dem Staat mehr und
  • 39:42 - 39:47
    mehr ausgeliefert sind oder wehrloser
    gegenüber sind, dass die Intensität der
  • 39:47 - 39:51
    Eingriffe diesem gegenüber zunimmt. Als
    Beispiel werden zum Beispiel Hartz-IV-
  • 39:51 - 39:55
    Bezieher, in die quasi ein Offenbarungseid
    gegenüber den Staat abliefern müssen,
  • 39:55 - 39:59
    Geflüchtete bei der Einreise oder auch
    migrantische Communitys, die traditionell
  • 39:59 - 40:05
    immer wieder das gesteigerte Ziel von
    polizeilicher Arbeit sind. Wir haben hier
  • 40:05 - 40:11
    also die Situation, dass Überwachung und
    die die Aufhebung der Privatsphäre ein
  • 40:11 - 40:15
    Problem der betroffenen Individuen ist,
    erst mal auf den ersten Blick. Aber das
  • 40:15 - 40:18
    sollte uns nicht dazu verleiten zu denken,
    das ist ein individuelles Problem ist,
  • 40:18 - 40:22
    sondern es ist ein gesellschaftliches
    Problem. Wir kommen nicht gegen diese
  • 40:22 - 40:27
    Dynamik an, mit dem, ich habe nichts zu
    verbergen---narrativ, weil wir wissen
  • 40:27 - 40:30
    nicht, was morgen morgen trifft. Das
    heißt, wir müssen diese Datafixierung
  • 40:30 - 40:34
    nicht auf einem individuellen Level
    diskutieren, sondern auf einem
  • 40:34 - 40:37
    kollektiven. Auf welche Arten und Weisen
    wollen wir, dass eine Gesellschaft
  • 40:37 - 40:42
    datafiziert ist? Was kann uns als
    Gesellschaft einen einen Nutzen bringen
  • 40:42 - 40:46
    und was nicht? Schlussendlich muss es
    alles, was es für alle möglich sein, ohne
  • 40:46 - 40:52
    Angst vor dem digitalen Panoptikum durch
    die Straßen zu laufen. Privatsphäre und
  • 40:52 - 40:57
    Daten sind aber nicht nur ein Problem, das
    sei noch kurz angemerkt Ich habe ja am
  • 40:57 - 41:00
    Anfang bei ImageNet erwähnt, dass niemand
    gefragt wurde, ob man in diesem Datensatz
  • 41:00 - 41:06
    sein möchte oder nicht. Die Forscherin
    Sascha Luchoni hat jüngst auf Twitter
  • 41:06 - 41:12
    gefragt, was denn ein gutes Example von
    einem KI-Datensatz wäre, wo wirklich nach
  • 41:12 - 41:18
    Einverständnis gefragt wurde. Das it even
    exists? Es stellt sich heraus in allen
  • 41:18 - 41:22
    Responses zu diesem Tweet. Es gibt genau
    eins: Facebooks Casual Convent
  • 41:22 - 41:27
    Conversations Dataset scheint das einzige
    große Daten, der einzige größere Datensatz
  • 41:27 - 41:31
    zu sein, in dem die Beteiligten
    tatsächlich zugestimmt haben, dass ihre
  • 41:31 - 41:41
    Daten für Zwecke des maschinellen Lernens
    verwendet werden. Okay, was tun jetzt oder
  • 41:41 - 41:45
    I want you tech for good? Wir haben
    gesehen, dass wir einen gespenstischen
  • 41:45 - 41:48
    Wind haben, einen gespenstischen digitalen
    Wind, der durch unser Haus, durch unsere
  • 41:48 - 41:53
    Gesellschaft bläst. Wir haben gesehen, wie
    KI das menschliche Zusammenleben
  • 41:53 - 41:57
    kodifiziert und als Mittel staatlicher
    Überwachung und kapitalistischer Kontrolle
  • 41:57 - 42:02
    dienen kann. Das heißt aber auch, dass
    unsere Rassismen, unsere Sexismen und so
  • 42:02 - 42:09
    weiter in diese KI eingeschrieben wird und
    dass gleichzeitig die Technologie sich
  • 42:09 - 42:13
    immer schneller und schneller entwickelt,
    wir aber als Gesellschaft gar kein
  • 42:13 - 42:19
    ethisches Verständnis mehr davon schaffen,
    dass hinterherkommt in dem Tempo der KI
  • 42:19 - 42:25
    und das auch dazu führt. Und dass es geht
    mir jetzt nicht hier darum, KI an sich zu
  • 42:25 - 42:30
    verurteilen, sondern es gibt dafür schöne
    Beispiele. Man kann KI benutzen, um es
  • 42:30 - 42:35
    gegen die Überwacher zu drehen und an zum
    Beispiel für Gesichtserkennung Programme
  • 42:35 - 42:40
    auf die Polizei anzuwenden und so
    Polizisten zu identifizieren, die gegen
  • 42:40 - 42:45
    Protestierende eingesetzt werden. Man kann
    KI zu Hause rumliegen haben und deutsche
  • 42:45 - 42:52
    Behörden Maschinen lesbar machen und so
    besser verstehbar machen. Aber bei allem,
  • 42:52 - 42:58
    dem dürfen wir nicht vergessen, dass
    solange wir, solange wir die Herrschaft
  • 42:58 - 43:01
    der Menschen über die Menschen nicht in
    den Fokus der Kritik richten, sondern uns
  • 43:01 - 43:05
    immer wieder nur an den Symptomen
    abarbeiten, dass wir immer wieder an den
  • 43:05 - 43:07
    gleichen Punkt kommen werden, vielleicht
    mit einer anderen Technologie, aber an den
  • 43:07 - 43:14
    gleichen Punkt. Wie Timnit Gebru sagte
    daß, es geht darum, dass die wenigen
  • 43:14 - 43:23
    Systeme der Unterdrückung schaffen und die
    "others constantly work to prevent harm
  • 43:23 - 43:28
    unable to find the time space or resources
    to implement their own vision of future".
  • 43:28 - 43:32
    Und ich glaube tatsächlich, das ist das,
    wo es im Endeffekt darum gehen würde, dass
  • 43:32 - 43:37
    wir es schaffen, die Zeit und den Willen
    auch zu finden, unsere eigene Vision von
  • 43:37 - 43:44
    der Zukunft zu implementieren. Und dann
    schlussendlich erst wenn wir als Menschen
  • 43:44 - 43:51
    gut zueinander sind, können die Maschinen
    lernen, auch gut zu uns sein zu sein. Um
  • 43:51 - 43:56
    noch mal die Slides wie Sources und alle
    meine Quellen findet ihr auf
  • 43:56 - 44:07
    r.ovl.design/rc3-ki, oder über diesen QR-
    Code. Oder wie gesagt bei Twitter. Damit
  • 44:07 - 44:11
    komme ich zum Ende und möchte mich ganz
    herzlich bedanken bei euch, die ihr
  • 44:11 - 44:15
    zugeguckt haben, bei der C-Base für die
    Einladung hier sprechen zu dürfen und
  • 44:15 - 44:18
    natürlich bei allen Forscherinnen,
    Aktivistinnen, Journalistinnen und so
  • 44:18 - 44:24
    weiter, auf deren Arbeit ich mich implizit
    oder explizit bezogen habe. Vielen Dank!
  • 44:24 - 44:27
    Applaus
  • 44:27 - 44:33
    Herald: Das war großartig, Oskar, vielen
    Dank! 45 Minuten, fast fast ohne Pause, da
  • 44:33 - 44:37
    gab es ja wirklich ein ordentliches
    Update. Wir haben neue Wörter gelernt:
  • 44:37 - 44:44
    kybernetische Verdichtung, kybernetische
    Verdichtung, digitaler Frühkapitalismus.
  • 44:44 - 44:48
    Demnach müssten wir Hacker jetzt helfen,
    dass die modernen digitalen Arbeiter
  • 44:48 - 44:52
    wieder sich selbst ermächtigen und es
    wieder zu einer Aufklärung kommt.
  • 44:52 - 44:53
    Wahrscheinlich.
    Oskar: Zum Beispiel.
  • 44:53 - 44:57
    Herald: Algorithmische Undurchsichtigkeit.
    Da müssten die Hacker dafür sorgen, dass
  • 44:57 - 44:59
    die Algorithmen irgendwie durchsichtiger
    werden. Das Peinliche ist ja auch, dass
  • 44:59 - 45:02
    man dann sehen könnte, wie nackt der
    Kaiser möglicherweise ist.
  • 45:02 - 45:04
    Oskar lacht
    Herald: Und wir müssen den Wissensschatz
  • 45:04 - 45:08
    der Arbeiter, die davon überwacht und
    gesteuert werden, irgendwie zu mehren
  • 45:08 - 45:13
    suchen. Und interessant fand ich auch
    künstliche Ideologie. Das ist also so ein
  • 45:13 - 45:19
    bisschen, sonst spin gibt dahingehend zu
    sagen, dass es künstlich, also ist es
  • 45:19 - 45:22
    intelligent, auch wenn es vielleicht gar
    nicht so intelligent ist. Aber künstliche
  • 45:22 - 45:26
    Intelligenz ist ja schon mal ein Wert an
    sich. Stochastische Papageien fand ich
  • 45:26 - 45:31
    auch interessant, dass also so große
    Mengen an Daten, wenn man sie statistisch
  • 45:31 - 45:35
    auswertet, natürlich auch statistische
    Artefakte produzieren. Wer hätte das nur
  • 45:35 - 45:39
    denken können? Aufgabe der Hacker hier
    also auch Selbstermächtigung, Aufklärung
  • 45:39 - 45:42
    und Nachgucken. Wie funktioniert das
    eigentlich, was wir immer schon gemacht
  • 45:42 - 45:46
    haben? Und jetzt die einzige Hörerfrage,
    die in der kurzen Zeit jetzt gekommen ist.
  • 45:46 - 45:50
    Oder vielleicht auch Zuschauerfrage? Ist
    Glaubst du, dass es einen künstlichen
  • 45:50 - 45:57
    Dunning-Krüger Effekt gibt?
    Oskar: lacht verzweifelt Das ist eine
  • 45:57 - 46:04
    sehr interessante Frage, die ich
    vielleicht nächstes Jahr in einem Vortrag
  • 46:04 - 46:08
    beantworten werde. Es ist eine sehr
    interessante Frage. Ich muss darüber
  • 46:08 - 46:14
    nachdenken. Ich kann es mir vorstellen,
    aber ich möchte, ich kann es jetzt gar
  • 46:14 - 46:17
    nicht so kohärent beantworten, wie die
    Frage vielleicht beantwortet werden
  • 46:17 - 46:20
    müsste.
    Herald: Okay, dafür ist die KI Landschaft
  • 46:20 - 46:23
    vielleicht ja auch etwas diverser als die
    Menschen Landschaft da draußen.
  • 46:23 - 46:27
    Oskar: Na ja, bis jetzt hat sich gezeigt,
    dass die KI Landschaft vor allen Dingen
  • 46:27 - 46:29
    ziemlich genau das Abbild der Menschen
    Landschaft ist. Aber die Menschen
  • 46:29 - 46:33
    Landschaft ist natürlich auch sehr divers
    und das ist ja auch ein Vorteil, den wir
  • 46:33 - 46:36
    haben können. Nur weil ich jetzt darüber
    viel darüber gesprochen habe, wie
  • 46:36 - 46:39
    künstliche Intelligenz und Herrschaft
    interagieren, heißt es ja, heißt das ja
  • 46:39 - 46:43
    nicht, dass das für immer so bleiben muss,
    sondern künstliche Dinge kann auch
  • 46:43 - 46:46
    emanzipativ werden.
    Herald: Ja, das ist ja interessant. Also
  • 46:46 - 46:50
    heißt das, die Geschichte wiederholt sich
    wie immer einerseits ja, am Ende aber doch
  • 46:50 - 46:54
    nicht. Und es wird nicht so laufen. Mal
    wieder nicht so, wie Marx es vorausgesagt
  • 46:54 - 46:55
    hat.
    Oskar: Na ja.
  • 46:55 - 46:56
    Herald: Nicht mit wissenschaftlicher
    Genauigkeit.
  • 46:56 - 47:00
    Oskar: Ich glaube, wenn man, wenn man
    genauer hinguckt, der
  • 47:00 - 47:03
    Geschichtsdeterminismus und die
    Voraussage, dass sich die Geschichte auf
  • 47:03 - 47:05
    eine bestimmte Art entwickeln wird, ist
    wahrscheinlich einer der größten
  • 47:05 - 47:09
    Schwachpunkte bei Marx und Engels. Und
    natürlich ist...
  • 47:09 - 47:13
    Herald: Bei der KI auch.
    Oskar: Bei, bei der KI auch, wobei die KI
  • 47:13 - 47:16
    eigentlich immer wieder nur eine
    Wiedergabe der Vergangenheit ist und
  • 47:16 - 47:18
    deswegen ja noch gar nicht damit
    beschäftigt sein kann, wie die Zukunft
  • 47:18 - 47:21
    ist. Alles, was ihr über die Zukunft sagt,
    so wie es gestern war und das bringt uns
  • 47:21 - 47:24
    alles und uns nichts.
    Herald: Bringt das hier an Bord gar
  • 47:24 - 47:27
    nichts, wie wir rekonstruieren. Ja, die
    Zukunft, das müsste die KI erst mal
  • 47:27 - 47:29
    lernen.
    Oskar: Ja. Und wir können die Zukunft auch
  • 47:29 - 47:32
    gestalten, weil wir müssen nicht die
    Fehler der Vergangenheit immer wieder und
  • 47:32 - 47:36
    wieder reproduzieren, sondern wir können
    tatsächlich sagen, das war ein Fehler, wir
  • 47:36 - 47:39
    wollen es jetzt anders machen.
    Herald: Also eine Riesenaufgabe für
  • 47:39 - 47:43
    Hacker. Ich glaube damit zusammen, dass es
    die Sorte Vortrag, die man noch mal
  • 47:43 - 47:45
    angucken kann.
    Oskar lacht
  • 47:45 - 47:49
    Herald: Herzlichen Dank! Grüße von der
    C-Base. Es geht hier um 21 Uhr weiter. Bis
  • 47:49 - 47:53
    dann everything ist Lizenz cc by vor
    Politisierung des Altvordere Community to
  • 47:53 - 47:56
    do what.
  • 47:56 - 48:01
    Untertitel erstellt von c3subtitles.de
    im Jahr 2022. Mach mit und hilf uns!
Title:
Computer Says No – Künstliche Intelligenz & Herrschaft
Description:

more » « less
Video Language:
German
Duration:
48:01

German subtitles

Revisions