Return to Video

34C3 - Beeinflussung durch Künstliche Intelligenz

  • 0:16 - 0:22
    Herald-Angel: Der nächste Vortrag ist
    „Beeinflussung durch Künstliche
  • 0:22 - 0:27
    Intelligenz". Es ist ein
    Einführungsvortrag, also einer der
  • 0:27 - 0:32
    explizit dazu gedacht ist, dass ihr das
    ohne Vorkenntnisse versteht. Und es geht
  • 0:32 - 0:41
    ums Maschinelle Lernen. Unsere Sprecher
    sind die Karen – sie forscht in Amsterdam
  • 0:41 - 0:48
    an Maschinellem Lernen, kommt ursprünglich
    aus Leipzig – und der Hendrik Heuer, der
  • 0:48 - 0:55
    in Bremen an Mensch-Computer-Interaktion
    forscht. Großes Willkommen für die beiden!
  • 0:55 - 1:03
    Applaus
  • 1:03 - 1:07
    Hendrik Heuer: Vielen Dank! Moin erstmal!
    Willkommen zu unserem Vortrag
  • 1:07 - 1:11
    „Beeinflussung durch Künstliche
    Intelligenz" über die Banalität der
  • 1:11 - 1:15
    Beeinflussung und das Leben mit
    Algorithmen. Wir würden gern mit einem
  • 1:15 - 1:20
    Zitat von Kate Crawford beginnen. Kate
    Crawford ist die Gründerin des AI Now
  • 1:20 - 1:24
    Institut das die sozialen Auswirkungen von
    künstlicher Intelligenz untersucht. Sie
  • 1:24 - 1:28
    ist außerdem ein Principal Researcher bei
    Microsoft Research und Professorin an der
  • 1:28 - 1:34
    New York University. Und die hat beim AI
    Now Symposium in diesem Jahr gesagt: „Die
  • 1:34 - 1:37
    Menschen befürchten, dass Computer zu
    intelligent werden und die Welt erobern.
  • 1:37 - 1:43
    Aber Computer sind zu dumm und haben die
    Welt bereits erobert." Wir teilen diese
  • 1:43 - 1:47
    Ansicht. Es gibt keine digitale Welt. Die
    Welt ist digital, das heißt durch digitale
  • 1:47 - 1:52
    Medien konstruiert. Und uns war es ein
    Anliegen, einige englischsprachige
  • 1:52 - 1:56
    Diskussion jetzt nochmal auf Deutsch
    zusammenzuführen. Es können also Beispiele
  • 1:56 - 2:01
    kommen die der eine oder andere vielleicht
    schon kennt. Aber wir führen sie hier
  • 2:01 - 2:05
    nochmal zusammen und versuchen sie zu
    kontextualisieren. Warum Banalität der
  • 2:05 - 2:10
    Überwachung? Banalität, weil die Systeme
    des maschinellen Lernens im Kern sehr
  • 2:10 - 2:15
    simpel sind, weil aber auch die
    Beeinflussung sehr subtil sein kann und
  • 2:15 - 2:17
    das Ganze ist auch eine Reminiszenz an
    Hannah Arendt.
  • 2:17 - 2:21
    Noch mal kurz zu uns. Wie gesagt: Ich
    werde die ersten 20 Minuten sprechen über
  • 2:21 - 2:25
    die Mensch-Computer-Interaktions-
    Perspektive, Karen Ullrich wird die zweite
  • 2:25 - 2:29
    Hälfte bestreiten. Karen ist
    wissenschaftliche Mitarbeiterin in
  • 2:29 - 2:34
    Amsterdam, im Amsterdam Machine Learning
    Lab, und sie forscht direkt zu den
  • 2:34 - 2:38
    Algorithmen des maschinellen Lernens,
    insbesondere Bayesian methods, also ein
  • 2:38 - 2:42
    Hintergrund im Deep Learning und der
    Informationstheorie. Ich bin
  • 2:42 - 2:46
    wissenschaftlicher Mitarbeiter im Institut
    für Informationsmanagement Bremen und mir
  • 2:46 - 2:50
    geht es um die Nutzererfahrung von
    Maschine Learning, insbesondere das
  • 2:50 - 2:56
    Vertrauen. Wir würden jetzt gerne anfangen
    mit einem Beispiel, das jeder kennt: Spam-
  • 2:56 - 3:00
    Erkennung. Benutzt wahrscheinlich jeder
    hier. Funktioniert auch nicht immer. Aber
  • 3:00 - 3:03
    man muss sich wirklich vor Augen führen,
    dass es eine beeindruckende technische
  • 3:03 - 3:07
    Leistung ist, auch wenn es manchmal nicht
    funktioniert. Und wir nehmen es hier, um
  • 3:07 - 3:12
    den Unterschied zwischen imperativer
    Programmierung und maschinellem Lernen zu
  • 3:12 - 3:17
    verdeutlichen. Imperative Programmierung
    ist das, woran wahrscheinlich jeder denkt,
  • 3:17 - 3:18
    wenn er an Informatik und Programmierung
    denkt.
  • 3:18 - 3:22
    Es geht um Regeln und Anweisungen: Wenn X
  • 3:22 - 3:26
    dann Y. Das Wort Imperativ für Befehl
    steckt ja auch schon im Namen. Und wenn
  • 3:26 - 3:30
    wir jetzt Spam imperativ erkennen wollen
    würden, dann würde man zum Beispiel
  • 3:30 - 3:34
    gucken, Okay das Wort Viagra wird so
    geschrieben in der Nachricht vorkommen,
  • 3:34 - 3:39
    dann ist es eine Spam-Nachricht.
    Andererseits ist es eine gutartige
  • 3:39 - 3:44
    Nachricht. Maschinelles Lernen ist jetzt
    ein komplett anderer Ansatz. Da hat man
  • 3:44 - 3:49
    eine Vorhersage die man iterativ, also
    immer und immer wieder, verbessert. Für
  • 3:49 - 3:53
    die Spam-Klassifikation versucht man zum
    Beispiel Kombinationen von Wörtern zu
  • 3:53 - 3:57
    finden, durch die es wahrscheinlich wird,
    dass es sich um Spam handelt.
  • 3:57 - 4:02
    Der Kernbegriff ist hier also wahrscheinlich. Und
    das sieht dann so aus, dass man für viele
  • 4:02 - 4:07
    verschiedene Beispiele prognostiziert, ob
    eine Nachricht Spam ist oder nicht. Dann
  • 4:07 - 4:12
    berechnet man Fehler mit einer geeigneten
    Fehlerfunktion und dann ändert man seine
  • 4:12 - 4:17
    Parameter, um den Fehler zu verringern und
    geht wieder zum ersten Schritt und macht
  • 4:17 - 4:22
    das immer und immer wieder. Natürlich ist
    es nicht ganz so einfach, diesen Fehler zu
  • 4:22 - 4:25
    berechnen, und auch die Parameter zu
    verändern, ist ein eigenes
  • 4:25 - 4:28
    Forschungsgebiet. Aber im Kern ist es
    wirklich so simpel wie wir es hier
  • 4:28 - 4:33
    darstellen. Und deswegen ist es spannend
    im Hinterkopf zu behalten. Dabei ist es
  • 4:33 - 4:37
    aber spannend im Hinterkopf zu behalten,
    dass Spam-Erkennen nicht mit
  • 4:37 - 4:41
    Textverständnis gleichzusetzen ist. Das
    heißt der Algorithmus muss nicht erst
  • 4:41 - 4:45
    Kafka verstehen können, um zu erkennen, ob
    etwas Spam ist oder nicht. Und dieses
  • 4:45 - 4:49
    Problem, dass etwas wirkungsvoller
    aussieht als es vermeintlich ist, wird uns
  • 4:49 - 4:55
    im Laufe des Vortrags noch begegnen.
    Wir haben jetzt ein weiteres, immer noch
  • 4:55 - 4:59
    vereinfachtes Beispiel für eine
    Entscheidungshilfe, hier aus der Medizin.
  • 4:59 - 5:04
    Das Ziel ist hier die Erkennung von
    Brustkrebs. Statt Wörtern wie beim Spam
  • 5:04 - 5:10
    haben wir verschiedene Features, das heißt
    Charakteristika, an denen man zum Beispiel
  • 5:10 - 5:15
    gutartigen von bösartigem Brustkrebs
    unterscheiden kann. Dazu gehören hier der
  • 5:15 - 5:21
    Radius, die Textur, Umfang, Fläche, Glätte
    aber auch so Sachen wie die Symmetrie und
  • 5:21 - 5:26
    die Zahl konkaver Punkte, also nach innen
    gewölbter Punkte, das seht ihr hier oben.
  • 5:26 - 5:31
    Insgesamt gibt es in diesem vereinfachten
    Datensatz 32 verschiedene Charakteristika.
  • 5:31 - 5:36
    Und wenn wir jetzt zwei Charakteristika
    wie z.B. die durchschnittliche Zahl der
  • 5:36 - 5:41
    konkaven Punkte und die durchschnittliche
    Fläche in Pixeln anschauen und abtragen,
  • 5:41 - 5:45
    dann erkennt man eine deutliche Tendenz:
    Ab einem bestimmten Punkt – ab einer
  • 5:45 - 5:49
    bestimmten Zahl Punkte und ab einer
    bestimmten Fläche – sehen wir nur noch
  • 5:49 - 5:54
    bösartigen Brustkrebs. Das heißt
    mathematisch können wir im Beispiel
  • 5:54 - 5:58
    einfach eine Linie durch diesen Datensatz
    ziehen und das ist eine sogenannte
  • 5:58 - 6:02
    Entscheidungsgrenze, die Decision-
    Boundary. Die Entscheidungsgrenze muss
  • 6:02 - 6:05
    nicht linear sein, es muss nicht eine
    einfache Linie sein.
  • 6:05 - 6:10
    Die kann durchaus komplexer sein und in
    der Regel ist sie das. Und dieser Ansatz
  • 6:10 - 6:15
    ist durchaus analog zu dem, was eine
    erfahrene Ärztin oder ein erfahrener Arzt
  • 6:15 - 6:19
    mehr oder weniger bewusst machen würde.
    Die haben auch aus Erfahrung gelernt: ab
  • 6:19 - 6:24
    der Größe, und ab der Fläche und der Zahl
    ist es wahrscheinlich bösartig oder
  • 6:24 - 6:27
    gutartig. Der Clou am Maschinellen Lernen
    ist jetzt, dass wir das für viele
  • 6:27 - 6:32
    verschiedene Charakteristika gleichzeitig
    machen können. Und darüber hinaus
  • 6:32 - 6:36
    profitieren wir sehr stark davon, wenn wir
    mehr Daten haben, weil wir dadurch bessere
  • 6:36 - 6:39
    Entscheidungen treffen können. Weil wir
    eine bessere Entscheidungsgrenze finden.
  • 6:39 - 6:45
    Ihr seht aber auch, dass eine gute Zahl an
    roten und blauen Punkten im Beispiel auf
  • 6:45 - 6:50
    der falschen Seite der Grenze liegen.
    Das heißt dort machen wir Fehler und da
  • 6:50 - 6:53
    muss man im Hinterkopf behalten, dass es
    verschiedene Arten von Fehlern gibt und
  • 6:53 - 6:57
    die auch verschiedene Auswirkungen haben.
    Falls ich zum Beispiel jemandem mit
  • 6:57 - 7:03
    gutartigen Brustkrebs fälschlicherweise
    sage, dass ihr Brustkrebs bösartig ist,
  • 7:03 - 7:08
    löst das sicherlich Stress aus und ist
    keine angenehme Situation. Falls ich aber
  • 7:08 - 7:12
    jemanden mit bösartigem Brustkrebs
    fälschlicherweise sage, dass ihr
  • 7:12 - 7:15
    Brustkrebs gutartig ist und sie auch
    entsprechend behandle, kann das deutlich
  • 7:15 - 7:20
    schlimmere Konsequenzen haben. Das ist
    jetzt natürlich ein vereinfachtes
  • 7:20 - 7:25
    Beispiel. Aber gleichzeitig werden wir
    zeigen, dass ähnliche Entscheidungshilfen
  • 7:25 - 7:29
    durchaus in sehr kritischen Bereichen
    genutzt werden. Vorher wollen wir noch
  • 7:29 - 7:34
    einmal die Wirkungsmacht von Big Data
    zeigen und da geht es darum,
  • 7:34 - 7:40
    Persönlichkeitsmerkmale zu erkennen. Das
    heißt hier nimmt man digitale Spuren wie
  • 7:40 - 7:44
    Facebook-Likes, die relativ einfach
    zugänglich sind, es aber ermöglichen,
  • 7:44 - 7:47
    hochgradig sensible
    Persönlichkeitsmerkmale vorherzusagen.
  • 7:47 - 7:54
    Das ist ein Paper von 2013 und für die
    Studie haben sie 58.000 Freiwillige in den
  • 7:54 - 7:58
    USA gefunden, die eine Facebook-App
    benutzt haben. Und die haben dieser
  • 7:58 - 8:02
    Facebook-App ihr komplettes Profil zur
    Verfügung gestellt mit allen Likes aber
  • 8:02 - 8:06
    auch mit allen Informationen wie zum
    Beispiel der sexuellen Orientierung oder
  • 8:06 - 8:11
    der religiösen Zugehörigkeit. Was jetzt
    gemacht wurde ist mit einem sehr einfachen
  • 8:11 - 8:17
    Modell, mit einem einfachen Regressions-
    Modell, vorhergesagt, von welchen Likes,
  • 8:17 - 8:21
    ob man anhand der Likes bestimmte
    Persönlichkeitsmerkmale erkennen kann. Und
  • 8:21 - 8:27
    es zeigt sich, dass man zum Beispiel mit
    95-prozentiger Genauigkeit erkennen kann,
  • 8:27 - 8:33
    ob jemand weiß oder afroamerikanisch ist.
    Sexuelle Orientierung kann man auch mit
  • 8:33 - 8:39
    sehr hoher Genauigkeit nur anhand der
    Likes erkennen, das Geschlecht, die
  • 8:39 - 8:44
    politische Orientierung, die religiöse
    Zugehörigkeit, aber auch so Sachen wie die
  • 8:44 - 8:49
    Drogenerfahrung und der Familienstand der
    Eltern in der Kindheit.
  • 8:49 - 8:54
    Und ihr seht schon bei der religiösen
    Zugehörigkeit sind wir bei 82 Prozent
  • 8:54 - 8:59
    Genauigkeit, bei so etwas wie
    Drogenerfahrung und der Ehe ist es relativ
  • 8:59 - 9:04
    wenig mit der Genauigkeit: Es ist eine
    50/50 Chance, wenn wir raten würden.
  • 9:04 - 9:09
    Aber es ist trotzdem eine Indikation. Und
    wir zeigen das auch nur, weil das
  • 9:09 - 9:13
    wahnsinnige Möglichkeiten der
    Diskriminierung bildet. Und das passiert
  • 9:13 - 9:18
    auch auf dem Wohnungsmarkt oder auf dem
    Arbeitsmarkt. Das heißt was wir hier
  • 9:18 - 9:21
    zeigen wollen, ist, dass wir unsere
    Vorstellungen von Datenschutz überdenken
  • 9:21 - 9:26
    und ausweiten müssen, weil man halt auch
    Persönlichkeitsmerkmale inferieren können
  • 9:26 - 9:32
    kann. Denn man kann mit solchen Modellen
    auch die Likes finden, die am
  • 9:32 - 9:36
    aussagekräftigsten für ein bestimmtes
    Charakteristikum sind. Das heißt wir haben
  • 9:36 - 9:41
    hier drei Likes: einmal die Marke Harley-
    Davidson, Kringel-Pommes/curly fries und
  • 9:41 - 9:45
    das Musical Wicked. Und ich überlasse es
    euch mal, herauszufinden, welches Bild mit
  • 9:45 - 9:50
    niedriger Intelligenz, hoher Intelligenz
    und Homosexualität bei Männern verbunden
  • 9:50 - 9:56
    ist. Diese durchaus fragwürdige
    Forschungsrichtung nennt sich Psychometrik
  • 9:56 - 10:01
    oder auch Psychografie. Und das Spannende
    ist, dass sie ja relativ nah dran ist am
  • 10:01 - 10:04
    Kern-Versprechen von so Unternehmen wie
    Google und Facebook.
  • 10:04 - 10:09
    Denn die versprechen ihren Kunden – ihren
    Werbekunden – wir finden für euch
  • 10:09 - 10:13
    Leute, die sich für Dienst X oder Produkt
    Y interessieren könnten. Und hier haben
  • 10:13 - 10:18
    wir jetzt das Element der Beeinflussung.
    Beeinflussung heißt hier, Big Data zu
  • 10:18 - 10:23
    nutzen, um Leute zu finden, und die
    Beeinflussung ist noch sehr banal. Aber
  • 10:23 - 10:27
    solche Forschung kann natürlich auch
    genutzt werden, um zum Beispiel in einer
  • 10:27 - 10:31
    großen Menge von Wählerinnen jene zu
    finden, die noch überzeugt werden könnten.
  • 10:31 - 10:35
    Und ihr habt – viele von euch haben
    wahrscheinlich den Artikel in das Magazin
  • 10:35 - 10:39
    gelesen, wo kolportiert wurde, dass diese Art
    von Psychografie für Trump und Brexit
  • 10:39 - 10:43
    verantwortlich ist. Vor der Bundestagswahl
    gab es ja auch eine große Diskussion, dass
  • 10:43 - 10:48
    das hier passieren könnte. Wir glauben,
    dass das mit Vorsicht zu genießen ist,
  • 10:48 - 10:51
    aber die Möglichkeit mit derartigen
    Ansätzen überzeugbare Wählerinnen und Wähler
  • 10:51 - 10:54
    zu finden und anzusprechen, ist durchaus
    realistisch.
  • 10:54 - 11:01
    Und wir haben schon gesehen, dass es
    dadurch so eine Art Diskriminierung 2.0
  • 11:01 - 11:05
    gibt. Denn ein homophober Arbeitgeber muss
    nicht mehr direkt erfragen, ob jemand
  • 11:05 - 11:10
    homosexuell ist, wenn er es aus einem
    Facebook-Profil vorhersagen kann, und es
  • 11:10 - 11:13
    interessiert ihn vielleicht auch nicht, ob
    er da einen Fehler macht und einen
  • 11:13 - 11:18
    Heterosexuellen möglicherweise falsch
    einordnet. Diese Beeinflussung kann aber
  • 11:18 - 11:24
    durchaus direkter sein. In den USA werden
    Algorithmen jetzt schon im Justizsystem
  • 11:24 - 11:28
    als Entscheidungshilfe eingesetzt, und da
    wird zum Beispiel mit bestimmten
  • 11:28 - 11:33
    Informationen über die Leute vorhergesagt,
    ob jemand rückfällig wird, der im
  • 11:33 - 11:38
    Gefängnis ist, oder nicht. Das heißt man
    versucht vorherzusagen auf einer Skala von
  • 11:38 - 11:44
    1 für ungefährlich bis 10 für hochgradig
    gefährlich, wo jemand hinkommt. Und hier
  • 11:44 - 11:49
    haben wir zwei Beispiele: Einmal den Herrn
    links – VP die Initialen –, der zwei
  • 11:49 - 11:54
    bewaffnete Raubüberfälle begangen und
    einen versuchten bewaffneten Raubüberfall,
  • 11:54 - 11:59
    und die Risikoeinschätzung ist hier 3
    niedriges Risiko.
  • 11:59 - 12:04
    Daneben steht die Dame – BB –, die hat
    vier Ordnungswidrigkeiten unter
  • 12:04 - 12:12
    Jugendstrafrecht auf dem Kerbholz, und die
    wird eingestuft mit hohes Risiko. Und wie
  • 12:12 - 12:15
    sieht das jetzt aus. Also die Leute von
    ProPublica die das recherchiert haben,
  • 12:15 - 12:21
    haben jetzt über zwei Jahre geguckt, wer
    wirklich rückfällig wird und wer nicht. BB
  • 12:21 - 12:25
    – die Dame rechts –, die begeht keine
    weiteren Verbrechen. VP – der Herr links
  • 12:25 - 12:28
    –, der begeht nach seiner Freilassung
    direkt einen schweren Diebstahl. Das
  • 12:28 - 12:31
    Besondere ist hier, und ihr werdet es
    wahrscheinlich schon geraten haben, ist,
  • 12:31 - 12:36
    dass der Algorithmus systematisch
    Afroamerikanerinnen diskriminiert. Es gibt
  • 12:36 - 12:41
    also ein Bias, eine Verzerrung, gegen
    Schwarze. Darüber hinaus sind diese
  • 12:41 - 12:46
    Vorhersagen von den proprietären Kompass-
    Systemen nur in 61 Prozent derzeit
  • 12:46 - 12:51
    richtig. Wenn man jetzt die wirkliche
    Rückfälligkeit über zwei Jahren nimmt. Und
  • 12:51 - 12:55
    wir kennen das aus der Statistik: Dort
    unterscheiden wir den Fehler erster Art
  • 12:55 - 12:59
    und den Fehler zweiter Art. Das heißt
    unsere Nullhypothese ist: Der oder die
  • 12:59 - 13:04
    Straftäterin wird nicht rückfällig.
    Der Fehler erster Art ist jetzt, dass die,
  • 13:04 - 13:09
    die mit hohem Risiko eingestuft werden,
    aber nicht rückfällig werden. Und da sehen
  • 13:09 - 13:12
    wir – oder hat ProPublica herausgefunden
    –, dass die Wahrscheinlichkeit, dass ein
  • 13:12 - 13:18
    Weißer oder eine Weiße Opfer dieses
    Fehlers wird, bei 23,5 Prozent liegt und
  • 13:18 - 13:22
    bei Afroamerikanerinnen liegt die
    Wahrscheinlichkeit bei 44,9, also fast
  • 13:22 - 13:26
    doppelt so hoch. Es gibt auch den Fehler
    zweiter Art. Das ist die
  • 13:26 - 13:29
    Wahrscheinlichkeit,
    dass jemand mit niedrigem Risiko
  • 13:29 - 13:34
    eingestuft wird, aber trotzdem rückfällig
    wird. Und hier ist die Wahrscheinlichkeit
  • 13:34 - 13:42
    umgekehrt: Weiße haben eine 47-Prozent-
    Chance diesem Fehler zum Opfer zu fallen.
  • 13:42 - 13:50
    Afroamerikanerinnen nur 28 Prozent. Aber
    wie kommt das? Wir nehmen jetzt mal an,
  • 13:50 - 13:53
    dass das kompetente Programmiererinnen
    sind, die in den Maschine Learning Kursen,
  • 13:53 - 13:57
    die sie gemacht haben, gut aufgepasst
    haben und technisch alles richtig gemacht
  • 13:57 - 14:00
    haben.
    Nun lernt Maschine Learning immer eine
  • 14:00 - 14:05
    Abbildung von einem X auf ein Y. Z. B.
    hier haben wir bestimmte Informationen zu
  • 14:05 - 14:11
    Gefangenen und diese Rückfälligkeit der
    Gefangenen. Das Problem ist jetzt das X
  • 14:11 - 14:15
    ist keine Stichprobe der Grundgesamtheit,
    sondern eine Untermenge der
  • 14:15 - 14:19
    Grundgesamtheit, die die Polizei
    untersucht hat. Es ist also ein X', es ist
  • 14:19 - 14:24
    nicht repräsentativ. Und das kann eine
    selbsterfüllende Prophezeiung sein. Denn
  • 14:24 - 14:27
    vielleicht sind Afroamerikanerinnen
    einfach in der Situation, dass sie
  • 14:27 - 14:32
    deutlich häufiger kontrolliert werden und
    es einfach dadurch mehr Straffälle in
  • 14:32 - 14:37
    dem Datensatz gibt. Und auf der auch auf
    der anderen Seite auf der Y Seite, das
  • 14:37 - 14:40
    heißt diese Risikobeurteilung, ob man
    rückfällig wird oder nicht, ist ebenfalls
  • 14:40 - 14:45
    eine Verfälschung. Denn die bezieht sich
    ja auch nur auf die, die vom Rechtssystem
  • 14:45 - 14:50
    verurteilt werden.
    Das heißt hier haben wir auch ein Y'. Wenn
  • 14:50 - 14:54
    man zum Beispiel ein Jurysystem hat, wie
    man es in den USA findet, dann kann auch
  • 14:54 - 14:59
    dort latent oder weniger latent
    diskriminiert werden. Das macht Maschine
  • 14:59 - 15:04
    Learning – pseudo-objektive, mathematische
    Modelle – zu einer Art Geldwäsche für
  • 15:04 - 15:09
    Vorurteile. Weil sie fallen in dieses
    System rein und sind dann erst einmal
  • 15:09 - 15:14
    nicht mehr sichtbar. Und hier kommen wir
    jetzt zum Element der direkten
  • 15:14 - 15:17
    Beeinflussung.
    Denn diese Systeme werden zwar nur als
  • 15:17 - 15:22
    Entscheidungshilfen verkauft, es sind halt
    nur Werkzeuge, die genutzt werden können,
  • 15:22 - 15:26
    aber die Leute, die die Entscheidung
    treffen, verlassen sich direkt auf diese
  • 15:26 - 15:30
    Systeme. Das heißt sie vertrauen diesen
    diskriminierenden Algorithmen. Das
  • 15:30 - 15:33
    Beispiel kommt aus dem hervorragenden
    Deutschlandfunk-Feature von Thomas
  • 15:33 - 15:40
    Schimmeck. Und der hat zum Beispiel
    Veronika Hiller, die Bewährungshelferin,
  • 15:40 - 15:45
    die dem Richter im Endeffekt ein Strafmaß
    vorschlägt, interviewt. Das Spannende ist,
  • 15:45 - 15:48
    die hat also ein Vierteljahrhundert
    Erfahrung im Dienst. Aber sie schwört auf
  • 15:48 - 15:53
    diesen Algorithmus. Sie sagt der ist gut,
    akkurat und einfach. Was wir einfach
  • 15:53 - 15:58
    zeigen wollen, ist, dass es hier um sozio-
    technische Systeme geht. Das heißt es
  • 15:58 - 16:02
    geht nicht nur um das Maschine Learning.
    Es geht nicht nur um den Algorithmus.
  • 16:02 - 16:05
    Sondern es geht auch um die Menschen, die
    ihn nutzen. Denn selbst wenn das System
  • 16:05 - 16:10
    fair wäre – wir haben gerade gesehen dass
    es das nicht ist –, heißt es immer noch
  • 16:10 - 16:14
    nicht, dass die Ergebnisse des Systems
    auch fair interpretiert werden, und wir
  • 16:14 - 16:18
    finden das ist sehr wichtig für jene, die
    solche Systeme bauen – und da sind
  • 16:18 - 16:22
    wahrscheinlich einige heute hier. Diese
    Verzerrung in und durch Daten sind
  • 16:22 - 16:27
    allgegenwärtig. Wir haben zum Beispiel
    hier ein Beispiel von Google. Das ist eine
  • 16:27 - 16:32
    Suche nach den Keywords „Three White
    Teenagers". Und das ist eine Suche nach
  • 16:32 - 16:38
    den Keywords „Three Black Teenagers". Das
    heißt Technologie offenbart hier
  • 16:38 - 16:42
    gesellschaftliche Probleme.
    Wir haben es wie gesagt mit sozi-
  • 16:42 - 16:47
    technischen Systemen zu tun, die eine
    bestimmte Weltvorstellung festschreiben,
  • 16:47 - 16:52
    vermitteln, aber auch verstärken können.
    Und die Probleme können ganz subtil und
  • 16:52 - 16:56
    banal sein wie zum Beispiel dieses
    Beispiel aus der statistischen Übersetzung
  • 16:56 - 17:00
    zeigt: Jetzt muss man wissen, dass die
    türkische Sprache nicht zwischen
  • 17:00 - 17:04
    Geschlechtern unterscheidet, das heißt
    „er", „sie" und „es" sind alle „o". Es
  • 17:04 - 17:08
    gibt auch keine Unterscheidung zwischen
    „Arzt" und „Ärztin" beides „Doktor". Und
  • 17:08 - 17:12
    wenn wir jetzt mit Google Translate oder
    einem anderen statistischen
  • 17:12 - 17:17
    Übersetzungsprogramm Sätze wie „Er ist ein
    Babysitter." und „Sie ist eine Ärztin."
  • 17:17 - 17:21
    hin und her übersetzen, dann stellen wir
    fest, dass die Übersetzung bestimmte
  • 17:21 - 17:23
    Geschlechterklischees widerspiegelt.
  • 17:23 - 17:28
    Und ihr könnt mit dem was ihr bisher über
    Machine Learning gelernt habt in diesem
  • 17:28 - 17:32
    Vortrag vielleicht schon erklären, wie das
    passiert. Wir lernen aus Beispielen und in
  • 17:32 - 17:38
    diesen Beispielen sind Verzerrungen. In
    diesem Fall mehr weibliche Babysitter,
  • 17:38 - 17:41
    mehr männliche Ärzte.
    Denn wenn wir übersetzen dann berechnen
  • 17:41 - 17:45
    wir ja Wahrscheinlichkeiten und nehmen in
    der Regel einfach das wahrscheinlichste
  • 17:45 - 17:49
    Ergebnis. Das heißt selbst minimale
    Verzerrungen können verstärkt werden. Das
  • 17:49 - 17:55
    heißt eine Babysitterin mehr, ein Arzt
    mehr und diese Übersetzung sieht so aus,
  • 17:55 - 17:59
    wie wir sie gerade sehen. Aber hier haben
    wir etwas, das technisch erklärbar ist.
  • 17:59 - 18:03
    Aber welche Auswirkungen hat das auf die
    NutzerInnen. Welche Auswirkungen hat das
  • 18:03 - 18:09
    auf die Weltsicht, wenn man die Google-
    Ergebnisse so sieht wie man sie sieht. Und
  • 18:09 - 18:14
    anhand von Facebook wollen wir jetzt
    zeigen, wie direkt und intransparent diese
  • 18:14 - 18:18
    Beeinflussung sein kann. Auch Facebook ist
    ein hochkomplexes sozio-technisches
  • 18:18 - 18:23
    System, in dem NutzerInnen gleichzeitig
    Produzenten und KonsumentInnen sind.
  • 18:23 - 18:29
    Facebooks erklärtes Ziel lautet ja, jedem
    zu jeder Zeit die richtigen Inhalte zu
  • 18:29 - 18:34
    zeigen. Dafür nutzt Facebook nach eigener
    Aussage hundert tausend verschiedene
  • 18:34 - 18:38
    Faktoren, um algorithmisch die besten
    Geschichten aus den potenziellen
  • 18:38 - 18:40
    Geschichten auszuwählen.
  • 18:40 - 18:45
    Das heißt, wenn ihr euch jetzt vorstellt -
    das sind jetzt Zahlen aus dem Kosinski-
  • 18:45 - 18:51
    Paper mit den Persönlichkeitsmerkmalen.
    Das heißt da haben die Leute im Median 200
  • 18:51 - 18:57
    Bekannte und liken 68 Seiten. Das heißt
    wenn nur jeder Dritte was macht, dann sind
  • 18:57 - 19:01
    das pro Tag 90 potenzielle Beiträge. Wenn
    man jetzt nur fünf oder zehn Minuten auf
  • 19:01 - 19:04
    der Seite verweilt, dann kann man sich
    nicht angucken. Das heißt eine
  • 19:04 - 19:10
    chronologische Darstellung ist zwecklos
    und eine Kuration unumgänglich. Und
  • 19:10 - 19:15
    deswegen sortiert Facebook die Nachrichten
    nach einem Algorithmus. Das Problem ist
  • 19:15 - 19:18
    aber, dass dieser Vorgang sehr
    intransparent ist. Das heißt die
  • 19:18 - 19:20
    NutzerInnen sehen und verstehen die
    Algorithmen nicht
  • 19:20 - 19:25
    Und die glauben im Zweifelsfall wenn sie
    darauf angesprochen werden, dass die
  • 19:25 - 19:30
    Algorithmen objektiv und unabhängig sind.
    Und dabei beziehe ich mich auf folgende
  • 19:30 - 19:36
    Studie. Die kommt aus der CHI, der
    Computer Human Interaction Community. Und
  • 19:36 - 19:42
    dort waren sich 62,5% der Teilnehmer und
    Teilnehmerinnen in dieser Studie der
  • 19:42 - 19:48
    Existenz von Newsfeed-Algorithmen, also
    von dieser algorithmischen Kuration, nicht
  • 19:48 - 19:52
    bewusst. Das heißt wir haben hier eine
    qualitative Studie mit 40 TeilnehmerInnen,
  • 19:52 - 19:56
    die so ausgewählt wurden, dass sie
    repräsentativ sind für die US-
  • 19:56 - 20:01
    Grundgesamtheit. Und von denen war also 25
    Personen nicht bewusst, dass überhaupt
  • 20:01 - 20:07
    irgendwie sortiert wird. Die Studie zeigt
    auch, dass die TeilnehmerInnen durchaus
  • 20:07 - 20:11
    verärgert sind, wenn sie Posts von engen
    Freunden oder Familienmitgliedern nicht
  • 20:11 - 20:16
    sehen. Spannend ist aber jetzt: Die
    Teilnehmer suchen den Fehler eher bei sich
  • 20:16 - 20:19
    oder anderen, als bei einem Algorithmus,
    von dem sie im Zweifelsfall auch nichts
  • 20:19 - 20:25
    wissen. Sie glauben dann z.B. dass sie
    etwas übersehen haben oder sie denken,
  • 20:25 - 20:30
    dass ihnen bestimmte Bekannte bewusst
    Geschichten vorenthalten, weil sie
  • 20:30 - 20:34
    vielleicht nicht so gut miteinander
    bekannt sind, sich noch nicht so gut
  • 20:34 - 20:37
    kennen. Daher kommt auch dieses
    titelgebende Zitat: "I always assumed that
  • 20:37 - 20:41
    I wasn't really that close to [that
    person], so that's fine. What the hell?"
  • 20:41 - 20:45
    Das heißt hier hat jemand gedacht "Okay,
    ich sehe die Babyfotos vielleicht nicht,
  • 20:45 - 20:49
    weil ich die Person nicht so gut kenne,
    aber die Person hat das für alle geteilt".
  • 20:49 - 20:54
    Und hier hat der Algorithmus jetzt die
    Entscheidung getroffen, dass Person A das
  • 20:54 - 21:00
    Baby von Person B nicht sieht. Das heißt
    diese Systeme, die im Schatten agieren und
  • 21:00 - 21:04
    denen sich die BenutzerInnen nicht bewusst
    sind, haben Auswirkungen auf
  • 21:04 - 21:08
    zwischenmenschliche Beziehungen. Sie
    rekonfigurieren sie. Und darüber hinaus
  • 21:08 - 21:12
    muss man sich auch noch einmal bewusst
    machen, was diese Nachrichten-
  • 21:12 - 21:16
    Empfehlungssysteme eigentlich erreichen
    wollen. Sie sind ja von der Art her wie
  • 21:16 - 21:21
    Netflix. Das heißt wenn ich auf Youtube
    oder einem anderen Portal mir Videos
  • 21:21 - 21:25
    angucke und ich gucke mir zehn Videos an
    und davon sind vier mit lustigen Hunde-
  • 21:25 - 21:30
    Babys, dann folgert das System "Ok,
    Hendrik mag lustige Hunde-Babys. Dem zeige
  • 21:30 - 21:35
    ich jetzt in Zukunft mehr lustige Hunde-
    Babys". Nun sind aber auch Nachrichten auf
  • 21:35 - 21:39
    Plattformen wie Youtube. Das heißt wenn
    ich mir jetzt zehn Videos angucke und von
  • 21:39 - 21:44
    denen geht es in vielen darum, dass
    Flüchtlinge kriminell sind, dann empfiehlt
  • 21:44 - 21:49
    mir das System Videos von kriminellen
    Flüchtlingen. Das heißt da passiert etwas
  • 21:49 - 21:55
    mit meiner Weltwahrnehmung. Das heißt so
    derartige Filterblasen und Echokammern
  • 21:55 - 22:00
    entstehen online. Die gibts natürlich auch
    im echten Leben. Der Freundeskreis ist
  • 22:00 - 22:05
    auch eine Echokammer, in der bestimmte
    Weltvorstellungen geteilt werden, aber
  • 22:05 - 22:09
    hier sind sie durchaus intransparenter,
    denn es passiert unter dem gleichen Logo.
  • 22:09 - 22:15
    Bei mir ist ein YouTube-Logo, bei euch ist
    ein YouTube-Logo. Und das sind Probleme,
  • 22:15 - 22:18
    denen wir uns stellen müssen, mit denen
    wir umgehen müssen.
  • 22:18 - 22:23
    Und das war mein Teil zur Perspektive der
    Mensch-Computer-Interaktion, die sich also
  • 22:23 - 22:27
    als eigenes Feld mit derartigen
    Fragestellungen auseinandersetzt. Und ich
  • 22:27 - 22:31
    übergebe jetzt an Karen, die nochmal
    technisch ins Detail gehen wird.
  • 22:31 - 22:44
    Applaus
    Karen: Ja. Zum ersten Teil dieser Präsentation
  • 22:44 - 22:48
    zeigten wir, dass Algorithmen uns schon
    heute schon beeinflussen, bewusst und
  • 22:48 - 22:52
    unbewusst, direkt und indirekt. Und wir
    haben gesehen mit welcher Rigorosität ihre
  • 22:52 - 22:57
    Voraussagen umgesetzt werden, nachdem sie
    einmal zur Verfügung stehen. Das immer
  • 22:57 - 23:00
    unter der Annahme der
    Unvoreingenommenheit. Wir haben auch
  • 23:00 - 23:04
    bereits angedeutet, dass dieses massive
    Vertrauen nicht unbedingt angebracht ist.
  • 23:04 - 23:09
    In diesem zweiten Teil der Präsentation
    möchten wir darauf eingehen wann dieses
  • 23:09 - 23:12
    Vertrauen nicht angebracht ist. Dabei
    möchte ich besonders auf ein Wort
  • 23:12 - 23:17
    eingehen, das wir bereits viel verwendet
    haben. Das Wort Bias oder zu Deutsch
  • 23:17 - 23:21
    Verzerrung. Beim maschinellen Lernen
    können wir grundsätzlich in zwei
  • 23:21 - 23:24
    verschiedene Formen von Bias
    unterscheiden. Auf der einen Seite haben
  • 23:24 - 23:29
    wir Bias der Daten, also Bias der ein
    Spiegel ist unserer eigenen Vorurteile und
  • 23:29 - 23:33
    Moralvorstellungen, ob uns das jetzt
    bewusst ist oder nicht.
  • 23:33 - 23:37
    Bias in Daten kann aber auch entstehen
    ganz zufällig durch mangelhafte Erhebung
  • 23:37 - 23:43
    von Daten. Wenn das passiert wird eine
    Grundgesamtheit also die Population
  • 23:43 - 23:49
    verzerrt abgebildet. Auf der anderen Seite
    befindet sich der Bias durch das
  • 23:49 - 23:51
    Modellieren.
    Das sind also die Gesamtheit aller
  • 23:51 - 23:54
    Annahmen die Ingenieure und
    Wissenschaftler von Algorithmen machen und
  • 23:54 - 24:00
    machen müssen, um überhaupt Voraussagen
    treffen zu können. Dabei kann sich
  • 24:00 - 24:08
    wiederum der Bias des Modells so auf die
    Daten auswirken, dass der Bias in den
  • 24:08 - 24:12
    Daten verringert wird. Dazu gibt es
    vielfältige Forschung. Es kann aber auch
  • 24:12 - 24:19
    den Bias in den Daten verstärken. Auf der
    anderen Seite knn auch Bias in Daten den
  • 24:19 - 24:25
    Modellier-Bias beeinflussen. Wir werden im
    Folgenden, den folgenden 4 Beispielen, uns
  • 24:25 - 24:29
    mit all diesen Phänomenen auseinander-
    setzen. Maschinelles Lernen hat in den
  • 24:29 - 24:33
    letzten Jahren viele Durchbrüche bei der
    algorithmischen Wahrnehmung erzielt.
  • 24:33 - 24:37
    Algorithmen bewältigen kognitive Aufgaben,
    die vor kurzem in weiter Ferne schienen.
  • 24:37 - 24:42
    Das hat aber auch eine Welle von Forschung
    ausgelöst, die unlösbar geglaubte Aufgaben
  • 24:42 - 24:47
    wieder aufgreift und neu bewertet.
    Eine Studie dieser Welle ist im November
  • 24:47 - 24:53
    letzten Jahres erschienen zwei Forscher
    der Shanghai Jiaotong-Universität
  • 24:53 - 24:58
    behaupten zeigen zu können, dass man
    Menschen mit kriminellen Absichten bereits
  • 24:58 - 25:01
    an einem einfachen Ausweis-Foto erkennen
    kann und dies mit 90 prozentiger
  • 25:01 - 25:07
    Trefferwahrscheinlichkeit. Dieses Ergebnis
    steht natürlich im starken Kontrast zu den
  • 25:07 - 25:10
    Forschungsergebnissen der letzten Dekaden,
    die Kriminalität eher sozio-ökonomischen
  • 25:10 - 25:14
    Umständen zuschreiben. Wir wollen uns also
    im Folgenden mit dieser Studie ein
  • 25:14 - 25:20
    bisschen näher beschäftigen. Die Autoren
    sammelten hierzu 1800 Fotos von Chinesen
  • 25:20 - 25:25
    im Alter zwischen 18 und 55 Jahren, die
    keine bemerkbaren Gesichtsbehaarungen,
  • 25:25 - 25:30
    Narben oder Tattoos zeigten. Dabei
    repräsentieren zirka 700 Fotos die Rubrik
  • 25:30 - 25:36
    kriminell. Die Fotos selbst wurden von der
    Polizei bereitgestellt und es handelt sich
  • 25:36 - 25:40
    bei allen Fotos um bereits verurteilte
    Straftäter.
  • 25:40 - 25:43
    Auf der anderen Seite mussten nun auch
    Bilder rechtschaffender Bürger
  • 25:43 - 25:47
    repräsentiert werden. Dafür wurden 1100
    Fotos aus verschiedenen Quellen des
  • 25:47 - 25:51
    Internets beschafft. Dabei ist anzunehmen,
    dass diese von Seiten wie LinkedIn
  • 25:51 - 25:55
    stammen, da die Autoren den Beruf der
    vermeintlich rechtschaffenen kennen. Um
  • 25:55 - 26:00
    uns nun ein besseres Bild über die Daten
    zu machen, wollen wir uns also ein paar
  • 26:00 - 26:04
    Datenpunkte anschauen.
    Jeder dieser Reihe entsprechen drei
  • 26:04 - 26:08
    Datenpunkte aus jeweils einer Kategorie
    kriminell oder rechtschaffend.
  • 26:08 - 26:10
    Dazu würde ich ein kleines Experiment
    wagen. Also ich zähle dann gleich mal bis
  • 26:10 - 26:15
    zwei und alle die glauben, die obere Reihe
    seien die Rechtschaffenden, die bitte ich
  • 26:15 - 26:20
    dann die linke Hand zu heben. Ich hebe die
    rechte Hand, damit ihr wisst, welche Hand.
  • 26:20 - 26:24
    Und diejenigen, die denken die untere
    Reihe wären die Rechtschaffenden, die
  • 26:24 - 26:27
    bitte ich also die rechte Hand zu heben.
    Das können wir gleich mal probieren, also
  • 26:27 - 26:33
    ich zähle nochmal bis 2: eins, zwei und
    dann heben wir halt die Hand.
  • 26:33 - 26:37
    Okay. Also die meisten von uns sind uns
    relativ einig dass wir die rechtschaffenen
  • 26:37 - 26:41
    identifizieren können. Aber warum können
    wir das? Eigentlich sollten Menschen dazu
  • 26:41 - 26:45
    ja nicht in der Lage sein und wir wissen,
    dass wir dazu nicht in der Lage sind.
  • 26:45 - 26:50
    Ich denke also die meisten von uns haben
    gewisse Hinweise in den Bildern
  • 26:50 - 26:53
    wahrgenommen, die auf der
    Unterschiedlichkeit der Quellen beruhen.
  • 26:53 - 26:57
    Also ganz offensichtlich hier der Kragen
    im Bild, der darauf hinweist, dass es
  • 26:57 - 27:02
    vielleicht ein Bewerbungsfoto sein könnte
    oder ein leichtes Grinsen im Gesicht.
  • 27:02 - 27:07
    Dahingegen sind die Leute, die auf der
    kriminellen Seite sind nicht besonders
  • 27:07 - 27:10
    vorteilhaft dargestellt. Also dem Mann
    hier wird der Scheinwerfer ins Gesicht
  • 27:10 - 27:17
    gestrahlt, was dann Hautunreinheiten und
    Falten besonders betont. Wohingegen bei
  • 27:17 - 27:21
    den Bewerbungsfotos offensichtlich Make-Up
    im Spiel ist oder Photoshop. Im
  • 27:21 - 27:29
    trivialsten Fall kann es also sein, dass
    der Algorithmus einfach nur erkennt, in
  • 27:29 - 27:33
    welchen Fotos Photoshop nachgeholfen hat.
    Das kann man also zum Beispiel schon an
  • 27:33 - 27:38
    lokalen Pixel Statistiken gut erkennen.
    Diese Studie ist vielleicht ein extremes
  • 27:38 - 27:42
    Beispiel, wie gravierend sich die
    verwendeten Daten auf das Ergebnis einer
  • 27:42 - 27:46
    Voraussage eines Algorithmus auswirken
    können. Dies ist ein besonders starkes
  • 27:46 - 27:50
    Beispiel für Stichproben-Verzerrung, also
    Bias in dem Gruppen unterschiedlich
  • 27:50 - 27:54
    dargestellt werden.
    Bias kann aber auch entstehen ganz
  • 27:54 - 27:57
    zufällig, wenn zu wenige Datenpunkte
    vorhanden sind, um verlässliche Aussagen
  • 27:57 - 28:00
    zu treffen.
    Solche Probleme sehen wir also oft in
  • 28:00 - 28:05
    medizinischen Studien oder psychologischen
    Studien, wo Tests teuer und langwierig
  • 28:05 - 28:09
    sind.
    Melde-Bias beschreibt, wenn Befragte
  • 28:09 - 28:11
    unkorrekte Angaben machen.
    Das geschieht zum Beispiel oft bei
  • 28:11 - 28:16
    Gewaltverbrechen, bei denen Angst und
    Repression eine Rolle spielen. Und
  • 28:16 - 28:20
    natürlich spielen auch die verwendeten
    Merkmale, die ein gewisses Problem
  • 28:20 - 28:25
    beschreiben sollen, eine große Rolle.
    Kommen wir nun zur zweiten Kategorie: dem
  • 28:25 - 28:29
    Bias in den Modellen.
    Hat man sich früher also vor dem die
  • 28:29 - 28:34
    Deeplearning-Hype, sagen wir mal vor 2012
    eine Einführungsveranstaltung zum
  • 28:34 - 28:38
    maschinellen Lernen gesetzt, dann begann
    fast jeder mit dem Erklären des No-free-
  • 28:38 - 28:45
    Lunch-Theorems. Also der Aussage, dass
    kein Modell in allen möglichen Szenarien
  • 28:45 - 28:48
    funktioniert.
    Daraus schlussfolgerten wir, dass wir
  • 28:48 - 28:53
    Annahmen machen müssen, die das Modell im
    Hinblick auf unser spezifisches Problem
  • 28:53 - 28:58
    beschränken. Diese Annahmen haben aber
    ihre Grenzen. Dann versagt das Modell,
  • 28:58 - 29:00
    ohne dass sich das Modell darüber bewusst
    ist.
  • 29:00 - 29:07
    Das heißt also unser Job als
    Wissenschaftler oder Studierender ist es,
  • 29:07 - 29:15
    diese Grenzfälle zu benennen und zu
    testen, ob in unserem speziellen
  • 29:15 - 29:18
    Anwendungsfall diese Algorithmen nicht
    versagen.
  • 29:18 - 29:23
    An diesen Prinzipien hat sich auch bis
    heute nichts geändert, aber der Erfolg des
  • 29:23 - 29:25
    maschinellen Lernens in bestimmten
    Bereichen lässt selbst uns
  • 29:25 - 29:30
    WissenschaftlerInnen diese universalen
    Regeln manchmal vergessen.
  • 29:30 - 29:34
    Wir sind dann versucht zu glauben, dass
    Modelle so flexibel sind, dass die Grenzen
  • 29:34 - 29:37
    quasi nicht mehr existieren.
    Im Folgenden möchte ich aber auf ein
  • 29:37 - 29:41
    Beispiel eingehen, das sich auch mit dem
    Deeplearning-Hype gar nicht geändert hat.
  • 29:41 - 29:47
    Und das ist das Problem der Zielsetzung
    und die Frage, wie Erfolg zu bewerten ist.
  • 29:47 - 29:52
    Am Beginn des Vortrags sprach Hendrik über
    das Messen von Fehlern und, dass das
  • 29:52 - 29:55
    Korrigieren dieser Fehler ein wichtiger
    Mechanismus sei, um Algorithmen zu
  • 29:55 - 29:59
    trainieren.
    Doch was ein Fehler ist, ist oft nicht
  • 29:59 - 30:02
    einfach zu bestimmen und es liegt in der
    Hand des Ingenieurs zu definieren.
  • 30:02 - 30:04
    Zum Beispiel wie messe ich Erfolg bei
    YouTube-Empfehlungen?
  • 30:04 - 30:09
    Messe ich die Zeit die jemand auf der
    Plattform verbringt? Das kann aber auch
  • 30:09 - 30:12
    bedeuten, dass der PC vielleicht noch
    einer Ecke steht und die Personen gar
  • 30:12 - 30:16
    nicht mehr im Raum ist oder messe ich die
    Anzahl von Klicks? Aber wenn diese zu
  • 30:16 - 30:19
    frequent sind, dann bedeutet das
    vielleicht, dass die Person das Video gar
  • 30:19 - 30:24
    nicht mag.
    Ein anderes Problem sind Übersetzungen.
  • 30:24 - 30:32
    Stellen Sie sich nur also vor, dass wir
    einen Korpus von Übersetzungen haben und
  • 30:32 - 30:36
    wir wollen messen, ob ein Text richtig
    übersetzt wurde.
  • 30:36 - 30:44
    Wie können wir das messen? Wort für Wort
    oder Paragraph für Paragraph? Wenn wir
  • 30:44 - 30:47
    Wort für Wort messen, dann spielen wir
    vielleicht mit der Wortreihenfolge in
  • 30:47 - 30:49
    verschiedenen Sprachen und das
    funktioniert dann nicht so gut. Wenn wir
  • 30:49 - 30:54
    Paragraph für Paragraph messen,
    funktioniert das vielleicht nicht so gut,
  • 30:54 - 30:58
    weil der Algorithmus den Kontext nicht
    mehr begreift. Und wie gehen wir mit
  • 30:58 - 31:01
    Synonymen um? Wenn also der Algorithmus
    ein richtiges Synonymen gefunden hat, wird
  • 31:01 - 31:05
    dann trotzdem ein Fehler berechnet, wenn
    der spezielle Datenpunkt besagt, dass das
  • 31:05 - 31:08
    vielleicht als ein anderes Synonym zu
    übersetzen ist? Man muss also
  • 31:08 - 31:13
    Entscheidungen treffen. Die Ingenieure bei
    Google und anderen führenden
  • 31:13 - 31:21
    Übersetzungssystem beantworten die Frage
    folgendermaßen: Wir übersetzen Satz für
  • 31:21 - 31:26
    Satz. Dabei gehen wir davon aus, dass
    Sätze unabhängig sind und nur das
  • 31:26 - 31:30
    wahrscheinlichste Wort oder die
    wahrscheinlichste Phrase wird richtig
  • 31:30 - 31:35
    bewertet. Wenn wir also nochmal auf das
    Beispiel aus der ersten Hälfte des
  • 31:35 - 31:40
    Vortrags eingehen. Wenn wir
    nun "Sie ist eine Frau. Sie ist Ärztin" in
  • 31:40 - 31:46
    das genderneutrale Türkisch übersetzen zu
    "O bir kadın. O bir doktor." und dann
  • 31:46 - 31:51
    zurückübersetzen ins Deutsche, dann wird
    dies mit "Sie ist eine Frau. Er ist Arzt"
  • 31:51 - 31:55
    übersetzt. Und jetzt wissen wir auch
    warum. Da wir annahmen, dass Sätze
  • 31:55 - 31:59
    unabhängig sind weiß der Algorithmus gar
    nichts vom Kontext, also dass wir hier
  • 31:59 - 32:05
    über eine Frau sprechen. Wenn der
    Algorithmus "O bir doktor" dann übersetzt,
  • 32:05 - 32:08
    übersetzt der nur die wahrscheinlichste
    Phrase und die ist "Er ist Arzt". Es
  • 32:08 - 32:12
    handelt sich hier also nicht um Bias in
    den Daten oder zumindest nicht unbedingt,
  • 32:12 - 32:20
    sondern um Bias in den Annahmen die das
    Modell zu sehr vereinfachen. Ein zweites
  • 32:20 - 32:23
    Beispiel führt das noch klarer vor Augen.
    Wenn wir hier eben den Punkt durch ein
  • 32:23 - 32:31
    Komma ersetzen, dann kann der Algorithmus
    es richtig übersetzen, weil er sich des
  • 32:31 - 32:37
    Kontexts bewusst ist. Im nächsten Beispiel
    um das Phänomen Bias wollen wir zeigen wie
  • 32:37 - 32:40
    Bias in Modellen Bias in Daten verstärken
    kann.
  • 32:40 - 32:45
    Dies wird besonders in sogenannten aktiven
    Lernszenarien bewusst. Aktives Lernen
  • 32:45 - 32:52
    funktioniert wie folgt. Wir haben Daten,
    auf deren Grundlage wir einen Algorithmus
  • 32:52 - 32:56
    lernen. Für manche Voraussagen sind wir
    uns aber nicht sicher. Darum fragen wir
  • 32:56 - 33:00
    einen menschlichen Experten um Rat und der
    Algorithmus fragt dann meistens die
  • 33:00 - 33:07
    folgende Frage: Habe ich diesen Datenpunkt
    richtig bewertet? Und falls nicht, bitte
  • 33:07 - 33:12
    um Feedback! Das führt dazu, dass der
    Algorithmus in der Zukunft mehr Daten zur
  • 33:12 - 33:16
    Verfügung gestellt bekommt, um dann besser
    zu lernen und weniger oft um Hilfe fragen
  • 33:16 - 33:22
    zu müssen. Das klingt gut. Und so viel zum
    störungsfreien Ablauf. Was aber nun wenn
  • 33:22 - 33:27
    ein Datenpunkt mit falschen oder
    verzerrten Merkmalen beschrieben wird? Und
  • 33:27 - 33:31
    dazu kommt, dass unser Mensch vielleicht
    nicht so wachsam ist, wie wir in unserem
  • 33:31 - 33:37
    Modell annehmen. Wir haben also eine
    kleine Verzerrung im Datensatz, und die
  • 33:37 - 33:43
    Annahme des idealen Menschen wird verletzt
    in unserem eigentlichen Phänomen. Dieser
  • 33:43 - 33:48
    falsche Datenpunkt wird also ignoriert.
    Das führt dann dazu, dass, obwohl die
  • 33:48 - 33:52
    Ursache der Verzerrung nicht mehr aktiv
    ist, dieser Datenpunkt nun vermehrt wird
  • 33:52 - 33:57
    aufgrund der Tatsache, dass der Mensch
    nicht auf die Frage, habe ich diesen
  • 33:57 - 34:03
    Datenpunkt richtig bewertet, reagiert.
    Und das führt dann wiederum dazu, wenn man
  • 34:03 - 34:05
    mehr
    verzerrte Daten hat, dass diese mehr
  • 34:05 - 34:09
    verzerrten Daten sich immer weiter
    vermehren können. Wann kann ich das also
  • 34:09 - 34:14
    jetzt in freier Wildbahn beobachten? Es
    ist relativ schwer zu sagen, weil sich
  • 34:14 - 34:17
    natürlich solche großen Player wie Google
    oder Facebook nicht immer in die Karten
  • 34:17 - 34:21
    blicken lassen. Aber ich denke ein Tweet
    aus dem vergangenen Jahr lässt darauf
  • 34:21 - 34:27
    schließen, dass das vielleicht hier
    passiert sein könnte. Also eine
  • 34:27 - 34:31
    Afroamerikanerin mit Kussmund, in der
    Mitte unten, wird hier als Gorilla
  • 34:31 - 34:33
    bezeichnet. Das ist eine
    geschichtsträchtige Bezeichnung für
  • 34:33 - 34:37
    Afroamerikaner in Amerika und hat
    natürlich große Wellen geschlagen. Google
  • 34:37 - 34:41
    erklärt die Ursache des Fehlers nicht
    genau genug, um genau zu wissen, was ihn
  • 34:41 - 34:47
    ausgelöst hat, aber zwei Probleme können
    eine Rolle gespielt haben. Eins wäre, dass
  • 34:47 - 34:50
    die Bildbeschreibung immer von Menschen
    bereitgestellt wird, und die erlauben sich
  • 34:50 - 34:56
    gerne mal zu trollen und verfälschen das
    originale Datenset damit. Das kann aber
  • 34:56 - 34:59
    nicht die einzige Ursache sein. Es kommt
    also mindestens noch dazu, dass gewisse
  • 34:59 - 35:02
    Gruppen von Menschen entweder einfach sehr
    klein sind in einer Gesellschaft oder
  • 35:02 - 35:06
    unterrepräsentiert sind. Und vielleicht
    auch drittens, man muss schon sagen dass
  • 35:06 - 35:12
    bei großen Tech-Firmen sehr wenig
    Grenzszenarien oder Szenarien getestet
  • 35:12 - 35:16
    werden. Wir denken da zum Beispiel an den
    Microsoft Chatbot, der ganz ähnliche
  • 35:16 - 35:22
    Phänomene gezeigt hat. Also der dann auch
    sehr rassistische Chat-Nachrichten
  • 35:22 - 35:27
    geschrieben hat. Das letzte relevante
    Beispiel zum Thema Bias soll aus dem
  • 35:27 - 35:32
    Bereich des übertragenden Lernens kommen.
    Hierbei ist das Ziel das Lösen einer
  • 35:32 - 35:37
    Aufgabe. Und diese Aufgabe hat aber nur
    wenige Datenpunkte. Und das sind nicht
  • 35:37 - 35:41
    genug, um den Algorithmus erfolgreich
    lernen zu lassen. Aber es gibt eine
  • 35:41 - 35:45
    ähnliche Aufgabe, die erfolgreich gelöst
    werden kann. Und die Idee ist nun, dass
  • 35:45 - 35:50
    gut funktionierende Modell zu verwenden um
    unseren eigentlichen Problemen zu helfen.
  • 35:50 - 35:57
    Diese Technik führt aber wieder zu
    Verzerrungen, die nur schwer bestimmt und
  • 35:57 - 36:01
    kontrolliert werden können.
    Das wird klar, wenn wir ein konkretes
  • 36:01 - 36:04
    Beispiel betrachten. Wir können eine ganze
    Halle voll Roboterarme stellen, um ihnen
  • 36:04 - 36:10
    bestimmte motorische Aufgaben
    beizubringen. Aber selbst 1000 Roboterarme
  • 36:10 - 36:18
    lernen nur mühsam. Was also gang und gäbe
    ist in der modernen Robotik, sind dass man
  • 36:18 - 36:23
    Systeme in Simulationen üben lässt.
    Systeme werden also für Tausende Jahre in
  • 36:23 - 36:27
    Simulationen geübt. Das ist natürlich aber
    nie Realität. Also wir denken da an
  • 36:27 - 36:32
    Gravitationssimulationen, die Fehler
    enthalten kann. Lichtbedingungen, die
  • 36:32 - 36:35
    nicht ganz real sind, oder der
    idealisierte Roboterarm, der hier
  • 36:35 - 36:40
    verwendet wird. In diesem Zusammenhang
    möchte ich auch sagen, wie attraktiv auch
  • 36:40 - 36:44
    die Zukunft mit selbstfahrenden Autos
    erscheinen mag, mit ihren Versprechen nach
  • 36:44 - 36:48
    mehr Platz in den Städten, weniger
    Unfällen und effektiverer Verkehrsführung,
  • 36:48 - 36:52
    so sollte man auch sehr skeptisch sein,
    denn auch diese Systeme haben die meiste
  • 36:52 - 36:59
    Lebenserfahrung in Simulationen gesammelt.
    Eine ganz andere Betrachtungsweise auf
  • 36:59 - 37:03
    Daten ist die der Datendichte. Daten
    können dicht beieinander liegen oder weit
  • 37:03 - 37:09
    voneinander entfernt. In Bereichen mit
    vielen Daten ist es oft einfach korrekte
  • 37:09 - 37:14
    Aussagen zu treffen. Neue Datenpunkte in
    diesen Bereichen zu beschreiben nennt man
  • 37:14 - 37:19
    Interpolation. Wohingegen Bereiche mit
    wenigen Daten oder keinen Datenpunkten
  • 37:19 - 37:23
    sehr schwer zu beschreiben sind. Diese
    Aufgabe beschreibt man mit Extrapolation.
  • 37:23 - 37:28
    Korrektes extrapolieren ist im Allgemeinen
    nicht möglich oder nur möglich, wenn man
  • 37:28 - 37:30
    korrekte Annahmen über den
    Entstehungsprozess der Daten macht.
  • 37:30 - 37:36
    Interpolieren, also das Wandern von einem
    oder mehreren Datenpunkte zum anderen,
  • 37:36 - 37:41
    kann so wichtige Fragen des Alltags
    beantworten wie: Wie würde das Kind von
  • 37:41 - 37:47
    Kim Jong-un und Donald J. Trump aussehen?
    Neueste Anwendungen dieser Technik
  • 37:47 - 37:51
    beinhalten auch das gezielte Verändern von
    Video in Bild und Sprache. Beispielsweise
  • 37:51 - 37:55
    wurde hier das Gesicht von der
    Hauptdarstellerin des Wonder Woman Films,
  • 37:55 - 38:02
    Gal Gadot, auf einen pornografischen Film
    gelegt. Und man muss nicht weit denken um
  • 38:02 - 38:03
    sich die Konsequenzen solcher Techniken,
    für
  • 38:03 - 38:07
    Fake News zum
    Beispiel, vorzustellen. Im extremsten Fall
  • 38:07 - 38:12
    gibt es sehr wenige oder keine Daten wo
    eine Aussage getroffen werden soll. Nun
  • 38:12 - 38:16
    ist es wichtig, die richtigen Annahmen zu
    treffen um extrapolieren zu können. Das
  • 38:16 - 38:21
    haben wir bereits gesagt. Das ist aber
    eine extrem schwere Aufgabe, zu der auch
  • 38:21 - 38:25
    moderne Wissenschaft nur wenige und
    unvollständige Antworten weiß. Was also
  • 38:25 - 38:28
    anstatt in aller Regel passiert, ist, dass
    Algorithmen keine Annahmen machen. Und das
  • 38:28 - 38:34
    kann zu unvorhergesehenen Phänomenen
    führen. Im schlimmsten Fall kann man
  • 38:34 - 38:39
    dieses Wissen auch nutzen zu sogenannten
    feindlichen Attacken auf Algorithmen. Eine
  • 38:39 - 38:43
    Attacke verläuft beispielsweise so: Man
    nehme einen Datenpunkt aus dem Datenset
  • 38:43 - 38:47
    und dessen beschreibende Merkmale, also
    hier z.B. die Bilder von Verkehrsschildern
  • 38:47 - 38:48
    und die Verkehrsschilder.
  • 38:48 - 38:49
    [38:48]
  • 38:49 - 38:54
    Man suche dann fernab von den Daten einen
    Punkt der sehr ähnlich ist, den aber der
  • 38:54 - 38:59
    Algorithmus mit all mit einem ganz anderen
    Merkmal beschreiben würde. Und das
  • 38:59 - 39:09
    gruselige ist, dass dies auch funktioniert
    mit ausgedruckten Version derselben
  • 39:09 - 39:14
    Attacke. Und wenn man nicht dieselben
    Daten und nicht einmal denselben dasselbe
  • 39:14 - 39:19
    Modell kennt oder verwendet. Wen das
    interessiert dem empfehle ich sehr für die
  • 39:19 - 39:23
    nächste Präsentation zu bleiben. Das wird
    glaube ich ja der Kernpunkt der nächsten
  • 39:23 - 39:28
    Präsentation sein. Abschließend zum Thema
    Möchte ich nochmal ganz deutlich machen,
  • 39:28 - 39:33
    dass in allen Systemen des modernen
    maschinellen Lernens Korrelation evaluiert
  • 39:33 - 39:39
    wird und nicht Kausalität. Mathematische
    Kausalitätsforschung, also dem Suchen nach
  • 39:39 - 39:43
    Ursache und Effekt für komplexe Systeme
    ist erstens ein Kinderschuh und
  • 39:43 - 39:47
    Korrelation zu finden und zu beschreiben
    ist nur einer der Schritte der dazu nötig
  • 39:47 - 39:53
    ist. Bevor ich die Frage dann- die Runde
    für Fragen öffne haben Hendrik und ich
  • 39:53 - 39:56
    noch ein Anliegen. Also ich hoffe wir
    haben umfassend die technischen
  • 39:56 - 40:00
    Möglichkeiten des maschinellen Lernens
    dargestellt und welche Begrenzungen es
  • 40:00 - 40:06
    aufweist. Letzteres soll und wird uns als
    Gesellschaft aber nicht davon abhalten
  • 40:06 - 40:11
    diese großartigen Fortschritte zu
    geniessen. Also denken wir an Mediziner
  • 40:11 - 40:15
    und Molekulare Biologie in denen diese
    Techniken großes Versprechen und auch
  • 40:15 - 40:20
    schon geliefert haben. Daraus ergeben sich
    trotzdem große politische Fragen die uns
  • 40:20 - 40:23
    alle etwas angehen. Entscheidungen die
    Wissenschaftler nicht alleine treffen
  • 40:23 - 40:29
    können, wollen oder sollten. Also wir
    müssen uns Sachen fragen wie: Wer soll im
  • 40:29 - 40:33
    konkreten Fall Entscheidungen treffen,
    Menschen oder Maschinen. Wer ist Schuld
  • 40:33 - 40:38
    wenn Fehler passieren: Ingenieure, Firmen,
    Staat oder vielleicht gar niemand. Wie
  • 40:38 - 40:44
    können staatliche Garantien wie Gleichheit
    juristisch umgesetzt werden im Angesicht
  • 40:44 - 40:50
    solcher neuen Algorithmen. Und natürlich
    auch wie können Algorithmen oder sollten
  • 40:50 - 40:53
    Algorithmen reguliert werden. An der
    Stelle möchte ich mich bedanken für
  • 40:53 - 40:57
    Aufmerksamkeit
    und würde die Runde eröffnen für Fragen.
  • 40:57 - 41:13
    Herald-Angel: Vielen Dank Karen, vielen
  • 41:13 - 41:19
    Dank Hendrik. Wenn ihr Fragen habt, bitte
    an den Mikros aufstellen. Und dann
  • 41:19 - 41:22
    entsprechend warten. Mikrophon 1
    bitteschön.
  • 41:22 - 41:24
    Mikrofon 1: Ja, vielen Dank für den
  • 41:24 - 41:31
    großartigen Vortrag, war super spannend
    und es ist ein sehr sehr wichtiges Thema,
  • 41:31 - 41:36
    wie gehen wir damit um, weil es wirklich
    Auswirkungen hat auf die politische
  • 41:36 - 41:42
    Organisation, auf die Demokratie, all
    diese Sachen. Jetzt vom Beispiel das
  • 41:42 - 41:45
    Hendrik gebracht hat, im ersten Teil
    ging's ja jetzt auch zum Beispiel über die
  • 41:45 - 41:52
    Anwendung von KI für ja sagen wir
    politische Propaganda, könnte man auch
  • 41:52 - 41:58
    sehen, Cambridge Analytica, die ganzen
    Sachen und gleichzeitig als zweites Thema
  • 41:58 - 42:04
    die Filterbubbles die sich bilden, also wo
    natürlich eine Verstärkung dieses
  • 42:04 - 42:09
    Phaenomens möglich ist. Meine Frage, die
    ich mich in diesem Jahr gestellt habe, mit
  • 42:09 - 42:20
    Brexit, mit Trumpwahlen und so weiter, was
    sind die Möglichkeiten die sich bieten um
  • 42:20 - 42:27
    dem entgegenzuwirken, dass sich Meinungen
    so stark durch Filterbubbles polarisieren,
  • 42:27 - 42:34
    dass Leute durch Targeted Advertisement
    beeinflusst werden, die mit AI generiert
  • 42:34 - 42:41
    werden und Big Data. Wie ja- habt ihr
    konkrete Vorschläge?
  • 42:41 - 42:44
    Hendrik: Vielen Dank für die Frage. Es
  • 42:44 - 42:48
    geht also darum was man jetzt gegen diese
    Probleme insbesondere im politischen
  • 42:48 - 42:53
    Bereich machen kann. Und es ist natürlich
    eine riesige Frage, wird uns warscheinlich
  • 42:53 - 42:57
    auch noch lange Begleiten, ich glaube
    kognitive Diversität im Bekannten- und
  • 42:57 - 43:03
    Freundeskreis, ganz wichtig, vor allem aber
    auch in Unternehmen. Und unsere Ansätze, so
  • 43:03 - 43:06
    kommen sie ja zusammen, mir gehts ja darum
    wie können wir Leute untersützten, wie
  • 43:06 - 43:10
    machen wir Visualisierungen, wie machen
    wir Algorithmen sichtbar, wie helfen wir
  • 43:10 - 43:14
    den Leuten zu verstehen was da passiert.
    Meine Perspektive, Karens Perspektive
  • 43:14 - 43:17
    dann: Wie können wir die ALgorithmen, die
    Blackbox aufmachen, wie können wir
  • 43:17 - 43:21
    erklären, wie kann ein System auch sagen
    wie sicher es ist mit seiner Vorhersage.
  • 43:21 - 43:28
    Also es gibt ja auch viel Arbeit, es gibt
    die Fairness, Transparency... Fairness,
  • 43:28 - 43:32
    Accountability, and Transparency in
    Machine Learning fatml.org. Da gibt es
  • 43:32 - 43:36
    eine ganz große Gruppe von Leuten die sich
    damit auseinandersetzt, auch aus ganz
  • 43:36 - 43:39
    verschiedenen Richtungen, weil es gibt
    viel Arbeit dazu in der Psychologie, in
  • 43:39 - 43:44
    der Soziologie, aber auch halt in der
    Informatik. Genau fatml.org ist eine sehr
  • 43:44 - 43:45
    gute Addresse für sowas.
  • 43:45 - 43:51
    Herald-Angel: Eine Bitte an die, die
    gerade rausgehen: Macht das bitte so leise
  • 43:51 - 43:54
    wie es geht und versucht durch die Tür zu
    meiner Linken, zu eurer Rechten dort
  • 43:54 - 44:01
    hinten, den Saal zu verlassen, danke
    schön.
  • 44:01 - 44:05
    Jawohl, Mikrofon 5, du hast eine Frage?
  • 44:05 - 44:09
    Mikrophon 5: Ja, eher ein kurzer Kommentar
    aus dem Bereich des Machine Learnings, ist
  • 44:09 - 44:13
    das, was wir da gesehen haben bei der bei
    dem Gorillabeispiel, ebenso bei dem
  • 44:13 - 44:19
    Übersetzungsbeispiel nicht eher ein Bias
    in der Kostenfunktion? Dadurch, dass wir
  • 44:19 - 44:22
    dem Algorithmus gesagt haben, es ist
    genauso teuer, wenn du die Klasse Gorilla
  • 44:22 - 44:27
    mit der Klasse mit einer anderen Klasse
    verwechselst, versus, dass wir die
  • 44:27 - 44:33
    Oberklasse Mensch mit der Oberklasse Tier
    verwechselst, oder in dem Genderbeispiel
  • 44:33 - 44:38
    dass "Er" und "Sie" als Verwechselung
    eines einzelnen Worts genauso teuer sind
  • 44:38 - 44:41
    wie beliebige andere Worverwechselungen.
  • 44:41 - 44:45
    Hendrik: Sehr guter Punkt. Also man kann
    natürlich in der Kostenfunktion dagegen
  • 44:45 - 44:48
    vorwirken, man kann sagen dieser Fehler
    ist schlimmer für uns als der andere
  • 44:48 - 44:53
    Fehler, aber wenn wir davon ausgehen, dass
    alle Klassen gleich sind und wir einfach
  • 44:53 - 44:57
    für alle Klassen gleich gute Ergebnisse
    haben wollen, und das kommt ja aus Google
  • 44:57 - 45:01
    Fotos, wo wir das für alle Kategorien
    machen wollen, dann ist es halt da kommt
  • 45:01 - 45:04
    der Mensch wieder rein. Das ist dann
    nichtmehr allgemeines Machine Learning,
  • 45:04 - 45:08
    sondern wieder so Frickellösung. Und
    dieses Problem des Bias, und darum gings
  • 45:08 - 45:11
    ja, ist einfach dem Machine Learning
    inherent, und wir müssen damit umgehen.
  • 45:11 - 45:14
    Und ich glaube nicht, dass man das einfach
    in die Kostenfunktion schreiben kann. Oder
  • 45:14 - 45:16
    willst du noch was dazu sagen?
  • 45:16 - 45:22
    Karen: Ja der Punkt von dem Beispiel war
    ja auch quasi wie einerseits da muss ein
  • 45:22 - 45:27
    falscher Datenpunkt exestiert haben, und
    wie das quasi durch die ein Bias
  • 45:27 - 45:30
    vielleicht, oder eine Annahme in der
    Kostenfunktion dann eigentlich noch viel
  • 45:30 - 45:35
    verstärkt wird. Es geht ja darum wie quasi
    eine Negativ-Spirale manchmal losgetreten
  • 45:35 - 45:38
    werden kann. Dadurch, dass wir einerseits
    Bias in den Daten haben, aber auch andere
  • 45:38 - 45:43
    gewisse Annahmen machen, die vielleicht
    die Realität zu sehr vereinfachen.
  • 45:43 - 45:45
    Das war ja der Punkt dieses Beispiels.
  • 45:45 - 45:48
    Hendrik: Und vielleicht dazu noch: Das
    sind natürlich sehr offensichtliche
  • 45:48 - 45:51
    Beispiele, auch um das hier deutlich zu
    machen. Es gibt natürlich auch immer diese
  • 45:51 - 45:55
    Blindstellen, Blindspots, wo halt was
    passiert, von dem wir das garnicht wissen.
  • 45:55 - 45:58
    Das ist ja auf eine Art auch ein
    Blindspot, der vielleicht auch damit
  • 45:58 - 46:02
    zusammenhängt, dass Google nicht divers
    genug ist und nicht genug Leute derartige
  • 46:02 - 46:05
    Daten damit getestet haben, bevor sie es
    public gemacht haben.
  • 46:05 - 46:08
    Herald-Angel: Mikrophon 1, deine Frage.
  • 46:08 - 46:11
    Mikrophon 1: Ja vielen Dank, euer Vortrag
  • 46:11 - 46:15
    war ja so ein bischen als Einführung
    gedacht, das Thema auf die Agenda zu
  • 46:15 - 46:18
    bringen, was ich ganz großartig finde,
    aber deswegen hätte ich jetzt eher so eine
  • 46:18 - 46:22
    Kommunikationsstrategische Frage. Ihr habt
    ja ganz viel über Bias gesprochen, über
  • 46:22 - 46:25
    Verzerrung, wenn man das so sagt denkt man
    implizit ganz oft an neutral und
  • 46:25 - 46:30
    Unverzerrt, und ich fands toll, du hattest
    ja das No-Free-Lunch-Theorem da, also
  • 46:30 - 46:33
    sagen: Machine Learning ohne Bias gibt's
    garnicht, du hast auch gerade gesagt, das
  • 46:33 - 46:37
    ist Machine-Learning inherent. Aber das
    ist ja ganz wichtig zu sagen, deswegen
  • 46:37 - 46:40
    wollte ich einfach mal fragen wenn es um
    politische Debatten geht, um öffentliche
  • 46:40 - 46:44
    Debatten geht, ob ihr dann denkt, dass
    Bias und Verzerrung sozusagen der richtige
  • 46:44 - 46:49
    Header ist, um das alles zu thematisieren.
    Weil es eben dieses Neutrale, Unverzerrte
  • 46:49 - 46:53
    immer mit impliziert, oder ihr denkt, dass
    man das dann nochmal anders framen müsste.
  • 46:53 - 46:55
    Hendrik: Wir sind aufjedenfall keine
  • 46:55 - 46:59
    Kommunikationsstrategen. Es gibt natürlich
    viele hervorragende Mediensoziologen,
  • 46:59 - 47:03
    Kommunikationswissenschaftler, die das
    warscheinlich viel besser machen können.
  • 47:03 - 47:08
    Wir wollten jetzt erstmal in diesem Rahmen
    zeigen, welche Probleme wir als Techniker,
  • 47:08 - 47:12
    als Informatiker - wir promovieren ja
    beide zu diesen Themen - sehen. Also...
  • 47:12 - 47:17
    Also das ist wird uns ja aber auch noch
    sehr lange beschäftigen, das richtig an
  • 47:17 - 47:18
    die Leute zu bringen.
  • 47:18 - 47:23
    Herald-Angel: Okay, Dankeschön. Wir haben
    eine Frage aus dem IRC.
  • 47:23 - 47:26
    Signal-Angel: Ja, danke, eine Frage aus
  • 47:26 - 47:29
    dem Internet: Hat menschliches Lernen
    nicht genau genommen die selben Probleme
  • 47:29 - 47:33
    wie maschienelles Lernen? Oder gibt es da
    im Prinzipiellen Unterschiede?
  • 47:33 - 47:39
    Hendrik: Ich guck mal zu dir.
  • 47:39 - 47:43
    Karen: Also, das ist eine Frage, die
  • 47:43 - 47:44
    natürlich nicht nur das maschienelle
    Lernen betrifft, sondern auch die
  • 47:44 - 47:49
    Psychologie, oder die Evolutionsforschung,
    zu der ich mich nicht auskenne. Der
  • 47:49 - 47:57
    Algorithmus oder die Idee, die Grundidee
    des maschienellen Lernens ist ja quasi
  • 47:57 - 48:02
    Fehler festzustellen, und die dann zu
    kommunizieren und das Modell wird dann
  • 48:02 - 48:06
    daraufhin besser. Ob das jetzt bei uns
    Menschen so funktioniert, ich bin mir
  • 48:06 - 48:12
    nicht sicher ob das jemals jemand genauso
    gesagt hat. Aber ich glaube im Sinne von,
  • 48:12 - 48:19
    dass unser Gehirn optimiert, das wird,
    oder das habe ich bestreiten gehört von
  • 48:19 - 48:24
    Psychologen. Also die Frage ist nicht so
    sehr wie, oder das Problem, dass ich mit
  • 48:24 - 48:27
    der Frage habe ist nicht so sehr wie jetzt
    das maschienelle Lernen funktioniert,
  • 48:27 - 48:30
    sondern wie wir selbst funktionieren. Ich
    glaube wir sind gerade auf dem Weg das
  • 48:30 - 48:35
    herauszufinden und die Modelle des Machine
    Learnings, maschienellen Lernens sind oft
  • 48:35 - 48:39
    nur grobe Vereinfachungen dafür wie wir
    selbst funktioneren.
  • 48:39 - 48:41
    Hendrik: Genau, ich würde auch sagen, es
  • 48:41 - 48:45
    ist bio-inspiriert, aber es gab auch eine
    Zeit wo alles Maschienen waren, der Körper
  • 48:45 - 48:49
    als Maschine. Das ist halt die Metapher
    ihrer Zeit. Jetzt haben wir diese
  • 48:49 - 48:52
    künstlichen neuronalen Netzwerke und jetzt
    sind das die Metaphern, die wir nutzen,
  • 48:52 - 48:56
    also ich glaube da ist ein fundamentaler
    Unterschied zwischen menschlichem und
  • 48:56 - 48:57
    künstlichem Lernen.
  • 48:57 - 49:01
    Karen: Ja es gibt auch so einen zentralen
    Leitsatz im maschinellen Lernen, der
  • 49:01 - 49:05
    besagt, dass alle Modelle falsch sind, und
    einige vielleicht nützlich sind. Und ich
  • 49:05 - 49:08
    denke das trifft auch auf uns Menschen zu,
    alle Modelle die wir verwenden, alle
  • 49:08 - 49:12
    Annahmen die wir machen, alle Stereotypen
    die wir benutzen, die sind vielleicht
  • 49:12 - 49:17
    manchmal nützlich, aber in der Gesamtheit
    immer falsch. Ich denke das trifft für
  • 49:17 - 49:25
    Menschen und Maschinen zu.
    Applaus
  • 49:25 - 49:28
    Herald-Angel: Dankeschön. Mikrophon 4,
  • 49:28 - 49:29
    deine Frage.
  • 49:29 - 49:37
    Mikrophon 4: Vielleicht eine etwas naive
    Frage, aber bestehen oder gibt es Metriken
  • 49:37 - 49:44
    um diesen Bias, der uns täglich im Netz
    begegnet, zu bewerten? Also dass man das
  • 49:44 - 49:49
    schon visualisieren kann oder vermitteln
    kann, dass man sich in einem hohen Bias
  • 49:49 - 49:56
    also einer hohen Verzerrung bewegt oder
    auf Glatteis läuft in dem Sinne. Ein hoch
  • 49:56 - 50:04
    komplexes Thema wirklich, runtergebrochen
    auf eine, ich sag mal, Bewusstbarmachung
  • 50:04 - 50:08
    von hoher statistischer Verzerrung, die
    einen umgibt.
  • 50:08 - 50:11
    Hendrik: Also es gibt durchaus Forschung
  • 50:11 - 50:15
    in die Richtung es gibt z.B. die Civic
    Media Group am MIT Media Lab die sich mit
  • 50:15 - 50:18
    soetwas aueinandersetzt. Das sind aber so
    einzelne Beispiele wo sie z.B. Leuten
  • 50:18 - 50:22
    einfach mal zeigen, was für einen Gender-
    Bias sie bei den Leuten, die sie auf
  • 50:22 - 50:26
    Twitter folgen, haben, also die folgen nur
    Männern z.B..
  • 50:26 - 50:30
    Solche Bewusstbarmachungen sind wichtig
    und sind glaube ich auch ein Teil des
  • 50:30 - 50:33
    Puzzels, aber ich glaube die
    Medienpädagogik muss halt ernstgenommen
  • 50:33 - 50:36
    werden, den Leuten muss das bewusst sein
    wenn wir diese Dinger benutzen wollen,
  • 50:36 - 50:41
    wenn wir in solchen Autos rumfahren
    wollen, dann müssen wir das verstehen. Es
  • 50:41 - 50:45
    gibt halt immer diese Blindspots und man
    kann einfach da nicht darauf eingehen, man
  • 50:45 - 50:47
    kann nicht jeden Spot da bedenken vorher.
  • 50:47 - 50:54
    Karen: Um die vielleicht Frage zu
    kontextualisieren von den Algorithmus-
  • 50:54 - 51:00
    Wissenschaftlichen-Blickpunkt. Wir machen
    jetzt nicht unbedingt den Unterschied
  • 51:00 - 51:04
    zwischen vielleicht dem was eine negative
    oder positive Verzerrung ist, also
  • 51:04 - 51:09
    wahrgenommen wird, sondern für uns gibt es
    halt nur Merkmale die auf gewisse andere
  • 51:09 - 51:14
    Merkmale schließen lassen und das führt
    dann wieder zu der Frage der Korrelation
  • 51:14 - 51:22
    und wenn wir sagen wir haben oft ja
    Merkmale die Proxys sind für andere
  • 51:22 - 51:29
    Merkmale, also wo ich wohne ist oft proxy
    dafür wie ich aussehe oder woher ich
  • 51:29 - 51:32
    komme.
    Was ich also im Machine Learning machen
  • 51:32 - 51:35
    kann, oder wie sich die Wissenschaft damit
    auseinandersetzt ist zu sagen, ok, wenn
  • 51:35 - 51:43
    ich weiß welche Merkmale sensitiv sind,
    also welche ich nicht möchte dass die mein
  • 51:43 - 51:47
    System korreliert mit der eigentlichen
    Aussage die das System treffen soll, dann
  • 51:47 - 51:54
    kann quasi ich in meine Fehlerfunktion
    einen extra Term reinspeisen, der sagt du
  • 51:54 - 52:00
    dekorrelierst jetzt das Ergebnis was du
    hast mit dem besonderen Merkmal was du als
  • 52:00 - 52:06
    sensitiv also z.B. der Wohnort oder dein
    Bildungsstatus oder dein Einkommen, dass
  • 52:06 - 52:11
    die keine Rolle spielen dafür, wie der
    Algorithmus Vorraussagen macht.
  • 52:11 - 52:16
    Mikrophon 4: Was ich jetzt meinte war
  • 52:16 - 52:20
    jetzt wirklich nicht die Unterscheidung
    zwischen gut und schlecht, sondern
  • 52:20 - 52:25
    wirklich eine Visualisierung, dieser
    Datensatz oder dieses Ergebnis basiert auf
  • 52:25 - 52:32
    wenigen Datensichten -- klar im Kontext
    kompliziert zu bewerkstelligen, aber dass
  • 52:32 - 52:38
    man eine Möglichkeit findet sowas
    darzustellen dass diese Daten auf einer
  • 52:38 - 52:41
    hohen Datendichte basieren und so weiter.
  • 52:41 - 52:46
    Hendrik: Unsere Antwort is quasi, es gibt
    solche Sachen, es gibt sowas zu messen
  • 52:46 - 52:51
    aber es ist immer eine Reduktion von
    Komplexität und da verliert man immer was
  • 52:51 - 52:54
    und da muss man sich immer bewusst machen,
    wie viel reduzieren dürfen wir, wie
  • 52:54 - 52:56
    einfach dürfen wir es machen.
  • 52:56 - 53:00
    Karen: Zur Frage der Datensichte kann
    man vielleicht noch sagen, da ist wieder
  • 53:00 - 53:05
    ein andere Kernansatz, der Bayesianische
    Kernansatz, der sich jetzt nicht die Frage
  • 53:05 - 53:10
    stellt, wie ist meine Hypothese aufgrund
    der vorhandenen Daten zu bewerten sondern
  • 53:10 - 53:14
    wie sind meine Daten aufgrund der
    verwedeten Hypothese zu bewerten. Das ist
  • 53:14 - 53:18
    also nochmal eine ganz andere Ansicht auf
    die Sache und der wiederum erlaubt uns
  • 53:18 - 53:22
    dann gewisse Unsicherheiten auszudrücken
    über Vorrausagen, die ich treffe. Also
  • 53:22 - 53:26
    wenn jetzt zum Beispiel ein Datenpunkt
    über den ich eine Aussage treffen will
  • 53:26 - 53:31
    weitab liegt von Daten die ich habe, dann
    wird dieser Ansatz oder wenn ich diesen
  • 53:31 - 53:34
    Ansatz verwende wird mir dann sagen; über
    die Voraussage die ich jetzt treffe bin
  • 53:34 - 53:38
    ich sehr unsicher und das ist eine
    Forschungsrichtung mit der sich viele
  • 53:38 - 53:44
    Leute beschäftigen, die jetzt aber für
    diese großen, komplexen Systeme, ich würde
  • 53:44 - 53:46
    sagen, noch sehr am Anfang steht.
  • 53:46 - 53:49
    Herald-Angel: Mikrofon 1 bitte.
  • 53:49 - 53:53
    Mikrofon 1: Danke für den super-
    interessanten Vortrag und danke auch an
  • 53:53 - 53:57
    die Gebärden-Dolmetscherin, die hier ohne
    Unterlass die ganze Zeit übersetzt.
  • 53:57 - 54:10
    Applaus
    Ich habe folgende Frage: Wie nützlich
  • 54:10 - 54:16
    würdet ihr es einschätzen, das mit einer
    Qualitätskontrolle also einem
  • 54:16 - 54:21
    Qualitätsmeilenstein für das Endergebnis
    zu kombinieren. Also als Beispiel; ein
  • 54:21 - 54:27
    Auto ist dann hinreichend gut, wenn es im
    Verkehr weniger Leute umbringt als ein
  • 54:27 - 54:32
    durschnittlicher menschlicher Fahrer oder
    sowas. Würde das einen zusätzlichen Nutzen
  • 54:32 - 54:36
    ergeben? Kann man daraus noch mehr
    Rückschlüsse ziehen, oder sind das völlig
  • 54:36 - 54:37
    getrennte Sachen?
  • 54:37 - 54:42
    Karen: Also das ist eigentlich genau das
    worauf wir hinaus wollten, dass das eine
  • 54:42 - 54:44
    politische Frage ist, die wir nicht
    beantworten wollen.
  • 54:44 - 54:45
    Hendrik: Oder eine juristische.
  • 54:45 - 54:47
    Karen: Oder eine juristische, das müsst
  • 54:47 - 54:49
    ihr sagen, was ihr richtig findet, das ist
    doch nicht unsere Aufgabe zu sagen ...
  • 54:49 - 54:50
    Hendrik: Nein also die Gesellschaft muss
  • 54:50 - 54:54
    es aushandeln, wir können Probleme
    aufzeigen, aber die Antwort muss die
  • 54:54 - 54:55
    Gesellschaft als ganzes finden.
  • 54:55 - 54:59
    Mikrophon 1: Das ist klar, die Frage ist
    nur, wenn man so einen Punkt definiert hat
  • 54:59 - 55:02
    und sich dann die Ergebnisse anschauen
    würde, die kurz vor und kurz nach diesem
  • 55:02 - 55:06
    Punkt aufgetreten sind, ob das
    Rückschlüsse zulassen würde auf
  • 55:06 - 55:10
    irgendeinen Bias oder irgendwelche anderen
    Sachen, oder ob dieser Punkt völlig
  • 55:10 - 55:11
    unerheblich für euch wäre.
  • 55:11 - 55:14
    Hendrik: Kannst du nochmal den Punkt
    benennen?
  • 55:14 - 55:15
    Mikrophon 1: Also man definiert
  • 55:15 - 55:21
    irgendeinen Punkt x, der ein bestimmtes
    Qualitätskriterium hat. Also der Wagen
  • 55:21 - 55:25
    bringt eben nicht mehr Menschen um als ein
    durchschnittlicher Fahrer sondern weniger.
  • 55:25 - 55:33
    Sind die Ergebnisse die um diesen Punkt
    liegen, die man dann messen kann. Sind die
  • 55:33 - 55:36
    in irgendeiner Art relevant für den
    Ausgang, kann man da irgendwelche
  • 55:36 - 55:40
    Rückschlüsse daraus ziehen, oder ist das
    nur irgendein Punkt, wie jeder andere
  • 55:40 - 55:41
    auch?
  • 55:41 - 55:44
    Hendrik: Also ich finde das problematisch,
    diesen Punkt zu finden, weil man ja auch
  • 55:44 - 55:48
    den ganzen Kontext sehen muss bei den
    Autounfällen und warum sie passieren, also
  • 55:48 - 55:52
    welche Gründe sie haben und das ganze
    datafizieren, das in einen Punkt zu
  • 55:52 - 55:56
    pressen, und den dann als
    Evaluationsmetrik für was anderes
  • 55:56 - 55:59
    hochkomplexes zu nehmen halte ich für sehr
    problematisch, ich glaube da ist wirklich,
  • 55:59 - 56:02
    das meint Karen, die politsche Antwort
    wichtiger.
  • 56:02 - 56:05
    Karen: Beim konkreten Beispiel von
  • 56:05 - 56:08
    selbstfahrenden Autos muss man natürlich
    auch sagen, dass es das echte
  • 56:08 - 56:11
    selbstfahrende Auto nie üben kann einen
    Crash zu haben, also dieses Crash-Szenario
  • 56:11 - 56:14
    kann natürlich nie geübt werden, also wir
    wollen da ja natürlich niemanden sterben
  • 56:14 - 56:18
    lassen oder nicht so viele Autos crashen,
    das ist ein bisschen teuer. Das heißt
  • 56:18 - 56:22
    Crash-Szenarios werden eigentlich auch
    immer nur in der Simulation geübt und das
  • 56:22 - 56:26
    ist genau das Problem, dass wir heute --
    zumindest soweit ich das weiß -- sehr
  • 56:26 - 56:32
    wenige Szenarien haben in denen wir sagen
    können; wenn wir jetzt in der Simulation
  • 56:32 - 56:38
    geübt haben, was für Annahmen übernehmen
    wir denn dann in die echte Welt. Die
  • 56:38 - 56:43
    einfach nur benennen zu können würde uns
    ja schon helfen eventuelle Fehlerszenarien
  • 56:43 - 56:47
    vorrauszusagen, aber selbst das Benennen
    dieser Annahmen das fällt uns ja selbst
  • 56:47 - 56:52
    schon schwer, also das ist noch ein weiter
    Weg.
  • 56:52 - 56:54
    Herald-Angel: Mikro 1
  • 56:54 - 56:59
    Mikrofon 1: Auch vielen Dank für den
  • 56:59 - 57:06
    Vortrag. Die ganze Diskussion über die
    Biase, die ihr ja getrieben habt, besagt
  • 57:06 - 57:09
    ja letztlich, dass es darum geht die
    Wahrheit zu finden, Wahrheit und letztlich
  • 57:09 - 57:13
    eine Stichprobe der Wahrheit dem Computer
    zum Lernen zu geben und das bringt mich
  • 57:13 - 57:17
    dann zu der Parallele in der Wissenschaft
    haben wir das ja auch, also wie sieht
  • 57:17 - 57:21
    meine Stichprobe aus, die ideale
    Stichprobe, oder ist da ein Bias drin.
  • 57:21 - 57:26
    Habt ihr diese Parallele schonmal
    gedanklich gezogen oder ist das ... ja.
  • 57:26 - 57:28
    Hendrik: Also wir sind ja Wissenschaftler
  • 57:28 - 57:32
    und wir müssen natürlich auch erstmal für
    uns wissen, ob was wir herasugefunden
  • 57:32 - 57:36
    haben, gerade wenn wir mit Menschen
    arbeiten, wir hatten ja gestern auch den
  • 57:36 - 57:42
    Vortrag "Science is broken", der da
    irgendwie, also es ist immer schwierig die
  • 57:42 - 57:46
    richtige Samplesize zu haben um die
    Effectsize zu berücksichtigen, um zu
  • 57:46 - 57:49
    wissen, dass man was weiß, das sind ja
    epistemische Fragen.
  • 57:49 - 57:50
    Mikrophon 1: Aber gibt's da irgendwie
  • 57:50 - 57:54
    schon für neuronale Netze irgendwelche
    Richtwerte, dass man dann irgendwie weiß.
  • 57:54 - 57:59
    Weil in der Psychologie lernt man, dass
    die Sampelsize muss mindestens 5.000 Bla
  • 57:59 - 58:02
    betragen, keine Ahnung, oder so und so
    Prozente. Gibt's Richtwerte, gibt's sowas
  • 58:02 - 58:07
    schon für neuronale Netze? In Abhängigkeit
    der Layer oder der Parameter oder..?
  • 58:07 - 58:10
    Hendrik: Nicht dass ich wüsste, weisst du
  • 58:10 - 58:11
    was?
  • 58:11 - 58:14
    Karen: Die Frage geht jetzt vielleicht ein
    bisschen tief. Für frühe Systeme, also
  • 58:14 - 58:23
    sehr einfache neuronale Netze, die aus den
    Anfang der 90ern, so wie Boltzmann-machines oder
  • 58:23 - 58:29
    Hofman-Networks. Für solche Sachen kann
    man sagen, wenn die Saturieren und mit
  • 58:29 - 58:35
    wievielen Bits an Daten man da reingeht
    bis die Saturieren. Für aber diese hoch-
  • 58:35 - 58:41
    nicht-linearen Systeme, die wir jetzt
    verwenden, kann man das nicht sagen, oder
  • 58:41 - 58:47
    nur asymptothisch sagen. Es gibt viel
    Forschung zu dem Thema, aber nichts, was
  • 58:47 - 58:51
    jetzt besonders handfest wäre; sagen wir
    mal so. Oder man jetzt im echten Leben
  • 58:51 - 58:52
    verwenden könnte.
  • 58:52 - 58:56
    Mikrophon 1: Ja gut, dann irgendwie so
    eine Ausage zu haben, so und so viele
  • 58:56 - 58:59
    Testdatensampels brauchst du für dein
    neuronales Netz, wenn das so und so
  • 58:59 - 59:03
    strukturiert ist. Irgendwie, das könnte
    vielleicht eine Form von Verifikation oder
  • 59:03 - 59:06
    Validierung, Pre-Validierung bringen,
    irgendwie.
  • 59:06 - 59:08
    Hendrik: Ja, das macht man ja. Man hat ja
  • 59:08 - 59:12
    einen großen Datensatz, einen
    Trainingsdatensatz, einen Testdatensatz
  • 59:12 - 59:16
    und einen Validierungsdatensatz, mit dem
    man dann nochmal guckt, was haben wir
  • 59:16 - 59:19
    wirlich gelernt und haben wir nicht
    einfach nur die Eigenheiten des
  • 59:19 - 59:22
    Datensatzes auswendig gelernt. Haben wir
    wirklich generalisiert. Also auf dem
  • 59:22 - 59:26
    Niveau passiert das schon. Auf dem höheren
    Niveau wäre das bestimmt noch eine
  • 59:26 - 59:28
    hervorragende Doktorarbeit.
  • 59:28 - 59:30
    Herald-Angel: Mikro 5, deine Frage?
  • 59:30 - 59:37
    Mikrofon 5: Vielen Dank für den Vortrag.
    Meine Frage ist: Diese Biases, die sind ja
  • 59:37 - 59:41
    jetzt nicht neu, die kennt man ja seit
    Dekaden in der Statistik. Was hat sich
  • 59:41 - 59:47
    denn mit der künstlichen Intelligenz, bzw.
    mit Deep Learning geändert? Und daran
  • 59:47 - 59:52
    anschließend: Kennt ihr irgendwelche
    Studien, dass solche Filterblasen wirklich
  • 59:52 - 59:55
    irgendwelche tatsächlichen messbaren
    Auswirkungen haben? Weil man hört
  • 59:55 - 60:00
    unglaublich viel in den Medien, aber mir
    ist keine belastbare Studie bekannt, die
  • 60:00 - 60:06
    sagt, dass das da tatsächlich was
    verschlimmert wird, was nicht vorher schon
  • 60:06 - 60:07
    da war.
  • 60:07 - 60:11
    Hendrik: Ich hab die erste Frage schon
    wieder vergessen. Kannst du einmal noch
  • 60:11 - 60:12
    die erste sagen?
  • 60:12 - 60:17
    Mikrophon 5: Die erste Frage war, was sich
    geändert hat, weil diese Biases, die sind
  • 60:17 - 60:18
    ja jetzt nicht neu.
  • 60:18 - 60:21
    Hendrik: Genau, nein, die sind natürlich
    nicht neu. Und die ganzen Vorurteil sind
  • 60:21 - 60:24
    auch nicht neu. Ich glaube, es wird halt
    einfach sehr, sehr viel Machine Learning
  • 60:24 - 60:28
    gerade benutzt. Auch aus sehr guten
    Gründen. Also, z.B. es gibt hervoragende
  • 60:28 - 60:32
    Python Bibliotheken, es gibt hervoragende
    R Bibliotheken, die das super einfach
  • 60:32 - 60:37
    machen. Die Unis lehren das fast überall.
    Data Science ist der große Hypeterm, und
  • 60:37 - 60:40
    das wird einfach nur nochmal drängender,
    weil Leute diese Sachen jetzt auf einmal
  • 60:40 - 60:44
    in ihre Systeme reinschmeißen, die
    benutzen, um vielleicht Geld zu verdienen,
  • 60:44 - 60:50
    sich aber dann dieser Probleme gar nicht
    bewusst sind. Und zur 2. Frage: Ich bin
  • 60:50 - 60:53
    mir ziemlich sicher, dass es viel zu
    Echokammern gibt. Ich weiß nicht, was du
  • 60:53 - 60:57
    gefragt hast, ob man das wirklich auch
    wissenschaftlich so testen kann? Also, wie
  • 60:57 - 61:02
    da quasi der Versuchsaufbau aussähe? Aber
    es gibt, auch gerade in der Soziologie,
  • 61:02 - 61:10
    viel zu Echokammern. Aber mir fällt gerade
    kein Autor ein dazu.
  • 61:10 - 61:13
    Herald-Angel: Vielen Dank für den Vortrag.
  • 61:13 - 61:16
    Ich sehe, dass da noch Fragen sind, aber
    leider ist die Zeit rum. Seid ihr noch da?
  • 61:16 - 61:17
    Können die Leute euch noch ansprechen?
  • 61:17 - 61:18
    Hendrik: OK.
  • 61:18 - 61:20
    Herald-Angel: Super. Vielen, vielen Dank!
  • 61:20 - 61:24
    Applaus
  • 61:24 - 61:43
    Untertitel erstellt von c3subtitles.de
    im Jahr 2018. Mach mit und hilf uns!
Title:
34C3 - Beeinflussung durch Künstliche Intelligenz
Description:

more » « less
Video Language:
German
Duration:
01:01:44

German subtitles

Revisions Compare revisions