0:00:15.719,0:00:21.530
Herald-Angel: Der nächste Vortrag ist[br]„Beeinflussung durch Künstliche
0:00:21.530,0:00:27.170
Intelligenz". Es ist ein[br]Einführungsvortrag, also einer der
0:00:27.170,0:00:31.580
explizit dazu gedacht ist, dass ihr das[br]ohne Vorkenntnisse versteht. Und es geht
0:00:31.580,0:00:41.159
ums Maschinelle Lernen. Unsere Sprecher[br]sind die Karen – sie forscht in Amsterdam
0:00:41.159,0:00:47.729
an Maschinellem Lernen, kommt ursprünglich[br]aus Leipzig – und der Hendrik Heuer, der
0:00:47.729,0:00:55.440
in Bremen an Mensch-Computer-Interaktion[br]forscht. Großes Willkommen für die beiden!
0:00:55.440,0:01:03.190
Applaus
0:01:03.190,0:01:06.930
Hendrik Heuer: Vielen Dank! Moin erstmal![br]Willkommen zu unserem Vortrag
0:01:06.930,0:01:10.909
„Beeinflussung durch Künstliche[br]Intelligenz" über die Banalität der
0:01:10.909,0:01:14.920
Beeinflussung und das Leben mit[br]Algorithmen. Wir würden gern mit einem
0:01:14.920,0:01:19.979
Zitat von Kate Crawford beginnen. Kate[br]Crawford ist die Gründerin des AI Now
0:01:19.979,0:01:23.841
Institut das die sozialen Auswirkungen von[br]künstlicher Intelligenz untersucht. Sie
0:01:23.841,0:01:28.090
ist außerdem ein Principal Researcher bei[br]Microsoft Research und Professorin an der
0:01:28.090,0:01:33.840
New York University. Und die hat beim AI[br]Now Symposium in diesem Jahr gesagt: „Die
0:01:33.840,0:01:37.170
Menschen befürchten, dass Computer zu[br]intelligent werden und die Welt erobern.
0:01:37.170,0:01:42.549
Aber Computer sind zu dumm und haben die[br]Welt bereits erobert." Wir teilen diese
0:01:42.549,0:01:47.420
Ansicht. Es gibt keine digitale Welt. Die[br]Welt ist digital, das heißt durch digitale
0:01:47.420,0:01:51.799
Medien konstruiert. Und uns war es ein[br]Anliegen, einige englischsprachige
0:01:51.799,0:01:55.659
Diskussion jetzt nochmal auf Deutsch[br]zusammenzuführen. Es können also Beispiele
0:01:55.659,0:02:00.700
kommen die der eine oder andere vielleicht[br]schon kennt. Aber wir führen sie hier
0:02:00.700,0:02:05.390
nochmal zusammen und versuchen sie zu[br]kontextualisieren. Warum Banalität der
0:02:05.390,0:02:09.880
Überwachung? Banalität, weil die Systeme[br]des maschinellen Lernens im Kern sehr
0:02:09.880,0:02:14.520
simpel sind, weil aber auch die[br]Beeinflussung sehr subtil sein kann und
0:02:14.520,0:02:17.080
das Ganze ist auch eine Reminiszenz an[br]Hannah Arendt.
0:02:17.080,0:02:21.330
Noch mal kurz zu uns. Wie gesagt: Ich[br]werde die ersten 20 Minuten sprechen über
0:02:21.330,0:02:25.280
die Mensch-Computer-Interaktions-[br]Perspektive, Karen Ullrich wird die zweite
0:02:25.280,0:02:29.170
Hälfte bestreiten. Karen ist[br]wissenschaftliche Mitarbeiterin in
0:02:29.170,0:02:33.920
Amsterdam, im Amsterdam Machine Learning[br]Lab, und sie forscht direkt zu den
0:02:33.920,0:02:37.660
Algorithmen des maschinellen Lernens,[br]insbesondere Bayesian methods, also ein
0:02:37.660,0:02:41.950
Hintergrund im Deep Learning und der[br]Informationstheorie. Ich bin
0:02:41.950,0:02:46.470
wissenschaftlicher Mitarbeiter im Institut[br]für Informationsmanagement Bremen und mir
0:02:46.470,0:02:50.000
geht es um die Nutzererfahrung von[br]Maschine Learning, insbesondere das
0:02:50.000,0:02:56.380
Vertrauen. Wir würden jetzt gerne anfangen[br]mit einem Beispiel, das jeder kennt: Spam-
0:02:56.380,0:02:59.990
Erkennung. Benutzt wahrscheinlich jeder[br]hier. Funktioniert auch nicht immer. Aber
0:02:59.990,0:03:03.090
man muss sich wirklich vor Augen führen,[br]dass es eine beeindruckende technische
0:03:03.090,0:03:07.100
Leistung ist, auch wenn es manchmal nicht[br]funktioniert. Und wir nehmen es hier, um
0:03:07.100,0:03:11.620
den Unterschied zwischen imperativer[br]Programmierung und maschinellem Lernen zu
0:03:11.620,0:03:16.540
verdeutlichen. Imperative Programmierung[br]ist das, woran wahrscheinlich jeder denkt,
0:03:16.540,0:03:18.480
wenn er an Informatik und Programmierung[br]denkt.
0:03:18.480,0:03:21.940
Es geht um Regeln und Anweisungen: Wenn X
0:03:21.940,0:03:26.430
dann Y. Das Wort Imperativ für Befehl[br]steckt ja auch schon im Namen. Und wenn
0:03:26.430,0:03:30.210
wir jetzt Spam imperativ erkennen wollen[br]würden, dann würde man zum Beispiel
0:03:30.210,0:03:34.140
gucken, Okay das Wort Viagra wird so[br]geschrieben in der Nachricht vorkommen,
0:03:34.140,0:03:39.210
dann ist es eine Spam-Nachricht.[br]Andererseits ist es eine gutartige
0:03:39.210,0:03:43.710
Nachricht. Maschinelles Lernen ist jetzt[br]ein komplett anderer Ansatz. Da hat man
0:03:43.710,0:03:49.040
eine Vorhersage die man iterativ, also[br]immer und immer wieder, verbessert. Für
0:03:49.040,0:03:53.000
die Spam-Klassifikation versucht man zum[br]Beispiel Kombinationen von Wörtern zu
0:03:53.000,0:03:56.900
finden, durch die es wahrscheinlich wird,[br]dass es sich um Spam handelt.
0:03:56.900,0:04:02.160
Der Kernbegriff ist hier also wahrscheinlich. Und[br]das sieht dann so aus, dass man für viele
0:04:02.160,0:04:07.400
verschiedene Beispiele prognostiziert, ob[br]eine Nachricht Spam ist oder nicht. Dann
0:04:07.400,0:04:12.010
berechnet man Fehler mit einer geeigneten[br]Fehlerfunktion und dann ändert man seine
0:04:12.010,0:04:16.721
Parameter, um den Fehler zu verringern und[br]geht wieder zum ersten Schritt und macht
0:04:16.721,0:04:21.589
das immer und immer wieder. Natürlich ist[br]es nicht ganz so einfach, diesen Fehler zu
0:04:21.589,0:04:24.630
berechnen, und auch die Parameter zu[br]verändern, ist ein eigenes
0:04:24.630,0:04:28.030
Forschungsgebiet. Aber im Kern ist es[br]wirklich so simpel wie wir es hier
0:04:28.030,0:04:33.081
darstellen. Und deswegen ist es spannend[br]im Hinterkopf zu behalten. Dabei ist es
0:04:33.081,0:04:36.720
aber spannend im Hinterkopf zu behalten,[br]dass Spam-Erkennen nicht mit
0:04:36.720,0:04:40.790
Textverständnis gleichzusetzen ist. Das[br]heißt der Algorithmus muss nicht erst
0:04:40.790,0:04:45.030
Kafka verstehen können, um zu erkennen, ob[br]etwas Spam ist oder nicht. Und dieses
0:04:45.030,0:04:48.960
Problem, dass etwas wirkungsvoller[br]aussieht als es vermeintlich ist, wird uns
0:04:48.960,0:04:54.840
im Laufe des Vortrags noch begegnen.[br]Wir haben jetzt ein weiteres, immer noch
0:04:54.840,0:04:58.700
vereinfachtes Beispiel für eine[br]Entscheidungshilfe, hier aus der Medizin.
0:04:58.700,0:05:03.960
Das Ziel ist hier die Erkennung von[br]Brustkrebs. Statt Wörtern wie beim Spam
0:05:03.960,0:05:09.660
haben wir verschiedene Features, das heißt[br]Charakteristika, an denen man zum Beispiel
0:05:09.660,0:05:14.760
gutartigen von bösartigem Brustkrebs[br]unterscheiden kann. Dazu gehören hier der
0:05:14.760,0:05:20.850
Radius, die Textur, Umfang, Fläche, Glätte[br]aber auch so Sachen wie die Symmetrie und
0:05:20.850,0:05:25.780
die Zahl konkaver Punkte, also nach innen[br]gewölbter Punkte, das seht ihr hier oben.
0:05:25.780,0:05:30.610
Insgesamt gibt es in diesem vereinfachten[br]Datensatz 32 verschiedene Charakteristika.
0:05:30.610,0:05:36.260
Und wenn wir jetzt zwei Charakteristika[br]wie z.B. die durchschnittliche Zahl der
0:05:36.260,0:05:41.190
konkaven Punkte und die durchschnittliche[br]Fläche in Pixeln anschauen und abtragen,
0:05:41.190,0:05:45.450
dann erkennt man eine deutliche Tendenz:[br]Ab einem bestimmten Punkt – ab einer
0:05:45.450,0:05:48.520
bestimmten Zahl Punkte und ab einer[br]bestimmten Fläche – sehen wir nur noch
0:05:48.520,0:05:54.000
bösartigen Brustkrebs. Das heißt[br]mathematisch können wir im Beispiel
0:05:54.000,0:05:58.091
einfach eine Linie durch diesen Datensatz[br]ziehen und das ist eine sogenannte
0:05:58.091,0:06:02.169
Entscheidungsgrenze, die Decision-[br]Boundary. Die Entscheidungsgrenze muss
0:06:02.169,0:06:05.000
nicht linear sein, es muss nicht eine[br]einfache Linie sein.
0:06:05.000,0:06:10.140
Die kann durchaus komplexer sein und in[br]der Regel ist sie das. Und dieser Ansatz
0:06:10.140,0:06:14.650
ist durchaus analog zu dem, was eine[br]erfahrene Ärztin oder ein erfahrener Arzt
0:06:14.650,0:06:18.531
mehr oder weniger bewusst machen würde.[br]Die haben auch aus Erfahrung gelernt: ab
0:06:18.531,0:06:23.800
der Größe, und ab der Fläche und der Zahl[br]ist es wahrscheinlich bösartig oder
0:06:23.800,0:06:27.480
gutartig. Der Clou am Maschinellen Lernen[br]ist jetzt, dass wir das für viele
0:06:27.480,0:06:31.620
verschiedene Charakteristika gleichzeitig[br]machen können. Und darüber hinaus
0:06:31.620,0:06:36.060
profitieren wir sehr stark davon, wenn wir[br]mehr Daten haben, weil wir dadurch bessere
0:06:36.060,0:06:38.560
Entscheidungen treffen können. Weil wir[br]eine bessere Entscheidungsgrenze finden.
0:06:38.560,0:06:45.340
Ihr seht aber auch, dass eine gute Zahl an[br]roten und blauen Punkten im Beispiel auf
0:06:45.340,0:06:49.871
der falschen Seite der Grenze liegen.[br]Das heißt dort machen wir Fehler und da
0:06:49.871,0:06:53.300
muss man im Hinterkopf behalten, dass es[br]verschiedene Arten von Fehlern gibt und
0:06:53.300,0:06:57.010
die auch verschiedene Auswirkungen haben.[br]Falls ich zum Beispiel jemandem mit
0:06:57.010,0:07:02.669
gutartigen Brustkrebs fälschlicherweise[br]sage, dass ihr Brustkrebs bösartig ist,
0:07:02.669,0:07:07.870
löst das sicherlich Stress aus und ist[br]keine angenehme Situation. Falls ich aber
0:07:07.870,0:07:11.560
jemanden mit bösartigem Brustkrebs[br]fälschlicherweise sage, dass ihr
0:07:11.560,0:07:15.130
Brustkrebs gutartig ist und sie auch[br]entsprechend behandle, kann das deutlich
0:07:15.130,0:07:19.900
schlimmere Konsequenzen haben. Das ist[br]jetzt natürlich ein vereinfachtes
0:07:19.900,0:07:24.900
Beispiel. Aber gleichzeitig werden wir[br]zeigen, dass ähnliche Entscheidungshilfen
0:07:24.900,0:07:29.210
durchaus in sehr kritischen Bereichen[br]genutzt werden. Vorher wollen wir noch
0:07:29.210,0:07:33.750
einmal die Wirkungsmacht von Big Data[br]zeigen und da geht es darum,
0:07:33.750,0:07:39.800
Persönlichkeitsmerkmale zu erkennen. Das[br]heißt hier nimmt man digitale Spuren wie
0:07:39.800,0:07:43.960
Facebook-Likes, die relativ einfach[br]zugänglich sind, es aber ermöglichen,
0:07:43.960,0:07:47.460
hochgradig sensible[br]Persönlichkeitsmerkmale vorherzusagen.
0:07:47.460,0:07:54.380
Das ist ein Paper von 2013 und für die[br]Studie haben sie 58.000 Freiwillige in den
0:07:54.380,0:07:58.060
USA gefunden, die eine Facebook-App[br]benutzt haben. Und die haben dieser
0:07:58.060,0:08:02.120
Facebook-App ihr komplettes Profil zur[br]Verfügung gestellt mit allen Likes aber
0:08:02.120,0:08:06.060
auch mit allen Informationen wie zum[br]Beispiel der sexuellen Orientierung oder
0:08:06.060,0:08:10.540
der religiösen Zugehörigkeit. Was jetzt[br]gemacht wurde ist mit einem sehr einfachen
0:08:10.540,0:08:16.700
Modell, mit einem einfachen Regressions-[br]Modell, vorhergesagt, von welchen Likes,
0:08:16.700,0:08:21.270
ob man anhand der Likes bestimmte[br]Persönlichkeitsmerkmale erkennen kann. Und
0:08:21.270,0:08:26.570
es zeigt sich, dass man zum Beispiel mit[br]95-prozentiger Genauigkeit erkennen kann,
0:08:26.570,0:08:32.620
ob jemand weiß oder afroamerikanisch ist.[br]Sexuelle Orientierung kann man auch mit
0:08:32.620,0:08:38.999
sehr hoher Genauigkeit nur anhand der[br]Likes erkennen, das Geschlecht, die
0:08:38.999,0:08:44.350
politische Orientierung, die religiöse[br]Zugehörigkeit, aber auch so Sachen wie die
0:08:44.350,0:08:49.100
Drogenerfahrung und der Familienstand der[br]Eltern in der Kindheit.
0:08:49.100,0:08:53.970
Und ihr seht schon bei der religiösen[br]Zugehörigkeit sind wir bei 82 Prozent
0:08:53.970,0:08:58.589
Genauigkeit, bei so etwas wie[br]Drogenerfahrung und der Ehe ist es relativ
0:08:58.589,0:09:03.579
wenig mit der Genauigkeit: Es ist eine[br]50/50 Chance, wenn wir raten würden.
0:09:03.579,0:09:09.389
Aber es ist trotzdem eine Indikation. Und[br]wir zeigen das auch nur, weil das
0:09:09.389,0:09:12.992
wahnsinnige Möglichkeiten der[br]Diskriminierung bildet. Und das passiert
0:09:12.992,0:09:17.661
auch auf dem Wohnungsmarkt oder auf dem[br]Arbeitsmarkt. Das heißt was wir hier
0:09:17.661,0:09:21.089
zeigen wollen, ist, dass wir unsere[br]Vorstellungen von Datenschutz überdenken
0:09:21.089,0:09:26.019
und ausweiten müssen, weil man halt auch[br]Persönlichkeitsmerkmale inferieren können
0:09:26.019,0:09:31.630
kann. Denn man kann mit solchen Modellen[br]auch die Likes finden, die am
0:09:31.630,0:09:36.050
aussagekräftigsten für ein bestimmtes[br]Charakteristikum sind. Das heißt wir haben
0:09:36.050,0:09:41.170
hier drei Likes: einmal die Marke Harley-[br]Davidson, Kringel-Pommes/curly fries und
0:09:41.170,0:09:45.019
das Musical Wicked. Und ich überlasse es[br]euch mal, herauszufinden, welches Bild mit
0:09:45.019,0:09:49.790
niedriger Intelligenz, hoher Intelligenz[br]und Homosexualität bei Männern verbunden
0:09:49.790,0:09:56.439
ist. Diese durchaus fragwürdige[br]Forschungsrichtung nennt sich Psychometrik
0:09:56.439,0:10:00.860
oder auch Psychografie. Und das Spannende[br]ist, dass sie ja relativ nah dran ist am
0:10:00.860,0:10:04.009
Kern-Versprechen von so Unternehmen wie[br]Google und Facebook.
0:10:04.009,0:10:08.740
Denn die versprechen ihren Kunden – ihren[br]Werbekunden – wir finden für euch
0:10:08.740,0:10:13.149
Leute, die sich für Dienst X oder Produkt[br]Y interessieren könnten. Und hier haben
0:10:13.149,0:10:18.279
wir jetzt das Element der Beeinflussung.[br]Beeinflussung heißt hier, Big Data zu
0:10:18.279,0:10:23.230
nutzen, um Leute zu finden, und die[br]Beeinflussung ist noch sehr banal. Aber
0:10:23.230,0:10:26.810
solche Forschung kann natürlich auch[br]genutzt werden, um zum Beispiel in einer
0:10:26.810,0:10:31.059
großen Menge von Wählerinnen jene zu[br]finden, die noch überzeugt werden könnten.
0:10:31.059,0:10:34.771
Und ihr habt – viele von euch haben[br]wahrscheinlich den Artikel in das Magazin
0:10:34.771,0:10:39.199
gelesen, wo kolportiert wurde, dass diese Art[br]von Psychografie für Trump und Brexit
0:10:39.199,0:10:43.079
verantwortlich ist. Vor der Bundestagswahl[br]gab es ja auch eine große Diskussion, dass
0:10:43.079,0:10:47.689
das hier passieren könnte. Wir glauben,[br]dass das mit Vorsicht zu genießen ist,
0:10:47.689,0:10:51.160
aber die Möglichkeit mit derartigen[br]Ansätzen überzeugbare Wählerinnen und Wähler
0:10:51.160,0:10:53.790
zu finden und anzusprechen, ist durchaus[br]realistisch.
0:10:53.790,0:11:00.990
Und wir haben schon gesehen, dass es[br]dadurch so eine Art Diskriminierung 2.0
0:11:00.990,0:11:05.312
gibt. Denn ein homophober Arbeitgeber muss[br]nicht mehr direkt erfragen, ob jemand
0:11:05.312,0:11:09.610
homosexuell ist, wenn er es aus einem[br]Facebook-Profil vorhersagen kann, und es
0:11:09.610,0:11:13.129
interessiert ihn vielleicht auch nicht, ob[br]er da einen Fehler macht und einen
0:11:13.129,0:11:18.209
Heterosexuellen möglicherweise falsch[br]einordnet. Diese Beeinflussung kann aber
0:11:18.209,0:11:23.689
durchaus direkter sein. In den USA werden[br]Algorithmen jetzt schon im Justizsystem
0:11:23.689,0:11:28.300
als Entscheidungshilfe eingesetzt, und da[br]wird zum Beispiel mit bestimmten
0:11:28.300,0:11:32.639
Informationen über die Leute vorhergesagt,[br]ob jemand rückfällig wird, der im
0:11:32.639,0:11:37.759
Gefängnis ist, oder nicht. Das heißt man[br]versucht vorherzusagen auf einer Skala von
0:11:37.759,0:11:43.590
1 für ungefährlich bis 10 für hochgradig[br]gefährlich, wo jemand hinkommt. Und hier
0:11:43.590,0:11:49.069
haben wir zwei Beispiele: Einmal den Herrn[br]links – VP die Initialen –, der zwei
0:11:49.069,0:11:53.980
bewaffnete Raubüberfälle begangen und[br]einen versuchten bewaffneten Raubüberfall,
0:11:53.980,0:11:58.519
und die Risikoeinschätzung ist hier 3[br]niedriges Risiko.
0:11:58.519,0:12:03.730
Daneben steht die Dame – BB –, die hat[br]vier Ordnungswidrigkeiten unter
0:12:03.730,0:12:11.509
Jugendstrafrecht auf dem Kerbholz, und die[br]wird eingestuft mit hohes Risiko. Und wie
0:12:11.509,0:12:15.199
sieht das jetzt aus. Also die Leute von[br]ProPublica die das recherchiert haben,
0:12:15.199,0:12:20.600
haben jetzt über zwei Jahre geguckt, wer[br]wirklich rückfällig wird und wer nicht. BB
0:12:20.600,0:12:24.689
– die Dame rechts –, die begeht keine[br]weiteren Verbrechen. VP – der Herr links
0:12:24.689,0:12:27.870
–, der begeht nach seiner Freilassung[br]direkt einen schweren Diebstahl. Das
0:12:27.870,0:12:31.269
Besondere ist hier, und ihr werdet es[br]wahrscheinlich schon geraten haben, ist,
0:12:31.269,0:12:35.900
dass der Algorithmus systematisch[br]Afroamerikanerinnen diskriminiert. Es gibt
0:12:35.900,0:12:41.250
also ein Bias, eine Verzerrung, gegen[br]Schwarze. Darüber hinaus sind diese
0:12:41.250,0:12:46.059
Vorhersagen von den proprietären Kompass-[br]Systemen nur in 61 Prozent derzeit
0:12:46.059,0:12:51.209
richtig. Wenn man jetzt die wirkliche[br]Rückfälligkeit über zwei Jahren nimmt. Und
0:12:51.209,0:12:55.089
wir kennen das aus der Statistik: Dort[br]unterscheiden wir den Fehler erster Art
0:12:55.089,0:12:59.149
und den Fehler zweiter Art. Das heißt[br]unsere Nullhypothese ist: Der oder die
0:12:59.149,0:13:03.689
Straftäterin wird nicht rückfällig.[br]Der Fehler erster Art ist jetzt, dass die,
0:13:03.689,0:13:08.739
die mit hohem Risiko eingestuft werden,[br]aber nicht rückfällig werden. Und da sehen
0:13:08.739,0:13:12.500
wir – oder hat ProPublica herausgefunden[br]–, dass die Wahrscheinlichkeit, dass ein
0:13:12.500,0:13:18.189
Weißer oder eine Weiße Opfer dieses[br]Fehlers wird, bei 23,5 Prozent liegt und
0:13:18.189,0:13:22.199
bei Afroamerikanerinnen liegt die[br]Wahrscheinlichkeit bei 44,9, also fast
0:13:22.199,0:13:25.910
doppelt so hoch. Es gibt auch den Fehler[br]zweiter Art. Das ist die
0:13:25.910,0:13:29.429
Wahrscheinlichkeit,[br]dass jemand mit niedrigem Risiko
0:13:29.429,0:13:33.590
eingestuft wird, aber trotzdem rückfällig[br]wird. Und hier ist die Wahrscheinlichkeit
0:13:33.590,0:13:41.779
umgekehrt: Weiße haben eine 47-Prozent-[br]Chance diesem Fehler zum Opfer zu fallen.
0:13:41.779,0:13:49.549
Afroamerikanerinnen nur 28 Prozent. Aber[br]wie kommt das? Wir nehmen jetzt mal an,
0:13:49.549,0:13:53.290
dass das kompetente Programmiererinnen[br]sind, die in den Maschine Learning Kursen,
0:13:53.290,0:13:56.920
die sie gemacht haben, gut aufgepasst[br]haben und technisch alles richtig gemacht
0:13:56.920,0:13:59.980
haben.[br]Nun lernt Maschine Learning immer eine
0:13:59.980,0:14:05.459
Abbildung von einem X auf ein Y. Z. B.[br]hier haben wir bestimmte Informationen zu
0:14:05.459,0:14:11.089
Gefangenen und diese Rückfälligkeit der[br]Gefangenen. Das Problem ist jetzt das X
0:14:11.089,0:14:15.300
ist keine Stichprobe der Grundgesamtheit,[br]sondern eine Untermenge der
0:14:15.300,0:14:19.179
Grundgesamtheit, die die Polizei[br]untersucht hat. Es ist also ein X', es ist
0:14:19.179,0:14:24.009
nicht repräsentativ. Und das kann eine[br]selbsterfüllende Prophezeiung sein. Denn
0:14:24.009,0:14:27.220
vielleicht sind Afroamerikanerinnen[br]einfach in der Situation, dass sie
0:14:27.220,0:14:31.779
deutlich häufiger kontrolliert werden und[br]es einfach dadurch mehr Straffälle in
0:14:31.779,0:14:36.550
dem Datensatz gibt. Und auf der auch auf[br]der anderen Seite auf der Y Seite, das
0:14:36.550,0:14:40.459
heißt diese Risikobeurteilung, ob man[br]rückfällig wird oder nicht, ist ebenfalls
0:14:40.459,0:14:45.269
eine Verfälschung. Denn die bezieht sich[br]ja auch nur auf die, die vom Rechtssystem
0:14:45.269,0:14:49.899
verurteilt werden.[br]Das heißt hier haben wir auch ein Y'. Wenn
0:14:49.899,0:14:54.089
man zum Beispiel ein Jurysystem hat, wie[br]man es in den USA findet, dann kann auch
0:14:54.089,0:14:58.790
dort latent oder weniger latent[br]diskriminiert werden. Das macht Maschine
0:14:58.790,0:15:04.399
Learning – pseudo-objektive, mathematische[br]Modelle – zu einer Art Geldwäsche für
0:15:04.399,0:15:08.649
Vorurteile. Weil sie fallen in dieses[br]System rein und sind dann erst einmal
0:15:08.649,0:15:14.360
nicht mehr sichtbar. Und hier kommen wir[br]jetzt zum Element der direkten
0:15:14.360,0:15:17.339
Beeinflussung.[br]Denn diese Systeme werden zwar nur als
0:15:17.339,0:15:22.019
Entscheidungshilfen verkauft, es sind halt[br]nur Werkzeuge, die genutzt werden können,
0:15:22.019,0:15:26.350
aber die Leute, die die Entscheidung[br]treffen, verlassen sich direkt auf diese
0:15:26.350,0:15:29.949
Systeme. Das heißt sie vertrauen diesen[br]diskriminierenden Algorithmen. Das
0:15:29.949,0:15:33.429
Beispiel kommt aus dem hervorragenden[br]Deutschlandfunk-Feature von Thomas
0:15:33.429,0:15:39.689
Schimmeck. Und der hat zum Beispiel[br]Veronika Hiller, die Bewährungshelferin,
0:15:39.689,0:15:45.019
die dem Richter im Endeffekt ein Strafmaß[br]vorschlägt, interviewt. Das Spannende ist,
0:15:45.019,0:15:48.189
die hat also ein Vierteljahrhundert[br]Erfahrung im Dienst. Aber sie schwört auf
0:15:48.189,0:15:52.839
diesen Algorithmus. Sie sagt der ist gut,[br]akkurat und einfach. Was wir einfach
0:15:52.839,0:15:57.989
zeigen wollen, ist, dass es hier um sozio-[br]technische Systeme geht. Das heißt es
0:15:57.989,0:16:01.519
geht nicht nur um das Maschine Learning.[br]Es geht nicht nur um den Algorithmus.
0:16:01.519,0:16:05.389
Sondern es geht auch um die Menschen, die[br]ihn nutzen. Denn selbst wenn das System
0:16:05.389,0:16:09.569
fair wäre – wir haben gerade gesehen dass[br]es das nicht ist –, heißt es immer noch
0:16:09.569,0:16:13.910
nicht, dass die Ergebnisse des Systems[br]auch fair interpretiert werden, und wir
0:16:13.910,0:16:17.740
finden das ist sehr wichtig für jene, die[br]solche Systeme bauen – und da sind
0:16:17.740,0:16:22.389
wahrscheinlich einige heute hier. Diese[br]Verzerrung in und durch Daten sind
0:16:22.389,0:16:27.089
allgegenwärtig. Wir haben zum Beispiel[br]hier ein Beispiel von Google. Das ist eine
0:16:27.089,0:16:32.100
Suche nach den Keywords „Three White[br]Teenagers". Und das ist eine Suche nach
0:16:32.100,0:16:38.489
den Keywords „Three Black Teenagers". Das[br]heißt Technologie offenbart hier
0:16:38.489,0:16:41.779
gesellschaftliche Probleme.[br]Wir haben es wie gesagt mit sozi-
0:16:41.779,0:16:46.769
technischen Systemen zu tun, die eine[br]bestimmte Weltvorstellung festschreiben,
0:16:46.769,0:16:51.660
vermitteln, aber auch verstärken können.[br]Und die Probleme können ganz subtil und
0:16:51.660,0:16:55.749
banal sein wie zum Beispiel dieses[br]Beispiel aus der statistischen Übersetzung
0:16:55.749,0:16:59.500
zeigt: Jetzt muss man wissen, dass die[br]türkische Sprache nicht zwischen
0:16:59.500,0:17:04.279
Geschlechtern unterscheidet, das heißt[br]„er", „sie" und „es" sind alle „o". Es
0:17:04.279,0:17:07.669
gibt auch keine Unterscheidung zwischen[br]„Arzt" und „Ärztin" beides „Doktor". Und
0:17:07.669,0:17:11.869
wenn wir jetzt mit Google Translate oder[br]einem anderen statistischen
0:17:11.869,0:17:16.970
Übersetzungsprogramm Sätze wie „Er ist ein[br]Babysitter." und „Sie ist eine Ärztin."
0:17:16.970,0:17:21.449
hin und her übersetzen, dann stellen wir[br]fest, dass die Übersetzung bestimmte
0:17:21.449,0:17:23.140
Geschlechterklischees widerspiegelt.
0:17:23.140,0:17:27.659
Und ihr könnt mit dem was ihr bisher über[br]Machine Learning gelernt habt in diesem
0:17:27.659,0:17:32.380
Vortrag vielleicht schon erklären, wie das[br]passiert. Wir lernen aus Beispielen und in
0:17:32.380,0:17:37.520
diesen Beispielen sind Verzerrungen. In[br]diesem Fall mehr weibliche Babysitter,
0:17:37.520,0:17:41.440
mehr männliche Ärzte.[br]Denn wenn wir übersetzen dann berechnen
0:17:41.440,0:17:45.080
wir ja Wahrscheinlichkeiten und nehmen in[br]der Regel einfach das wahrscheinlichste
0:17:45.080,0:17:49.169
Ergebnis. Das heißt selbst minimale[br]Verzerrungen können verstärkt werden. Das
0:17:49.169,0:17:54.539
heißt eine Babysitterin mehr, ein Arzt[br]mehr und diese Übersetzung sieht so aus,
0:17:54.539,0:17:59.299
wie wir sie gerade sehen. Aber hier haben[br]wir etwas, das technisch erklärbar ist.
0:17:59.299,0:18:03.010
Aber welche Auswirkungen hat das auf die[br]NutzerInnen. Welche Auswirkungen hat das
0:18:03.010,0:18:09.450
auf die Weltsicht, wenn man die Google-[br]Ergebnisse so sieht wie man sie sieht. Und
0:18:09.450,0:18:13.760
anhand von Facebook wollen wir jetzt[br]zeigen, wie direkt und intransparent diese
0:18:13.760,0:18:17.730
Beeinflussung sein kann. Auch Facebook ist[br]ein hochkomplexes sozio-technisches
0:18:17.730,0:18:22.760
System, in dem NutzerInnen gleichzeitig[br]Produzenten und KonsumentInnen sind.
0:18:22.760,0:18:28.690
Facebooks erklärtes Ziel lautet ja, jedem[br]zu jeder Zeit die richtigen Inhalte zu
0:18:28.690,0:18:34.250
zeigen. Dafür nutzt Facebook nach eigener[br]Aussage hundert tausend verschiedene
0:18:34.250,0:18:38.440
Faktoren, um algorithmisch die besten[br]Geschichten aus den potenziellen
0:18:38.440,0:18:40.159
Geschichten auszuwählen.
0:18:40.159,0:18:44.549
Das heißt, wenn ihr euch jetzt vorstellt -[br]das sind jetzt Zahlen aus dem Kosinski-
0:18:44.549,0:18:50.750
Paper mit den Persönlichkeitsmerkmalen.[br]Das heißt da haben die Leute im Median 200
0:18:50.750,0:18:56.710
Bekannte und liken 68 Seiten. Das heißt[br]wenn nur jeder Dritte was macht, dann sind
0:18:56.710,0:19:00.970
das pro Tag 90 potenzielle Beiträge. Wenn[br]man jetzt nur fünf oder zehn Minuten auf
0:19:00.970,0:19:04.460
der Seite verweilt, dann kann man sich[br]nicht angucken. Das heißt eine
0:19:04.460,0:19:10.130
chronologische Darstellung ist zwecklos[br]und eine Kuration unumgänglich. Und
0:19:10.130,0:19:15.080
deswegen sortiert Facebook die Nachrichten[br]nach einem Algorithmus. Das Problem ist
0:19:15.080,0:19:18.240
aber, dass dieser Vorgang sehr[br]intransparent ist. Das heißt die
0:19:18.240,0:19:19.929
NutzerInnen sehen und verstehen die[br]Algorithmen nicht
0:19:19.929,0:19:25.000
Und die glauben im Zweifelsfall wenn sie[br]darauf angesprochen werden, dass die
0:19:25.000,0:19:30.179
Algorithmen objektiv und unabhängig sind.[br]Und dabei beziehe ich mich auf folgende
0:19:30.179,0:19:35.620
Studie. Die kommt aus der CHI, der[br]Computer Human Interaction Community. Und
0:19:35.620,0:19:42.180
dort waren sich 62,5% der Teilnehmer und[br]Teilnehmerinnen in dieser Studie der
0:19:42.180,0:19:47.659
Existenz von Newsfeed-Algorithmen, also[br]von dieser algorithmischen Kuration, nicht
0:19:47.659,0:19:51.830
bewusst. Das heißt wir haben hier eine[br]qualitative Studie mit 40 TeilnehmerInnen,
0:19:51.830,0:19:56.010
die so ausgewählt wurden, dass sie[br]repräsentativ sind für die US-
0:19:56.010,0:20:00.980
Grundgesamtheit. Und von denen war also 25[br]Personen nicht bewusst, dass überhaupt
0:20:00.980,0:20:06.580
irgendwie sortiert wird. Die Studie zeigt[br]auch, dass die TeilnehmerInnen durchaus
0:20:06.580,0:20:11.029
verärgert sind, wenn sie Posts von engen[br]Freunden oder Familienmitgliedern nicht
0:20:11.029,0:20:15.960
sehen. Spannend ist aber jetzt: Die[br]Teilnehmer suchen den Fehler eher bei sich
0:20:15.960,0:20:19.330
oder anderen, als bei einem Algorithmus,[br]von dem sie im Zweifelsfall auch nichts
0:20:19.330,0:20:24.660
wissen. Sie glauben dann z.B. dass sie[br]etwas übersehen haben oder sie denken,
0:20:24.660,0:20:30.029
dass ihnen bestimmte Bekannte bewusst[br]Geschichten vorenthalten, weil sie
0:20:30.029,0:20:33.649
vielleicht nicht so gut miteinander[br]bekannt sind, sich noch nicht so gut
0:20:33.649,0:20:37.289
kennen. Daher kommt auch dieses[br]titelgebende Zitat: "I always assumed that
0:20:37.289,0:20:41.480
I wasn't really that close to [that[br]person], so that's fine. What the hell?"
0:20:41.480,0:20:45.130
Das heißt hier hat jemand gedacht "Okay,[br]ich sehe die Babyfotos vielleicht nicht,
0:20:45.130,0:20:49.490
weil ich die Person nicht so gut kenne,[br]aber die Person hat das für alle geteilt".
0:20:49.490,0:20:54.100
Und hier hat der Algorithmus jetzt die[br]Entscheidung getroffen, dass Person A das
0:20:54.100,0:20:59.590
Baby von Person B nicht sieht. Das heißt[br]diese Systeme, die im Schatten agieren und
0:20:59.590,0:21:04.090
denen sich die BenutzerInnen nicht bewusst[br]sind, haben Auswirkungen auf
0:21:04.090,0:21:08.370
zwischenmenschliche Beziehungen. Sie[br]rekonfigurieren sie. Und darüber hinaus
0:21:08.370,0:21:11.820
muss man sich auch noch einmal bewusst[br]machen, was diese Nachrichten-
0:21:11.820,0:21:15.899
Empfehlungssysteme eigentlich erreichen[br]wollen. Sie sind ja von der Art her wie
0:21:15.899,0:21:20.909
Netflix. Das heißt wenn ich auf Youtube[br]oder einem anderen Portal mir Videos
0:21:20.909,0:21:24.990
angucke und ich gucke mir zehn Videos an[br]und davon sind vier mit lustigen Hunde-
0:21:24.990,0:21:30.461
Babys, dann folgert das System "Ok,[br]Hendrik mag lustige Hunde-Babys. Dem zeige
0:21:30.461,0:21:34.701
ich jetzt in Zukunft mehr lustige Hunde-[br]Babys". Nun sind aber auch Nachrichten auf
0:21:34.701,0:21:39.350
Plattformen wie Youtube. Das heißt wenn[br]ich mir jetzt zehn Videos angucke und von
0:21:39.350,0:21:43.710
denen geht es in vielen darum, dass[br]Flüchtlinge kriminell sind, dann empfiehlt
0:21:43.710,0:21:48.720
mir das System Videos von kriminellen[br]Flüchtlingen. Das heißt da passiert etwas
0:21:48.720,0:21:55.169
mit meiner Weltwahrnehmung. Das heißt so[br]derartige Filterblasen und Echokammern
0:21:55.169,0:21:59.840
entstehen online. Die gibts natürlich auch[br]im echten Leben. Der Freundeskreis ist
0:21:59.840,0:22:04.701
auch eine Echokammer, in der bestimmte[br]Weltvorstellungen geteilt werden, aber
0:22:04.701,0:22:09.360
hier sind sie durchaus intransparenter,[br]denn es passiert unter dem gleichen Logo.
0:22:09.360,0:22:14.830
Bei mir ist ein YouTube-Logo, bei euch ist[br]ein YouTube-Logo. Und das sind Probleme,
0:22:14.830,0:22:18.190
denen wir uns stellen müssen, mit denen[br]wir umgehen müssen.
0:22:18.190,0:22:22.820
Und das war mein Teil zur Perspektive der[br]Mensch-Computer-Interaktion, die sich also
0:22:22.820,0:22:26.799
als eigenes Feld mit derartigen[br]Fragestellungen auseinandersetzt. Und ich
0:22:26.799,0:22:31.370
übergebe jetzt an Karen, die nochmal[br]technisch ins Detail gehen wird.
0:22:31.370,0:22:43.649
Applaus[br]Karen: Ja. Zum ersten Teil dieser Präsentation
0:22:43.649,0:22:48.309
zeigten wir, dass Algorithmen uns schon[br]heute schon beeinflussen, bewusst und
0:22:48.309,0:22:52.100
unbewusst, direkt und indirekt. Und wir[br]haben gesehen mit welcher Rigorosität ihre
0:22:52.100,0:22:57.220
Voraussagen umgesetzt werden, nachdem sie[br]einmal zur Verfügung stehen. Das immer
0:22:57.220,0:23:00.149
unter der Annahme der[br]Unvoreingenommenheit. Wir haben auch
0:23:00.149,0:23:04.470
bereits angedeutet, dass dieses massive[br]Vertrauen nicht unbedingt angebracht ist.
0:23:04.470,0:23:08.870
In diesem zweiten Teil der Präsentation[br]möchten wir darauf eingehen wann dieses
0:23:08.870,0:23:12.019
Vertrauen nicht angebracht ist. Dabei[br]möchte ich besonders auf ein Wort
0:23:12.019,0:23:17.320
eingehen, das wir bereits viel verwendet[br]haben. Das Wort Bias oder zu Deutsch
0:23:17.320,0:23:20.630
Verzerrung. Beim maschinellen Lernen[br]können wir grundsätzlich in zwei
0:23:20.630,0:23:24.050
verschiedene Formen von Bias[br]unterscheiden. Auf der einen Seite haben
0:23:24.050,0:23:29.320
wir Bias der Daten, also Bias der ein[br]Spiegel ist unserer eigenen Vorurteile und
0:23:29.320,0:23:33.090
Moralvorstellungen, ob uns das jetzt[br]bewusst ist oder nicht.
0:23:33.090,0:23:37.110
Bias in Daten kann aber auch entstehen[br]ganz zufällig durch mangelhafte Erhebung
0:23:37.110,0:23:42.890
von Daten. Wenn das passiert wird eine[br]Grundgesamtheit also die Population
0:23:42.890,0:23:48.580
verzerrt abgebildet. Auf der anderen Seite[br]befindet sich der Bias durch das
0:23:48.580,0:23:51.399
Modellieren.[br]Das sind also die Gesamtheit aller
0:23:51.399,0:23:54.370
Annahmen die Ingenieure und[br]Wissenschaftler von Algorithmen machen und
0:23:54.370,0:24:00.490
machen müssen, um überhaupt Voraussagen[br]treffen zu können. Dabei kann sich
0:24:00.490,0:24:08.120
wiederum der Bias des Modells so auf die[br]Daten auswirken, dass der Bias in den
0:24:08.120,0:24:11.919
Daten verringert wird. Dazu gibt es[br]vielfältige Forschung. Es kann aber auch
0:24:11.919,0:24:18.630
den Bias in den Daten verstärken. Auf der[br]anderen Seite knn auch Bias in Daten den
0:24:18.630,0:24:24.690
Modellier-Bias beeinflussen. Wir werden im[br]Folgenden, den folgenden 4 Beispielen, uns
0:24:24.690,0:24:28.860
mit all diesen Phänomenen auseinander-[br]setzen. Maschinelles Lernen hat in den
0:24:28.860,0:24:32.659
letzten Jahren viele Durchbrüche bei der[br]algorithmischen Wahrnehmung erzielt.
0:24:32.659,0:24:37.250
Algorithmen bewältigen kognitive Aufgaben,[br]die vor kurzem in weiter Ferne schienen.
0:24:37.250,0:24:42.220
Das hat aber auch eine Welle von Forschung[br]ausgelöst, die unlösbar geglaubte Aufgaben
0:24:42.220,0:24:46.809
wieder aufgreift und neu bewertet.[br]Eine Studie dieser Welle ist im November
0:24:46.809,0:24:52.779
letzten Jahres erschienen zwei Forscher[br]der Shanghai Jiaotong-Universität
0:24:52.779,0:24:57.620
behaupten zeigen zu können, dass man[br]Menschen mit kriminellen Absichten bereits
0:24:57.620,0:25:01.289
an einem einfachen Ausweis-Foto erkennen[br]kann und dies mit 90 prozentiger
0:25:01.289,0:25:06.669
Trefferwahrscheinlichkeit. Dieses Ergebnis[br]steht natürlich im starken Kontrast zu den
0:25:06.669,0:25:10.250
Forschungsergebnissen der letzten Dekaden,[br]die Kriminalität eher sozio-ökonomischen
0:25:10.250,0:25:14.019
Umständen zuschreiben. Wir wollen uns also[br]im Folgenden mit dieser Studie ein
0:25:14.019,0:25:19.929
bisschen näher beschäftigen. Die Autoren[br]sammelten hierzu 1800 Fotos von Chinesen
0:25:19.929,0:25:24.740
im Alter zwischen 18 und 55 Jahren, die[br]keine bemerkbaren Gesichtsbehaarungen,
0:25:24.740,0:25:30.120
Narben oder Tattoos zeigten. Dabei[br]repräsentieren zirka 700 Fotos die Rubrik
0:25:30.120,0:25:35.889
kriminell. Die Fotos selbst wurden von der[br]Polizei bereitgestellt und es handelt sich
0:25:35.889,0:25:39.669
bei allen Fotos um bereits verurteilte[br]Straftäter.
0:25:39.669,0:25:42.730
Auf der anderen Seite mussten nun auch[br]Bilder rechtschaffender Bürger
0:25:42.730,0:25:47.429
repräsentiert werden. Dafür wurden 1100[br]Fotos aus verschiedenen Quellen des
0:25:47.429,0:25:50.750
Internets beschafft. Dabei ist anzunehmen,[br]dass diese von Seiten wie LinkedIn
0:25:50.750,0:25:55.190
stammen, da die Autoren den Beruf der[br]vermeintlich rechtschaffenen kennen. Um
0:25:55.190,0:25:59.679
uns nun ein besseres Bild über die Daten[br]zu machen, wollen wir uns also ein paar
0:25:59.679,0:26:03.710
Datenpunkte anschauen.[br]Jeder dieser Reihe entsprechen drei
0:26:03.710,0:26:07.629
Datenpunkte aus jeweils einer Kategorie[br]kriminell oder rechtschaffend.
0:26:07.629,0:26:10.450
Dazu würde ich ein kleines Experiment[br]wagen. Also ich zähle dann gleich mal bis
0:26:10.450,0:26:15.220
zwei und alle die glauben, die obere Reihe[br]seien die Rechtschaffenden, die bitte ich
0:26:15.220,0:26:20.429
dann die linke Hand zu heben. Ich hebe die[br]rechte Hand, damit ihr wisst, welche Hand.
0:26:20.429,0:26:24.140
Und diejenigen, die denken die untere[br]Reihe wären die Rechtschaffenden, die
0:26:24.140,0:26:27.320
bitte ich also die rechte Hand zu heben.[br]Das können wir gleich mal probieren, also
0:26:27.320,0:26:32.832
ich zähle nochmal bis 2: eins, zwei und[br]dann heben wir halt die Hand.
0:26:32.832,0:26:36.620
Okay. Also die meisten von uns sind uns[br]relativ einig dass wir die rechtschaffenen
0:26:36.620,0:26:40.549
identifizieren können. Aber warum können[br]wir das? Eigentlich sollten Menschen dazu
0:26:40.549,0:26:45.190
ja nicht in der Lage sein und wir wissen,[br]dass wir dazu nicht in der Lage sind.
0:26:45.190,0:26:49.870
Ich denke also die meisten von uns haben[br]gewisse Hinweise in den Bildern
0:26:49.870,0:26:53.490
wahrgenommen, die auf der[br]Unterschiedlichkeit der Quellen beruhen.
0:26:53.490,0:26:57.399
Also ganz offensichtlich hier der Kragen[br]im Bild, der darauf hinweist, dass es
0:26:57.399,0:27:02.380
vielleicht ein Bewerbungsfoto sein könnte[br]oder ein leichtes Grinsen im Gesicht.
0:27:02.380,0:27:07.440
Dahingegen sind die Leute, die auf der[br]kriminellen Seite sind nicht besonders
0:27:07.440,0:27:10.360
vorteilhaft dargestellt. Also dem Mann[br]hier wird der Scheinwerfer ins Gesicht
0:27:10.360,0:27:17.260
gestrahlt, was dann Hautunreinheiten und[br]Falten besonders betont. Wohingegen bei
0:27:17.260,0:27:21.049
den Bewerbungsfotos offensichtlich Make-Up[br]im Spiel ist oder Photoshop. Im
0:27:21.049,0:27:28.940
trivialsten Fall kann es also sein, dass[br]der Algorithmus einfach nur erkennt, in
0:27:28.940,0:27:32.710
welchen Fotos Photoshop nachgeholfen hat.[br]Das kann man also zum Beispiel schon an
0:27:32.710,0:27:37.500
lokalen Pixel Statistiken gut erkennen.[br]Diese Studie ist vielleicht ein extremes
0:27:37.500,0:27:41.910
Beispiel, wie gravierend sich die[br]verwendeten Daten auf das Ergebnis einer
0:27:41.910,0:27:45.730
Voraussage eines Algorithmus auswirken[br]können. Dies ist ein besonders starkes
0:27:45.730,0:27:50.360
Beispiel für Stichproben-Verzerrung, also[br]Bias in dem Gruppen unterschiedlich
0:27:50.360,0:27:53.710
dargestellt werden.[br]Bias kann aber auch entstehen ganz
0:27:53.710,0:27:57.190
zufällig, wenn zu wenige Datenpunkte[br]vorhanden sind, um verlässliche Aussagen
0:27:57.190,0:27:59.940
zu treffen.[br]Solche Probleme sehen wir also oft in
0:27:59.940,0:28:04.929
medizinischen Studien oder psychologischen[br]Studien, wo Tests teuer und langwierig
0:28:04.929,0:28:08.750
sind.[br]Melde-Bias beschreibt, wenn Befragte
0:28:08.750,0:28:11.379
unkorrekte Angaben machen.[br]Das geschieht zum Beispiel oft bei
0:28:11.379,0:28:15.529
Gewaltverbrechen, bei denen Angst und[br]Repression eine Rolle spielen. Und
0:28:15.529,0:28:20.140
natürlich spielen auch die verwendeten[br]Merkmale, die ein gewisses Problem
0:28:20.140,0:28:25.250
beschreiben sollen, eine große Rolle.[br]Kommen wir nun zur zweiten Kategorie: dem
0:28:25.250,0:28:29.049
Bias in den Modellen.[br]Hat man sich früher also vor dem die
0:28:29.049,0:28:33.590
Deeplearning-Hype, sagen wir mal vor 2012[br]eine Einführungsveranstaltung zum
0:28:33.590,0:28:37.700
maschinellen Lernen gesetzt, dann begann[br]fast jeder mit dem Erklären des No-free-
0:28:37.700,0:28:44.659
Lunch-Theorems. Also der Aussage, dass[br]kein Modell in allen möglichen Szenarien
0:28:44.659,0:28:47.549
funktioniert.[br]Daraus schlussfolgerten wir, dass wir
0:28:47.549,0:28:52.820
Annahmen machen müssen, die das Modell im[br]Hinblick auf unser spezifisches Problem
0:28:52.820,0:28:58.120
beschränken. Diese Annahmen haben aber[br]ihre Grenzen. Dann versagt das Modell,
0:28:58.120,0:29:00.399
ohne dass sich das Modell darüber bewusst[br]ist.
0:29:00.399,0:29:07.230
Das heißt also unser Job als[br]Wissenschaftler oder Studierender ist es,
0:29:07.230,0:29:14.890
diese Grenzfälle zu benennen und zu[br]testen, ob in unserem speziellen
0:29:14.890,0:29:17.950
Anwendungsfall diese Algorithmen nicht[br]versagen.
0:29:17.950,0:29:23.029
An diesen Prinzipien hat sich auch bis[br]heute nichts geändert, aber der Erfolg des
0:29:23.029,0:29:25.490
maschinellen Lernens in bestimmten[br]Bereichen lässt selbst uns
0:29:25.490,0:29:29.610
WissenschaftlerInnen diese universalen[br]Regeln manchmal vergessen.
0:29:29.610,0:29:33.509
Wir sind dann versucht zu glauben, dass[br]Modelle so flexibel sind, dass die Grenzen
0:29:33.509,0:29:37.000
quasi nicht mehr existieren.[br]Im Folgenden möchte ich aber auf ein
0:29:37.000,0:29:40.970
Beispiel eingehen, das sich auch mit dem[br]Deeplearning-Hype gar nicht geändert hat.
0:29:40.970,0:29:46.750
Und das ist das Problem der Zielsetzung[br]und die Frage, wie Erfolg zu bewerten ist.
0:29:46.750,0:29:51.799
Am Beginn des Vortrags sprach Hendrik über[br]das Messen von Fehlern und, dass das
0:29:51.799,0:29:55.049
Korrigieren dieser Fehler ein wichtiger[br]Mechanismus sei, um Algorithmen zu
0:29:55.049,0:29:58.590
trainieren.[br]Doch was ein Fehler ist, ist oft nicht
0:29:58.590,0:30:02.200
einfach zu bestimmen und es liegt in der[br]Hand des Ingenieurs zu definieren.
0:30:02.200,0:30:04.321
Zum Beispiel wie messe ich Erfolg bei[br]YouTube-Empfehlungen?
0:30:04.321,0:30:09.150
Messe ich die Zeit die jemand auf der[br]Plattform verbringt? Das kann aber auch
0:30:09.150,0:30:12.220
bedeuten, dass der PC vielleicht noch[br]einer Ecke steht und die Personen gar
0:30:12.220,0:30:15.710
nicht mehr im Raum ist oder messe ich die[br]Anzahl von Klicks? Aber wenn diese zu
0:30:15.710,0:30:19.250
frequent sind, dann bedeutet das[br]vielleicht, dass die Person das Video gar
0:30:19.250,0:30:23.580
nicht mag.[br]Ein anderes Problem sind Übersetzungen.
0:30:23.580,0:30:32.170
Stellen Sie sich nur also vor, dass wir[br]einen Korpus von Übersetzungen haben und
0:30:32.170,0:30:36.380
wir wollen messen, ob ein Text richtig[br]übersetzt wurde.
0:30:36.380,0:30:43.620
Wie können wir das messen? Wort für Wort[br]oder Paragraph für Paragraph? Wenn wir
0:30:43.620,0:30:46.870
Wort für Wort messen, dann spielen wir[br]vielleicht mit der Wortreihenfolge in
0:30:46.870,0:30:49.299
verschiedenen Sprachen und das[br]funktioniert dann nicht so gut. Wenn wir
0:30:49.299,0:30:53.659
Paragraph für Paragraph messen,[br]funktioniert das vielleicht nicht so gut,
0:30:53.659,0:30:58.179
weil der Algorithmus den Kontext nicht[br]mehr begreift. Und wie gehen wir mit
0:30:58.179,0:31:01.130
Synonymen um? Wenn also der Algorithmus[br]ein richtiges Synonymen gefunden hat, wird
0:31:01.130,0:31:04.720
dann trotzdem ein Fehler berechnet, wenn[br]der spezielle Datenpunkt besagt, dass das
0:31:04.720,0:31:08.340
vielleicht als ein anderes Synonym zu[br]übersetzen ist? Man muss also
0:31:08.340,0:31:13.299
Entscheidungen treffen. Die Ingenieure bei[br]Google und anderen führenden
0:31:13.299,0:31:20.970
Übersetzungssystem beantworten die Frage[br]folgendermaßen: Wir übersetzen Satz für
0:31:20.970,0:31:25.880
Satz. Dabei gehen wir davon aus, dass[br]Sätze unabhängig sind und nur das
0:31:25.880,0:31:30.049
wahrscheinlichste Wort oder die[br]wahrscheinlichste Phrase wird richtig
0:31:30.049,0:31:35.380
bewertet. Wenn wir also nochmal auf das[br]Beispiel aus der ersten Hälfte des
0:31:35.380,0:31:40.360
Vortrags eingehen. Wenn wir[br]nun "Sie ist eine Frau. Sie ist Ärztin" in
0:31:40.360,0:31:45.690
das genderneutrale Türkisch übersetzen zu[br]"O bir kadın. O bir doktor." und dann
0:31:45.690,0:31:51.090
zurückübersetzen ins Deutsche, dann wird[br]dies mit "Sie ist eine Frau. Er ist Arzt"
0:31:51.090,0:31:55.200
übersetzt. Und jetzt wissen wir auch[br]warum. Da wir annahmen, dass Sätze
0:31:55.200,0:31:58.779
unabhängig sind weiß der Algorithmus gar[br]nichts vom Kontext, also dass wir hier
0:31:58.779,0:32:04.580
über eine Frau sprechen. Wenn der[br]Algorithmus "O bir doktor" dann übersetzt,
0:32:04.580,0:32:08.360
übersetzt der nur die wahrscheinlichste[br]Phrase und die ist "Er ist Arzt". Es
0:32:08.360,0:32:12.389
handelt sich hier also nicht um Bias in[br]den Daten oder zumindest nicht unbedingt,
0:32:12.389,0:32:20.009
sondern um Bias in den Annahmen die das[br]Modell zu sehr vereinfachen. Ein zweites
0:32:20.009,0:32:23.289
Beispiel führt das noch klarer vor Augen.[br]Wenn wir hier eben den Punkt durch ein
0:32:23.289,0:32:30.830
Komma ersetzen, dann kann der Algorithmus[br]es richtig übersetzen, weil er sich des
0:32:30.830,0:32:36.970
Kontexts bewusst ist. Im nächsten Beispiel[br]um das Phänomen Bias wollen wir zeigen wie
0:32:36.970,0:32:39.909
Bias in Modellen Bias in Daten verstärken[br]kann.
0:32:39.909,0:32:44.820
Dies wird besonders in sogenannten aktiven[br]Lernszenarien bewusst. Aktives Lernen
0:32:44.820,0:32:52.190
funktioniert wie folgt. Wir haben Daten,[br]auf deren Grundlage wir einen Algorithmus
0:32:52.190,0:32:55.990
lernen. Für manche Voraussagen sind wir[br]uns aber nicht sicher. Darum fragen wir
0:32:55.990,0:32:59.990
einen menschlichen Experten um Rat und der[br]Algorithmus fragt dann meistens die
0:32:59.990,0:33:06.950
folgende Frage: Habe ich diesen Datenpunkt[br]richtig bewertet? Und falls nicht, bitte
0:33:06.950,0:33:11.970
um Feedback! Das führt dazu, dass der[br]Algorithmus in der Zukunft mehr Daten zur
0:33:11.970,0:33:16.309
Verfügung gestellt bekommt, um dann besser[br]zu lernen und weniger oft um Hilfe fragen
0:33:16.309,0:33:22.070
zu müssen. Das klingt gut. Und so viel zum[br]störungsfreien Ablauf. Was aber nun wenn
0:33:22.070,0:33:27.070
ein Datenpunkt mit falschen oder[br]verzerrten Merkmalen beschrieben wird? Und
0:33:27.070,0:33:31.399
dazu kommt, dass unser Mensch vielleicht[br]nicht so wachsam ist, wie wir in unserem
0:33:31.399,0:33:37.420
Modell annehmen. Wir haben also eine[br]kleine Verzerrung im Datensatz, und die
0:33:37.420,0:33:42.710
Annahme des idealen Menschen wird verletzt[br]in unserem eigentlichen Phänomen. Dieser
0:33:42.710,0:33:47.909
falsche Datenpunkt wird also ignoriert.[br]Das führt dann dazu, dass, obwohl die
0:33:47.909,0:33:52.490
Ursache der Verzerrung nicht mehr aktiv[br]ist, dieser Datenpunkt nun vermehrt wird
0:33:52.490,0:33:57.000
aufgrund der Tatsache, dass der Mensch[br]nicht auf die Frage, habe ich diesen
0:33:57.000,0:34:02.512
Datenpunkt richtig bewertet, reagiert.[br]Und das führt dann wiederum dazu, wenn man
0:34:02.512,0:34:04.720
mehr[br]verzerrte Daten hat, dass diese mehr
0:34:04.720,0:34:08.590
verzerrten Daten sich immer weiter[br]vermehren können. Wann kann ich das also
0:34:08.590,0:34:13.710
jetzt in freier Wildbahn beobachten? Es[br]ist relativ schwer zu sagen, weil sich
0:34:13.710,0:34:16.600
natürlich solche großen Player wie Google[br]oder Facebook nicht immer in die Karten
0:34:16.600,0:34:21.320
blicken lassen. Aber ich denke ein Tweet[br]aus dem vergangenen Jahr lässt darauf
0:34:21.320,0:34:27.090
schließen, dass das vielleicht hier[br]passiert sein könnte. Also eine
0:34:27.090,0:34:30.679
Afroamerikanerin mit Kussmund, in der[br]Mitte unten, wird hier als Gorilla
0:34:30.679,0:34:33.489
bezeichnet. Das ist eine[br]geschichtsträchtige Bezeichnung für
0:34:33.489,0:34:37.130
Afroamerikaner in Amerika und hat[br]natürlich große Wellen geschlagen. Google
0:34:37.130,0:34:41.190
erklärt die Ursache des Fehlers nicht[br]genau genug, um genau zu wissen, was ihn
0:34:41.190,0:34:46.670
ausgelöst hat, aber zwei Probleme können[br]eine Rolle gespielt haben. Eins wäre, dass
0:34:46.670,0:34:50.320
die Bildbeschreibung immer von Menschen[br]bereitgestellt wird, und die erlauben sich
0:34:50.320,0:34:55.679
gerne mal zu trollen und verfälschen das[br]originale Datenset damit. Das kann aber
0:34:55.679,0:34:59.180
nicht die einzige Ursache sein. Es kommt[br]also mindestens noch dazu, dass gewisse
0:34:59.180,0:35:02.180
Gruppen von Menschen entweder einfach sehr[br]klein sind in einer Gesellschaft oder
0:35:02.180,0:35:06.480
unterrepräsentiert sind. Und vielleicht[br]auch drittens, man muss schon sagen dass
0:35:06.480,0:35:11.650
bei großen Tech-Firmen sehr wenig[br]Grenzszenarien oder Szenarien getestet
0:35:11.650,0:35:15.560
werden. Wir denken da zum Beispiel an den[br]Microsoft Chatbot, der ganz ähnliche
0:35:15.560,0:35:22.130
Phänomene gezeigt hat. Also der dann auch[br]sehr rassistische Chat-Nachrichten
0:35:22.130,0:35:26.880
geschrieben hat. Das letzte relevante[br]Beispiel zum Thema Bias soll aus dem
0:35:26.880,0:35:32.130
Bereich des übertragenden Lernens kommen.[br]Hierbei ist das Ziel das Lösen einer
0:35:32.130,0:35:37.490
Aufgabe. Und diese Aufgabe hat aber nur[br]wenige Datenpunkte. Und das sind nicht
0:35:37.490,0:35:40.960
genug, um den Algorithmus erfolgreich[br]lernen zu lassen. Aber es gibt eine
0:35:40.960,0:35:44.950
ähnliche Aufgabe, die erfolgreich gelöst[br]werden kann. Und die Idee ist nun, dass
0:35:44.950,0:35:50.100
gut funktionierende Modell zu verwenden um[br]unseren eigentlichen Problemen zu helfen.
0:35:50.100,0:35:57.310
Diese Technik führt aber wieder zu[br]Verzerrungen, die nur schwer bestimmt und
0:35:57.310,0:36:00.750
kontrolliert werden können.[br]Das wird klar, wenn wir ein konkretes
0:36:00.750,0:36:04.440
Beispiel betrachten. Wir können eine ganze[br]Halle voll Roboterarme stellen, um ihnen
0:36:04.440,0:36:10.180
bestimmte motorische Aufgaben[br]beizubringen. Aber selbst 1000 Roboterarme
0:36:10.180,0:36:17.530
lernen nur mühsam. Was also gang und gäbe[br]ist in der modernen Robotik, sind dass man
0:36:17.530,0:36:23.020
Systeme in Simulationen üben lässt.[br]Systeme werden also für Tausende Jahre in
0:36:23.020,0:36:26.730
Simulationen geübt. Das ist natürlich aber[br]nie Realität. Also wir denken da an
0:36:26.730,0:36:31.540
Gravitationssimulationen, die Fehler[br]enthalten kann. Lichtbedingungen, die
0:36:31.540,0:36:34.910
nicht ganz real sind, oder der[br]idealisierte Roboterarm, der hier
0:36:34.910,0:36:40.190
verwendet wird. In diesem Zusammenhang[br]möchte ich auch sagen, wie attraktiv auch
0:36:40.190,0:36:44.100
die Zukunft mit selbstfahrenden Autos[br]erscheinen mag, mit ihren Versprechen nach
0:36:44.100,0:36:47.970
mehr Platz in den Städten, weniger[br]Unfällen und effektiverer Verkehrsführung,
0:36:47.970,0:36:51.581
so sollte man auch sehr skeptisch sein,[br]denn auch diese Systeme haben die meiste
0:36:51.581,0:36:58.840
Lebenserfahrung in Simulationen gesammelt.[br]Eine ganz andere Betrachtungsweise auf
0:36:58.840,0:37:03.140
Daten ist die der Datendichte. Daten[br]können dicht beieinander liegen oder weit
0:37:03.140,0:37:09.380
voneinander entfernt. In Bereichen mit[br]vielen Daten ist es oft einfach korrekte
0:37:09.380,0:37:13.650
Aussagen zu treffen. Neue Datenpunkte in[br]diesen Bereichen zu beschreiben nennt man
0:37:13.650,0:37:18.640
Interpolation. Wohingegen Bereiche mit[br]wenigen Daten oder keinen Datenpunkten
0:37:18.640,0:37:22.920
sehr schwer zu beschreiben sind. Diese[br]Aufgabe beschreibt man mit Extrapolation.
0:37:22.920,0:37:27.692
Korrektes extrapolieren ist im Allgemeinen[br]nicht möglich oder nur möglich, wenn man
0:37:27.692,0:37:30.500
korrekte Annahmen über den[br]Entstehungsprozess der Daten macht.
0:37:30.500,0:37:35.790
Interpolieren, also das Wandern von einem[br]oder mehreren Datenpunkte zum anderen,
0:37:35.790,0:37:40.570
kann so wichtige Fragen des Alltags[br]beantworten wie: Wie würde das Kind von
0:37:40.570,0:37:46.650
Kim Jong-un und Donald J. Trump aussehen?[br]Neueste Anwendungen dieser Technik
0:37:46.650,0:37:51.280
beinhalten auch das gezielte Verändern von[br]Video in Bild und Sprache. Beispielsweise
0:37:51.280,0:37:55.470
wurde hier das Gesicht von der[br]Hauptdarstellerin des Wonder Woman Films,
0:37:55.470,0:38:01.670
Gal Gadot, auf einen pornografischen Film[br]gelegt. Und man muss nicht weit denken um
0:38:01.670,0:38:03.370
sich die Konsequenzen solcher Techniken,[br]für
0:38:03.370,0:38:07.440
Fake News zum[br]Beispiel, vorzustellen. Im extremsten Fall
0:38:07.440,0:38:12.420
gibt es sehr wenige oder keine Daten wo[br]eine Aussage getroffen werden soll. Nun
0:38:12.420,0:38:16.220
ist es wichtig, die richtigen Annahmen zu[br]treffen um extrapolieren zu können. Das
0:38:16.220,0:38:20.730
haben wir bereits gesagt. Das ist aber[br]eine extrem schwere Aufgabe, zu der auch
0:38:20.730,0:38:24.750
moderne Wissenschaft nur wenige und[br]unvollständige Antworten weiß. Was also
0:38:24.750,0:38:28.331
anstatt in aller Regel passiert, ist, dass[br]Algorithmen keine Annahmen machen. Und das
0:38:28.331,0:38:33.630
kann zu unvorhergesehenen Phänomenen[br]führen. Im schlimmsten Fall kann man
0:38:33.630,0:38:38.530
dieses Wissen auch nutzen zu sogenannten[br]feindlichen Attacken auf Algorithmen. Eine
0:38:38.530,0:38:43.340
Attacke verläuft beispielsweise so: Man[br]nehme einen Datenpunkt aus dem Datenset
0:38:43.340,0:38:47.430
und dessen beschreibende Merkmale, also[br]hier z.B. die Bilder von Verkehrsschildern
0:38:47.430,0:38:48.430
und die Verkehrsschilder.
0:38:48.430,0:38:49.430
[38:48]
0:38:49.430,0:38:54.090
Man suche dann fernab von den Daten einen[br]Punkt der sehr ähnlich ist, den aber der
0:38:54.090,0:38:58.830
Algorithmus mit all mit einem ganz anderen[br]Merkmal beschreiben würde. Und das
0:38:58.830,0:39:08.910
gruselige ist, dass dies auch funktioniert[br]mit ausgedruckten Version derselben
0:39:08.910,0:39:13.580
Attacke. Und wenn man nicht dieselben[br]Daten und nicht einmal denselben dasselbe
0:39:13.580,0:39:19.470
Modell kennt oder verwendet. Wen das[br]interessiert dem empfehle ich sehr für die
0:39:19.470,0:39:22.700
nächste Präsentation zu bleiben. Das wird[br]glaube ich ja der Kernpunkt der nächsten
0:39:22.700,0:39:27.780
Präsentation sein. Abschließend zum Thema[br]Möchte ich nochmal ganz deutlich machen,
0:39:27.780,0:39:33.350
dass in allen Systemen des modernen[br]maschinellen Lernens Korrelation evaluiert
0:39:33.350,0:39:39.320
wird und nicht Kausalität. Mathematische[br]Kausalitätsforschung, also dem Suchen nach
0:39:39.320,0:39:43.450
Ursache und Effekt für komplexe Systeme[br]ist erstens ein Kinderschuh und
0:39:43.450,0:39:47.440
Korrelation zu finden und zu beschreiben[br]ist nur einer der Schritte der dazu nötig
0:39:47.440,0:39:53.320
ist. Bevor ich die Frage dann- die Runde[br]für Fragen öffne haben Hendrik und ich
0:39:53.320,0:39:56.050
noch ein Anliegen. Also ich hoffe wir[br]haben umfassend die technischen
0:39:56.050,0:40:00.220
Möglichkeiten des maschinellen Lernens[br]dargestellt und welche Begrenzungen es
0:40:00.220,0:40:06.150
aufweist. Letzteres soll und wird uns als[br]Gesellschaft aber nicht davon abhalten
0:40:06.150,0:40:11.140
diese großartigen Fortschritte zu[br]geniessen. Also denken wir an Mediziner
0:40:11.140,0:40:14.850
und Molekulare Biologie in denen diese[br]Techniken großes Versprechen und auch
0:40:14.850,0:40:19.740
schon geliefert haben. Daraus ergeben sich[br]trotzdem große politische Fragen die uns
0:40:19.740,0:40:23.490
alle etwas angehen. Entscheidungen die[br]Wissenschaftler nicht alleine treffen
0:40:23.490,0:40:28.570
können, wollen oder sollten. Also wir[br]müssen uns Sachen fragen wie: Wer soll im
0:40:28.570,0:40:32.810
konkreten Fall Entscheidungen treffen,[br]Menschen oder Maschinen. Wer ist Schuld
0:40:32.810,0:40:38.500
wenn Fehler passieren: Ingenieure, Firmen,[br]Staat oder vielleicht gar niemand. Wie
0:40:38.500,0:40:44.290
können staatliche Garantien wie Gleichheit[br]juristisch umgesetzt werden im Angesicht
0:40:44.290,0:40:49.700
solcher neuen Algorithmen. Und natürlich[br]auch wie können Algorithmen oder sollten
0:40:49.700,0:40:53.390
Algorithmen reguliert werden. An der[br]Stelle möchte ich mich bedanken für
0:40:53.390,0:40:57.070
Aufmerksamkeit[br]und würde die Runde eröffnen für Fragen.
0:40:57.070,0:41:12.620
Herald-Angel: Vielen Dank Karen, vielen
0:41:12.620,0:41:19.430
Dank Hendrik. Wenn ihr Fragen habt, bitte[br]an den Mikros aufstellen. Und dann
0:41:19.430,0:41:21.770
entsprechend warten. Mikrophon 1[br]bitteschön.
0:41:21.770,0:41:24.420
Mikrofon 1: Ja, vielen Dank für den
0:41:24.420,0:41:31.360
großartigen Vortrag, war super spannend[br]und es ist ein sehr sehr wichtiges Thema,
0:41:31.360,0:41:35.900
wie gehen wir damit um, weil es wirklich[br]Auswirkungen hat auf die politische
0:41:35.900,0:41:41.650
Organisation, auf die Demokratie, all[br]diese Sachen. Jetzt vom Beispiel das
0:41:41.650,0:41:45.250
Hendrik gebracht hat, im ersten Teil[br]ging's ja jetzt auch zum Beispiel über die
0:41:45.250,0:41:51.820
Anwendung von KI für ja sagen wir[br]politische Propaganda, könnte man auch
0:41:51.820,0:41:58.300
sehen, Cambridge Analytica, die ganzen[br]Sachen und gleichzeitig als zweites Thema
0:41:58.300,0:42:03.720
die Filterbubbles die sich bilden, also wo[br]natürlich eine Verstärkung dieses
0:42:03.720,0:42:09.100
Phaenomens möglich ist. Meine Frage, die[br]ich mich in diesem Jahr gestellt habe, mit
0:42:09.100,0:42:19.580
Brexit, mit Trumpwahlen und so weiter, was[br]sind die Möglichkeiten die sich bieten um
0:42:19.580,0:42:26.890
dem entgegenzuwirken, dass sich Meinungen[br]so stark durch Filterbubbles polarisieren,
0:42:26.890,0:42:33.860
dass Leute durch Targeted Advertisement[br]beeinflusst werden, die mit AI generiert
0:42:33.860,0:42:41.060
werden und Big Data. Wie ja- habt ihr[br]konkrete Vorschläge?
0:42:41.060,0:42:44.060
Hendrik: Vielen Dank für die Frage. Es
0:42:44.060,0:42:47.900
geht also darum was man jetzt gegen diese[br]Probleme insbesondere im politischen
0:42:47.900,0:42:52.620
Bereich machen kann. Und es ist natürlich[br]eine riesige Frage, wird uns warscheinlich
0:42:52.620,0:42:57.400
auch noch lange Begleiten, ich glaube[br]kognitive Diversität im Bekannten- und
0:42:57.400,0:43:02.630
Freundeskreis, ganz wichtig, vor allem aber[br]auch in Unternehmen. Und unsere Ansätze, so
0:43:02.630,0:43:06.490
kommen sie ja zusammen, mir gehts ja darum[br]wie können wir Leute untersützten, wie
0:43:06.490,0:43:09.931
machen wir Visualisierungen, wie machen[br]wir Algorithmen sichtbar, wie helfen wir
0:43:09.931,0:43:13.861
den Leuten zu verstehen was da passiert.[br]Meine Perspektive, Karens Perspektive
0:43:13.861,0:43:17.300
dann: Wie können wir die ALgorithmen, die[br]Blackbox aufmachen, wie können wir
0:43:17.300,0:43:21.200
erklären, wie kann ein System auch sagen[br]wie sicher es ist mit seiner Vorhersage.
0:43:21.200,0:43:28.280
Also es gibt ja auch viel Arbeit, es gibt[br]die Fairness, Transparency... Fairness,
0:43:28.280,0:43:32.230
Accountability, and Transparency in[br]Machine Learning fatml.org. Da gibt es
0:43:32.230,0:43:35.630
eine ganz große Gruppe von Leuten die sich[br]damit auseinandersetzt, auch aus ganz
0:43:35.630,0:43:39.070
verschiedenen Richtungen, weil es gibt[br]viel Arbeit dazu in der Psychologie, in
0:43:39.070,0:43:43.700
der Soziologie, aber auch halt in der[br]Informatik. Genau fatml.org ist eine sehr
0:43:43.700,0:43:44.700
gute Addresse für sowas.
0:43:44.700,0:43:50.630
Herald-Angel: Eine Bitte an die, die[br]gerade rausgehen: Macht das bitte so leise
0:43:50.630,0:43:54.010
wie es geht und versucht durch die Tür zu[br]meiner Linken, zu eurer Rechten dort
0:43:54.010,0:44:00.790
hinten, den Saal zu verlassen, danke[br]schön.
0:44:00.790,0:44:04.790
Jawohl, Mikrofon 5, du hast eine Frage?
0:44:04.790,0:44:08.960
Mikrophon 5: Ja, eher ein kurzer Kommentar[br]aus dem Bereich des Machine Learnings, ist
0:44:08.960,0:44:13.170
das, was wir da gesehen haben bei der bei[br]dem Gorillabeispiel, ebenso bei dem
0:44:13.170,0:44:18.550
Übersetzungsbeispiel nicht eher ein Bias[br]in der Kostenfunktion? Dadurch, dass wir
0:44:18.550,0:44:22.380
dem Algorithmus gesagt haben, es ist[br]genauso teuer, wenn du die Klasse Gorilla
0:44:22.380,0:44:27.410
mit der Klasse mit einer anderen Klasse[br]verwechselst, versus, dass wir die
0:44:27.410,0:44:33.470
Oberklasse Mensch mit der Oberklasse Tier[br]verwechselst, oder in dem Genderbeispiel
0:44:33.470,0:44:37.900
dass "Er" und "Sie" als Verwechselung[br]eines einzelnen Worts genauso teuer sind
0:44:37.900,0:44:40.800
wie beliebige andere Worverwechselungen.
0:44:40.800,0:44:44.620
Hendrik: Sehr guter Punkt. Also man kann[br]natürlich in der Kostenfunktion dagegen
0:44:44.620,0:44:48.350
vorwirken, man kann sagen dieser Fehler[br]ist schlimmer für uns als der andere
0:44:48.350,0:44:53.150
Fehler, aber wenn wir davon ausgehen, dass[br]alle Klassen gleich sind und wir einfach
0:44:53.150,0:44:56.550
für alle Klassen gleich gute Ergebnisse[br]haben wollen, und das kommt ja aus Google
0:44:56.550,0:45:01.030
Fotos, wo wir das für alle Kategorien[br]machen wollen, dann ist es halt da kommt
0:45:01.030,0:45:04.180
der Mensch wieder rein. Das ist dann[br]nichtmehr allgemeines Machine Learning,
0:45:04.180,0:45:07.520
sondern wieder so Frickellösung. Und[br]dieses Problem des Bias, und darum gings
0:45:07.520,0:45:11.160
ja, ist einfach dem Machine Learning[br]inherent, und wir müssen damit umgehen.
0:45:11.160,0:45:14.110
Und ich glaube nicht, dass man das einfach[br]in die Kostenfunktion schreiben kann. Oder
0:45:14.110,0:45:15.560
willst du noch was dazu sagen?
0:45:15.560,0:45:21.770
Karen: Ja der Punkt von dem Beispiel war[br]ja auch quasi wie einerseits da muss ein
0:45:21.770,0:45:27.240
falscher Datenpunkt exestiert haben, und[br]wie das quasi durch die ein Bias
0:45:27.240,0:45:30.350
vielleicht, oder eine Annahme in der[br]Kostenfunktion dann eigentlich noch viel
0:45:30.350,0:45:34.900
verstärkt wird. Es geht ja darum wie quasi[br]eine Negativ-Spirale manchmal losgetreten
0:45:34.900,0:45:38.240
werden kann. Dadurch, dass wir einerseits[br]Bias in den Daten haben, aber auch andere
0:45:38.240,0:45:42.750
gewisse Annahmen machen, die vielleicht[br]die Realität zu sehr vereinfachen.
0:45:42.750,0:45:44.540
Das war ja der Punkt dieses Beispiels.
0:45:44.540,0:45:47.670
Hendrik: Und vielleicht dazu noch: Das[br]sind natürlich sehr offensichtliche
0:45:47.670,0:45:50.970
Beispiele, auch um das hier deutlich zu[br]machen. Es gibt natürlich auch immer diese
0:45:50.970,0:45:55.220
Blindstellen, Blindspots, wo halt was[br]passiert, von dem wir das garnicht wissen.
0:45:55.220,0:45:57.530
Das ist ja auf eine Art auch ein[br]Blindspot, der vielleicht auch damit
0:45:57.530,0:46:02.260
zusammenhängt, dass Google nicht divers[br]genug ist und nicht genug Leute derartige
0:46:02.260,0:46:04.940
Daten damit getestet haben, bevor sie es[br]public gemacht haben.
0:46:04.940,0:46:08.450
Herald-Angel: Mikrophon 1, deine Frage.
0:46:08.450,0:46:11.420
Mikrophon 1: Ja vielen Dank, euer Vortrag
0:46:11.420,0:46:15.290
war ja so ein bischen als Einführung[br]gedacht, das Thema auf die Agenda zu
0:46:15.290,0:46:17.750
bringen, was ich ganz großartig finde,[br]aber deswegen hätte ich jetzt eher so eine
0:46:17.750,0:46:21.820
Kommunikationsstrategische Frage. Ihr habt[br]ja ganz viel über Bias gesprochen, über
0:46:21.820,0:46:25.260
Verzerrung, wenn man das so sagt denkt man[br]implizit ganz oft an neutral und
0:46:25.260,0:46:29.940
Unverzerrt, und ich fands toll, du hattest[br]ja das No-Free-Lunch-Theorem da, also
0:46:29.940,0:46:33.250
sagen: Machine Learning ohne Bias gibt's[br]garnicht, du hast auch gerade gesagt, das
0:46:33.250,0:46:36.920
ist Machine-Learning inherent. Aber das[br]ist ja ganz wichtig zu sagen, deswegen
0:46:36.920,0:46:40.080
wollte ich einfach mal fragen wenn es um[br]politische Debatten geht, um öffentliche
0:46:40.080,0:46:44.260
Debatten geht, ob ihr dann denkt, dass[br]Bias und Verzerrung sozusagen der richtige
0:46:44.260,0:46:48.770
Header ist, um das alles zu thematisieren.[br]Weil es eben dieses Neutrale, Unverzerrte
0:46:48.770,0:46:52.880
immer mit impliziert, oder ihr denkt, dass[br]man das dann nochmal anders framen müsste.
0:46:52.880,0:46:54.890
Hendrik: Wir sind aufjedenfall keine
0:46:54.890,0:46:59.410
Kommunikationsstrategen. Es gibt natürlich[br]viele hervorragende Mediensoziologen,
0:46:59.410,0:47:02.650
Kommunikationswissenschaftler, die das[br]warscheinlich viel besser machen können.
0:47:02.650,0:47:07.950
Wir wollten jetzt erstmal in diesem Rahmen[br]zeigen, welche Probleme wir als Techniker,
0:47:07.950,0:47:12.380
als Informatiker - wir promovieren ja[br]beide zu diesen Themen - sehen. Also...
0:47:12.380,0:47:16.520
Also das ist wird uns ja aber auch noch[br]sehr lange beschäftigen, das richtig an
0:47:16.520,0:47:17.520
die Leute zu bringen.
0:47:17.520,0:47:22.860
Herald-Angel: Okay, Dankeschön. Wir haben[br]eine Frage aus dem IRC.
0:47:22.860,0:47:25.540
Signal-Angel: Ja, danke, eine Frage aus
0:47:25.540,0:47:28.530
dem Internet: Hat menschliches Lernen[br]nicht genau genommen die selben Probleme
0:47:28.530,0:47:32.730
wie maschienelles Lernen? Oder gibt es da[br]im Prinzipiellen Unterschiede?
0:47:32.730,0:47:38.750
Hendrik: Ich guck mal zu dir.
0:47:38.750,0:47:42.590
Karen: Also, das ist eine Frage, die
0:47:42.590,0:47:44.441
natürlich nicht nur das maschienelle[br]Lernen betrifft, sondern auch die
0:47:44.441,0:47:48.690
Psychologie, oder die Evolutionsforschung,[br]zu der ich mich nicht auskenne. Der
0:47:48.690,0:47:56.680
Algorithmus oder die Idee, die Grundidee[br]des maschienellen Lernens ist ja quasi
0:47:56.680,0:48:01.720
Fehler festzustellen, und die dann zu[br]kommunizieren und das Modell wird dann
0:48:01.720,0:48:05.890
daraufhin besser. Ob das jetzt bei uns[br]Menschen so funktioniert, ich bin mir
0:48:05.890,0:48:12.250
nicht sicher ob das jemals jemand genauso[br]gesagt hat. Aber ich glaube im Sinne von,
0:48:12.250,0:48:19.020
dass unser Gehirn optimiert, das wird,[br]oder das habe ich bestreiten gehört von
0:48:19.020,0:48:24.400
Psychologen. Also die Frage ist nicht so[br]sehr wie, oder das Problem, dass ich mit
0:48:24.400,0:48:26.770
der Frage habe ist nicht so sehr wie jetzt[br]das maschienelle Lernen funktioniert,
0:48:26.770,0:48:29.590
sondern wie wir selbst funktionieren. Ich[br]glaube wir sind gerade auf dem Weg das
0:48:29.590,0:48:34.540
herauszufinden und die Modelle des Machine[br]Learnings, maschienellen Lernens sind oft
0:48:34.540,0:48:39.100
nur grobe Vereinfachungen dafür wie wir[br]selbst funktioneren.
0:48:39.100,0:48:40.790
Hendrik: Genau, ich würde auch sagen, es
0:48:40.790,0:48:44.930
ist bio-inspiriert, aber es gab auch eine[br]Zeit wo alles Maschienen waren, der Körper
0:48:44.930,0:48:48.550
als Maschine. Das ist halt die Metapher[br]ihrer Zeit. Jetzt haben wir diese
0:48:48.550,0:48:52.400
künstlichen neuronalen Netzwerke und jetzt[br]sind das die Metaphern, die wir nutzen,
0:48:52.400,0:48:55.570
also ich glaube da ist ein fundamentaler[br]Unterschied zwischen menschlichem und
0:48:55.570,0:48:56.570
künstlichem Lernen.
0:48:56.570,0:49:00.530
Karen: Ja es gibt auch so einen zentralen[br]Leitsatz im maschinellen Lernen, der
0:49:00.530,0:49:05.170
besagt, dass alle Modelle falsch sind, und[br]einige vielleicht nützlich sind. Und ich
0:49:05.170,0:49:08.470
denke das trifft auch auf uns Menschen zu,[br]alle Modelle die wir verwenden, alle
0:49:08.470,0:49:11.510
Annahmen die wir machen, alle Stereotypen[br]die wir benutzen, die sind vielleicht
0:49:11.510,0:49:17.130
manchmal nützlich, aber in der Gesamtheit[br]immer falsch. Ich denke das trifft für
0:49:17.130,0:49:25.060
Menschen und Maschinen zu.[br]Applaus
0:49:25.060,0:49:28.171
Herald-Angel: Dankeschön. Mikrophon 4,
0:49:28.171,0:49:29.171
deine Frage.
0:49:29.171,0:49:36.860
Mikrophon 4: Vielleicht eine etwas naive[br]Frage, aber bestehen oder gibt es Metriken
0:49:36.860,0:49:43.560
um diesen Bias, der uns täglich im Netz[br]begegnet, zu bewerten? Also dass man das
0:49:43.560,0:49:49.330
schon visualisieren kann oder vermitteln[br]kann, dass man sich in einem hohen Bias
0:49:49.330,0:49:56.250
also einer hohen Verzerrung bewegt oder[br]auf Glatteis läuft in dem Sinne. Ein hoch
0:49:56.250,0:50:04.080
komplexes Thema wirklich, runtergebrochen[br]auf eine, ich sag mal, Bewusstbarmachung
0:50:04.080,0:50:08.230
von hoher statistischer Verzerrung, die[br]einen umgibt.
0:50:08.230,0:50:10.870
Hendrik: Also es gibt durchaus Forschung
0:50:10.870,0:50:14.870
in die Richtung es gibt z.B. die Civic[br]Media Group am MIT Media Lab die sich mit
0:50:14.870,0:50:18.341
soetwas aueinandersetzt. Das sind aber so[br]einzelne Beispiele wo sie z.B. Leuten
0:50:18.341,0:50:22.080
einfach mal zeigen, was für einen Gender-[br]Bias sie bei den Leuten, die sie auf
0:50:22.080,0:50:26.250
Twitter folgen, haben, also die folgen nur[br]Männern z.B..
0:50:26.250,0:50:30.350
Solche Bewusstbarmachungen sind wichtig[br]und sind glaube ich auch ein Teil des
0:50:30.350,0:50:33.020
Puzzels, aber ich glaube die[br]Medienpädagogik muss halt ernstgenommen
0:50:33.020,0:50:36.180
werden, den Leuten muss das bewusst sein[br]wenn wir diese Dinger benutzen wollen,
0:50:36.180,0:50:40.930
wenn wir in solchen Autos rumfahren[br]wollen, dann müssen wir das verstehen. Es
0:50:40.930,0:50:44.560
gibt halt immer diese Blindspots und man[br]kann einfach da nicht darauf eingehen, man
0:50:44.560,0:50:47.460
kann nicht jeden Spot da bedenken vorher.
0:50:47.460,0:50:54.240
Karen: Um die vielleicht Frage zu[br]kontextualisieren von den Algorithmus-
0:50:54.240,0:50:59.540
Wissenschaftlichen-Blickpunkt. Wir machen[br]jetzt nicht unbedingt den Unterschied
0:50:59.540,0:51:04.160
zwischen vielleicht dem was eine negative[br]oder positive Verzerrung ist, also
0:51:04.160,0:51:09.440
wahrgenommen wird, sondern für uns gibt es[br]halt nur Merkmale die auf gewisse andere
0:51:09.440,0:51:13.650
Merkmale schließen lassen und das führt[br]dann wieder zu der Frage der Korrelation
0:51:13.650,0:51:21.930
und wenn wir sagen wir haben oft ja[br]Merkmale die Proxys sind für andere
0:51:21.930,0:51:28.920
Merkmale, also wo ich wohne ist oft proxy[br]dafür wie ich aussehe oder woher ich
0:51:28.920,0:51:31.960
komme.[br]Was ich also im Machine Learning machen
0:51:31.960,0:51:34.580
kann, oder wie sich die Wissenschaft damit[br]auseinandersetzt ist zu sagen, ok, wenn
0:51:34.580,0:51:42.920
ich weiß welche Merkmale sensitiv sind,[br]also welche ich nicht möchte dass die mein
0:51:42.920,0:51:46.590
System korreliert mit der eigentlichen[br]Aussage die das System treffen soll, dann
0:51:46.590,0:51:54.210
kann quasi ich in meine Fehlerfunktion[br]einen extra Term reinspeisen, der sagt du
0:51:54.210,0:52:00.390
dekorrelierst jetzt das Ergebnis was du[br]hast mit dem besonderen Merkmal was du als
0:52:00.390,0:52:06.380
sensitiv also z.B. der Wohnort oder dein[br]Bildungsstatus oder dein Einkommen, dass
0:52:06.380,0:52:10.900
die keine Rolle spielen dafür, wie der[br]Algorithmus Vorraussagen macht.
0:52:10.900,0:52:15.630
Mikrophon 4: Was ich jetzt meinte war
0:52:15.630,0:52:19.790
jetzt wirklich nicht die Unterscheidung[br]zwischen gut und schlecht, sondern
0:52:19.790,0:52:25.360
wirklich eine Visualisierung, dieser[br]Datensatz oder dieses Ergebnis basiert auf
0:52:25.360,0:52:31.590
wenigen Datensichten -- klar im Kontext[br]kompliziert zu bewerkstelligen, aber dass
0:52:31.590,0:52:37.520
man eine Möglichkeit findet sowas[br]darzustellen dass diese Daten auf einer
0:52:37.520,0:52:40.790
hohen Datendichte basieren und so weiter.
0:52:40.790,0:52:46.020
Hendrik: Unsere Antwort is quasi, es gibt[br]solche Sachen, es gibt sowas zu messen
0:52:46.020,0:52:50.520
aber es ist immer eine Reduktion von[br]Komplexität und da verliert man immer was
0:52:50.520,0:52:53.970
und da muss man sich immer bewusst machen,[br]wie viel reduzieren dürfen wir, wie
0:52:53.970,0:52:55.810
einfach dürfen wir es machen.
0:52:55.810,0:52:59.730
Karen: Zur Frage der Datensichte kann[br]man vielleicht noch sagen, da ist wieder
0:52:59.730,0:53:05.190
ein andere Kernansatz, der Bayesianische[br]Kernansatz, der sich jetzt nicht die Frage
0:53:05.190,0:53:10.010
stellt, wie ist meine Hypothese aufgrund[br]der vorhandenen Daten zu bewerten sondern
0:53:10.010,0:53:14.080
wie sind meine Daten aufgrund der[br]verwedeten Hypothese zu bewerten. Das ist
0:53:14.080,0:53:18.390
also nochmal eine ganz andere Ansicht auf[br]die Sache und der wiederum erlaubt uns
0:53:18.390,0:53:22.240
dann gewisse Unsicherheiten auszudrücken[br]über Vorrausagen, die ich treffe. Also
0:53:22.240,0:53:26.030
wenn jetzt zum Beispiel ein Datenpunkt[br]über den ich eine Aussage treffen will
0:53:26.030,0:53:30.740
weitab liegt von Daten die ich habe, dann[br]wird dieser Ansatz oder wenn ich diesen
0:53:30.740,0:53:34.200
Ansatz verwende wird mir dann sagen; über[br]die Voraussage die ich jetzt treffe bin
0:53:34.200,0:53:37.880
ich sehr unsicher und das ist eine[br]Forschungsrichtung mit der sich viele
0:53:37.880,0:53:44.210
Leute beschäftigen, die jetzt aber für[br]diese großen, komplexen Systeme, ich würde
0:53:44.210,0:53:46.380
sagen, noch sehr am Anfang steht.
0:53:46.380,0:53:48.840
Herald-Angel: Mikrofon 1 bitte.
0:53:48.840,0:53:53.460
Mikrofon 1: Danke für den super-[br]interessanten Vortrag und danke auch an
0:53:53.460,0:53:57.040
die Gebärden-Dolmetscherin, die hier ohne[br]Unterlass die ganze Zeit übersetzt.
0:53:57.040,0:54:10.450
Applaus[br]Ich habe folgende Frage: Wie nützlich
0:54:10.450,0:54:15.970
würdet ihr es einschätzen, das mit einer[br]Qualitätskontrolle also einem
0:54:15.970,0:54:21.020
Qualitätsmeilenstein für das Endergebnis[br]zu kombinieren. Also als Beispiel; ein
0:54:21.020,0:54:26.750
Auto ist dann hinreichend gut, wenn es im[br]Verkehr weniger Leute umbringt als ein
0:54:26.750,0:54:31.910
durschnittlicher menschlicher Fahrer oder[br]sowas. Würde das einen zusätzlichen Nutzen
0:54:31.910,0:54:36.060
ergeben? Kann man daraus noch mehr[br]Rückschlüsse ziehen, oder sind das völlig
0:54:36.060,0:54:37.230
getrennte Sachen?
0:54:37.230,0:54:41.530
Karen: Also das ist eigentlich genau das[br]worauf wir hinaus wollten, dass das eine
0:54:41.530,0:54:44.260
politische Frage ist, die wir nicht[br]beantworten wollen.
0:54:44.260,0:54:45.260
Hendrik: Oder eine juristische.
0:54:45.260,0:54:46.580
Karen: Oder eine juristische, das müsst
0:54:46.580,0:54:49.220
ihr sagen, was ihr richtig findet, das ist[br]doch nicht unsere Aufgabe zu sagen ...
0:54:49.220,0:54:50.271
Hendrik: Nein also die Gesellschaft muss
0:54:50.271,0:54:53.590
es aushandeln, wir können Probleme[br]aufzeigen, aber die Antwort muss die
0:54:53.590,0:54:55.020
Gesellschaft als ganzes finden.
0:54:55.020,0:54:59.000
Mikrophon 1: Das ist klar, die Frage ist[br]nur, wenn man so einen Punkt definiert hat
0:54:59.000,0:55:02.430
und sich dann die Ergebnisse anschauen[br]würde, die kurz vor und kurz nach diesem
0:55:02.430,0:55:06.010
Punkt aufgetreten sind, ob das[br]Rückschlüsse zulassen würde auf
0:55:06.010,0:55:09.539
irgendeinen Bias oder irgendwelche anderen[br]Sachen, oder ob dieser Punkt völlig
0:55:09.539,0:55:11.180
unerheblich für euch wäre.
0:55:11.180,0:55:13.550
Hendrik: Kannst du nochmal den Punkt[br]benennen?
0:55:13.550,0:55:15.250
Mikrophon 1: Also man definiert
0:55:15.250,0:55:20.990
irgendeinen Punkt x, der ein bestimmtes[br]Qualitätskriterium hat. Also der Wagen
0:55:20.990,0:55:25.330
bringt eben nicht mehr Menschen um als ein[br]durchschnittlicher Fahrer sondern weniger.
0:55:25.330,0:55:32.900
Sind die Ergebnisse die um diesen Punkt[br]liegen, die man dann messen kann. Sind die
0:55:32.900,0:55:36.160
in irgendeiner Art relevant für den[br]Ausgang, kann man da irgendwelche
0:55:36.160,0:55:40.030
Rückschlüsse daraus ziehen, oder ist das[br]nur irgendein Punkt, wie jeder andere
0:55:40.030,0:55:41.030
auch?
0:55:41.030,0:55:44.220
Hendrik: Also ich finde das problematisch,[br]diesen Punkt zu finden, weil man ja auch
0:55:44.220,0:55:47.970
den ganzen Kontext sehen muss bei den[br]Autounfällen und warum sie passieren, also
0:55:47.970,0:55:52.061
welche Gründe sie haben und das ganze[br]datafizieren, das in einen Punkt zu
0:55:52.061,0:55:55.850
pressen, und den dann als[br]Evaluationsmetrik für was anderes
0:55:55.850,0:55:58.695
hochkomplexes zu nehmen halte ich für sehr[br]problematisch, ich glaube da ist wirklich,
0:55:58.695,0:56:02.300
das meint Karen, die politsche Antwort[br]wichtiger.
0:56:02.300,0:56:04.600
Karen: Beim konkreten Beispiel von
0:56:04.600,0:56:07.640
selbstfahrenden Autos muss man natürlich[br]auch sagen, dass es das echte
0:56:07.640,0:56:11.470
selbstfahrende Auto nie üben kann einen[br]Crash zu haben, also dieses Crash-Szenario
0:56:11.470,0:56:14.100
kann natürlich nie geübt werden, also wir[br]wollen da ja natürlich niemanden sterben
0:56:14.100,0:56:18.240
lassen oder nicht so viele Autos crashen,[br]das ist ein bisschen teuer. Das heißt
0:56:18.240,0:56:21.940
Crash-Szenarios werden eigentlich auch[br]immer nur in der Simulation geübt und das
0:56:21.940,0:56:26.500
ist genau das Problem, dass wir heute --[br]zumindest soweit ich das weiß -- sehr
0:56:26.500,0:56:31.890
wenige Szenarien haben in denen wir sagen[br]können; wenn wir jetzt in der Simulation
0:56:31.890,0:56:37.910
geübt haben, was für Annahmen übernehmen[br]wir denn dann in die echte Welt. Die
0:56:37.910,0:56:43.140
einfach nur benennen zu können würde uns[br]ja schon helfen eventuelle Fehlerszenarien
0:56:43.140,0:56:47.100
vorrauszusagen, aber selbst das Benennen[br]dieser Annahmen das fällt uns ja selbst
0:56:47.100,0:56:52.080
schon schwer, also das ist noch ein weiter[br]Weg.
0:56:52.080,0:56:53.920
Herald-Angel: Mikro 1
0:56:53.920,0:56:58.800
Mikrofon 1: Auch vielen Dank für den
0:56:58.800,0:57:05.630
Vortrag. Die ganze Diskussion über die[br]Biase, die ihr ja getrieben habt, besagt
0:57:05.630,0:57:09.120
ja letztlich, dass es darum geht die[br]Wahrheit zu finden, Wahrheit und letztlich
0:57:09.120,0:57:13.480
eine Stichprobe der Wahrheit dem Computer[br]zum Lernen zu geben und das bringt mich
0:57:13.480,0:57:16.600
dann zu der Parallele in der Wissenschaft[br]haben wir das ja auch, also wie sieht
0:57:16.600,0:57:21.230
meine Stichprobe aus, die ideale[br]Stichprobe, oder ist da ein Bias drin.
0:57:21.230,0:57:25.590
Habt ihr diese Parallele schonmal[br]gedanklich gezogen oder ist das ... ja.
0:57:25.590,0:57:28.060
Hendrik: Also wir sind ja Wissenschaftler
0:57:28.060,0:57:31.940
und wir müssen natürlich auch erstmal für[br]uns wissen, ob was wir herasugefunden
0:57:31.940,0:57:35.540
haben, gerade wenn wir mit Menschen[br]arbeiten, wir hatten ja gestern auch den
0:57:35.540,0:57:42.170
Vortrag "Science is broken", der da[br]irgendwie, also es ist immer schwierig die
0:57:42.170,0:57:45.920
richtige Samplesize zu haben um die[br]Effectsize zu berücksichtigen, um zu
0:57:45.920,0:57:48.550
wissen, dass man was weiß, das sind ja[br]epistemische Fragen.
0:57:48.550,0:57:49.990
Mikrophon 1: Aber gibt's da irgendwie
0:57:49.990,0:57:54.440
schon für neuronale Netze irgendwelche[br]Richtwerte, dass man dann irgendwie weiß.
0:57:54.440,0:57:58.510
Weil in der Psychologie lernt man, dass[br]die Sampelsize muss mindestens 5.000 Bla
0:57:58.510,0:58:01.690
betragen, keine Ahnung, oder so und so[br]Prozente. Gibt's Richtwerte, gibt's sowas
0:58:01.690,0:58:07.440
schon für neuronale Netze? In Abhängigkeit[br]der Layer oder der Parameter oder..?
0:58:07.440,0:58:09.700
Hendrik: Nicht dass ich wüsste, weisst du
0:58:09.700,0:58:10.700
was?
0:58:10.700,0:58:14.200
Karen: Die Frage geht jetzt vielleicht ein[br]bisschen tief. Für frühe Systeme, also
0:58:14.200,0:58:22.680
sehr einfache neuronale Netze, die aus den[br]Anfang der 90ern, so wie Boltzmann-machines oder
0:58:22.680,0:58:28.990
Hofman-Networks. Für solche Sachen kann[br]man sagen, wenn die Saturieren und mit
0:58:28.990,0:58:34.800
wievielen Bits an Daten man da reingeht[br]bis die Saturieren. Für aber diese hoch-
0:58:34.800,0:58:40.590
nicht-linearen Systeme, die wir jetzt[br]verwenden, kann man das nicht sagen, oder
0:58:40.590,0:58:47.370
nur asymptothisch sagen. Es gibt viel[br]Forschung zu dem Thema, aber nichts, was
0:58:47.370,0:58:50.721
jetzt besonders handfest wäre; sagen wir[br]mal so. Oder man jetzt im echten Leben
0:58:50.721,0:58:51.721
verwenden könnte.
0:58:51.721,0:58:56.000
Mikrophon 1: Ja gut, dann irgendwie so[br]eine Ausage zu haben, so und so viele
0:58:56.000,0:58:58.760
Testdatensampels brauchst du für dein[br]neuronales Netz, wenn das so und so
0:58:58.760,0:59:02.990
strukturiert ist. Irgendwie, das könnte[br]vielleicht eine Form von Verifikation oder
0:59:02.990,0:59:05.750
Validierung, Pre-Validierung bringen,[br]irgendwie.
0:59:05.750,0:59:08.350
Hendrik: Ja, das macht man ja. Man hat ja
0:59:08.350,0:59:12.130
einen großen Datensatz, einen[br]Trainingsdatensatz, einen Testdatensatz
0:59:12.130,0:59:15.940
und einen Validierungsdatensatz, mit dem[br]man dann nochmal guckt, was haben wir
0:59:15.940,0:59:18.740
wirlich gelernt und haben wir nicht[br]einfach nur die Eigenheiten des
0:59:18.740,0:59:22.220
Datensatzes auswendig gelernt. Haben wir[br]wirklich generalisiert. Also auf dem
0:59:22.220,0:59:26.370
Niveau passiert das schon. Auf dem höheren[br]Niveau wäre das bestimmt noch eine
0:59:26.370,0:59:27.530
hervorragende Doktorarbeit.
0:59:27.530,0:59:30.430
Herald-Angel: Mikro 5, deine Frage?
0:59:30.430,0:59:36.680
Mikrofon 5: Vielen Dank für den Vortrag.[br]Meine Frage ist: Diese Biases, die sind ja
0:59:36.680,0:59:40.710
jetzt nicht neu, die kennt man ja seit[br]Dekaden in der Statistik. Was hat sich
0:59:40.710,0:59:46.610
denn mit der künstlichen Intelligenz, bzw.[br]mit Deep Learning geändert? Und daran
0:59:46.610,0:59:51.860
anschließend: Kennt ihr irgendwelche[br]Studien, dass solche Filterblasen wirklich
0:59:51.860,0:59:55.040
irgendwelche tatsächlichen messbaren[br]Auswirkungen haben? Weil man hört
0:59:55.040,0:59:59.850
unglaublich viel in den Medien, aber mir[br]ist keine belastbare Studie bekannt, die
0:59:59.850,1:00:05.850
sagt, dass das da tatsächlich was[br]verschlimmert wird, was nicht vorher schon
1:00:05.850,1:00:07.160
da war.
1:00:07.160,1:00:10.530
Hendrik: Ich hab die erste Frage schon[br]wieder vergessen. Kannst du einmal noch
1:00:10.530,1:00:11.530
die erste sagen?
1:00:11.530,1:00:16.580
Mikrophon 5: Die erste Frage war, was sich[br]geändert hat, weil diese Biases, die sind
1:00:16.580,1:00:17.580
ja jetzt nicht neu.
1:00:17.580,1:00:20.570
Hendrik: Genau, nein, die sind natürlich[br]nicht neu. Und die ganzen Vorurteil sind
1:00:20.570,1:00:24.060
auch nicht neu. Ich glaube, es wird halt[br]einfach sehr, sehr viel Machine Learning
1:00:24.060,1:00:27.710
gerade benutzt. Auch aus sehr guten[br]Gründen. Also, z.B. es gibt hervoragende
1:00:27.710,1:00:31.650
Python Bibliotheken, es gibt hervoragende[br]R Bibliotheken, die das super einfach
1:00:31.650,1:00:37.090
machen. Die Unis lehren das fast überall.[br]Data Science ist der große Hypeterm, und
1:00:37.090,1:00:39.810
das wird einfach nur nochmal drängender,[br]weil Leute diese Sachen jetzt auf einmal
1:00:39.810,1:00:44.340
in ihre Systeme reinschmeißen, die[br]benutzen, um vielleicht Geld zu verdienen,
1:00:44.340,1:00:49.640
sich aber dann dieser Probleme gar nicht[br]bewusst sind. Und zur 2. Frage: Ich bin
1:00:49.640,1:00:52.780
mir ziemlich sicher, dass es viel zu[br]Echokammern gibt. Ich weiß nicht, was du
1:00:52.780,1:00:56.950
gefragt hast, ob man das wirklich auch[br]wissenschaftlich so testen kann? Also, wie
1:00:56.950,1:01:01.560
da quasi der Versuchsaufbau aussähe? Aber[br]es gibt, auch gerade in der Soziologie,
1:01:01.560,1:01:10.300
viel zu Echokammern. Aber mir fällt gerade[br]kein Autor ein dazu.
1:01:10.300,1:01:12.620
Herald-Angel: Vielen Dank für den Vortrag.
1:01:12.620,1:01:15.560
Ich sehe, dass da noch Fragen sind, aber[br]leider ist die Zeit rum. Seid ihr noch da?
1:01:15.560,1:01:16.980
Können die Leute euch noch ansprechen?
1:01:16.980,1:01:17.670
Hendrik: OK.
1:01:17.670,1:01:20.410
Herald-Angel: Super. Vielen, vielen Dank!
1:01:20.410,1:01:23.790
Applaus
1:01:23.790,1:01:43.390
Untertitel erstellt von c3subtitles.de[br]im Jahr 2018. Mach mit und hilf uns!