WEBVTT
00:00:00.000 --> 00:00:14.820
Intro Musik
00:00:14.820 --> 00:00:19.740
Hallo und herzlich willkommen zu meinem
Vortrag "KI im Klassenzimmer - yay oder
00:00:19.740 --> 00:00:24.030
nay?" Ich bin Nina, ich bin derzeit
wissenschaftliche Mitarbeiterin im Büro
00:00:24.030 --> 00:00:26.880
von Birke Bull-Bischoff. Sie ist die
bildungspolitische Sprecherin der
00:00:26.880 --> 00:00:30.990
Linksfraktion im Bundestag. Die letzten
zwei Jahre habe ich auch die Enquete-
00:00:30.990 --> 00:00:35.310
Kommission KI im Bundestag für die Linke
mitbegleitet. Und davor habe ich auch
00:00:35.310 --> 00:00:38.760
schon mal im Bildungssektor gearbeitet,
sodass ich diesen Vortrag jetzt hier
00:00:38.760 --> 00:00:42.990
nutzen möchte, um mal alle meine
Beobachtungen zum Thema KI in der Schule
00:00:42.990 --> 00:00:49.230
zusammenzutragen und vor allem auch einen
Blick auf die dabei verarbeiteten Daten zu
00:00:49.230 --> 00:00:53.190
werfen und einen Ausblick darauf zu
schaffen, wie KI vielleicht sogar dafür
00:00:53.190 --> 00:00:57.420
benutzt werden kann, um strukturelle
Probleme im Bildungssektor anzugehen.
00:00:57.420 --> 00:01:03.150
Vorausschicken möchte ich, dass wenn ich
hier von KI rede, ich jeweils sogenannte
00:01:03.150 --> 00:01:07.820
schwache KI meine und mich auf Machine
Learning in als seinen Ausprägung beziehe.
00:01:07.820 --> 00:01:13.890
Ich möchte euch zuerst einen kleinen Überblick
geben, wie KI im Schulbereich im Moment schon
00:01:13.890 --> 00:01:17.700
eingesetzt werden kann. Was dabei auch
tatsächlich noch nicht so wahnsinnig gut
00:01:17.700 --> 00:01:21.690
läuft. Dann natürlich zeigen, was meiner
Meinung nach besser laufen könnte, welche
00:01:21.690 --> 00:01:25.260
Anforderungen es braucht, damit es besser
laufen kann und dann auch am Ende mit
00:01:25.260 --> 00:01:30.240
einer konkreten Empfehlung schließen. Als
ich mich vor ungefähr einem Jahr
00:01:30.240 --> 00:01:35.220
angefangen habe, mit diesem Thema vertieft
zu beschäftigen, sind mir zwei Dinge
00:01:35.220 --> 00:01:39.870
aufgefallen. Zum einen ist der Begriff KI
eigentlich noch nicht wirklich konkret und
00:01:39.870 --> 00:01:44.520
allgemein definiert und all diese KI
Anwendungen im Bildungsbereich auch noch
00:01:44.520 --> 00:01:49.710
nicht. Da wird also viel experimentiert
und herumgeworfen mit Learning Analytics,
00:01:49.710 --> 00:01:53.970
mit Tutor Systemen, intelligenten Tutor
Systemen. Das ganze unter die Oberbegriffe
00:01:53.970 --> 00:01:59.850
von Educational Data Mining gestellt. Das
ist wiederum teilweise die Voraussetzung
00:01:59.850 --> 00:02:04.710
oder steht neben dem anderen Begriff von
AIED, also Artificial Intelligence in
00:02:04.710 --> 00:02:11.940
Education. Also da kann man je nach Autor
und je nach Anwendungsbereich baut das
00:02:11.940 --> 00:02:16.080
eine auf dem anderen auf oder steht
nebeneinander oder ist eine Folge davon.
00:02:16.080 --> 00:02:20.250
All das ist ein Signal dafür, dass wir in
diesem Bereich tatsächlich noch sehr am
00:02:20.250 --> 00:02:24.200
Anfang stehen, dass das alles sehr
unstrukturiert ist. Und letztendlich ist
00:02:24.200 --> 00:02:28.700
auch der ganze Anbietermarkt von diesem
System noch sehr am Anfang und
00:02:28.700 --> 00:02:34.040
unstrukturiert. Derzeit sind es vor allem
oder eigentlich ausschließlich proprietäre
00:02:34.040 --> 00:02:37.550
Systeme, sodass auch teilweise Forscher
manchmal gar nicht so richtig wissen:
00:02:37.550 --> 00:02:42.800
Arbeitet ein System, das mit KI wirbt,
eigentlich wirklich mit KI im Sinne von
00:02:42.800 --> 00:02:46.560
Machine Learning oder ist es nur ein
einfacher Algorithmus ohne Lernverfahren?
00:02:46.560 --> 00:02:51.470
Oder wie viel Werbung und wie viel
Marketing steckt eigentlich in diesem
00:02:51.470 --> 00:02:56.540
Anbietersystem eigentlich wirklich
dahinter? Dann gibt es aber neben dem
00:02:56.540 --> 00:03:01.880
ganzen Learning Analytics Bereich, der
sich sehr konkret auf die Erhebung und
00:03:01.880 --> 00:03:08.480
Analyse von lernenden Daten, also zur
Verbesserung von Lernerlebnissen und
00:03:08.480 --> 00:03:12.680
Lernenergebnissen beschäftigt, gibt es
noch weitere Anwendungsbereiche, in denen
00:03:12.680 --> 00:03:17.270
KI eingesetzt wird. In den USA gibt es zum
Beispiel ein Verfahren, dass das
00:03:17.270 --> 00:03:23.180
Surfverhalten analysiert. Auf dieser
Keyword Liste der Risikofaktoren stehen
00:03:23.180 --> 00:03:28.370
dann allerdings auch Begriffe wie schwul,
queer oder Gedichtsammlung. Also selbst
00:03:28.370 --> 00:03:31.400
wenn wir jetzt auch von sehr intoleranten
Gesellschaften ausgehen, ist es natürlich
00:03:31.400 --> 00:03:34.820
überhaupt nicht zu unterstützen, dass
diese Begriffe überhaupt irgendwie
00:03:34.820 --> 00:03:38.450
Personen zugeordnet und im Sinne einer
Risikoprävention verwendet werden.
00:03:38.450 --> 00:03:43.820
Gesichtserkennung auf dem Schulgelände gab
es neben den USA auch in Europa schon. Das
00:03:43.820 --> 00:03:46.880
hat Schweden mal an einer Schule probiert
und die wurden dann aber nach sehr, sehr
00:03:46.880 --> 00:03:51.410
kurzer Zeit auf Basis der DSGVO auch schon
mit einer hohen Strafe versehen. Also
00:03:51.410 --> 00:03:55.670
nicht unbedingt nachahmenswert. In China
ist man da schon ein bisschen weiter und
00:03:55.670 --> 00:03:59.150
auch ein bisschen toleranter. Dort gibt es
Gesichtserkennung auch in der Mensa und in
00:03:59.150 --> 00:04:03.770
Bibliotheken, sodass dann ganz nebenbei
auch noch Ernährungsverhalten und
00:04:03.770 --> 00:04:09.020
Leseverhalten noch mit erfasst und
analysiert werden. Ganz besonders charmant
00:04:09.020 --> 00:04:13.340
ist natürlich, dass Eltern sich in
Klassenzimmerkameras auch mit einloggen
00:04:13.340 --> 00:04:18.620
können, um ihre Kinder dort direkt im
Unterricht damit zu beobachten. Es gibt
00:04:18.620 --> 00:04:21.800
zwar hier und da sogar in China
Widerstände dagegen und das finden nicht
00:04:21.800 --> 00:04:24.830
alle Eltern toll. Aber so wie ich das
mitbekommen habe in den letzten Monaten,
00:04:24.830 --> 00:04:28.820
ist die Entwicklung da wahrscheinlich eher
noch schwer aufzuhalten. Hier in
00:04:28.820 --> 00:04:33.230
Deutschland gibt es Forschungsprojekte, um
zum Beispiel mit einem Stift direkt beim
00:04:33.230 --> 00:04:38.000
Schreiben, Üben, Schreibfehler oder
Schreibschwächen rechtzeitig zu erkennen.
00:04:38.000 --> 00:04:42.800
Eher aus dem Hochschulbereich ist dieses
Beispiel entnommen vom KIT, wo die
00:04:42.800 --> 00:04:46.460
Studienabbruchswahrscheinlichkeit
berechnet wird. Je nachdem was man mit den
00:04:46.460 --> 00:04:49.910
Ergebnissen macht, kann das vielleicht
sogar sinnvoll sein, weil dann rechtzeitig
00:04:49.910 --> 00:04:54.590
Hilfestellung gegeben werden kann. Aber
wie dann einzelne Entscheider:innen mit
00:04:54.590 --> 00:04:57.080
solchen Ergebnissen umgehen, das steht
natürlich nochmal auf einem ganz anderen
00:04:57.080 --> 00:05:03.560
Blatt. Und dann wird am DFKI und auch in
der Universität von Tübingen an
00:05:03.560 --> 00:05:10.190
intelligenten Schulbüchern geforscht, die
auch mit Daten arbeiten aus iTrackern, EEG
00:05:10.190 --> 00:05:13.910
Messung und sogar aus der
Nasentemperaturmessung. Dabei wird davon
00:05:13.910 --> 00:05:19.040
ausgegangen, dass wenn die Nasentemperatur
fällt, davon auszugehen ist, dass einem
00:05:19.040 --> 00:05:25.400
Lernenden bei seinem Lernstoff gerade
Schwierigkeiten begegnen und das würde
00:05:25.400 --> 00:05:29.480
dann letztendlich in einer perfekten
intelligenten Schulbuchversion dazu
00:05:29.480 --> 00:05:33.650
führen, dass ihnen noch ergänzende andere
Inhalte angezeigt werden oder vielleicht
00:05:33.650 --> 00:05:38.000
irgendwie der ganze Lernpfad dann in
Zukunft anders aufgebaut wird. Ich bin
00:05:38.000 --> 00:05:45.470
sehr gespannt, ob diese System Entwicklung
jetzt auch im Pandemiewinter Daten erhebt,
00:05:45.470 --> 00:05:50.450
wo wahrscheinlich jeder Schüler zu jeder
Zeit einfach kalte Nasen hat und was das
00:05:50.450 --> 00:05:54.800
letztendlich für die Lernpfadentwicklung
bedeutet. Aber das ist ein anderes Thema.
00:05:54.800 --> 00:06:00.680
Kann KI denn überhaupt im Bildungssystem
etwas Positives beitragen? Und wenn wir
00:06:00.680 --> 00:06:03.920
uns die Stärken von KI angucken, dann
sieht es auf den ersten Blick tatsächlich
00:06:03.920 --> 00:06:08.150
so aus, als wäre das eigentlich gar keine
so schlechte Idee. Gerade im Bereich der
00:06:08.150 --> 00:06:12.170
Spracherkennung oder Übersetzungssysteme
mit allen Schwächen, die damit
00:06:12.170 --> 00:06:17.600
einhergehen, kann es tatsächlich dazu
beitragen, dass Integration oder auch
00:06:17.600 --> 00:06:23.870
Inklusion an Schulen einfach erleichtert
werden im Sinne von ergänzt werden. Wenn
00:06:23.870 --> 00:06:28.550
Systeme gut gemacht sind, können sie
zumindest kurzfristig immerhin auch die
00:06:28.550 --> 00:06:33.470
Motivation von Schüler:innen steigern und
können im Idealfall Lehrkräfte auch
00:06:33.470 --> 00:06:38.570
tatsächlich entlasten. Das wäre alles
total wunderschön, wenn es nicht auch
00:06:38.570 --> 00:06:44.360
Schwächen im KI-System gibt, die euch alle
sicherlich total vertraut sind. Die
00:06:44.360 --> 00:06:48.410
Qualität eines KI-Systems bemisst sich vor
allem nach der Datenbasis. Garbage in
00:06:48.410 --> 00:06:53.480
garbage out, wie man so schön sagt. Und
viele Daten im Bildungsprozess, der ja ein
00:06:53.480 --> 00:06:57.020
sozialer Prozess ist, der ist vielleicht
gar nicht unbedingt optimal
00:06:57.020 --> 00:07:00.890
operationalisierbar, d.h. da stellt sich
immer noch die große Frage: Welche Daten
00:07:00.890 --> 00:07:05.630
können überhaupt erfasst werden und wie
können sie überhaupt sinnvoll analysiert
00:07:05.630 --> 00:07:11.450
werden? Lerndaten betreffend MINT-Fächer,
die auf Logik basiert sind, eignen sich
00:07:11.450 --> 00:07:16.190
dafür sicherlich besser als zum Beispiel
die sogenannten 4K Kompetenzen, also
00:07:16.190 --> 00:07:20.510
Kollaboration, Kreativität zum Beispiel.
Wie will man sowas messen und wie will man
00:07:20.510 --> 00:07:27.320
sowas in Operationalisierbarkeit pressen?
Das steht noch im Raum. Dann haben wir
00:07:27.320 --> 00:07:30.680
natürlich auch im Bildungsbereich die
üblichen Probleme mit der
00:07:30.680 --> 00:07:35.600
Nachvollziehbarkeit und mit der
Erklärbarkeit und die Risiken von
00:07:35.600 --> 00:07:40.940
Verzerrungen. Auch nicht ganz unwichtig
ist die Problematik, dass eine Korrelation
00:07:40.940 --> 00:07:45.290
noch keine Kausalität mit sich bringt.
Also hier nochmal das Beispiel mit der
00:07:45.290 --> 00:07:49.400
Nase und Temperatur. Es kann ganz viele
verschiedene Gründe haben, warum
00:07:49.400 --> 00:07:55.130
Gehirnströme gerade einen bestimmten Weg
nehmen, warum Körpertemperatur sich
00:07:55.130 --> 00:08:00.650
verändern oder warum sich Augenbewegungen
entweder direkt bei einem Lerninhalten
00:08:00.650 --> 00:08:04.430
oder auch im Raum bewegen. Das hat alles
nicht zwangsläufig was mit dem
00:08:04.430 --> 00:08:09.350
Lerninhalten oder mit der Lernatmosphäre
zu tun. Bei all meinen Recherchen für
00:08:09.350 --> 00:08:12.710
diesen Vortrag habe ich immer ganz
explizit gefragt: Gibt es denn Beweise
00:08:12.710 --> 00:08:16.550
dafür überhaupt, dass diese KI-Systeme
vielleicht auch gut funktionieren und den
00:08:16.550 --> 00:08:20.930
Lernenden tatsächlich was bringen? Aber
diese Evidenz gibt es bislang nicht. Ich
00:08:20.930 --> 00:08:24.800
habe interessanterweise, als kleine
Anekdote am Rande, auf der Webseite von
00:08:24.800 --> 00:08:29.670
bettermarks eine Bewertung gefunden für das
System bettermarks von dem
00:08:29.670 --> 00:08:32.850
neurowissenschaftlichen Institut, das
unter der Leitung von Manfred Spitzer
00:08:32.850 --> 00:08:37.380
steht, der ist den Freunden der digitalen
Bildung vor allem dadurch bekannt, dass er
00:08:37.380 --> 00:08:41.310
viele Elemente der digitalen Bildung
eigentlich eher verteufelt. Aber dort wird
00:08:41.310 --> 00:08:44.790
auf der Website natürlich dem System
bettermarks bescheinigt, dass es einen total
00:08:44.790 --> 00:08:49.500
guten Lerneffekt hat. Wie gesagt, Forscher
konnten das bisher noch nicht bestätigen.
00:08:49.500 --> 00:08:56.400
Wenn wir nun diese KI-Systeme mit all
ihren Schwächen auf die Schulen ungebremst
00:08:56.400 --> 00:09:01.290
loslassen, dann kann das dazu führen, dass
wir eigentlich anstatt dieser Entlastung
00:09:01.290 --> 00:09:06.450
eher Überforderung produzieren, dass wir
Normierungen und Standardisierungen in
00:09:06.450 --> 00:09:10.020
Bereichen einführen, die vielleicht gar
nicht ohne weiteres standardisierbar sind.
00:09:10.020 --> 00:09:15.240
Wir können Lehrkräfte in unangenehme
Situationen bringen, wenn sie z.B. in
00:09:15.240 --> 00:09:18.750
einer Elternsprechstunde mit Eltern
konfrontiert sind, die nicht nur die
00:09:18.750 --> 00:09:21.630
Methoden des Lehrers hinterfragen. Das
machen sie ja jetzt schon häufig genug.
00:09:21.630 --> 00:09:25.020
Sondern dann vielleicht auch
Bewertungssysteme hinterfragen und dann
00:09:25.020 --> 00:09:29.760
von Lehrkräften wissen wollen: Wie kommt
denn dieses System zu dem Ergebnis oder zu
00:09:29.760 --> 00:09:33.120
dieser Bewertung meines Kindes? Und
Lehrkräfte so was nicht einfach erklären
00:09:33.120 --> 00:09:40.260
können. Größtes Problem ist natürlich,
dass alle Systeme, über die im Moment im
00:09:40.260 --> 00:09:43.680
Bildungssektor gesprochen wird, diese
Learning Analytics Systeme und Tutor
00:09:43.680 --> 00:09:48.120
Systeme, dass die mit personenbezogenen
Daten von ja größtenteils minderjährigen
00:09:48.120 --> 00:09:52.740
Schüler:innen arbeiten. D.h. da werden
Datensammlungen angefertigt, es werden
00:09:52.740 --> 00:09:57.600
Datenprofile angefertigt und das alles
unterwandert die informationelle
00:09:57.600 --> 00:10:03.990
Selbstbestimmung der Kinder. Selbst wenn
Eltern dieser Verwendung natürlich
00:10:03.990 --> 00:10:07.770
zustimmen müssen, stellt sich ja auch noch
die Frage: Wie gut sind die Eltern denn
00:10:07.770 --> 00:10:12.240
überhaupt informiert über all die
Konsequenzen und die Folgen, die das hat?
00:10:12.240 --> 00:10:16.500
Inwieweit gibt es vielleicht auch einen
gewissen sozialen Gruppenzwang in einem
00:10:16.500 --> 00:10:19.290
Klassenverband oder einer Schule sich
anzuschließen, auch wenn man vielleicht
00:10:19.290 --> 00:10:22.950
als Eltern selber gar nicht genau weiß,
was das dann eigentlich bedeutet? All das
00:10:22.950 --> 00:10:28.170
ist im Moment noch ein bisschen unklar.
Und das sind genau diese Punkte, über die
00:10:28.170 --> 00:10:32.460
meiner Meinung nach im Moment noch viel zu
wenig tatsächlich offen gesprochen wird.
00:10:32.460 --> 00:10:37.830
Was diese Schwäche tatsächlich in der
Praxis für Probleme mit sich bringen
00:10:37.830 --> 00:10:43.250
können, sehen wir auch schon in
ausländischen Anwendungen. Zum Glück muss
00:10:43.250 --> 00:10:47.240
man fast sagen, im Moment. Ich weiß ich,
ob ihr das mitbekommen habt. Im Sommer gab
00:10:47.240 --> 00:10:52.520
es diese Problematik mit dem britischen
System Ofqual. Genauso wie bei uns auch
00:10:52.520 --> 00:10:56.510
haben die Schulen unter der Pandemie
gelitten und es konnten bestimmte
00:10:56.510 --> 00:11:02.420
Prüfungen zu Abschlüssen nicht richtig gut
oder überhaupt nicht durchgeführt werden.
00:11:02.420 --> 00:11:05.840
D.h. Lehrkräfte wurden gebeten, doch
aufgrund von ihren persönlichen
00:11:05.840 --> 00:11:10.640
Einschätzung dann die Schüler mit einer
Abschlussnote zu versehen. Diese
00:11:10.640 --> 00:11:14.120
Abschlussnoten waren dann aber den
Behörden offensichtlich zu gut, sodass sie
00:11:14.120 --> 00:11:17.330
nochmal einen Algorithmus eingesetzt
haben, der das Ganze nachrechnen sollte.
00:11:17.330 --> 00:11:21.410
Das wiederum führte dazu, dass viele Noten
wieder abgewertet worden und die Schüler
00:11:21.410 --> 00:11:24.560
sich verschlechtert haben. Dagegen sind
dann natürlich die Schüler:innen wiederum auf
00:11:24.560 --> 00:11:28.520
die Straße gegangen und haben sich
gewehrt, sodass am Ende doch wieder die
00:11:28.520 --> 00:11:32.990
Beurteilung der Lehrkräfte eingesetzt
wurde. Zum Glück. Ein anderes Beispiel,
00:11:32.990 --> 00:11:36.590
von dem ich gelesen habe, ist das System
Edgenuity. Ich weiß jetzt nicht wie das
00:11:36.590 --> 00:11:40.730
richtig betont ist. Dort hat eine Mutter
festgestellt, dass die
00:11:40.730 --> 00:11:47.300
Textverarbeitungssysteme, die die Aufsätze
ihres Kindes bewerten sollen, viel, viel
00:11:47.300 --> 00:11:51.740
schlechter bewerten als frühe die
Aufsätze, die das Kind einfach ganz normal
00:11:51.740 --> 00:11:54.740
mit der Hand in der Schule geschrieben
hat. Und dann ist in diesem System auf den
00:11:54.740 --> 00:12:00.110
Grund gegangen und hat festgestellt, dass
das System vor allem bewertet anhand der
00:12:00.110 --> 00:12:04.400
Häufigkeit von bestimmten Stichwörtern.
Und dann hat sie versucht, einfach mal so
00:12:04.400 --> 00:12:08.330
als Beispiel einfach nur mit
Stichwortwolken so eine Aufsatzaufgabe zu
00:12:08.330 --> 00:12:14.090
erfüllen. Und tatsächlich wurden dieses
Stichwortwolken besser bewertet als ein
00:12:14.090 --> 00:12:18.680
komplett zusammenhängender Text. Was
natürlich, wenn man das System so weit
00:12:18.680 --> 00:12:22.820
einmal verstanden und geknackt hat,
relativ leicht ist, solche Aufgaben zu
00:12:22.820 --> 00:12:26.510
bestehen, aber natürlich überhaupt gar
keinen Bildungseffekt mehr mit sich
00:12:26.510 --> 00:12:32.660
bringt. Auch eher aus dem Hochschulbereich
sind diese Testverfahren Proctorio und
00:12:32.660 --> 00:12:37.730
ExamSoft bekannt, sollen hier an dieser
Stelle aber trotzdem angesprochen werden.
00:12:37.730 --> 00:12:41.300
Einfach um schon mal aufzuzeigen, welche
Probleme damit einhergehen, bevor wir auf
00:12:41.300 --> 00:12:45.500
die Idee kommen, sie vielleicht auch an
den Schulen einzusetzen. Diese Systeme
00:12:45.500 --> 00:12:51.730
arbeiten vor allem mit Kameraüberwachung,
aber auch mit Geräuschanalysen und mit
00:12:51.730 --> 00:12:56.740
Bewegungsanalysen, um daraus Rückschlüsse
zu ziehen, ob ein Prüfling gerade versucht
00:12:56.740 --> 00:13:02.440
zu täuschen. Und diese Systeme haben jetzt
schon in der Praxis verschiedene Probleme
00:13:02.440 --> 00:13:06.490
aufgezeigt. Also das ganz typische
Problem, was wir ja schon in anderen
00:13:06.490 --> 00:13:10.810
Kamerakontexten kennen bei People of
Color. Sie werden dann von der Kamera
00:13:10.810 --> 00:13:16.000
nicht erkannt, werden dann gebeten noch
zusätzliche Lichtquellen einzusetzen. Dann
00:13:16.000 --> 00:13:19.450
kann das tatsächlich dazu führen, dass
Menschen diskriminiert werden, die in
00:13:19.450 --> 00:13:23.620
beengten Verhältnissen in einer WG wohnen
oder vielleicht noch Kinder um sich haben,
00:13:23.620 --> 00:13:27.850
weil dann unbekannte Geräusche Quellen
auftauchen, die ein System vielleicht als
00:13:27.850 --> 00:13:31.510
Täuschungsversuch oder als
Unterstützerperson klassifizieren kann.
00:13:31.510 --> 00:13:37.600
Aber auch gesundheitlich beeinträchtigte
Menschen sind zusätzlich belastet, einfach
00:13:37.600 --> 00:13:41.530
weil sie angeben müssen, dass sie
vielleicht häufiger mal ins Bad müssen
00:13:41.530 --> 00:13:46.180
oder dass sie eine Insulinpumpe tragen,
einfach damit das System von bestimmten
00:13:46.180 --> 00:13:50.560
Signalen also z.B. nicht irritiert ist.
Also all das führt dazu, dass Menschen
00:13:50.560 --> 00:13:56.320
gezwungen werden, Dinge offenzulegen und
vor allem diese Daten auch in Datenbanken
00:13:56.320 --> 00:13:59.290
mit erfasst werden, die eigentlich sehr
persönlich und sehr privat sind und mit
00:13:59.290 --> 00:14:03.610
einem Prüfergebnisse überhaupt gar nichts
zu tun haben. Hier in Deutschland kennen
00:14:03.610 --> 00:14:06.850
wir alle oder die meisten von euch
wahrscheinlich diese Anwendung Duolingo
00:14:06.850 --> 00:14:12.010
zum Vokabel- oder zum Sprachtraining.
Duolingo hat auch ein Englisch Test
00:14:12.010 --> 00:14:16.300
aufgelegt, der auch online absolviert
werden kann und auch dort wird mit
00:14:16.300 --> 00:14:23.800
Kamerasystem gearbeitet und ich habe bei
einer Forschung nachgelesen, dass
00:14:23.800 --> 00:14:27.400
Forschenden dann versucht haben, da auch
mal auf den Grund zu gehen, ob Duolingo
00:14:27.400 --> 00:14:30.910
denn ausschließen kann, dass diese
bekannten Systeme bei Duolingo nicht
00:14:30.910 --> 00:14:35.050
auftauchen. Also diese Diskriminierungen
nicht passieren können oder auch z.B.
00:14:35.050 --> 00:14:39.760
Diskriminierung aufgrund von Akzenten
nicht automatisch als fehlerhaft
00:14:39.760 --> 00:14:43.690
eingestuft werden. Und leider konnte
zumindest zu dem Zeitpunkt der Befragung
00:14:43.690 --> 00:14:48.910
Duolingo diese Diskriminierung nicht
ausschließen. Ein System, über das ich
00:14:48.910 --> 00:14:53.650
gestolpert bin bei meiner Recherche ist
DyRiAS. Ich habe leider noch nicht
00:14:53.650 --> 00:14:58.480
herausgefunden, ob Schulen überhaupt damit
arbeiten. Und wenn ja, wie viele. Wenn ihr
00:14:58.480 --> 00:15:01.900
was über dieses System und seine Anwendung
wisst, bin ich für sachdienliche Hinweise
00:15:01.900 --> 00:15:06.580
total dankbar. Was ich darüber gelesen
habe ist, dass DyRiAS ist ein
00:15:06.580 --> 00:15:12.970
Risikoanalysesystem, was unter anderem
auch genutzt werden kann, um ein Risiko
00:15:12.970 --> 00:15:17.530
für häusliche Gewalt zu identifizieren. Es
wird auch in der Schule angewendet, sodass
00:15:17.530 --> 00:15:22.840
Lehrkräfte nach einer Schulung und wenn
sie eine Lizenz erworben haben, mit diesem
00:15:22.840 --> 00:15:28.450
System erkennen können, ob Schüler:innen
demnächst vielleicht mal Amok laufen. Und
00:15:28.450 --> 00:15:35.050
dazu werden Kommunikationsverhalten und
Verhaltensweisen analysiert. Wie genau das
00:15:35.050 --> 00:15:37.660
System funktioniert, wie gesagt, weiß ich
im Detail nicht. Da werde ich aber
00:15:37.660 --> 00:15:42.130
sicherlich nochmal in Zukunft etwas tiefer
einsteigen, um das zu verstehen. Weil mich
00:15:42.130 --> 00:15:47.440
das sehr irritiert. Im Ergebnis bekommen
Lehrkräfte dann so einen farblichen
00:15:47.440 --> 00:15:52.780
Balken. Das ist also ein original
Screenshot aus der Broschüre. Und
00:15:52.780 --> 00:15:56.860
vollkommen unklar ist für mich tatsächlich
auch, was genau passiert oder wer Zugang
00:15:56.860 --> 00:16:00.700
zu diesen Daten hat. Wenn dann ein Kind
tatsächlich immer weiter in diesen roten
00:16:00.700 --> 00:16:05.110
Bereich rutscht. Was heißt überhaupt roter
Bereich und bedeutet das höchste Warnstufe
00:16:05.110 --> 00:16:11.470
oder bedeutet Stufe 5 schon, hier musst du
eigentlich sofort die Polizei rufen. Dazu
00:16:11.470 --> 00:16:15.250
kommt noch, dass die Daten, die für dieses
System erfasst werden, dass die
00:16:15.250 --> 00:16:21.910
browserbasiert, verarbeitet werden.
Immerhin verschlüsselt. Weiteres halbwegs
00:16:21.910 --> 00:16:25.150
beruhigendes Signal ist, das DyRiAS in
seiner Broschüre zumindest darauf
00:16:25.150 --> 00:16:29.800
hinweist, dass die Nutzung von
gewaltorientierten Computerspielen oder
00:16:29.800 --> 00:16:33.520
auch das Tragen eines Irokesenschnitt zum
Beispiel keine Indikatoren seien für eine
00:16:33.520 --> 00:16:37.030
erhöhte Gewaltbereitschaft. Aber wie
gesagt, da werde ich mich auf jeden Fall
00:16:37.030 --> 00:16:40.930
nochmal weiter informieren wollen, wie
dieses System genau in der Praxis
00:16:40.930 --> 00:16:46.450
arbeitet. Und letztendlich ist es auch mal
sehr interessant zu wissen, was passiert
00:16:46.450 --> 00:16:50.440
dann eigentlich mit diesem
Farbskalasystem. In der ganzen
00:16:50.440 --> 00:16:55.210
Beschäftigung mit KI in den letzten zwei
Jahren hat sich bei uns im Fraktionsteam
00:16:55.210 --> 00:16:59.500
irgendwann mal diese Frage aufgedrängt,
was es denn überhaupt mit den Menschen
00:16:59.500 --> 00:17:04.140
macht, die mit solchen KI-Systeme
arbeiten. Und es wird immer so ein
00:17:04.140 --> 00:17:08.610
bisschen als beruhigendes, ja sozusagen
als so eine Art Feigenblatt ganz oft
00:17:08.610 --> 00:17:13.320
erwähnt. Naja, am Ende die letzte
Entscheidung trifft ja der Mensch. Aber
00:17:13.320 --> 00:17:16.800
was bedeutet das eigentlich? Weil für uns
hat dann tatsächlich an der Stelle diese
00:17:16.800 --> 00:17:20.910
Debatte nicht aufgehört, sondern erst
angefangen. Weil die Frage ist dann:
00:17:20.910 --> 00:17:25.740
Welche Verantwortung kann ein Mensch dann
überhaupt für seine Entscheidung
00:17:25.740 --> 00:17:30.000
übernehmen und wenn er tatsächlich diese
Entscheidung treffen soll, ist er
00:17:30.000 --> 00:17:32.610
überhaupt dazu befähigt, diese
Entscheidung zu treffen? Einmal
00:17:32.610 --> 00:17:37.710
tatsächlich kognitiv - weiß er überhaupt,
wie das System funktioniert? Kann er
00:17:37.710 --> 00:17:41.760
einschätzen, wenn eine Klassifizierung
oder eine Entscheidungsvorbereitung
00:17:41.760 --> 00:17:45.780
vorgenommen oder vielleicht sogar eine
Entscheidung getroffen wird? Kann er
00:17:45.780 --> 00:17:51.450
überhaupt erkennen, ob diese Entscheidung
des Systems richtig ist in seinem Sinne
00:17:51.450 --> 00:17:55.620
oder ob er vielleicht sich dagegen
entscheiden sollte? Und selbst wenn er
00:17:55.620 --> 00:17:59.910
sich entscheidet, sich dagegen zu
entscheiden, ist er überhaupt dazu
00:17:59.910 --> 00:18:03.570
berechtigt aufgrund von seiner Rolle in
der Organisation? Es gibt Organisationen,
00:18:03.570 --> 00:18:07.200
da wird es ja vielleicht durchaus
erwartet, dass er eigenmächtig entscheidet
00:18:07.200 --> 00:18:10.260
und dann gibt es andere
Organisationsformen, wo es genau von ihm
00:18:10.260 --> 00:18:14.340
erwartet wird, sich nicht eigenmächtig zu
entscheiden. Das betrifft jetzt alles
00:18:14.340 --> 00:18:22.590
nicht nur den Bereich Bildung, sondern
insgesamt soziale Kontexte im Einsatz von
00:18:22.590 --> 00:18:27.210
KI-Systemne. Eine grundsätzliche Frage, die
wir uns stellen müssen in allen
00:18:27.210 --> 00:18:30.450
Anwendungssektoren ist: Wer entscheidet
denn überhaupt besser der Mensch oder die
00:18:30.450 --> 00:18:34.770
Maschine? Und nach welchen Gütekriterien
wird das entschieden? Im Bildungsbereich
00:18:34.770 --> 00:18:39.450
gibt es ja durchaus die Meinung, dass es
heißt, lieber sollen Schüler von scheinbar
00:18:39.450 --> 00:18:44.370
neutralen Systemen bewertet werden als von
vorurteilsbelasteten Menschen. Aber auch
00:18:44.370 --> 00:18:49.080
ein System ist natürlich niemals neutral.
Und auch selbst wenn ein Mensch mit
00:18:49.080 --> 00:18:54.090
Vorurteilen belastet ist, hat er trotzdem
nur einen relativ kleinen
00:18:54.090 --> 00:18:58.560
Entscheidungsspielraum. Wenn hingegen für
Bewertungsverfahren Systeme eingesetzt
00:18:58.560 --> 00:19:02.010
werden, dann wirken sie direkt auf die
ganze Schule oder im schlechtesten Fall
00:19:02.010 --> 00:19:07.350
vielleicht sogar für das ganze Land. Und
auch wenn wir uns dafür entscheiden, dass
00:19:07.350 --> 00:19:12.630
Entscheidungen an Maschinen ausgelagert
werden soll, um Schaden zu vermeiden, ist
00:19:12.630 --> 00:19:15.270
auch die Frage: Wodurch entsteht denn
überhaupt ein Schaden? Entsteht ein
00:19:15.270 --> 00:19:20.550
Schaden durch ein richtig funktionierendes
System, das dann aber langfristig
00:19:20.550 --> 00:19:26.160
gesellschaftliche Schäden mit sich bringt?
Oder entsteht ein Schaden durch ein nicht
00:19:26.160 --> 00:19:31.050
gut funktionierendes System oder nicht wie
erwartet funktionierendes System? Und
00:19:31.050 --> 00:19:35.340
entstehen Schäden eigentlich nur durch Tun
oder entstehen Schäden auch durch
00:19:35.340 --> 00:19:40.260
Unterlassung? Das heißt bezogen auf diese
Entscheidung: Wer entscheidet besser,
00:19:40.260 --> 00:19:44.430
Mensch oder Maschine? Müssen all diese
Aspekte mit betrachtet werden. Und auch
00:19:44.430 --> 00:19:48.360
der Verzicht auf ein maschinelles System,
das vielleicht irgendwann nachweislich
00:19:48.360 --> 00:19:54.600
einen positiven Effekt hat, kann
tatsächlich zu einem Schaden führen. Wenn
00:19:54.600 --> 00:19:59.460
wir uns dann dafür entschieden haben, dass
wir ein KI System ergänzend einsetzen wollen
00:19:59.460 --> 00:20:03.480
in einem bestimmten Anwendungssektor, dann
muss als nächstes entschieden werden: Wie
00:20:03.480 --> 00:20:06.930
viel Entscheidungsspielraum soll der
Mensch dann überhaupt noch haben, wenn es
00:20:06.930 --> 00:20:11.220
heißt: Am Schluss trifft der Mensch die
letzte Entscheidung? Die Papiere von der
00:20:11.220 --> 00:20:15.600
EU-Kommission zum Beispiel gehen im Moment
von drei verschiedenen Stufen aus. Human
00:20:15.600 --> 00:20:20.760
in Command, Human on Command und Human in
the Loop. Aber es gibt schon aus der
00:20:20.760 --> 00:20:24.480
Informatik viel ältere
Klassifizierungssysteme, die viel
00:20:24.480 --> 00:20:29.910
ausgefeilter sind, z.B. vom MIT aus den
1980er Jahren, die bis zu zehn Stufen
00:20:29.910 --> 00:20:34.890
unterscheiden, in denen verschiedene
Autonomiegrade vom Menschen bis zur
00:20:34.890 --> 00:20:38.880
Maschine einmal durchlaufen werden, also
von der vollständigen Autonomie für den
00:20:38.880 --> 00:20:43.920
Menschen bis hin zur vollständigen
Autonomie durch die Maschine. Das heißt,
00:20:43.920 --> 00:20:49.140
da ist dieser, diese Aussage, die
menschliche, die letzte Entscheidung
00:20:49.140 --> 00:20:53.790
trifft der Mensch ist noch so viel
wahnsinnig vielen Fragen unterworfen und
00:20:53.790 --> 00:20:57.960
vor allem aber, finde halte ich das für
die allerwichtigste Frage, genau diese
00:20:57.960 --> 00:21:00.930
Abstufungen, welchen
Entscheidungsspielraum Mensch überhaupt
00:21:00.930 --> 00:21:04.770
hat, weil daraus leitet sich dann
letztendlich auch ab, wie ein Mensch
00:21:04.770 --> 00:21:08.280
weitergebildet werden muss, mit diesem
System überhaupt zu arbeiten und welche
00:21:08.280 --> 00:21:11.730
Vereinbarungen er vielleicht in seinem
Arbeitsvertrag braucht, also welche Rechte
00:21:11.730 --> 00:21:14.700
er überhaupt hat, diesen
Entscheidungsspielraum tatsächlich
00:21:14.700 --> 00:21:23.720
wahrzunehmen. So, selbst wenn er diesen
Entscheidungsspielraum dann für sich
00:21:23.720 --> 00:21:27.080
festgelegt hat, dann ist auch noch die
Frage: Wie viel Entscheidungsspielraum
00:21:27.080 --> 00:21:30.829
lässt das System dann tatsächlich zu? Es
gibt in diesem ganzen Bereich Mensch-
00:21:30.829 --> 00:21:35.480
Maschine Interaktion derzeit noch sehr,
sehr wenig Forschung. Aber die ersten
00:21:35.480 --> 00:21:40.460
Forschungen, die es schon gegeben hat, die
zeigen zum Beispiel: Selbst wenn Menschen
00:21:40.460 --> 00:21:44.630
erkennen, dass das System gerade nicht
optimal arbeitet und sie möchten gerne in
00:21:44.630 --> 00:21:48.350
das System eingreifen, um einen Fehler zu
eliminieren oder eine Korrektur
00:21:48.350 --> 00:21:52.550
vorzunehmen und dann dabei feststellen,
dass dieser Prozess so wahnsinnig
00:21:52.550 --> 00:21:56.180
aufwendig und kompliziert ist, dann neigen
Menschen tatsächlich dazu, mit diesem
00:21:56.180 --> 00:22:00.590
fehlerhaften System trotz besseren Wissens
weiterzuarbeiten. Und das ist halt etwas,
00:22:00.590 --> 00:22:06.200
was wir gerade in sozialen Kontexten und
gerade in Bereichen, in denen KI-Systeme
00:22:06.200 --> 00:22:10.880
über das Leben oder Lebenswege von
Menschen entscheiden, einfach ganz genau
00:22:10.880 --> 00:22:14.390
hinschauen sollten, was es denn eigentlich
bedeutet, wenn der Mensch die letzte
00:22:14.390 --> 00:22:18.080
Entscheidung treffen soll. Denn am Ende
kann es tatsächlich sein, dass der
00:22:18.080 --> 00:22:21.830
Entscheidungsspielraum, der dort
angedeutet wird, mit dieser Aussage viel,
00:22:21.830 --> 00:22:25.100
viel kleiner ist als angenommen
Handlungsspielräume geklärt sind. Und
00:22:25.100 --> 00:22:29.210
auch, weil wir von total optimal
funktionierenden KI-System ausgehen. Dann
00:22:29.210 --> 00:22:32.390
ergeben sich immer noch Probleme auf der
strukturellen Ebene, sodass wir auf lange
00:22:32.390 --> 00:22:35.930
Sicht einfach schauen müssen: Was macht
das dann mit der Lernkultur, mit der
00:22:35.930 --> 00:22:40.640
Bildungskultur an Schulen? Das fängt an
bei der Erhebung von den Daten, also der
00:22:40.640 --> 00:22:44.990
Datafisierung von Lernprozessen. Aber ich
werde nicht müde, immer wieder zu
00:22:44.990 --> 00:22:48.380
wiederholen, dass wir immer noch mit
personenbezogenen Daten von größtenteils
00:22:48.380 --> 00:22:52.580
minderjährigen Schüler:innen arbeiten und
dass wir Kinder auch schon sehr, sehr früh
00:22:52.580 --> 00:22:56.180
daran gewöhnen, sich mit algorithmischen
Klassifizierungs- und Bewertungsverfahren
00:22:56.180 --> 00:23:00.770
auseinanderzusetzen und sich vielleicht
ihnen auch sogar zu unterwerfen, ohne dass
00:23:00.770 --> 00:23:05.150
sie sie aufgrund der Black-Box Problematik
vielleicht nachvollziehen können. Nächste
00:23:05.150 --> 00:23:09.470
Problematik ist das Ding der
Standardisierung, Operationalisierung von
00:23:09.470 --> 00:23:13.820
Daten. Welche Dinge werden dabei
ausgelassen? Wer bestimmt, was der
00:23:13.820 --> 00:23:17.600
Standard ist? Wer bestimmt, was das
normale ist? Inwieweit können diese
00:23:17.600 --> 00:23:21.140
Systeme überhaupt hinterfragt werden?
Welche Qualitäts- und Fairness-Maße beim
00:23:21.140 --> 00:23:28.190
Training, welche Feedback an diese Systeme
gegeben werden? In der Bildung gehört es
00:23:28.190 --> 00:23:31.310
letztendlich dazu, auch nicht
standardisierte Wege zu gehen. Hetty,
00:23:31.310 --> 00:23:34.100
einer der renommiertesten
Bildungsforscher, hat in seiner Studie
00:23:34.100 --> 00:23:38.780
Visible Learning unter anderem nochmal
herausgestellt, dass es zum einen zum
00:23:38.780 --> 00:23:43.370
Bildungserfolg gehört und dass es auch mit
Bildungserfolg beiträgt, wenn Schüler:innen
00:23:43.370 --> 00:23:48.200
befähigt werden, vorgegebene Lösungswege
aufzubrechen oder auch ihre eigenen zu
00:23:48.200 --> 00:23:52.520
finden. Aber durch diese ganze
Vereinzelung und durch die
00:23:52.520 --> 00:23:57.500
Standardisierung gehen halt einfach auch
bestimmte Möglichkeiten im Lern-Spektrum
00:23:57.500 --> 00:24:02.930
verloren, sodass Schüler:innen gar nicht
mit alternativen Möglichkeiten vielleicht
00:24:02.930 --> 00:24:06.980
mehr konfrontiert werden, um ihren
Horizont zu erweitern. Die nächste
00:24:06.980 --> 00:24:12.380
Problematik ist das Scheitern. Wenn ich
jetzt in einem normalen Klassenverbund
00:24:12.380 --> 00:24:15.740
vielleicht selber schon mal merke, ich
komme hier an meine Grenzen oder ich komme
00:24:15.740 --> 00:24:19.190
mit der Aufgabenstellung nicht zurecht,
dann ist das natürlich total frustrierend.
00:24:19.190 --> 00:24:22.580
Aber gleichzeitig gehört das auch mit zum
Bildungsprozess und zur
00:24:22.580 --> 00:24:27.680
Persönlichkeitsentwicklung auch dazu,
Grenzen zu erkennen, auch mit Misserfolgen
00:24:27.680 --> 00:24:31.520
umzugehen. Und wenn all dies ausbleibt,
dann verschieben sich diese Grenzen
00:24:31.520 --> 00:24:37.820
einfach viel, viel weiter nach hinten,
weil dann immer nur der Inhalt präsentiert
00:24:37.820 --> 00:24:44.570
wird, der geradezu meinem vom System
errechneten Lernniveau passt und ich aber
00:24:44.570 --> 00:24:48.320
vielleicht gar nicht mehr dazu richtig
gefordert werde, mich auch aber mit Dingen
00:24:48.320 --> 00:24:53.120
auseinanderzusetzen, die ich vielleicht
noch gar nicht können kann, die mich aber
00:24:53.120 --> 00:24:57.020
vielleicht jetzt aktuell nochmal
weiterbringen. Jetzt im Klassenverband
00:24:57.020 --> 00:24:59.930
gibt es zwar auch das Thema der
Binnendifferenzierung, also dass es
00:24:59.930 --> 00:25:03.650
unterschiedliche Inhalte idealerweise für
verschiedene Lernniveaus oder für
00:25:03.650 --> 00:25:08.390
verschiedene Lerntypen gibt. Aber in einem
Klassenverband gibt es immer noch die
00:25:08.390 --> 00:25:13.340
Möglichkeit, das in Gruppenarbeiten z.B.
zu organisieren, wo etwas schwächere
00:25:13.340 --> 00:25:16.580
Schüler mit etwas stärkeren Schülern
zusammen an einer Lösung arbeiten können.
00:25:16.580 --> 00:25:21.200
Wenn wir auf individualisierte
systembasierte Lernpfade gehen, dann
00:25:21.200 --> 00:25:25.280
sitzen im Prinzip die Schüler:innen dort
alleine und das System entscheidet, was
00:25:25.280 --> 00:25:28.040
hier präsentiert wird und was nicht
präsentiert wird. Da geht einfach sehr,
00:25:28.040 --> 00:25:32.300
sehr viel verloren. Das Spektrum verengt
sich. Gleichzeitig kann es aber auch
00:25:32.300 --> 00:25:37.130
passieren, dass Lehrkräfte vielleicht noch
mehr angegriffen werden, als sie es
00:25:37.130 --> 00:25:40.730
vielleicht jetzt schon werden von Eltern
einfach in Frage gestellt werden. Ihre
00:25:40.730 --> 00:25:44.510
Entscheidungssysteme können mehr in Frage
gestellt werden, weil Lehrkräfte
00:25:44.510 --> 00:25:49.130
vielleicht verlangen, dass ein System
nochmal die Bewertung nachvollzieht, was
00:25:49.130 --> 00:25:52.220
letztendlich sehr demotivierend für
Lehrkräfte sein kann, was Vertrauen
00:25:52.220 --> 00:25:56.000
unterwandern kann und letztendlich auch
die Autorität von Lehrkräften wieder
00:25:56.000 --> 00:25:59.480
unterwandern kann. Wir haben sowieso schon
ein großes Problem mit Lehrkräftemangel
00:25:59.480 --> 00:26:05.210
und die Frage ist, ob solche Entwicklungen
Lehrkräfte oder angehende Lehrkräfte
00:26:05.210 --> 00:26:09.200
motiviert, diesen Beruf dann überhaupt
noch zu ergreifen, wenn sie sich dann auch
00:26:09.200 --> 00:26:13.370
zukünftig immer mit technischen System
messen müssen. Letztendlich aber
00:26:13.370 --> 00:26:17.870
wahrscheinlich das größte Problem: Was
macht es mit der Ungleichheit? Also alle
00:26:17.870 --> 00:26:21.590
Bildungsberichte gehen im Prinzip immer
wieder davon aus, dass wir
00:26:21.590 --> 00:26:24.740
Bildungsungleichheiten und
Ungerechtigkeiten haben. Das ist eines der
00:26:24.740 --> 00:26:29.630
größten Probleme im Bildungssektor, das es
tatsächlich gibt, und die Frage ist,
00:26:29.630 --> 00:26:36.800
inwieweit die der verstärkte Einsatz von
KI-Systemen diese Ungleichheiten entweder
00:26:36.800 --> 00:26:41.270
aushebelt oder vielleicht sogar verstärken
kann. Das kann auf der individuellen Ebene
00:26:41.270 --> 00:26:45.230
passieren, dass Schüler:innen, die sich
vielleicht sehr gut selbst organisieren
00:26:45.230 --> 00:26:48.200
können und vielleicht sehr gut mit Systemen
arbeiten können, dieses schneller
00:26:48.200 --> 00:26:52.220
verstehen, vielleicht auch schneller
wissen, wie sie es umgehen können. Während
00:26:52.220 --> 00:26:57.050
vielleicht eher lernschwache Schüler sich
dem System eher ausgeliefert fühlen und
00:26:57.050 --> 00:27:00.920
vielleicht eher demotiviert werden, sich
dann nochmal Hilfe zu suchen oder
00:27:00.920 --> 00:27:04.160
vielleicht auch Lehrkräfte das gar nicht
unbedingt erkennen können, dass
00:27:04.160 --> 00:27:06.980
Schüler:innen vielleicht überhaupt
Schwierigkeiten haben, wenn sie diese
00:27:06.980 --> 00:27:11.720
Systeme zuhause anwenden oder vielleicht
hinter einem Bildschirm verschwinden. Auf
00:27:11.720 --> 00:27:16.880
einer größeren Ebene kann der Einsatz von
KI Systemen die Ungleichheit verschärfen,
00:27:16.880 --> 00:27:21.770
weil einfach die Frage ist: Werden sich
dann zukünftig eher gut ausgestattete
00:27:21.770 --> 00:27:26.930
Schulen in reichen Bundesländern, in
privilegierten Umfeldern KI-Systeme zur
00:27:26.930 --> 00:27:32.150
Unterstützung leisten können? Oder werden
KI-Systeme eher eingesetzt werden können
00:27:32.150 --> 00:27:36.320
in weniger privilegierten Kontexten? Es
gibt in den USA gab es jetzt die
00:27:36.320 --> 00:27:41.060
Gründungen von Rocketchip Schulen. Ich
kann mir den Namen immer sehr schlecht
00:27:41.060 --> 00:27:47.510
merken. Rocketchip Public Schools heißen
sie und dort sitzt dann im Prinzip nur
00:27:47.510 --> 00:27:50.960
noch eine Hilfslehrkraft, die dann bis zu
90 Schüler:innen an ihren
00:27:50.960 --> 00:27:58.685
Computerbildschirmen steuert, anleitet,
irgendwie unterstützt, um einfach auch
00:27:58.685 --> 00:28:02.990
Stellen an gut ausgebildeten Lehrkräften
einzusparen. Dort läuft es auf eine Art
00:28:02.990 --> 00:28:07.760
Massenabfertigung hin und die Forschung,
die es da gegeben hat, hat jetzt zumindest
00:28:07.760 --> 00:28:12.650
letztes Jahr schon gezeigt, dass die
Ergebnisse, die die Schüler:innen dort erzielen,
00:28:12.650 --> 00:28:16.760
bis zu einer Note schlechter sind als
Schüler:innen, die in einem herkömmlichen
00:28:16.760 --> 00:28:21.170
Klassenverband mit vernünftig
ausgebildeten Lehrkräften lernen. Wir
00:28:21.170 --> 00:28:25.280
kennen diese Diskussionen auch im
Gesundheitsbereich, in der Pflege. Auch da
00:28:25.280 --> 00:28:29.660
wird diskutiert, ob Robotics Systeme in
der Pflege eher ein System für die
00:28:29.660 --> 00:28:35.330
Privilegierten sind. Wer es sich leisten
kann, holt sich einen Roboter dazu. Oder
00:28:35.330 --> 00:28:40.400
ob es auch da eher um eine Auslagerung an
Technik geht, dass wir in weniger
00:28:40.400 --> 00:28:44.090
privilegierten Einrichtungen einfach von
Maschinen betreut werden anstatt von
00:28:44.090 --> 00:28:47.570
Menschen. Also da kann der Bildungssektor
sich vielleicht ganz gut am
00:28:47.570 --> 00:28:51.920
Gesundheitssektor orientieren und diese
Debatte dort mal verfolgen, in welche
00:28:51.920 --> 00:28:59.090
Richtung das geht. All diese Schwächen und
Risiken zusammengenommen frage ich mich
00:28:59.090 --> 00:29:07.490
tatsächlich, ob das Werben für KI-Systeme
an Schulen oder auch teilweise der Druck,
00:29:07.490 --> 00:29:10.940
der da gemacht wird, dass das eigentlich
totale super Sache ist. Ob das nicht
00:29:10.940 --> 00:29:15.530
letztendlich einfach nur gemacht wird, um
die eigentlichen Probleme im Schulsystem
00:29:15.530 --> 00:29:19.700
zu verschleiern. Denn eigentlich haben wir
es mit einer großen Mangelfinanzierung zu
00:29:19.700 --> 00:29:23.630
tun. Wir haben zu große Klassen, wir haben
zu wenig Lehrkräfte, wir haben einen
00:29:23.630 --> 00:29:27.990
wahnsinnigen Sanierungsstau. Und wenn
gleichzeitig dann aber von Regierungen
00:29:27.990 --> 00:29:32.990
mitempfohlen wird, dass wir doch KI-
Systeme und Learning Analytics einsetzen,
00:29:32.990 --> 00:29:35.930
weil dadurch die Lehrkräfte entlastet
werden und sich dann besser um die
00:29:35.930 --> 00:29:40.730
Schüler:innen kümmern sollen. Wobei wir
eigentlich gar keine Evidenz dafür haben,
00:29:40.730 --> 00:29:44.660
dass das tatsächlich so funktioniert und
so klappt. Dann habe ich einfach zunehmend
00:29:44.660 --> 00:29:48.530
das Gefühl, dass genau diese
Mangelwirtschaft einfach aufrechterhalten
00:29:48.530 --> 00:29:51.500
werden soll und dadurch verschleiert
werden soll, dass wir mal wieder
00:29:51.500 --> 00:29:55.850
versuchen, soziale Probleme mit Technik zu
lösen. Und das ist etwas, wo wir meiner
00:29:55.850 --> 00:30:00.140
Meinung nach genau jetzt an diesem Punkt
sind, diese Diskussion zu führen und diese
00:30:00.140 --> 00:30:04.220
Entwicklung zu verhindern, weil
diejenigen, die letztendlich darunter
00:30:04.220 --> 00:30:08.990
leiden, sind neben den Lehrkräften, die am
Ende nämlich nur scheinbar entlastet
00:30:08.990 --> 00:30:13.460
werden, vor allem die Schülerinnen und
Schüler, deren Daten jetzt einfach erhoben
00:30:13.460 --> 00:30:16.310
werden und verarbeitet werden sollen und
wir gar nicht wissen, was daraus am Ende
00:30:16.310 --> 00:30:23.540
wird. So bedeutet das jetzt aber, dass KI-
Systeme im Bildungssektor und in der
00:30:23.540 --> 00:30:26.630
Schule gar nichts verloren haben. So weit
würde ich gar nicht gehen, sondern ich
00:30:26.630 --> 00:30:30.410
möchte gerne in Zukunft unterscheiden, auf
welchen Ebenen wir KI-Systeme im
00:30:30.410 --> 00:30:34.010
Bildungssektor einsetzen. Wir haben jetzt
bisher immer so ein bisschen betrachtet,
00:30:34.010 --> 00:30:38.630
was auf der Mikroebene passiert, also wo
personenbezogene Daten von Schüler:innen
00:30:38.630 --> 00:30:42.590
oder von Lehrkräften analysiert und
verarbeitet werden. Es gibt aber auch noch
00:30:42.590 --> 00:30:47.510
die Meso und Makroebene im Bildungssystem.
Auf der Mesoebene reden wir von dem Zugang
00:30:47.510 --> 00:30:53.270
zu Lernorten oder auch zu Lerninhalten und
die Makroebene betrachtet tatsächlich die
00:30:53.270 --> 00:30:57.050
übergreifende Steuerung von
Bildungssysteme, wo sich z.B. auch die
00:30:57.050 --> 00:31:02.420
Problematik der Ungerechtigkeit lösen
lassen müsste. Auf der Meso- und auf der
00:31:02.420 --> 00:31:07.340
Makroebene gibt es tatsächlich dann die
Möglichkeit mit Open Data zu arbeiten und
00:31:07.340 --> 00:31:12.560
nicht mit personenbezogenen Daten, um halt
diese bestimmten oder diese konkreten
00:31:12.560 --> 00:31:16.280
Probleme mit anzugehen. Und ich möchte
jetzt im Folgenden eigentlich mal
00:31:16.280 --> 00:31:19.910
vorstellen, welche Beispiele es dafür
jetzt schon gibt oder welche es geben
00:31:19.910 --> 00:31:29.930
könnte, damit es nicht so als Behauptung
im leeren Raum steht. Also nochmal zurück
00:31:29.930 --> 00:31:35.510
auf die Mikroebene gegangen, gibt es dort
auch durchaus Möglichkeiten, mit Systemen
00:31:35.510 --> 00:31:40.850
zu arbeiten, die nicht unbedingt die
personenbezogenen Daten von Schülerinnen
00:31:40.850 --> 00:31:43.940
und Schülern verarbeiten. Das ist zum
einen die Möglichkeit: Es gibt ein System,
00:31:43.940 --> 00:31:50.150
dass Lehrkräfte neue Methoden zum Beispiel
anhand einer KI trainieren können und
00:31:50.150 --> 00:31:55.070
aufgrund des Feedbacks der KI dann sehen
können, wo Verständnisschwächen entstehen,
00:31:55.070 --> 00:31:59.210
sodass sie dann ihre Methoden und ihre
Erklärweisen nochmal anpassen können,
00:31:59.210 --> 00:32:02.870
bevor sie damit konkret in die Klasse
gehen. Dann gibt es natürlich diesen
00:32:02.870 --> 00:32:08.960
ganzen Bereich der Administration,
Vertretungspläne, Stundenpläne oder auch
00:32:08.960 --> 00:32:13.550
Postverwaltung. Da gibt es ja schon einige
Beispiele, auch aus Behörden, wie sowas
00:32:13.550 --> 00:32:18.470
eingesetzt werden kann mit ganz, ganz
unkritischen Anwendungsbereichen und
00:32:18.470 --> 00:32:24.650
keinen großen personenbezogenen Daten, die
dafür nötig sind. Was auch total günstig
00:32:24.650 --> 00:32:30.200
ist, ist natürlich alles, was dazu
beiträgt, das System KI zu verstehen. Also
00:32:30.200 --> 00:32:35.060
selbst wenn ich Anwendungen durchaus in
gewissen Bereichen hier intensiv in Frage
00:32:35.060 --> 00:32:39.410
stellen möchte, ist zu keinem Zeitpunkt in
Frage zu stellen, dass natürlich
00:32:39.410 --> 00:32:43.970
verstanden und gelernt werden muss, wie
algorithmische und KI-Systeme
00:32:43.970 --> 00:32:49.136
funktionieren und was man mit ihnen machen
kann. Das heißt, als Unterstützung für
00:32:49.136 --> 00:32:53.780
Lernmethoden oder auch um Experimente
durchzuführen, ist es auch für Schüler
00:32:53.780 --> 00:32:58.280
durchaus geeignet. Es gab mal diesen
Wettbewerb. Ich weiß nicht, ob der jedes
00:32:58.280 --> 00:33:02.330
Jahr stattfindet, zur KI Schule des
Jahres. Dort haben jugendliche
00:33:02.330 --> 00:33:05.360
Schüler:innen unter anderem ein System
entwickelt, um Zugverspätung
00:33:05.360 --> 00:33:11.480
vorherzusagen, also sehr anwendungsnah und
sehr sinnvoll für viele von uns. Und auch
00:33:11.480 --> 00:33:16.610
Methoden der Textanalyse oder Datenbank-
Analysen. Auch die können Schülern
00:33:16.610 --> 00:33:20.390
durchaus zugutekommen, sodass sie sie als
Werkzeuge für das eigene Lernen benutzen
00:33:20.390 --> 00:33:24.740
und dabei aber weniger Schüler:innen
Werkzeuge für das KI-System darstellen
00:33:24.740 --> 00:33:31.100
müssen. Auf der Meso-Ebene habe ich
tatsächlich im Moment sehr, sehr wenig
00:33:31.100 --> 00:33:35.510
Anwendungsbeispiele gefunden, was da
gemacht werden kann. Also eine Sache, die
00:33:35.510 --> 00:33:41.060
mich inspiriert hat, ist das Ergebnis
eines EDU Hacks. Dort hat eine Gruppe eine
00:33:41.060 --> 00:33:46.250
Open Source Bibliothek entwickelt und
sowas kann ich mir sehr sehr gut auch
00:33:46.250 --> 00:33:51.140
tatsächlich für Deutschland vorstellen,
dass wir, wir haben ja diese Problematik,
00:33:51.140 --> 00:33:55.520
Lehrkräfte von euch werden das kennen, ich
hab das jetzt auch schon oft gehört, dass
00:33:55.520 --> 00:34:00.050
Lehrkräfte immer auf der Suche sind. Wo
finde ich denn gute OER Materialien? Woher
00:34:00.050 --> 00:34:02.630
weiß ich dann, dass die gut sind oder
nicht? Woher weiß ich, ob die zu meinem
00:34:02.630 --> 00:34:05.690
Unterricht passen? Es ist alles so weit
verstreut. Ich weiß gar nicht, wo ich das
00:34:05.690 --> 00:34:10.640
ganze gute Zeug finden soll. Sowas alles
in eine Datenbank zu packen und dann mit
00:34:10.640 --> 00:34:14.360
KI-Systeme durchsuchbar zu machen und
vielleicht auch so durchsuchbar zu machen,
00:34:14.360 --> 00:34:19.100
dass Lehrkräfte schnell dort auch wissen,
wie komme ich dann an genau die
00:34:19.100 --> 00:34:22.070
Ergebnisse, die ich gerade für meinen
Unterricht gebrauchen kann. Könnte ein
00:34:22.070 --> 00:34:27.110
Anwendungsbeispiel sein. Die OER-Strategie
der Bundesregierung ist ja jetzt
00:34:27.110 --> 00:34:32.990
ausgelaufen. Wird gerade neu entwickelt.
Kommt im nächsten Jahr. Und wir wissen
00:34:32.990 --> 00:34:36.560
leider noch nicht, was drin steht. Aber es
bleibt einfach zu hoffen, dass eine
00:34:36.560 --> 00:34:41.420
Zentralisierung oder zumindest eine
bessere Auffindbarkeit von OER-Inhalten
00:34:41.420 --> 00:34:47.660
dort mitgedacht wird. Das Thema Inklusion-
Integration hatten wir schon angesprochen.
00:34:47.660 --> 00:34:52.130
Auch da sehe ich bei KI, wenn man diese
ganzen Problematiken bei der
00:34:52.130 --> 00:34:57.950
Spracherkennung und Übersetzung
ausgehebelt sind, wenn die ausgehebelt
00:34:57.950 --> 00:35:01.940
sind, dass wir dort auch noch viele
Potenziale haben, die es zu heben gilt, um
00:35:01.940 --> 00:35:06.860
Inklusion und Integration einfach
einfacher zu machen. Und was ich auch sehe
00:35:06.860 --> 00:35:14.090
ist im Kontext autonomes Fahren oder auch
Verkehrsleitsysteme, das ganze Thema
00:35:14.090 --> 00:35:18.200
Schultransporte, sei es
jahreszeitenbedingt oder vielleicht auch
00:35:18.200 --> 00:35:23.240
im ländlichen Raum und vor allem aber auch
mit Blick auf Förderschulen oder inklusive
00:35:23.240 --> 00:35:28.280
Schulen. KI-Systeme können sicherlich
dabei unterstützen, den Transport gut zu
00:35:28.280 --> 00:35:32.480
organisieren und effizient zu
organisieren. Und wir werden es ja
00:35:32.480 --> 00:35:36.980
mindestens im nächsten Jahr auch noch mit
dieser Pandemie zu tun haben. Und gerade
00:35:36.980 --> 00:35:41.450
inklusive Schulen oder Förderschulen haben
bei diesem ganzen Transport Thema
00:35:41.450 --> 00:35:49.010
tatsächlich ein großes Problem, weil dort
die Zusammenkunft von Schüler:innen in so
00:35:49.010 --> 00:35:54.140
einem Schulbus oder in so einem Transport
Bus hin zur Schule für Menschen oder
00:35:54.140 --> 00:35:57.770
Schüler:innen mit Behinderung einfach noch
ein viel, viel größeres Risiko darstellen,
00:35:57.770 --> 00:36:02.870
als es für gesunde Schüler:innen ist. Also
Menschen mit Behinderung gehören zur
00:36:02.870 --> 00:36:10.500
Risikogruppe Nummer eins. Zu weiteren
Potenzialen auf der Makroebene. Dort gibt
00:36:10.500 --> 00:36:13.860
es tatsächlich schon konkrete
Anwendungsfälle, die uns für Deutschland
00:36:13.860 --> 00:36:18.990
auch ein Vorbild sein könnten. Also sowohl
die Schweiz als auch Belgien haben zum
00:36:18.990 --> 00:36:22.470
Beispiel Systeme entwickelt, um die
Durchmischung, die soziale Durchmischung
00:36:22.470 --> 00:36:28.050
an Schulen zu optimieren. Dass in etwas
wohlhabenderen Stadtvierteln nicht nur
00:36:28.050 --> 00:36:31.980
privilegierte Schüleri:nnen sind und die
weniger Privilegierten dann halt in
00:36:31.980 --> 00:36:36.180
Problemschulen landen, sondern dass dort
einfach nochmal neu berechnet wird, wie
00:36:36.180 --> 00:36:39.630
eine bessere Durchmischung stattfinden
kann. Das wurde in der Schweiz zum
00:36:39.630 --> 00:36:45.180
Beispiel so gemacht, dass die die
Straßenzüge neu berechnet werden, wie
00:36:45.180 --> 00:36:49.650
Wohngebiete bestimmten Schulen zugeteilt
werden. Das unter der Maßgabe, dass die
00:36:49.650 --> 00:36:53.340
Schulwege sicher sein müssen und dass sie
nicht länger sein sollen als bisher
00:36:53.340 --> 00:36:57.900
gehabt. Und das hat im ersten Versuch
tatsächlich so gut funktioniert, dass
00:36:57.900 --> 00:37:02.820
jetzt mehrere Kantone versuchen wollen,
dieses System zu übernehmen. In Belgien
00:37:02.820 --> 00:37:07.050
hat es ein ähnliches Projekt gegeben. Dort
wird jetzt im Moment das System aber
00:37:07.050 --> 00:37:12.870
nochmal überarbeitet, weil dort Eltern
sich beschwert haben, dass dass sie ihre
00:37:12.870 --> 00:37:17.700
Kinder nicht mehr auf Schulen schicken
oder gehen lassen können, die zum Beispiel
00:37:17.700 --> 00:37:20.760
bestimmte Schwerpunkte haben. Dann gibt es
dann eine Schule, die hat eine
00:37:20.760 --> 00:37:25.320
Spezialisierung auf den musischen Bereich
oder auf den sportlichen Bereich. Und dort
00:37:25.320 --> 00:37:28.680
wird das System jetzt so überarbeitet,
dass die Schulen dort auch Faktoren
00:37:28.680 --> 00:37:32.820
gewichten können, sodass es dort
zusätzlich zu der besseren sozialen
00:37:32.820 --> 00:37:36.660
Durchmischung auch die Möglichkeit gibt,
noch bestimmte Schwerpunkte zu setzen.
00:37:36.660 --> 00:37:43.590
Auch wieder in UK gibt es ein System, dass
es Behörden erleichtern soll,
00:37:43.590 --> 00:37:48.180
Schulinspektionen vorzunehmen. Das heißt,
dort wird aufgrund von bestimmten
00:37:48.180 --> 00:37:52.620
Indikatoren rechtzeitig prognostiziert,
welcher Schule vielleicht nochmal eine
00:37:52.620 --> 00:37:56.610
Inspektion oder ein Besuch durch die
Behörde bedarf, um bestimmte Entwicklungen
00:37:56.610 --> 00:38:01.560
vielleicht rechtzeitig zu stoppen. Und
auch in England, das fand ich ganz gut,
00:38:01.560 --> 00:38:07.470
gibt es ein, gibt es die NGO Nesta, die
einige von euch vielleicht kennen. Und die
00:38:07.470 --> 00:38:12.450
haben ein eigenes Papier entwickelt, das
genau auf das abzielt, was ich hier auch
00:38:12.450 --> 00:38:16.650
vorstellen möchte. Nämlich wenn wir KI im
Bildungssektor schon einsetzen wollen,
00:38:16.650 --> 00:38:20.490
dann sollten wir uns auf die strukturellen
Probleme konzentrieren. Oder wenn wir
00:38:20.490 --> 00:38:23.580
schon auf der Mikroebene arbeiten, dann
sollten wir uns auf Systeme konzentrieren,
00:38:23.580 --> 00:38:28.320
die mit den Daten von Lehrkräften arbeiten
und Lehrkräfte bei ihrer Arbeit
00:38:28.320 --> 00:38:32.130
unterstützen. Zumindest jetzt in einem
ersten Schritt, wenn die KI-Systeme noch
00:38:32.130 --> 00:38:37.470
nicht so gut und so weiterentwickelt sind,
wie wir sie vielleicht gerne hätten. Diese
00:38:37.470 --> 00:38:42.870
Systeme können tatsächlich schon Vorbild
sein, auch für Deutschland. Und wovon ich
00:38:42.870 --> 00:38:46.470
in Deutschland auch ein bisschen träume
und woran wir gerade politisch arbeiten,
00:38:46.470 --> 00:38:51.030
ist dieser leidige Königsteiner Schlüssel
zum Beispiel. Der Königsteiner Schlüssel
00:38:51.030 --> 00:38:55.560
verteilt im Moment Fördergelder nach
Bevölkerungsdichte und nach
00:38:55.560 --> 00:38:59.280
Steueraufkommen. Da funktioniert das ganz
klassisch jetzt im Moment nach dem
00:38:59.280 --> 00:39:02.490
Matthäus Prinzip. Wer hat, dem wird
gegeben. Reiche Länder bekommen den
00:39:02.490 --> 00:39:06.990
höheren Anteil an Fördergeldern und die
etwas ärmeren Länder bekommen halt nicht
00:39:06.990 --> 00:39:11.550
so viel. Dabei sollte es doch eigentlich
genau umgekehrt sein. Und wenn es
00:39:11.550 --> 00:39:19.950
tatsächlich möglich wäre, mit einem KI-
System auf Basis von noch mehr oder
00:39:19.950 --> 00:39:24.630
anderen Daten zu ermitteln, welcher
Förderzweck genau welche Förderhöhe
00:39:24.630 --> 00:39:29.580
brauch, dann wäre es doch vielleicht sogar
möglich, dass wir je nach Förderzweck
00:39:29.580 --> 00:39:34.410
jedes Mal diesen Verteilungsschlüssel neu
errechnen. Also wenn es dort Möglichkeiten
00:39:34.410 --> 00:39:38.160
gibt oder wenn es dort Ansätze gibt sowas
zu entwickeln, bitte ich um
00:39:38.160 --> 00:39:42.360
Kontaktaufnahme. Das würde mich sehr sehr
interessieren. Selbstverständlich würde
00:39:42.360 --> 00:39:46.560
das voraussetzen, dass von den Schulen,
Schulträgern und auch Schulbehörden
00:39:46.560 --> 00:39:51.810
nochmal ganz andere Daten auch erhoben und
erfasst werden. Es gibt aber auch bereits
00:39:51.810 --> 00:39:56.970
Bildungsdatenbank. Es gibt die
Forschungsdatenbank Bildung, wo jetzt im
00:39:56.970 --> 00:40:00.720
Moment schon Bildungsstudien eingestellt
sind, also die Infrastruktur letztendlich
00:40:00.720 --> 00:40:05.220
wäre für sowas vorhanden. Es müsste sich
vielleicht nur etwas in der Kultur ändern,
00:40:05.220 --> 00:40:12.090
damit Schulen auch bereit sind oder damit
überhaupt auch Länder und Behörden dort
00:40:12.090 --> 00:40:17.730
anfangen bestimmte Daten zu erheben, um
dann halt auch die strukturellen Systeme
00:40:17.730 --> 00:40:25.380
auflösen zu können. So, welche
Anforderungen brauchen wir letztendlich,
00:40:25.380 --> 00:40:30.600
um auf dieser Makroebene an die
strukturellen Probleme heranzugehen? Dort
00:40:30.600 --> 00:40:33.690
würde ich gerne unterscheiden, ein
bisschen was können Menschen auf der
00:40:33.690 --> 00:40:37.950
persönlichen Ebene tun? Was muss auf der
Organisationsebene passieren und vor
00:40:37.950 --> 00:40:41.490
allem was braucht es noch auf der
rechtlichen Ebene? Im Moment wird ja ganz,
00:40:41.490 --> 00:40:45.360
ganz viel immer davon geredet. Lehrkräfte
müssen sich fortbilden, damit sie mit
00:40:45.360 --> 00:40:50.700
diesem System arbeiten können. Ja, das ist
aber auch nur ein Teil, der getan werden
00:40:50.700 --> 00:40:55.020
muss. Und Teil dieser Fortbildung ist
natürlich nicht nur, dass es darum geht,
00:40:55.020 --> 00:40:59.040
wie diese Systeme angewendet werden,
sondern es braucht ein tiefes Verständnis
00:40:59.040 --> 00:41:04.410
einfach von KI als soziotechnisches
System. Und es braucht das schöne
00:41:04.410 --> 00:41:10.680
Stichwort Data Literacy. Das heißt, ein
Verständnis dafür zu entwickeln, was Daten
00:41:10.680 --> 00:41:16.560
überhaupt aussagen und aber vor allem
anderen eigentlich braucht es auf der ganz
00:41:16.560 --> 00:41:20.640
individuellen Ebene immer noch ganz viel
Fortbildung, was überhaupt das Thema
00:41:20.640 --> 00:41:26.220
Digitalisierung betrifft und auch der
damit verbundene Kulturwandel. Überhaupt,
00:41:26.220 --> 00:41:32.670
sich zu öffnen, um Informationen oder auch
Inhalte zu teilen, um eine gewisse
00:41:32.670 --> 00:41:37.170
Fehlerkultur zu entwickeln. All das ist ja
gerade noch im Umbruch. Und wenn wir jetzt
00:41:37.170 --> 00:41:40.680
davon reden, dass wir KI-Systeme an den
Schulen wollen oder dass es gefördert
00:41:40.680 --> 00:41:44.820
werden soll, dann habe ich manchmal das
Gefühl, wir wollen einem Kind, das gerade
00:41:44.820 --> 00:41:48.750
das Fahrradfahren gelernt hat, wollen wir
jetzt in einen Rennwagen setzen, weil es
00:41:48.750 --> 00:41:52.560
damit ja noch sicherer zur Schule kommt.
Das passiert alles in einem sehr, sehr
00:41:52.560 --> 00:41:57.900
großen Tempo, das nicht damit erledigt
werden sollte, dass wir uns einfach nur
00:41:57.900 --> 00:42:01.250
darauf zurücklehnen und sagen, Lehrkräfte
müssen sich weiterbilden und dann können
00:42:01.250 --> 00:42:04.860
sie auch KI-Systeme in der Schule
einsetzen. Die Eltern habe ich jetzt
00:42:04.860 --> 00:42:07.950
nochmal in Klammern gesetzt. Davon
ausgehend, dass wir es vielleicht wirklich
00:42:07.950 --> 00:42:11.370
schaffen, unsere Forschungs- und
Entwicklungsschwerpunkte mehr auf die
00:42:11.370 --> 00:42:15.540
Makro und auf die Meso Ebene zu legen und
weniger auf die Schüler basierten Systeme.
00:42:15.540 --> 00:42:20.460
auf der Organisationsebene, also dort wo
entschieden wird. Letztendlich kommt ein
00:42:20.460 --> 00:42:25.290
KI System zum Einsatz - Ja oder nein. Das
ist die Schulleitung oder das Schulträger
00:42:25.290 --> 00:42:30.150
oder vielleicht auch Bundesländer. Muss
natürlich als allererstes mal hinterfragt
00:42:30.150 --> 00:42:33.660
werden. Wozu brauche ich das System? Ich
habe es eben schon angesprochen. Wenn wir
00:42:33.660 --> 00:42:37.150
ein soziales Problem an der Schule
feststellen, ist ein technisches System
00:42:37.150 --> 00:42:41.500
tatsächlich dafür die Lösung? Oder sollten
wir vielleicht eher auf der sozialen Ebene
00:42:41.500 --> 00:42:45.640
nochmal schauen, was wir vielleicht an
unseren Lernzielen oder an unseren
00:42:45.640 --> 00:42:49.210
Methoden oder an unserer
Organisationskultur verändern müssen?
00:42:49.210 --> 00:42:53.680
Selbst wenn wir uns entscheiden für ein
technisches System, dann muss natürlich
00:42:53.680 --> 00:42:57.910
entsprechend die Infrastruktur gegeben
sein. Das heißt, die Frage ist: Wo werden
00:42:57.910 --> 00:43:01.990
Daten, mit denen gearbeitet wird? Wo
werden sie gespeichert? Sind sie dort
00:43:01.990 --> 00:43:05.920
überhaupt sicher genug? Haben wir
überhaupt WLAN an den Schule, damit dort
00:43:05.920 --> 00:43:10.240
vor Ort gearbeitet werden kann? All diese
Fragen. Natürlich braucht es auch auf der
00:43:10.240 --> 00:43:14.440
Entscheidungsebene Kompetenzen. Es braucht
den Kulturwandel und überhaupt erst einmal
00:43:14.440 --> 00:43:19.750
die Grundlagen der Digitalisierung, bevor
wir mit KI die nächsten Stufe gehen. Wir
00:43:19.750 --> 00:43:23.950
brauchen die Regelung zur menschlichen
Entscheidungsfähigkeit tatsächlich auch in
00:43:23.950 --> 00:43:29.980
den Arbeitsverträgen und wie auch in
anderen Verwaltungsbereichen auch sollte
00:43:29.980 --> 00:43:33.820
es auch im Bildungsbereich einfach ganz
klare Beschaffungsrichtlinien geben. Wenn
00:43:33.820 --> 00:43:38.920
Systeme angeschafft werden, dann braucht
es ganz klare Anforderungskataloge, wie
00:43:38.920 --> 00:43:44.860
diese Systeme gestaltet werden sollen. Und
natürlich muss sich dann auch der Bund
00:43:44.860 --> 00:43:50.410
entscheiden, Förderungen in die richtige
Richtung zu schicken und diese Systeme zu
00:43:50.410 --> 00:43:54.910
fördern und zu unterstützen, die sich auf
die Meso- und Makroebene fokussieren und
00:43:54.910 --> 00:44:02.050
nicht die Attack Startups, die versuchen,
das Lernerlebnis für Schüler zu
00:44:02.050 --> 00:44:06.250
verbessern, obwohl es dafür keine Evidenz
gibt, werde ich auch nicht müde, das immer
00:44:06.250 --> 00:44:11.200
wieder zu wiederholen. Und dann haben wir
natürlich auf der rechtlichen Ebene noch
00:44:11.200 --> 00:44:14.800
viele offene Fragen, die KI-Systeme im
Allgemeinen betreffen und gar nicht
00:44:14.800 --> 00:44:19.360
unbedingt nur auf den Bildungssektor
Anwendung finden. Und das ist einmal die
00:44:19.360 --> 00:44:24.070
Problematik der Nachvollziehbarkeit. Also
solange KI-Systeme an sich selber nicht
00:44:24.070 --> 00:44:27.700
nachvollziehbar sind, müssen zumindest
Schnittstellen geschaffen werden, dass
00:44:27.700 --> 00:44:32.980
Evualator:innen oder Forscher:innen
zumindest reingucken können, was das
00:44:32.980 --> 00:44:38.020
System überhaupt macht. Wir brauchen eine
Nachweisbarkeit, dass diese Systeme
00:44:38.020 --> 00:44:42.790
funktionieren, erst recht, wenn wir mit
Schüler:innen an Daten arbeiten wollen. Und
00:44:42.790 --> 00:44:48.340
wir brauchen eine Kritikalität ex ante.
Wir reden hier vom Bildungssektor. Dort
00:44:48.340 --> 00:44:52.300
werden Lebenswege vorbestimmt. Das ist
nicht der Raum, um Experimente zu machen
00:44:52.300 --> 00:44:56.590
und mal Systeme loszulassen, laufen zu
lassen und dann mal zu gucken, welche
00:44:56.590 --> 00:45:01.000
Probleme sie eventuell entwickeln. Wir
haben aus dem Ausland jetzt schon genügend
00:45:01.000 --> 00:45:04.870
Beispiele, was nicht gut funktioniert. Ich
wäre kein Fan davon, wenn wir das Ganze
00:45:04.870 --> 00:45:09.790
hier in Deutschland nochmal wiederholen
wollen. Eigentlich nicht nötig, das zu
00:45:09.790 --> 00:45:12.190
sagen, aber es braucht letztendlich auch
eine rechtlich bindende
00:45:12.190 --> 00:45:17.470
Anbieterstabilität. Es gab tatsächlich,
ich glaube auch in den USA, das System
00:45:17.470 --> 00:45:21.760
inBlue. Das wurde überall ausgerollt und
eingesetzt. Und dann irgendwann hat der
00:45:21.760 --> 00:45:25.390
Anbieter entschieden, seine Dienste
einzustellen. Was aus den Daten geworden
00:45:25.390 --> 00:45:31.270
ist bis dahin weiß letztendlich kein
Mensch. Das ganze Thema Offenheit sollte
00:45:31.270 --> 00:45:35.230
gerade bei KI Entwicklung im
Bildungssektor viel, viel stärker auch
00:45:35.230 --> 00:45:41.883
eingefordert und verankert werden. Das
heißt, auch KI-Systeme sollten wie Open-
00:45:41.883 --> 00:45:47.710
Source-Software behandelt werden, als
OpenAI z.B. stärker mitgefördert werden. Wir
00:45:47.710 --> 00:45:54.400
müssen viel stärker entwickeln im Bereich
OER Open Data, um dann diese ganzen Daten,
00:45:54.400 --> 00:45:59.740
die wir im Lern-Kontext dann auch sammeln,
wiederum als Open Educational Data, also
00:45:59.740 --> 00:46:05.380
als OED auch wieder zur Verfügung zu
stellen. Ohne offene Datenbasis kommen wir
00:46:05.380 --> 00:46:10.810
da nicht hin. Sehr charmant finde ich auch
die Idee der öffentlichen Register. Dort
00:46:10.810 --> 00:46:14.770
sollten sich auch KI-Systeme im
Bildungsbereich eintragen lassen. Und was
00:46:14.770 --> 00:46:19.480
auf jeden Fall passieren muss, ist die
Überarbeitung des Artikels 22 der DSGVO.
00:46:19.480 --> 00:46:24.040
Dort werden im Moment ja nur
Entscheidungen geregelt,
00:46:25.060 --> 00:46:29.950
vollautomatisierte Entscheidungen sind
dort geregelt. Was nicht geregelt ist,
00:46:29.950 --> 00:46:34.630
sind teilautomatisierte Systeme und
teilautomatisierte Systeme sind ja die, die
00:46:34.630 --> 00:46:38.170
jetzt eigentlich weitestgehend im Einsatz
sind. Und wenn wir auch da wieder im
00:46:38.170 --> 00:46:41.470
Hinterkopf haben, dass ja als Argument
immer noch gilt: Der Mensch trifft die
00:46:41.470 --> 00:46:45.160
letzte Entscheidung, werden wir es auch
zukünftig verstärkt mit teil-
00:46:45.160 --> 00:46:49.840
automatisierten System zu tun haben. Und
dort müssen Einspruchsrechte und
00:46:49.840 --> 00:46:55.370
Widerspruchsrechte einfach noch klarer
geregelt werden. Ach nee, bevor ich zu
00:46:55.370 --> 00:47:00.380
meinem Fazit komme, möchte ich nochmal auf
die lange Kette der Verantwortlichkeit
00:47:00.380 --> 00:47:05.540
auch nochmal eingehen. Wenn Systeme
tatsächlich ausgewählt werden, müssen
00:47:05.540 --> 00:47:11.360
Entscheider in der Lage sein, auch diese
Systeme zu beurteilen. Und in ganz, ganz
00:47:11.360 --> 00:47:16.100
grober Anlehnung an diese lange Kette der
Verantwortlichkeit von Katharina Zweig und
00:47:16.100 --> 00:47:21.470
Tobias Kraft sollte es mit in einen
Anforderungskatalog und sollte es mit in
00:47:21.470 --> 00:47:26.090
den Kompetenzkatalog von all denjenigen,
die dazu entscheiden, dass sie in der Lage
00:47:26.090 --> 00:47:30.620
sind, zu hinterfragen und zu prüfen.
Aufgrund von welcher Datenbasis wurde ein
00:47:30.620 --> 00:47:35.000
System trainiert, also welche Qualität,
welche Quantität? Wie alt sind die Daten?
00:47:35.000 --> 00:47:39.530
Passen sie überhaupt zum Trainingszweck?
Dann letztendlich auch nach welchen
00:47:39.530 --> 00:47:45.500
Maßgaben wurde das System trainiert? Ganz
ganz wichtig ist ja auch ein KI-System,
00:47:45.500 --> 00:47:48.950
das einmal für einen bestimmten Zweck
trainiert wurde, ist nicht unbedingt
00:47:48.950 --> 00:47:52.430
günstig in einem ganz anderen
Anwendungskontext. Gerade im
00:47:52.430 --> 00:47:55.850
Bildungsbereich, wenn damit geworben wird,
dass bei Übersetzungssystemen oder
00:47:55.850 --> 00:48:00.080
Spracherkennungssystemen das es ja ganz
ganz tolle Software as a Service Systeme
00:48:00.080 --> 00:48:04.250
schon gibt, die quasi von der Stange
gekauft werden können, muss immer noch
00:48:04.250 --> 00:48:08.000
hinterfragt werden: Passt das tatsächlich
zu meinem Anwendungskontext? Und
00:48:08.000 --> 00:48:12.350
letztendlich passt auch dieses System zu
meinem Ethik-System, das ich bei mir an
00:48:12.350 --> 00:48:17.930
der Schule habe. Datenverwendung ist ganz,
ganz wichtig. Was passiert mit den Daten,
00:48:17.930 --> 00:48:22.490
die erhoben werden an einer Schule, auch
wenn es nur Daten von Lehrkräften sind?
00:48:22.490 --> 00:48:26.390
Gerade in dem Moment, wo es
personenbezogene Daten sind, muss einfach
00:48:26.390 --> 00:48:31.310
sichergestellt werden, dass nicht nur
rechtlich, sondern auch tatsächlich aktiv
00:48:31.310 --> 00:48:34.670
in der Anwendung ist, es überhaupt kein
Weg gibt, dass diese Daten an Stellen
00:48:34.670 --> 00:48:38.900
weitergegeben werden, wo sie nicht
hingehören. Es gibt aus den USA, auch mal
00:48:38.900 --> 00:48:46.280
wieder dort dieses Beispiel, dass Akteure
der Wissenschaftsverlagsbranche Daten von
00:48:46.280 --> 00:48:50.540
Wissenschaftlern weitergegeben haben an
die Einwanderungsbehörde ICE, was auch
00:48:50.540 --> 00:48:53.600
immer sie dort verloren haben. Aber das
sind alles Entwicklungen, die müssen
00:48:53.600 --> 00:48:58.400
ausgeschlossen sein. Ganz großer Komplex
IT-Sicherheit. Das muss sichergestellt
00:48:58.400 --> 00:49:03.740
sein. Das ist im Prinzip ein eigener
Vortrag. Dort möchte ich hier aber
00:49:03.740 --> 00:49:07.840
verweisen auf die Arbeiten der Stiftung
Neue Verantwortung, die schon ganz, ganz
00:49:07.840 --> 00:49:11.530
viel dazu untersucht und entwickelt und
auch Schaubilder gemacht haben, welche
00:49:11.530 --> 00:49:16.450
Angriffs-Vektoren es für KI-Systeme
überhaupt gibt. Und letztendlich müssen
00:49:16.450 --> 00:49:20.830
Entscheider:innen auch sicherstellen, dass es
Ressourcen gibt, um dieses Thema, wenn sie
00:49:20.830 --> 00:49:23.920
dann einmal im Einsatz sind, auch
tatsächlich dauerhaft evaluiert sind,
00:49:23.920 --> 00:49:27.550
damit sich diese ganzen Schwächen, die wir
ja kennen, nicht erst in der Praxis, dann
00:49:27.550 --> 00:49:33.520
auch noch einschleichen. Das heißt, wenn
einem bewusst wird, was es alles für
00:49:33.520 --> 00:49:37.780
Anforderungen braucht, um KI-Systeme im
Bildungssektor egal zu welchem Zweck
00:49:37.780 --> 00:49:42.940
einzusetzen, dann wird glaube ich klar,
dass das etwas ist, was noch ein sehr
00:49:42.940 --> 00:49:47.350
langer Weg ist, was nicht überhastet
angegangen werden soll und was noch sehr,
00:49:47.350 --> 00:49:51.580
sehr viel Qualifizierung und
Weiterentwicklung braucht. Und das
00:49:51.580 --> 00:49:55.960
letztendlich bringt mich jetzt zu meinem
Fazit. Bisher ist es so, dass bei KI im
00:49:55.960 --> 00:49:59.680
Bildungssektor vornehmlich darüber
gesprochen wird, dass Learning Analytics
00:49:59.680 --> 00:50:03.250
Systeme eingesetzt werden, um halt das
Lernverhalten von Schülerinnen und
00:50:03.250 --> 00:50:07.840
Schülern zu analysieren und dabei mit
personenbezogenen Daten gearbeitet wird.
00:50:07.840 --> 00:50:12.580
Letztendlich gibt es zum jetzigen
Zeitpunkt noch keine Evidenz dafür, dass
00:50:12.580 --> 00:50:15.910
diese Systeme funktionieren und dass diese
ganzen Datensammlungen auch tatsächlich
00:50:15.910 --> 00:50:19.600
sinnvoll sind. Es ist ganz, ganz viel
Marketing und vor allem auch
00:50:19.600 --> 00:50:22.990
Wirtschaftsförderung dahinter. Wenn diese
Startups jetzt in die Richtung gefördert
00:50:22.990 --> 00:50:28.060
werden und das Risiko, das damit entsteht,
wenn diese Systeme weiterhin in die
00:50:28.060 --> 00:50:31.450
Schulen gedrückt werden, ist dass die
wahren strukturellen Probleme einfach
00:50:31.450 --> 00:50:35.020
dadurch verschleiert werden und dass diese
Mangelwirtschaft einfach fortgesetzt
00:50:35.020 --> 00:50:39.040
werden und diese ganzen Potenziale, die KI
tatsächlich mit sich bringt, diese
00:50:39.040 --> 00:50:45.190
Probleme tatsächlich mit zu lösen, dass
die einfach gar nicht gehoben werden. Das
00:50:45.190 --> 00:50:51.250
Risiko dabei ist, dass es vornehmlich
immer um personenbezogene Daten von
00:50:51.250 --> 00:50:55.540
minderjährigen Schüler:innen geht und dass
die ganzen Chancen, die wir im OpenData
00:50:55.540 --> 00:51:00.670
Bereich haben, dafür einfach weiterhin
nicht genutzt werden. Und wir haben jetzt
00:51:00.670 --> 00:51:04.900
den Zeitpunkt, wo die Weichen gestellt
werden. Ist das genau der Pfad, auf dem
00:51:04.900 --> 00:51:08.620
wir jetzt auch weitergehen wollen? Oder
wollen wir jetzt anfangen, in diese
00:51:08.620 --> 00:51:13.600
Entwicklung einzugreifen und den Fokus
mehr auf die Meso- und Makroebene legen?
00:51:13.600 --> 00:51:19.510
Die EU-Kommission hat jetzt kürzlich ihren
überarbeiteten Digital Education Plan
00:51:19.510 --> 00:51:24.070
vorgestellt. Dort ist zu diesem ganzen
Thema KI vorgesehen, dass Lehrkräfte
00:51:24.070 --> 00:51:29.140
weitergebildet werden müssen. Dass es
Ethik-Leitlinien geben müssen und
00:51:29.140 --> 00:51:32.140
letztendlich auch, dass Forschung nochmal
intensiviert werden muss. Und das ist
00:51:32.140 --> 00:51:37.060
jetzt genau der Punkt, um dort reinzugehen
und die Fragen zu stellen und darauf hin
00:51:37.060 --> 00:51:42.580
zu drängen, dass in die richtige Richtung
geforscht wird. Das hat mich letztendlich
00:51:42.580 --> 00:51:48.250
in dieser ganzen Vorbereitung zu meiner
Empfehlung gebracht. In Anlehnung an diese
00:51:48.250 --> 00:51:52.360
Pyramide von der Datenethikkommissionen,
die ich eigentlich, wenn das Prinzip der
00:51:52.360 --> 00:51:56.800
Risiko-Klassifizierung diskutabel ist,
finde ich eigentlich dieses
00:51:56.800 --> 00:52:03.100
Pyramidensystem sehr gelungen. Und
übertragen auf KI-Systeme im
00:52:03.100 --> 00:52:07.900
Bildungsbereich sehe ich einen ganz, ganz
großen, grünen, unkritischen Bereich, wenn
00:52:07.900 --> 00:52:11.230
es darum geht, die Forschung und
Entwicklung auf der Makroebene weiter zu
00:52:11.230 --> 00:52:16.210
unterstützen und weiter zu fördern. Alles
unter der Nutzung von Open Data, die
00:52:16.210 --> 00:52:20.680
entweder schon vorhanden sind oder
vielleicht auch noch weiter erhoben und
00:52:20.680 --> 00:52:24.580
genutzt werden können. Das fließt
größtenteils auch noch mit rein in die
00:52:24.580 --> 00:52:29.770
Meso Ebene, die auch auf der Basis von
Open Data schon sehr sehr viel Gutes
00:52:29.770 --> 00:52:34.690
erreichen kann. Und ganz ganz oben in der
Spitze, wo ich den roten Bereich sehe, ist
00:52:34.690 --> 00:52:39.880
tatsächlich die Mikroebene, wenn es um die
Analyse-Systeme geht für Schüler:innen und
00:52:39.880 --> 00:52:44.470
für Lehrkräfte, wo mit personenbezogenen
Daten gearbeitet wird. Wenn es dort
00:52:44.470 --> 00:52:48.820
weitere Entwicklungen geben sollte, dann
würde ich es bevorzugen, wenn es dort ein
00:52:48.820 --> 00:52:52.180
Forschungsbereich gibt oder den
Anwendungsbereich vielleicht höchstens für
00:52:52.180 --> 00:52:57.940
Lehrkräfte. Aber dass wir die ganze
Analyse von Schüler:innen vielleicht
00:52:57.940 --> 00:53:01.450
erst mal noch außen vorlassen, bis wir
vielleicht viel mehr über KI-Systeme
00:53:01.450 --> 00:53:05.740
wissen und alles immer unter der
Voraussetzung, dass die Daten, die erhoben
00:53:05.740 --> 00:53:09.580
werden, dann auch weiter zur Verfügung
gestellt werden für die Generierung von
00:53:09.580 --> 00:53:16.840
Open Educational Data. Das war's. Vielen
Dank für eure Aufmerksamkeit. Alle
00:53:16.840 --> 00:53:20.590
Anregungen, um die ich gebeten habe, alle
Lücken, die ich vielleicht noch gelassen
00:53:20.590 --> 00:53:24.440
habe, oder alle Interessenten, die Lust
haben, an diesem Thema auch noch mit
00:53:24.440 --> 00:53:28.670
weiterzuarbeiten, freue ich mich total
über Kontaktaufnahme und Feedback und
00:53:28.670 --> 00:53:33.470
weitere Informationen. Ich habe hier auch
noch einen großen Anhang mit Quellen, die
00:53:33.470 --> 00:53:38.480
ich verarbeitet habe. Wenn es dazu auch
noch Rückfragen gibt, kommt jederzeit
00:53:38.480 --> 00:53:42.770
- nicht jederzeit, nich nachts um drei. Also per E-Mail
schon, aber vielleicht nicht per Telefon.
00:53:42.770 --> 00:53:46.550
Aber die habt ihr ja auch gar nicht die
Nummer - egal, kommt einfach auf mich zu.
00:53:46.550 --> 00:53:50.450
Und dann würde es mich freuen, wenn wir im
Gespräch bleiben. Vielen Dank.
00:53:50.450 --> 00:53:56.270
Herald: Hallo Nina, schön, dass du da
00:53:56.270 --> 00:54:02.270
warst. Danke für den spannenden Vortrag
grade. Wir hatten so ein bisschen
00:54:02.270 --> 00:54:05.660
technische Probleme im Hintergrund. Ich
hoffe deswegen, dass alle im Live-Stream
00:54:05.660 --> 00:54:14.450
den Talk auch gut sehen konnten. Nina, du
hast viel erzählt über KI und die Grenzen
00:54:14.450 --> 00:54:19.880
und Vorteile. Was sind denn so aus deiner
Sicht vielleicht die klugen nächsten
00:54:19.880 --> 00:54:23.540
Schritte, die man so gehen müsste? Was
künstliche Intelligenz und Klassenzimmer
00:54:23.540 --> 00:54:29.330
betrifft?
Nina: Hallo Nina, ja genau. Was sind die,
00:54:29.330 --> 00:54:33.470
was sind die nächsten Schritte? Also ich
glaube wir sind im Moment an so einer
00:54:33.470 --> 00:54:37.760
Entwicklungsphase, wo KI in der Schule und
im Bildungsbereich einfach noch nicht so
00:54:37.760 --> 00:54:40.790
wahnsinnig weit verbreitet ist. Und ich
hab das ja auch gemerkt bei meiner
00:54:40.790 --> 00:54:45.380
Recherche und auch z.B. hier, was diese
Meso-Ebene angeht. Es gibt noch nicht so
00:54:45.380 --> 00:54:50.450
extrem viele Anwendungen, wo man konkret
jetzt schon reingehen und eingreifen kann
00:54:50.450 --> 00:54:52.910
und sagen wir wollen hier eine andere
Entwicklung oder das und das muss so
00:54:52.910 --> 00:54:59.270
konkret weitergehen. Was allerdings gut an
dieser Entwicklung ist, ist eben, dass wir
00:54:59.270 --> 00:55:04.670
noch an diesem frühen Punkt sind und auch
die Möglichkeiten haben, Einfluss nehmen
00:55:04.670 --> 00:55:09.040
zu können. Habe ich da ein äh im
Hintergrund gehört? Ja okay, ich rede
00:55:09.040 --> 00:55:14.260
einfach weiter. Das heißt, nach allem, was
ich jetzt mitbekommen habe, wie sich das
00:55:14.260 --> 00:55:20.050
Thema KI in der Bildung gerade ansetzt zu
entwickeln, möchte ich eigentlich gerne so
00:55:20.050 --> 00:55:24.250
eine Art Break machen. Einen kleinen
Schnitt und nochmal hinterfragen ist der
00:55:24.250 --> 00:55:28.300
Weg, der jetzt eingeschlagen wird von den
Attack-Startups und auch von den
00:55:28.300 --> 00:55:32.200
Regierungen, ist das überhaupt der
Richtige, dass wir KI-Systeme einsetzen,
00:55:32.200 --> 00:55:38.650
um das Verhalten und Lernverhalten von
Lernenden zu analysieren? Oder wollen wir
00:55:38.650 --> 00:55:42.160
nicht nochmal überlegen, ob wir nicht die
KI-Systeme, die wir jetzt haben, dazu
00:55:42.160 --> 00:55:45.490
nutzen können, die strukturellen Probleme
im Bildungssektor anzugehen? Davon gibt es
00:55:45.490 --> 00:55:49.510
genug. Dort haben wir eine ganz andere
Datenbasis und es kann vor allem weniger
00:55:49.510 --> 00:55:54.370
Schaden angerichtet werden für die
einzelnen Personen, die analysiert werden
00:55:54.370 --> 00:55:57.940
oder dann halt auch im besten Fall gar
nicht mehr analysiert werden, weil alles,
00:55:57.940 --> 00:56:02.500
was wir aus der KI Geschichte wissen, dass
es sehr, sehr viel Schwierigkeiten gibt,
00:56:02.500 --> 00:56:06.970
sobald KI in sozialen Kontexten eingesetzt
werden. Also wenn KI-Systeme benutzt
00:56:06.970 --> 00:56:10.570
werden, um Menschen zu analysieren, jetzt
kurz auf den Punkt gebracht, dann führt
00:56:10.570 --> 00:56:14.380
das meistens zu größeren Problemen und wir
sollten in der Bildung nicht diese Fehler
00:56:14.380 --> 00:56:18.760
wiederholen.
Herald: Ja, das sind auf jeden Fall
00:56:18.760 --> 00:56:23.530
ziemlich gute Gedankenanstöße. Wir haben
leider gar nicht so richtig, richtig viel
00:56:23.530 --> 00:56:26.440
Zeit, um jetzt hier noch Fragen zu
beantworten. Ich sehe gerade im Chat auch
00:56:26.440 --> 00:56:31.330
tatsächlich keine. Ich bin aber sicher,
dass es da noch viel Gesprächsbedarf gibt.
00:56:31.330 --> 00:56:36.790
Deswegen würde ich vorschlagen, dass wir
jetzt mit dir in einen Big Blue Button
00:56:36.790 --> 00:56:38.022
umziehen.
00:56:38.022 --> 00:56:40.750
Outro Musik
00:56:40.750 --> 00:56:48.000
Untertitel erstellt von c3subtitles.de
im Jahr 2021. Mach mit und hilf uns!