1
00:00:00,000 --> 00:00:14,820
Intro Musik
2
00:00:14,820 --> 00:00:19,740
Hallo und herzlich willkommen zu meinem
Vortrag "KI im Klassenzimmer - yay oder
3
00:00:19,740 --> 00:00:24,030
nay?" Ich bin Nina, ich bin derzeit
wissenschaftliche Mitarbeiterin im Büro
4
00:00:24,030 --> 00:00:26,880
von Birke Bull-Bischoff. Sie ist die
bildungspolitische Sprecherin der
5
00:00:26,880 --> 00:00:30,990
Linksfraktion im Bundestag. Die letzten
zwei Jahre habe ich auch die Enquete-
6
00:00:30,990 --> 00:00:35,310
Kommission KI im Bundestag für die Linke
mitbegleitet. Und davor habe ich auch
7
00:00:35,310 --> 00:00:38,760
schon mal im Bildungssektor gearbeitet,
sodass ich diesen Vortrag jetzt hier
8
00:00:38,760 --> 00:00:42,990
nutzen möchte, um mal alle meine
Beobachtungen zum Thema KI in der Schule
9
00:00:42,990 --> 00:00:49,230
zusammenzutragen und vor allem auch einen
Blick auf die dabei verarbeiteten Daten zu
10
00:00:49,230 --> 00:00:53,190
werfen und einen Ausblick darauf zu
schaffen, wie KI vielleicht sogar dafür
11
00:00:53,190 --> 00:00:57,420
benutzt werden kann, um strukturelle
Probleme im Bildungssektor anzugehen.
12
00:00:57,420 --> 00:01:03,150
Vorausschicken möchte ich, dass wenn ich
hier von KI rede, ich jeweils sogenannte
13
00:01:03,150 --> 00:01:07,820
schwache KI meine und mich auf Machine
Learning in als seinen Ausprägung beziehe.
14
00:01:07,820 --> 00:01:13,890
Ich möchte euch zuerst einen kleinen Überblick
geben, wie KI im Schulbereich im Moment schon
15
00:01:13,890 --> 00:01:17,700
eingesetzt werden kann. Was dabei auch
tatsächlich noch nicht so wahnsinnig gut
16
00:01:17,700 --> 00:01:21,690
läuft. Dann natürlich zeigen, was meiner
Meinung nach besser laufen könnte, welche
17
00:01:21,690 --> 00:01:25,260
Anforderungen es braucht, damit es besser
laufen kann und dann auch am Ende mit
18
00:01:25,260 --> 00:01:30,240
einer konkreten Empfehlung schließen. Als
ich mich vor ungefähr einem Jahr
19
00:01:30,240 --> 00:01:35,220
angefangen habe, mit diesem Thema vertieft
zu beschäftigen, sind mir zwei Dinge
20
00:01:35,220 --> 00:01:39,870
aufgefallen. Zum einen ist der Begriff KI
eigentlich noch nicht wirklich konkret und
21
00:01:39,870 --> 00:01:44,520
allgemein definiert und all diese KI
Anwendungen im Bildungsbereich auch noch
22
00:01:44,520 --> 00:01:49,710
nicht. Da wird also viel experimentiert
und herumgeworfen mit Learning Analytics,
23
00:01:49,710 --> 00:01:53,970
mit Tutor Systemen, intelligenten Tutor
Systemen. Das ganze unter die Oberbegriffe
24
00:01:53,970 --> 00:01:59,850
von Educational Data Mining gestellt. Das
ist wiederum teilweise die Voraussetzung
25
00:01:59,850 --> 00:02:04,710
oder steht neben dem anderen Begriff von
AIED, also Artificial Intelligence in
26
00:02:04,710 --> 00:02:11,940
Education. Also da kann man je nach Autor
und je nach Anwendungsbereich baut das
27
00:02:11,940 --> 00:02:16,080
eine auf dem anderen auf oder steht
nebeneinander oder ist eine Folge davon.
28
00:02:16,080 --> 00:02:20,250
All das ist ein Signal dafür, dass wir in
diesem Bereich tatsächlich noch sehr am
29
00:02:20,250 --> 00:02:24,200
Anfang stehen, dass das alles sehr
unstrukturiert ist. Und letztendlich ist
30
00:02:24,200 --> 00:02:28,700
auch der ganze Anbietermarkt von diesem
System noch sehr am Anfang und
31
00:02:28,700 --> 00:02:34,040
unstrukturiert. Derzeit sind es vor allem
oder eigentlich ausschließlich proprietäre
32
00:02:34,040 --> 00:02:37,550
Systeme, sodass auch teilweise Forscher
manchmal gar nicht so richtig wissen:
33
00:02:37,550 --> 00:02:42,800
Arbeitet ein System, das mit KI wirbt,
eigentlich wirklich mit KI im Sinne von
34
00:02:42,800 --> 00:02:46,560
Machine Learning oder ist es nur ein
einfacher Algorithmus ohne Lernverfahren?
35
00:02:46,560 --> 00:02:51,470
Oder wie viel Werbung und wie viel
Marketing steckt eigentlich in diesem
36
00:02:51,470 --> 00:02:56,540
Anbietersystem eigentlich wirklich
dahinter? Dann gibt es aber neben dem
37
00:02:56,540 --> 00:03:01,880
ganzen Learning Analytics Bereich, der
sich sehr konkret auf die Erhebung und
38
00:03:01,880 --> 00:03:08,480
Analyse von lernenden Daten, also zur
Verbesserung von Lernerlebnissen und
39
00:03:08,480 --> 00:03:12,680
Lernenergebnissen beschäftigt, gibt es
noch weitere Anwendungsbereiche, in denen
40
00:03:12,680 --> 00:03:17,270
KI eingesetzt wird. In den USA gibt es zum
Beispiel ein Verfahren, dass das
41
00:03:17,270 --> 00:03:23,180
Surfverhalten analysiert. Auf dieser
Keyword Liste der Risikofaktoren stehen
42
00:03:23,180 --> 00:03:28,370
dann allerdings auch Begriffe wie schwul,
queer oder Gedichtsammlung. Also selbst
43
00:03:28,370 --> 00:03:31,400
wenn wir jetzt auch von sehr intoleranten
Gesellschaften ausgehen, ist es natürlich
44
00:03:31,400 --> 00:03:34,820
überhaupt nicht zu unterstützen, dass
diese Begriffe überhaupt irgendwie
45
00:03:34,820 --> 00:03:38,450
Personen zugeordnet und im Sinne einer
Risikoprävention verwendet werden.
46
00:03:38,450 --> 00:03:43,820
Gesichtserkennung auf dem Schulgelände gab
es neben den USA auch in Europa schon. Das
47
00:03:43,820 --> 00:03:46,880
hat Schweden mal an einer Schule probiert
und die wurden dann aber nach sehr, sehr
48
00:03:46,880 --> 00:03:51,410
kurzer Zeit auf Basis der DSGVO auch schon
mit einer hohen Strafe versehen. Also
49
00:03:51,410 --> 00:03:55,670
nicht unbedingt nachahmenswert. In China
ist man da schon ein bisschen weiter und
50
00:03:55,670 --> 00:03:59,150
auch ein bisschen toleranter. Dort gibt es
Gesichtserkennung auch in der Mensa und in
51
00:03:59,150 --> 00:04:03,770
Bibliotheken, sodass dann ganz nebenbei
auch noch Ernährungsverhalten und
52
00:04:03,770 --> 00:04:09,020
Leseverhalten noch mit erfasst und
analysiert werden. Ganz besonders charmant
53
00:04:09,020 --> 00:04:13,340
ist natürlich, dass Eltern sich in
Klassenzimmerkameras auch mit einloggen
54
00:04:13,340 --> 00:04:18,620
können, um ihre Kinder dort direkt im
Unterricht damit zu beobachten. Es gibt
55
00:04:18,620 --> 00:04:21,800
zwar hier und da sogar in China
Widerstände dagegen und das finden nicht
56
00:04:21,800 --> 00:04:24,830
alle Eltern toll. Aber so wie ich das
mitbekommen habe in den letzten Monaten,
57
00:04:24,830 --> 00:04:28,820
ist die Entwicklung da wahrscheinlich eher
noch schwer aufzuhalten. Hier in
58
00:04:28,820 --> 00:04:33,230
Deutschland gibt es Forschungsprojekte, um
zum Beispiel mit einem Stift direkt beim
59
00:04:33,230 --> 00:04:38,000
Schreiben, Üben, Schreibfehler oder
Schreibschwächen rechtzeitig zu erkennen.
60
00:04:38,000 --> 00:04:42,800
Eher aus dem Hochschulbereich ist dieses
Beispiel entnommen vom KIT, wo die
61
00:04:42,800 --> 00:04:46,460
Studienabbruchswahrscheinlichkeit
berechnet wird. Je nachdem was man mit den
62
00:04:46,460 --> 00:04:49,910
Ergebnissen macht, kann das vielleicht
sogar sinnvoll sein, weil dann rechtzeitig
63
00:04:49,910 --> 00:04:54,590
Hilfestellung gegeben werden kann. Aber
wie dann einzelne Entscheider:innen mit
64
00:04:54,590 --> 00:04:57,080
solchen Ergebnissen umgehen, das steht
natürlich nochmal auf einem ganz anderen
65
00:04:57,080 --> 00:05:03,560
Blatt. Und dann wird am DFKI und auch in
der Universität von Tübingen an
66
00:05:03,560 --> 00:05:10,190
intelligenten Schulbüchern geforscht, die
auch mit Daten arbeiten aus iTrackern, EEG
67
00:05:10,190 --> 00:05:13,910
Messung und sogar aus der
Nasentemperaturmessung. Dabei wird davon
68
00:05:13,910 --> 00:05:19,040
ausgegangen, dass wenn die Nasentemperatur
fällt, davon auszugehen ist, dass einem
69
00:05:19,040 --> 00:05:25,400
Lernenden bei seinem Lernstoff gerade
Schwierigkeiten begegnen und das würde
70
00:05:25,400 --> 00:05:29,480
dann letztendlich in einer perfekten
intelligenten Schulbuchversion dazu
71
00:05:29,480 --> 00:05:33,650
führen, dass ihnen noch ergänzende andere
Inhalte angezeigt werden oder vielleicht
72
00:05:33,650 --> 00:05:38,000
irgendwie der ganze Lernpfad dann in
Zukunft anders aufgebaut wird. Ich bin
73
00:05:38,000 --> 00:05:45,470
sehr gespannt, ob diese System Entwicklung
jetzt auch im Pandemiewinter Daten erhebt,
74
00:05:45,470 --> 00:05:50,450
wo wahrscheinlich jeder Schüler zu jeder
Zeit einfach kalte Nasen hat und was das
75
00:05:50,450 --> 00:05:54,800
letztendlich für die Lernpfadentwicklung
bedeutet. Aber das ist ein anderes Thema.
76
00:05:54,800 --> 00:06:00,680
Kann KI denn überhaupt im Bildungssystem
etwas Positives beitragen? Und wenn wir
77
00:06:00,680 --> 00:06:03,920
uns die Stärken von KI angucken, dann
sieht es auf den ersten Blick tatsächlich
78
00:06:03,920 --> 00:06:08,150
so aus, als wäre das eigentlich gar keine
so schlechte Idee. Gerade im Bereich der
79
00:06:08,150 --> 00:06:12,170
Spracherkennung oder Übersetzungssysteme
mit allen Schwächen, die damit
80
00:06:12,170 --> 00:06:17,600
einhergehen, kann es tatsächlich dazu
beitragen, dass Integration oder auch
81
00:06:17,600 --> 00:06:23,870
Inklusion an Schulen einfach erleichtert
werden im Sinne von ergänzt werden. Wenn
82
00:06:23,870 --> 00:06:28,550
Systeme gut gemacht sind, können sie
zumindest kurzfristig immerhin auch die
83
00:06:28,550 --> 00:06:33,470
Motivation von Schüler:innen steigern und
können im Idealfall Lehrkräfte auch
84
00:06:33,470 --> 00:06:38,570
tatsächlich entlasten. Das wäre alles
total wunderschön, wenn es nicht auch
85
00:06:38,570 --> 00:06:44,360
Schwächen im KI-System gibt, die euch alle
sicherlich total vertraut sind. Die
86
00:06:44,360 --> 00:06:48,410
Qualität eines KI-Systems bemisst sich vor
allem nach der Datenbasis. Garbage in
87
00:06:48,410 --> 00:06:53,480
garbage out, wie man so schön sagt. Und
viele Daten im Bildungsprozess, der ja ein
88
00:06:53,480 --> 00:06:57,020
sozialer Prozess ist, der ist vielleicht
gar nicht unbedingt optimal
89
00:06:57,020 --> 00:07:00,890
operationalisierbar, d.h. da stellt sich
immer noch die große Frage: Welche Daten
90
00:07:00,890 --> 00:07:05,630
können überhaupt erfasst werden und wie
können sie überhaupt sinnvoll analysiert
91
00:07:05,630 --> 00:07:11,450
werden? Lerndaten betreffend MINT-Fächer,
die auf Logik basiert sind, eignen sich
92
00:07:11,450 --> 00:07:16,190
dafür sicherlich besser als zum Beispiel
die sogenannten 4K Kompetenzen, also
93
00:07:16,190 --> 00:07:20,510
Kollaboration, Kreativität zum Beispiel.
Wie will man sowas messen und wie will man
94
00:07:20,510 --> 00:07:27,320
sowas in Operationalisierbarkeit pressen?
Das steht noch im Raum. Dann haben wir
95
00:07:27,320 --> 00:07:30,680
natürlich auch im Bildungsbereich die
üblichen Probleme mit der
96
00:07:30,680 --> 00:07:35,600
Nachvollziehbarkeit und mit der
Erklärbarkeit und die Risiken von
97
00:07:35,600 --> 00:07:40,940
Verzerrungen. Auch nicht ganz unwichtig
ist die Problematik, dass eine Korrelation
98
00:07:40,940 --> 00:07:45,290
noch keine Kausalität mit sich bringt.
Also hier nochmal das Beispiel mit der
99
00:07:45,290 --> 00:07:49,400
Nase und Temperatur. Es kann ganz viele
verschiedene Gründe haben, warum
100
00:07:49,400 --> 00:07:55,130
Gehirnströme gerade einen bestimmten Weg
nehmen, warum Körpertemperatur sich
101
00:07:55,130 --> 00:08:00,650
verändern oder warum sich Augenbewegungen
entweder direkt bei einem Lerninhalten
102
00:08:00,650 --> 00:08:04,430
oder auch im Raum bewegen. Das hat alles
nicht zwangsläufig was mit dem
103
00:08:04,430 --> 00:08:09,350
Lerninhalten oder mit der Lernatmosphäre
zu tun. Bei all meinen Recherchen für
104
00:08:09,350 --> 00:08:12,710
diesen Vortrag habe ich immer ganz
explizit gefragt: Gibt es denn Beweise
105
00:08:12,710 --> 00:08:16,550
dafür überhaupt, dass diese KI-Systeme
vielleicht auch gut funktionieren und den
106
00:08:16,550 --> 00:08:20,930
Lernenden tatsächlich was bringen? Aber
diese Evidenz gibt es bislang nicht. Ich
107
00:08:20,930 --> 00:08:24,800
habe interessanterweise, als kleine
Anekdote am Rande, auf der Webseite von
108
00:08:24,800 --> 00:08:29,670
bettermarks eine Bewertung gefunden für das
System bettermarks von dem
109
00:08:29,670 --> 00:08:32,850
neurowissenschaftlichen Institut, das
unter der Leitung von Manfred Spitzer
110
00:08:32,850 --> 00:08:37,380
steht, der ist den Freunden der digitalen
Bildung vor allem dadurch bekannt, dass er
111
00:08:37,380 --> 00:08:41,310
viele Elemente der digitalen Bildung
eigentlich eher verteufelt. Aber dort wird
112
00:08:41,310 --> 00:08:44,790
auf der Website natürlich dem System
bettermarks bescheinigt, dass es einen total
113
00:08:44,790 --> 00:08:49,500
guten Lerneffekt hat. Wie gesagt, Forscher
konnten das bisher noch nicht bestätigen.
114
00:08:49,500 --> 00:08:56,400
Wenn wir nun diese KI-Systeme mit all
ihren Schwächen auf die Schulen ungebremst
115
00:08:56,400 --> 00:09:01,290
loslassen, dann kann das dazu führen, dass
wir eigentlich anstatt dieser Entlastung
116
00:09:01,290 --> 00:09:06,450
eher Überforderung produzieren, dass wir
Normierungen und Standardisierungen in
117
00:09:06,450 --> 00:09:10,020
Bereichen einführen, die vielleicht gar
nicht ohne weiteres standardisierbar sind.
118
00:09:10,020 --> 00:09:15,240
Wir können Lehrkräfte in unangenehme
Situationen bringen, wenn sie z.B. in
119
00:09:15,240 --> 00:09:18,750
einer Elternsprechstunde mit Eltern
konfrontiert sind, die nicht nur die
120
00:09:18,750 --> 00:09:21,630
Methoden des Lehrers hinterfragen. Das
machen sie ja jetzt schon häufig genug.
121
00:09:21,630 --> 00:09:25,020
Sondern dann vielleicht auch
Bewertungssysteme hinterfragen und dann
122
00:09:25,020 --> 00:09:29,760
von Lehrkräften wissen wollen: Wie kommt
denn dieses System zu dem Ergebnis oder zu
123
00:09:29,760 --> 00:09:33,120
dieser Bewertung meines Kindes? Und
Lehrkräfte so was nicht einfach erklären
124
00:09:33,120 --> 00:09:40,260
können. Größtes Problem ist natürlich,
dass alle Systeme, über die im Moment im
125
00:09:40,260 --> 00:09:43,680
Bildungssektor gesprochen wird, diese
Learning Analytics Systeme und Tutor
126
00:09:43,680 --> 00:09:48,120
Systeme, dass die mit personenbezogenen
Daten von ja größtenteils minderjährigen
127
00:09:48,120 --> 00:09:52,740
Schüler:innen arbeiten. D.h. da werden
Datensammlungen angefertigt, es werden
128
00:09:52,740 --> 00:09:57,600
Datenprofile angefertigt und das alles
unterwandert die informationelle
129
00:09:57,600 --> 00:10:03,990
Selbstbestimmung der Kinder. Selbst wenn
Eltern dieser Verwendung natürlich
130
00:10:03,990 --> 00:10:07,770
zustimmen müssen, stellt sich ja auch noch
die Frage: Wie gut sind die Eltern denn
131
00:10:07,770 --> 00:10:12,240
überhaupt informiert über all die
Konsequenzen und die Folgen, die das hat?
132
00:10:12,240 --> 00:10:16,500
Inwieweit gibt es vielleicht auch einen
gewissen sozialen Gruppenzwang in einem
133
00:10:16,500 --> 00:10:19,290
Klassenverband oder einer Schule sich
anzuschließen, auch wenn man vielleicht
134
00:10:19,290 --> 00:10:22,950
als Eltern selber gar nicht genau weiß,
was das dann eigentlich bedeutet? All das
135
00:10:22,950 --> 00:10:28,170
ist im Moment noch ein bisschen unklar.
Und das sind genau diese Punkte, über die
136
00:10:28,170 --> 00:10:32,460
meiner Meinung nach im Moment noch viel zu
wenig tatsächlich offen gesprochen wird.
137
00:10:32,460 --> 00:10:37,830
Was diese Schwäche tatsächlich in der
Praxis für Probleme mit sich bringen
138
00:10:37,830 --> 00:10:43,250
können, sehen wir auch schon in
ausländischen Anwendungen. Zum Glück muss
139
00:10:43,250 --> 00:10:47,240
man fast sagen, im Moment. Ich weiß ich,
ob ihr das mitbekommen habt. Im Sommer gab
140
00:10:47,240 --> 00:10:52,520
es diese Problematik mit dem britischen
System Ofqual. Genauso wie bei uns auch
141
00:10:52,520 --> 00:10:56,510
haben die Schulen unter der Pandemie
gelitten und es konnten bestimmte
142
00:10:56,510 --> 00:11:02,420
Prüfungen zu Abschlüssen nicht richtig gut
oder überhaupt nicht durchgeführt werden.
143
00:11:02,420 --> 00:11:05,840
D.h. Lehrkräfte wurden gebeten, doch
aufgrund von ihren persönlichen
144
00:11:05,840 --> 00:11:10,640
Einschätzung dann die Schüler mit einer
Abschlussnote zu versehen. Diese
145
00:11:10,640 --> 00:11:14,120
Abschlussnoten waren dann aber den
Behörden offensichtlich zu gut, sodass sie
146
00:11:14,120 --> 00:11:17,330
nochmal einen Algorithmus eingesetzt
haben, der das Ganze nachrechnen sollte.
147
00:11:17,330 --> 00:11:21,410
Das wiederum führte dazu, dass viele Noten
wieder abgewertet worden und die Schüler
148
00:11:21,410 --> 00:11:24,560
sich verschlechtert haben. Dagegen sind
dann natürlich die Schüler:innen wiederum auf
149
00:11:24,560 --> 00:11:28,520
die Straße gegangen und haben sich
gewehrt, sodass am Ende doch wieder die
150
00:11:28,520 --> 00:11:32,990
Beurteilung der Lehrkräfte eingesetzt
wurde. Zum Glück. Ein anderes Beispiel,
151
00:11:32,990 --> 00:11:36,590
von dem ich gelesen habe, ist das System
Edgenuity. Ich weiß jetzt nicht wie das
152
00:11:36,590 --> 00:11:40,730
richtig betont ist. Dort hat eine Mutter
festgestellt, dass die
153
00:11:40,730 --> 00:11:47,300
Textverarbeitungssysteme, die die Aufsätze
ihres Kindes bewerten sollen, viel, viel
154
00:11:47,300 --> 00:11:51,740
schlechter bewerten als frühe die
Aufsätze, die das Kind einfach ganz normal
155
00:11:51,740 --> 00:11:54,740
mit der Hand in der Schule geschrieben
hat. Und dann ist in diesem System auf den
156
00:11:54,740 --> 00:12:00,110
Grund gegangen und hat festgestellt, dass
das System vor allem bewertet anhand der
157
00:12:00,110 --> 00:12:04,400
Häufigkeit von bestimmten Stichwörtern.
Und dann hat sie versucht, einfach mal so
158
00:12:04,400 --> 00:12:08,330
als Beispiel einfach nur mit
Stichwortwolken so eine Aufsatzaufgabe zu
159
00:12:08,330 --> 00:12:14,090
erfüllen. Und tatsächlich wurden dieses
Stichwortwolken besser bewertet als ein
160
00:12:14,090 --> 00:12:18,680
komplett zusammenhängender Text. Was
natürlich, wenn man das System so weit
161
00:12:18,680 --> 00:12:22,820
einmal verstanden und geknackt hat,
relativ leicht ist, solche Aufgaben zu
162
00:12:22,820 --> 00:12:26,510
bestehen, aber natürlich überhaupt gar
keinen Bildungseffekt mehr mit sich
163
00:12:26,510 --> 00:12:32,660
bringt. Auch eher aus dem Hochschulbereich
sind diese Testverfahren Proctorio und
164
00:12:32,660 --> 00:12:37,730
ExamSoft bekannt, sollen hier an dieser
Stelle aber trotzdem angesprochen werden.
165
00:12:37,730 --> 00:12:41,300
Einfach um schon mal aufzuzeigen, welche
Probleme damit einhergehen, bevor wir auf
166
00:12:41,300 --> 00:12:45,500
die Idee kommen, sie vielleicht auch an
den Schulen einzusetzen. Diese Systeme
167
00:12:45,500 --> 00:12:51,730
arbeiten vor allem mit Kameraüberwachung,
aber auch mit Geräuschanalysen und mit
168
00:12:51,730 --> 00:12:56,740
Bewegungsanalysen, um daraus Rückschlüsse
zu ziehen, ob ein Prüfling gerade versucht
169
00:12:56,740 --> 00:13:02,440
zu täuschen. Und diese Systeme haben jetzt
schon in der Praxis verschiedene Probleme
170
00:13:02,440 --> 00:13:06,490
aufgezeigt. Also das ganz typische
Problem, was wir ja schon in anderen
171
00:13:06,490 --> 00:13:10,810
Kamerakontexten kennen bei People of
Color. Sie werden dann von der Kamera
172
00:13:10,810 --> 00:13:16,000
nicht erkannt, werden dann gebeten noch
zusätzliche Lichtquellen einzusetzen. Dann
173
00:13:16,000 --> 00:13:19,450
kann das tatsächlich dazu führen, dass
Menschen diskriminiert werden, die in
174
00:13:19,450 --> 00:13:23,620
beengten Verhältnissen in einer WG wohnen
oder vielleicht noch Kinder um sich haben,
175
00:13:23,620 --> 00:13:27,850
weil dann unbekannte Geräusche Quellen
auftauchen, die ein System vielleicht als
176
00:13:27,850 --> 00:13:31,510
Täuschungsversuch oder als
Unterstützerperson klassifizieren kann.
177
00:13:31,510 --> 00:13:37,600
Aber auch gesundheitlich beeinträchtigte
Menschen sind zusätzlich belastet, einfach
178
00:13:37,600 --> 00:13:41,530
weil sie angeben müssen, dass sie
vielleicht häufiger mal ins Bad müssen
179
00:13:41,530 --> 00:13:46,180
oder dass sie eine Insulinpumpe tragen,
einfach damit das System von bestimmten
180
00:13:46,180 --> 00:13:50,560
Signalen also z.B. nicht irritiert ist.
Also all das führt dazu, dass Menschen
181
00:13:50,560 --> 00:13:56,320
gezwungen werden, Dinge offenzulegen und
vor allem diese Daten auch in Datenbanken
182
00:13:56,320 --> 00:13:59,290
mit erfasst werden, die eigentlich sehr
persönlich und sehr privat sind und mit
183
00:13:59,290 --> 00:14:03,610
einem Prüfergebnisse überhaupt gar nichts
zu tun haben. Hier in Deutschland kennen
184
00:14:03,610 --> 00:14:06,850
wir alle oder die meisten von euch
wahrscheinlich diese Anwendung Duolingo
185
00:14:06,850 --> 00:14:12,010
zum Vokabel- oder zum Sprachtraining.
Duolingo hat auch ein Englisch Test
186
00:14:12,010 --> 00:14:16,300
aufgelegt, der auch online absolviert
werden kann und auch dort wird mit
187
00:14:16,300 --> 00:14:23,800
Kamerasystem gearbeitet und ich habe bei
einer Forschung nachgelesen, dass
188
00:14:23,800 --> 00:14:27,400
Forschenden dann versucht haben, da auch
mal auf den Grund zu gehen, ob Duolingo
189
00:14:27,400 --> 00:14:30,910
denn ausschließen kann, dass diese
bekannten Systeme bei Duolingo nicht
190
00:14:30,910 --> 00:14:35,050
auftauchen. Also diese Diskriminierungen
nicht passieren können oder auch z.B.
191
00:14:35,050 --> 00:14:39,760
Diskriminierung aufgrund von Akzenten
nicht automatisch als fehlerhaft
192
00:14:39,760 --> 00:14:43,690
eingestuft werden. Und leider konnte
zumindest zu dem Zeitpunkt der Befragung
193
00:14:43,690 --> 00:14:48,910
Duolingo diese Diskriminierung nicht
ausschließen. Ein System, über das ich
194
00:14:48,910 --> 00:14:53,650
gestolpert bin bei meiner Recherche ist
DyRiAS. Ich habe leider noch nicht
195
00:14:53,650 --> 00:14:58,480
herausgefunden, ob Schulen überhaupt damit
arbeiten. Und wenn ja, wie viele. Wenn ihr
196
00:14:58,480 --> 00:15:01,900
was über dieses System und seine Anwendung
wisst, bin ich für sachdienliche Hinweise
197
00:15:01,900 --> 00:15:06,580
total dankbar. Was ich darüber gelesen
habe ist, dass DyRiAS ist ein
198
00:15:06,580 --> 00:15:12,970
Risikoanalysesystem, was unter anderem
auch genutzt werden kann, um ein Risiko
199
00:15:12,970 --> 00:15:17,530
für häusliche Gewalt zu identifizieren. Es
wird auch in der Schule angewendet, sodass
200
00:15:17,530 --> 00:15:22,840
Lehrkräfte nach einer Schulung und wenn
sie eine Lizenz erworben haben, mit diesem
201
00:15:22,840 --> 00:15:28,450
System erkennen können, ob Schüler:innen
demnächst vielleicht mal Amok laufen. Und
202
00:15:28,450 --> 00:15:35,050
dazu werden Kommunikationsverhalten und
Verhaltensweisen analysiert. Wie genau das
203
00:15:35,050 --> 00:15:37,660
System funktioniert, wie gesagt, weiß ich
im Detail nicht. Da werde ich aber
204
00:15:37,660 --> 00:15:42,130
sicherlich nochmal in Zukunft etwas tiefer
einsteigen, um das zu verstehen. Weil mich
205
00:15:42,130 --> 00:15:47,440
das sehr irritiert. Im Ergebnis bekommen
Lehrkräfte dann so einen farblichen
206
00:15:47,440 --> 00:15:52,780
Balken. Das ist also ein original
Screenshot aus der Broschüre. Und
207
00:15:52,780 --> 00:15:56,860
vollkommen unklar ist für mich tatsächlich
auch, was genau passiert oder wer Zugang
208
00:15:56,860 --> 00:16:00,700
zu diesen Daten hat. Wenn dann ein Kind
tatsächlich immer weiter in diesen roten
209
00:16:00,700 --> 00:16:05,110
Bereich rutscht. Was heißt überhaupt roter
Bereich und bedeutet das höchste Warnstufe
210
00:16:05,110 --> 00:16:11,470
oder bedeutet Stufe 5 schon, hier musst du
eigentlich sofort die Polizei rufen. Dazu
211
00:16:11,470 --> 00:16:15,250
kommt noch, dass die Daten, die für dieses
System erfasst werden, dass die
212
00:16:15,250 --> 00:16:21,910
browserbasiert, verarbeitet werden.
Immerhin verschlüsselt. Weiteres halbwegs
213
00:16:21,910 --> 00:16:25,150
beruhigendes Signal ist, das DyRiAS in
seiner Broschüre zumindest darauf
214
00:16:25,150 --> 00:16:29,800
hinweist, dass die Nutzung von
gewaltorientierten Computerspielen oder
215
00:16:29,800 --> 00:16:33,520
auch das Tragen eines Irokesenschnitt zum
Beispiel keine Indikatoren seien für eine
216
00:16:33,520 --> 00:16:37,030
erhöhte Gewaltbereitschaft. Aber wie
gesagt, da werde ich mich auf jeden Fall
217
00:16:37,030 --> 00:16:40,930
nochmal weiter informieren wollen, wie
dieses System genau in der Praxis
218
00:16:40,930 --> 00:16:46,450
arbeitet. Und letztendlich ist es auch mal
sehr interessant zu wissen, was passiert
219
00:16:46,450 --> 00:16:50,440
dann eigentlich mit diesem
Farbskalasystem. In der ganzen
220
00:16:50,440 --> 00:16:55,210
Beschäftigung mit KI in den letzten zwei
Jahren hat sich bei uns im Fraktionsteam
221
00:16:55,210 --> 00:16:59,500
irgendwann mal diese Frage aufgedrängt,
was es denn überhaupt mit den Menschen
222
00:16:59,500 --> 00:17:04,140
macht, die mit solchen KI-Systeme
arbeiten. Und es wird immer so ein
223
00:17:04,140 --> 00:17:08,610
bisschen als beruhigendes, ja sozusagen
als so eine Art Feigenblatt ganz oft
224
00:17:08,610 --> 00:17:13,320
erwähnt. Naja, am Ende die letzte
Entscheidung trifft ja der Mensch. Aber
225
00:17:13,320 --> 00:17:16,800
was bedeutet das eigentlich? Weil für uns
hat dann tatsächlich an der Stelle diese
226
00:17:16,800 --> 00:17:20,910
Debatte nicht aufgehört, sondern erst
angefangen. Weil die Frage ist dann:
227
00:17:20,910 --> 00:17:25,740
Welche Verantwortung kann ein Mensch dann
überhaupt für seine Entscheidung
228
00:17:25,740 --> 00:17:30,000
übernehmen und wenn er tatsächlich diese
Entscheidung treffen soll, ist er
229
00:17:30,000 --> 00:17:32,610
überhaupt dazu befähigt, diese
Entscheidung zu treffen? Einmal
230
00:17:32,610 --> 00:17:37,710
tatsächlich kognitiv - weiß er überhaupt,
wie das System funktioniert? Kann er
231
00:17:37,710 --> 00:17:41,760
einschätzen, wenn eine Klassifizierung
oder eine Entscheidungsvorbereitung
232
00:17:41,760 --> 00:17:45,780
vorgenommen oder vielleicht sogar eine
Entscheidung getroffen wird? Kann er
233
00:17:45,780 --> 00:17:51,450
überhaupt erkennen, ob diese Entscheidung
des Systems richtig ist in seinem Sinne
234
00:17:51,450 --> 00:17:55,620
oder ob er vielleicht sich dagegen
entscheiden sollte? Und selbst wenn er
235
00:17:55,620 --> 00:17:59,910
sich entscheidet, sich dagegen zu
entscheiden, ist er überhaupt dazu
236
00:17:59,910 --> 00:18:03,570
berechtigt aufgrund von seiner Rolle in
der Organisation? Es gibt Organisationen,
237
00:18:03,570 --> 00:18:07,200
da wird es ja vielleicht durchaus
erwartet, dass er eigenmächtig entscheidet
238
00:18:07,200 --> 00:18:10,260
und dann gibt es andere
Organisationsformen, wo es genau von ihm
239
00:18:10,260 --> 00:18:14,340
erwartet wird, sich nicht eigenmächtig zu
entscheiden. Das betrifft jetzt alles
240
00:18:14,340 --> 00:18:22,590
nicht nur den Bereich Bildung, sondern
insgesamt soziale Kontexte im Einsatz von
241
00:18:22,590 --> 00:18:27,210
KI-Systemne. Eine grundsätzliche Frage, die
wir uns stellen müssen in allen
242
00:18:27,210 --> 00:18:30,450
Anwendungssektoren ist: Wer entscheidet
denn überhaupt besser der Mensch oder die
243
00:18:30,450 --> 00:18:34,770
Maschine? Und nach welchen Gütekriterien
wird das entschieden? Im Bildungsbereich
244
00:18:34,770 --> 00:18:39,450
gibt es ja durchaus die Meinung, dass es
heißt, lieber sollen Schüler von scheinbar
245
00:18:39,450 --> 00:18:44,370
neutralen Systemen bewertet werden als von
vorurteilsbelasteten Menschen. Aber auch
246
00:18:44,370 --> 00:18:49,080
ein System ist natürlich niemals neutral.
Und auch selbst wenn ein Mensch mit
247
00:18:49,080 --> 00:18:54,090
Vorurteilen belastet ist, hat er trotzdem
nur einen relativ kleinen
248
00:18:54,090 --> 00:18:58,560
Entscheidungsspielraum. Wenn hingegen für
Bewertungsverfahren Systeme eingesetzt
249
00:18:58,560 --> 00:19:02,010
werden, dann wirken sie direkt auf die
ganze Schule oder im schlechtesten Fall
250
00:19:02,010 --> 00:19:07,350
vielleicht sogar für das ganze Land. Und
auch wenn wir uns dafür entscheiden, dass
251
00:19:07,350 --> 00:19:12,630
Entscheidungen an Maschinen ausgelagert
werden soll, um Schaden zu vermeiden, ist
252
00:19:12,630 --> 00:19:15,270
auch die Frage: Wodurch entsteht denn
überhaupt ein Schaden? Entsteht ein
253
00:19:15,270 --> 00:19:20,550
Schaden durch ein richtig funktionierendes
System, das dann aber langfristig
254
00:19:20,550 --> 00:19:26,160
gesellschaftliche Schäden mit sich bringt?
Oder entsteht ein Schaden durch ein nicht
255
00:19:26,160 --> 00:19:31,050
gut funktionierendes System oder nicht wie
erwartet funktionierendes System? Und
256
00:19:31,050 --> 00:19:35,340
entstehen Schäden eigentlich nur durch Tun
oder entstehen Schäden auch durch
257
00:19:35,340 --> 00:19:40,260
Unterlassung? Das heißt bezogen auf diese
Entscheidung: Wer entscheidet besser,
258
00:19:40,260 --> 00:19:44,430
Mensch oder Maschine? Müssen all diese
Aspekte mit betrachtet werden. Und auch
259
00:19:44,430 --> 00:19:48,360
der Verzicht auf ein maschinelles System,
das vielleicht irgendwann nachweislich
260
00:19:48,360 --> 00:19:54,600
einen positiven Effekt hat, kann
tatsächlich zu einem Schaden führen. Wenn
261
00:19:54,600 --> 00:19:59,460
wir uns dann dafür entschieden haben, dass
wir ein KI System ergänzend einsetzen wollen
262
00:19:59,460 --> 00:20:03,480
in einem bestimmten Anwendungssektor, dann
muss als nächstes entschieden werden: Wie
263
00:20:03,480 --> 00:20:06,930
viel Entscheidungsspielraum soll der
Mensch dann überhaupt noch haben, wenn es
264
00:20:06,930 --> 00:20:11,220
heißt: Am Schluss trifft der Mensch die
letzte Entscheidung? Die Papiere von der
265
00:20:11,220 --> 00:20:15,600
EU-Kommission zum Beispiel gehen im Moment
von drei verschiedenen Stufen aus. Human
266
00:20:15,600 --> 00:20:20,760
in Command, Human on Command und Human in
the Loop. Aber es gibt schon aus der
267
00:20:20,760 --> 00:20:24,480
Informatik viel ältere
Klassifizierungssysteme, die viel
268
00:20:24,480 --> 00:20:29,910
ausgefeilter sind, z.B. vom MIT aus den
1980er Jahren, die bis zu zehn Stufen
269
00:20:29,910 --> 00:20:34,890
unterscheiden, in denen verschiedene
Autonomiegrade vom Menschen bis zur
270
00:20:34,890 --> 00:20:38,880
Maschine einmal durchlaufen werden, also
von der vollständigen Autonomie für den
271
00:20:38,880 --> 00:20:43,920
Menschen bis hin zur vollständigen
Autonomie durch die Maschine. Das heißt,
272
00:20:43,920 --> 00:20:49,140
da ist dieser, diese Aussage, die
menschliche, die letzte Entscheidung
273
00:20:49,140 --> 00:20:53,790
trifft der Mensch ist noch so viel
wahnsinnig vielen Fragen unterworfen und
274
00:20:53,790 --> 00:20:57,960
vor allem aber, finde halte ich das für
die allerwichtigste Frage, genau diese
275
00:20:57,960 --> 00:21:00,930
Abstufungen, welchen
Entscheidungsspielraum Mensch überhaupt
276
00:21:00,930 --> 00:21:04,770
hat, weil daraus leitet sich dann
letztendlich auch ab, wie ein Mensch
277
00:21:04,770 --> 00:21:08,280
weitergebildet werden muss, mit diesem
System überhaupt zu arbeiten und welche
278
00:21:08,280 --> 00:21:11,730
Vereinbarungen er vielleicht in seinem
Arbeitsvertrag braucht, also welche Rechte
279
00:21:11,730 --> 00:21:14,700
er überhaupt hat, diesen
Entscheidungsspielraum tatsächlich
280
00:21:14,700 --> 00:21:23,720
wahrzunehmen. So, selbst wenn er diesen
Entscheidungsspielraum dann für sich
281
00:21:23,720 --> 00:21:27,080
festgelegt hat, dann ist auch noch die
Frage: Wie viel Entscheidungsspielraum
282
00:21:27,080 --> 00:21:30,829
lässt das System dann tatsächlich zu? Es
gibt in diesem ganzen Bereich Mensch-
283
00:21:30,829 --> 00:21:35,480
Maschine Interaktion derzeit noch sehr,
sehr wenig Forschung. Aber die ersten
284
00:21:35,480 --> 00:21:40,460
Forschungen, die es schon gegeben hat, die
zeigen zum Beispiel: Selbst wenn Menschen
285
00:21:40,460 --> 00:21:44,630
erkennen, dass das System gerade nicht
optimal arbeitet und sie möchten gerne in
286
00:21:44,630 --> 00:21:48,350
das System eingreifen, um einen Fehler zu
eliminieren oder eine Korrektur
287
00:21:48,350 --> 00:21:52,550
vorzunehmen und dann dabei feststellen,
dass dieser Prozess so wahnsinnig
288
00:21:52,550 --> 00:21:56,180
aufwendig und kompliziert ist, dann neigen
Menschen tatsächlich dazu, mit diesem
289
00:21:56,180 --> 00:22:00,590
fehlerhaften System trotz besseren Wissens
weiterzuarbeiten. Und das ist halt etwas,
290
00:22:00,590 --> 00:22:06,200
was wir gerade in sozialen Kontexten und
gerade in Bereichen, in denen KI-Systeme
291
00:22:06,200 --> 00:22:10,880
über das Leben oder Lebenswege von
Menschen entscheiden, einfach ganz genau
292
00:22:10,880 --> 00:22:14,390
hinschauen sollten, was es denn eigentlich
bedeutet, wenn der Mensch die letzte
293
00:22:14,390 --> 00:22:18,080
Entscheidung treffen soll. Denn am Ende
kann es tatsächlich sein, dass der
294
00:22:18,080 --> 00:22:21,830
Entscheidungsspielraum, der dort
angedeutet wird, mit dieser Aussage viel,
295
00:22:21,830 --> 00:22:25,100
viel kleiner ist als angenommen
Handlungsspielräume geklärt sind. Und
296
00:22:25,100 --> 00:22:29,210
auch, weil wir von total optimal
funktionierenden KI-System ausgehen. Dann
297
00:22:29,210 --> 00:22:32,390
ergeben sich immer noch Probleme auf der
strukturellen Ebene, sodass wir auf lange
298
00:22:32,390 --> 00:22:35,930
Sicht einfach schauen müssen: Was macht
das dann mit der Lernkultur, mit der
299
00:22:35,930 --> 00:22:40,640
Bildungskultur an Schulen? Das fängt an
bei der Erhebung von den Daten, also der
300
00:22:40,640 --> 00:22:44,990
Datafisierung von Lernprozessen. Aber ich
werde nicht müde, immer wieder zu
301
00:22:44,990 --> 00:22:48,380
wiederholen, dass wir immer noch mit
personenbezogenen Daten von größtenteils
302
00:22:48,380 --> 00:22:52,580
minderjährigen Schüler:innen arbeiten und
dass wir Kinder auch schon sehr, sehr früh
303
00:22:52,580 --> 00:22:56,180
daran gewöhnen, sich mit algorithmischen
Klassifizierungs- und Bewertungsverfahren
304
00:22:56,180 --> 00:23:00,770
auseinanderzusetzen und sich vielleicht
ihnen auch sogar zu unterwerfen, ohne dass
305
00:23:00,770 --> 00:23:05,150
sie sie aufgrund der Black-Box Problematik
vielleicht nachvollziehen können. Nächste
306
00:23:05,150 --> 00:23:09,470
Problematik ist das Ding der
Standardisierung, Operationalisierung von
307
00:23:09,470 --> 00:23:13,820
Daten. Welche Dinge werden dabei
ausgelassen? Wer bestimmt, was der
308
00:23:13,820 --> 00:23:17,600
Standard ist? Wer bestimmt, was das
normale ist? Inwieweit können diese
309
00:23:17,600 --> 00:23:21,140
Systeme überhaupt hinterfragt werden?
Welche Qualitäts- und Fairness-Maße beim
310
00:23:21,140 --> 00:23:28,190
Training, welche Feedback an diese Systeme
gegeben werden? In der Bildung gehört es
311
00:23:28,190 --> 00:23:31,310
letztendlich dazu, auch nicht
standardisierte Wege zu gehen. Hetty,
312
00:23:31,310 --> 00:23:34,100
einer der renommiertesten
Bildungsforscher, hat in seiner Studie
313
00:23:34,100 --> 00:23:38,780
Visible Learning unter anderem nochmal
herausgestellt, dass es zum einen zum
314
00:23:38,780 --> 00:23:43,370
Bildungserfolg gehört und dass es auch mit
Bildungserfolg beiträgt, wenn Schüler:innen
315
00:23:43,370 --> 00:23:48,200
befähigt werden, vorgegebene Lösungswege
aufzubrechen oder auch ihre eigenen zu
316
00:23:48,200 --> 00:23:52,520
finden. Aber durch diese ganze
Vereinzelung und durch die
317
00:23:52,520 --> 00:23:57,500
Standardisierung gehen halt einfach auch
bestimmte Möglichkeiten im Lern-Spektrum
318
00:23:57,500 --> 00:24:02,930
verloren, sodass Schüler:innen gar nicht
mit alternativen Möglichkeiten vielleicht
319
00:24:02,930 --> 00:24:06,980
mehr konfrontiert werden, um ihren
Horizont zu erweitern. Die nächste
320
00:24:06,980 --> 00:24:12,380
Problematik ist das Scheitern. Wenn ich
jetzt in einem normalen Klassenverbund
321
00:24:12,380 --> 00:24:15,740
vielleicht selber schon mal merke, ich
komme hier an meine Grenzen oder ich komme
322
00:24:15,740 --> 00:24:19,190
mit der Aufgabenstellung nicht zurecht,
dann ist das natürlich total frustrierend.
323
00:24:19,190 --> 00:24:22,580
Aber gleichzeitig gehört das auch mit zum
Bildungsprozess und zur
324
00:24:22,580 --> 00:24:27,680
Persönlichkeitsentwicklung auch dazu,
Grenzen zu erkennen, auch mit Misserfolgen
325
00:24:27,680 --> 00:24:31,520
umzugehen. Und wenn all dies ausbleibt,
dann verschieben sich diese Grenzen
326
00:24:31,520 --> 00:24:37,820
einfach viel, viel weiter nach hinten,
weil dann immer nur der Inhalt präsentiert
327
00:24:37,820 --> 00:24:44,570
wird, der geradezu meinem vom System
errechneten Lernniveau passt und ich aber
328
00:24:44,570 --> 00:24:48,320
vielleicht gar nicht mehr dazu richtig
gefordert werde, mich auch aber mit Dingen
329
00:24:48,320 --> 00:24:53,120
auseinanderzusetzen, die ich vielleicht
noch gar nicht können kann, die mich aber
330
00:24:53,120 --> 00:24:57,020
vielleicht jetzt aktuell nochmal
weiterbringen. Jetzt im Klassenverband
331
00:24:57,020 --> 00:24:59,930
gibt es zwar auch das Thema der
Binnendifferenzierung, also dass es
332
00:24:59,930 --> 00:25:03,650
unterschiedliche Inhalte idealerweise für
verschiedene Lernniveaus oder für
333
00:25:03,650 --> 00:25:08,390
verschiedene Lerntypen gibt. Aber in einem
Klassenverband gibt es immer noch die
334
00:25:08,390 --> 00:25:13,340
Möglichkeit, das in Gruppenarbeiten z.B.
zu organisieren, wo etwas schwächere
335
00:25:13,340 --> 00:25:16,580
Schüler mit etwas stärkeren Schülern
zusammen an einer Lösung arbeiten können.
336
00:25:16,580 --> 00:25:21,200
Wenn wir auf individualisierte
systembasierte Lernpfade gehen, dann
337
00:25:21,200 --> 00:25:25,280
sitzen im Prinzip die Schüler:innen dort
alleine und das System entscheidet, was
338
00:25:25,280 --> 00:25:28,040
hier präsentiert wird und was nicht
präsentiert wird. Da geht einfach sehr,
339
00:25:28,040 --> 00:25:32,300
sehr viel verloren. Das Spektrum verengt
sich. Gleichzeitig kann es aber auch
340
00:25:32,300 --> 00:25:37,130
passieren, dass Lehrkräfte vielleicht noch
mehr angegriffen werden, als sie es
341
00:25:37,130 --> 00:25:40,730
vielleicht jetzt schon werden von Eltern
einfach in Frage gestellt werden. Ihre
342
00:25:40,730 --> 00:25:44,510
Entscheidungssysteme können mehr in Frage
gestellt werden, weil Lehrkräfte
343
00:25:44,510 --> 00:25:49,130
vielleicht verlangen, dass ein System
nochmal die Bewertung nachvollzieht, was
344
00:25:49,130 --> 00:25:52,220
letztendlich sehr demotivierend für
Lehrkräfte sein kann, was Vertrauen
345
00:25:52,220 --> 00:25:56,000
unterwandern kann und letztendlich auch
die Autorität von Lehrkräften wieder
346
00:25:56,000 --> 00:25:59,480
unterwandern kann. Wir haben sowieso schon
ein großes Problem mit Lehrkräftemangel
347
00:25:59,480 --> 00:26:05,210
und die Frage ist, ob solche Entwicklungen
Lehrkräfte oder angehende Lehrkräfte
348
00:26:05,210 --> 00:26:09,200
motiviert, diesen Beruf dann überhaupt
noch zu ergreifen, wenn sie sich dann auch
349
00:26:09,200 --> 00:26:13,370
zukünftig immer mit technischen System
messen müssen. Letztendlich aber
350
00:26:13,370 --> 00:26:17,870
wahrscheinlich das größte Problem: Was
macht es mit der Ungleichheit? Also alle
351
00:26:17,870 --> 00:26:21,590
Bildungsberichte gehen im Prinzip immer
wieder davon aus, dass wir
352
00:26:21,590 --> 00:26:24,740
Bildungsungleichheiten und
Ungerechtigkeiten haben. Das ist eines der
353
00:26:24,740 --> 00:26:29,630
größten Probleme im Bildungssektor, das es
tatsächlich gibt, und die Frage ist,
354
00:26:29,630 --> 00:26:36,800
inwieweit die der verstärkte Einsatz von
KI-Systemen diese Ungleichheiten entweder
355
00:26:36,800 --> 00:26:41,270
aushebelt oder vielleicht sogar verstärken
kann. Das kann auf der individuellen Ebene
356
00:26:41,270 --> 00:26:45,230
passieren, dass Schüler:innen, die sich
vielleicht sehr gut selbst organisieren
357
00:26:45,230 --> 00:26:48,200
können und vielleicht sehr gut mit Systemen
arbeiten können, dieses schneller
358
00:26:48,200 --> 00:26:52,220
verstehen, vielleicht auch schneller
wissen, wie sie es umgehen können. Während
359
00:26:52,220 --> 00:26:57,050
vielleicht eher lernschwache Schüler sich
dem System eher ausgeliefert fühlen und
360
00:26:57,050 --> 00:27:00,920
vielleicht eher demotiviert werden, sich
dann nochmal Hilfe zu suchen oder
361
00:27:00,920 --> 00:27:04,160
vielleicht auch Lehrkräfte das gar nicht
unbedingt erkennen können, dass
362
00:27:04,160 --> 00:27:06,980
Schüler:innen vielleicht überhaupt
Schwierigkeiten haben, wenn sie diese
363
00:27:06,980 --> 00:27:11,720
Systeme zuhause anwenden oder vielleicht
hinter einem Bildschirm verschwinden. Auf
364
00:27:11,720 --> 00:27:16,880
einer größeren Ebene kann der Einsatz von
KI Systemen die Ungleichheit verschärfen,
365
00:27:16,880 --> 00:27:21,770
weil einfach die Frage ist: Werden sich
dann zukünftig eher gut ausgestattete
366
00:27:21,770 --> 00:27:26,930
Schulen in reichen Bundesländern, in
privilegierten Umfeldern KI-Systeme zur
367
00:27:26,930 --> 00:27:32,150
Unterstützung leisten können? Oder werden
KI-Systeme eher eingesetzt werden können
368
00:27:32,150 --> 00:27:36,320
in weniger privilegierten Kontexten? Es
gibt in den USA gab es jetzt die
369
00:27:36,320 --> 00:27:41,060
Gründungen von Rocketchip Schulen. Ich
kann mir den Namen immer sehr schlecht
370
00:27:41,060 --> 00:27:47,510
merken. Rocketchip Public Schools heißen
sie und dort sitzt dann im Prinzip nur
371
00:27:47,510 --> 00:27:50,960
noch eine Hilfslehrkraft, die dann bis zu
90 Schüler:innen an ihren
372
00:27:50,960 --> 00:27:58,685
Computerbildschirmen steuert, anleitet,
irgendwie unterstützt, um einfach auch
373
00:27:58,685 --> 00:28:02,990
Stellen an gut ausgebildeten Lehrkräften
einzusparen. Dort läuft es auf eine Art
374
00:28:02,990 --> 00:28:07,760
Massenabfertigung hin und die Forschung,
die es da gegeben hat, hat jetzt zumindest
375
00:28:07,760 --> 00:28:12,650
letztes Jahr schon gezeigt, dass die
Ergebnisse, die die Schüler:innen dort erzielen,
376
00:28:12,650 --> 00:28:16,760
bis zu einer Note schlechter sind als
Schüler:innen, die in einem herkömmlichen
377
00:28:16,760 --> 00:28:21,170
Klassenverband mit vernünftig
ausgebildeten Lehrkräften lernen. Wir
378
00:28:21,170 --> 00:28:25,280
kennen diese Diskussionen auch im
Gesundheitsbereich, in der Pflege. Auch da
379
00:28:25,280 --> 00:28:29,660
wird diskutiert, ob Robotics Systeme in
der Pflege eher ein System für die
380
00:28:29,660 --> 00:28:35,330
Privilegierten sind. Wer es sich leisten
kann, holt sich einen Roboter dazu. Oder
381
00:28:35,330 --> 00:28:40,400
ob es auch da eher um eine Auslagerung an
Technik geht, dass wir in weniger
382
00:28:40,400 --> 00:28:44,090
privilegierten Einrichtungen einfach von
Maschinen betreut werden anstatt von
383
00:28:44,090 --> 00:28:47,570
Menschen. Also da kann der Bildungssektor
sich vielleicht ganz gut am
384
00:28:47,570 --> 00:28:51,920
Gesundheitssektor orientieren und diese
Debatte dort mal verfolgen, in welche
385
00:28:51,920 --> 00:28:59,090
Richtung das geht. All diese Schwächen und
Risiken zusammengenommen frage ich mich
386
00:28:59,090 --> 00:29:07,490
tatsächlich, ob das Werben für KI-Systeme
an Schulen oder auch teilweise der Druck,
387
00:29:07,490 --> 00:29:10,940
der da gemacht wird, dass das eigentlich
totale super Sache ist. Ob das nicht
388
00:29:10,940 --> 00:29:15,530
letztendlich einfach nur gemacht wird, um
die eigentlichen Probleme im Schulsystem
389
00:29:15,530 --> 00:29:19,700
zu verschleiern. Denn eigentlich haben wir
es mit einer großen Mangelfinanzierung zu
390
00:29:19,700 --> 00:29:23,630
tun. Wir haben zu große Klassen, wir haben
zu wenig Lehrkräfte, wir haben einen
391
00:29:23,630 --> 00:29:27,990
wahnsinnigen Sanierungsstau. Und wenn
gleichzeitig dann aber von Regierungen
392
00:29:27,990 --> 00:29:32,990
mitempfohlen wird, dass wir doch KI-
Systeme und Learning Analytics einsetzen,
393
00:29:32,990 --> 00:29:35,930
weil dadurch die Lehrkräfte entlastet
werden und sich dann besser um die
394
00:29:35,930 --> 00:29:40,730
Schüler:innen kümmern sollen. Wobei wir
eigentlich gar keine Evidenz dafür haben,
395
00:29:40,730 --> 00:29:44,660
dass das tatsächlich so funktioniert und
so klappt. Dann habe ich einfach zunehmend
396
00:29:44,660 --> 00:29:48,530
das Gefühl, dass genau diese
Mangelwirtschaft einfach aufrechterhalten
397
00:29:48,530 --> 00:29:51,500
werden soll und dadurch verschleiert
werden soll, dass wir mal wieder
398
00:29:51,500 --> 00:29:55,850
versuchen, soziale Probleme mit Technik zu
lösen. Und das ist etwas, wo wir meiner
399
00:29:55,850 --> 00:30:00,140
Meinung nach genau jetzt an diesem Punkt
sind, diese Diskussion zu führen und diese
400
00:30:00,140 --> 00:30:04,220
Entwicklung zu verhindern, weil
diejenigen, die letztendlich darunter
401
00:30:04,220 --> 00:30:08,990
leiden, sind neben den Lehrkräften, die am
Ende nämlich nur scheinbar entlastet
402
00:30:08,990 --> 00:30:13,460
werden, vor allem die Schülerinnen und
Schüler, deren Daten jetzt einfach erhoben
403
00:30:13,460 --> 00:30:16,310
werden und verarbeitet werden sollen und
wir gar nicht wissen, was daraus am Ende
404
00:30:16,310 --> 00:30:23,540
wird. So bedeutet das jetzt aber, dass KI-
Systeme im Bildungssektor und in der
405
00:30:23,540 --> 00:30:26,630
Schule gar nichts verloren haben. So weit
würde ich gar nicht gehen, sondern ich
406
00:30:26,630 --> 00:30:30,410
möchte gerne in Zukunft unterscheiden, auf
welchen Ebenen wir KI-Systeme im
407
00:30:30,410 --> 00:30:34,010
Bildungssektor einsetzen. Wir haben jetzt
bisher immer so ein bisschen betrachtet,
408
00:30:34,010 --> 00:30:38,630
was auf der Mikroebene passiert, also wo
personenbezogene Daten von Schüler:innen
409
00:30:38,630 --> 00:30:42,590
oder von Lehrkräften analysiert und
verarbeitet werden. Es gibt aber auch noch
410
00:30:42,590 --> 00:30:47,510
die Meso und Makroebene im Bildungssystem.
Auf der Mesoebene reden wir von dem Zugang
411
00:30:47,510 --> 00:30:53,270
zu Lernorten oder auch zu Lerninhalten und
die Makroebene betrachtet tatsächlich die
412
00:30:53,270 --> 00:30:57,050
übergreifende Steuerung von
Bildungssysteme, wo sich z.B. auch die
413
00:30:57,050 --> 00:31:02,420
Problematik der Ungerechtigkeit lösen
lassen müsste. Auf der Meso- und auf der
414
00:31:02,420 --> 00:31:07,340
Makroebene gibt es tatsächlich dann die
Möglichkeit mit Open Data zu arbeiten und
415
00:31:07,340 --> 00:31:12,560
nicht mit personenbezogenen Daten, um halt
diese bestimmten oder diese konkreten
416
00:31:12,560 --> 00:31:16,280
Probleme mit anzugehen. Und ich möchte
jetzt im Folgenden eigentlich mal
417
00:31:16,280 --> 00:31:19,910
vorstellen, welche Beispiele es dafür
jetzt schon gibt oder welche es geben
418
00:31:19,910 --> 00:31:29,930
könnte, damit es nicht so als Behauptung
im leeren Raum steht. Also nochmal zurück
419
00:31:29,930 --> 00:31:35,510
auf die Mikroebene gegangen, gibt es dort
auch durchaus Möglichkeiten, mit Systemen
420
00:31:35,510 --> 00:31:40,850
zu arbeiten, die nicht unbedingt die
personenbezogenen Daten von Schülerinnen
421
00:31:40,850 --> 00:31:43,940
und Schülern verarbeiten. Das ist zum
einen die Möglichkeit: Es gibt ein System,
422
00:31:43,940 --> 00:31:50,150
dass Lehrkräfte neue Methoden zum Beispiel
anhand einer KI trainieren können und
423
00:31:50,150 --> 00:31:55,070
aufgrund des Feedbacks der KI dann sehen
können, wo Verständnisschwächen entstehen,
424
00:31:55,070 --> 00:31:59,210
sodass sie dann ihre Methoden und ihre
Erklärweisen nochmal anpassen können,
425
00:31:59,210 --> 00:32:02,870
bevor sie damit konkret in die Klasse
gehen. Dann gibt es natürlich diesen
426
00:32:02,870 --> 00:32:08,960
ganzen Bereich der Administration,
Vertretungspläne, Stundenpläne oder auch
427
00:32:08,960 --> 00:32:13,550
Postverwaltung. Da gibt es ja schon einige
Beispiele, auch aus Behörden, wie sowas
428
00:32:13,550 --> 00:32:18,470
eingesetzt werden kann mit ganz, ganz
unkritischen Anwendungsbereichen und
429
00:32:18,470 --> 00:32:24,650
keinen großen personenbezogenen Daten, die
dafür nötig sind. Was auch total günstig
430
00:32:24,650 --> 00:32:30,200
ist, ist natürlich alles, was dazu
beiträgt, das System KI zu verstehen. Also
431
00:32:30,200 --> 00:32:35,060
selbst wenn ich Anwendungen durchaus in
gewissen Bereichen hier intensiv in Frage
432
00:32:35,060 --> 00:32:39,410
stellen möchte, ist zu keinem Zeitpunkt in
Frage zu stellen, dass natürlich
433
00:32:39,410 --> 00:32:43,970
verstanden und gelernt werden muss, wie
algorithmische und KI-Systeme
434
00:32:43,970 --> 00:32:49,136
funktionieren und was man mit ihnen machen
kann. Das heißt, als Unterstützung für
435
00:32:49,136 --> 00:32:53,780
Lernmethoden oder auch um Experimente
durchzuführen, ist es auch für Schüler
436
00:32:53,780 --> 00:32:58,280
durchaus geeignet. Es gab mal diesen
Wettbewerb. Ich weiß nicht, ob der jedes
437
00:32:58,280 --> 00:33:02,330
Jahr stattfindet, zur KI Schule des
Jahres. Dort haben jugendliche
438
00:33:02,330 --> 00:33:05,360
Schüler:innen unter anderem ein System
entwickelt, um Zugverspätung
439
00:33:05,360 --> 00:33:11,480
vorherzusagen, also sehr anwendungsnah und
sehr sinnvoll für viele von uns. Und auch
440
00:33:11,480 --> 00:33:16,610
Methoden der Textanalyse oder Datenbank-
Analysen. Auch die können Schülern
441
00:33:16,610 --> 00:33:20,390
durchaus zugutekommen, sodass sie sie als
Werkzeuge für das eigene Lernen benutzen
442
00:33:20,390 --> 00:33:24,740
und dabei aber weniger Schüler:innen
Werkzeuge für das KI-System darstellen
443
00:33:24,740 --> 00:33:31,100
müssen. Auf der Meso-Ebene habe ich
tatsächlich im Moment sehr, sehr wenig
444
00:33:31,100 --> 00:33:35,510
Anwendungsbeispiele gefunden, was da
gemacht werden kann. Also eine Sache, die
445
00:33:35,510 --> 00:33:41,060
mich inspiriert hat, ist das Ergebnis
eines EDU Hacks. Dort hat eine Gruppe eine
446
00:33:41,060 --> 00:33:46,250
Open Source Bibliothek entwickelt und
sowas kann ich mir sehr sehr gut auch
447
00:33:46,250 --> 00:33:51,140
tatsächlich für Deutschland vorstellen,
dass wir, wir haben ja diese Problematik,
448
00:33:51,140 --> 00:33:55,520
Lehrkräfte von euch werden das kennen, ich
hab das jetzt auch schon oft gehört, dass
449
00:33:55,520 --> 00:34:00,050
Lehrkräfte immer auf der Suche sind. Wo
finde ich denn gute OER Materialien? Woher
450
00:34:00,050 --> 00:34:02,630
weiß ich dann, dass die gut sind oder
nicht? Woher weiß ich, ob die zu meinem
451
00:34:02,630 --> 00:34:05,690
Unterricht passen? Es ist alles so weit
verstreut. Ich weiß gar nicht, wo ich das
452
00:34:05,690 --> 00:34:10,640
ganze gute Zeug finden soll. Sowas alles
in eine Datenbank zu packen und dann mit
453
00:34:10,640 --> 00:34:14,360
KI-Systeme durchsuchbar zu machen und
vielleicht auch so durchsuchbar zu machen,
454
00:34:14,360 --> 00:34:19,100
dass Lehrkräfte schnell dort auch wissen,
wie komme ich dann an genau die
455
00:34:19,100 --> 00:34:22,070
Ergebnisse, die ich gerade für meinen
Unterricht gebrauchen kann. Könnte ein
456
00:34:22,070 --> 00:34:27,110
Anwendungsbeispiel sein. Die OER-Strategie
der Bundesregierung ist ja jetzt
457
00:34:27,110 --> 00:34:32,990
ausgelaufen. Wird gerade neu entwickelt.
Kommt im nächsten Jahr. Und wir wissen
458
00:34:32,990 --> 00:34:36,560
leider noch nicht, was drin steht. Aber es
bleibt einfach zu hoffen, dass eine
459
00:34:36,560 --> 00:34:41,420
Zentralisierung oder zumindest eine
bessere Auffindbarkeit von OER-Inhalten
460
00:34:41,420 --> 00:34:47,660
dort mitgedacht wird. Das Thema Inklusion-
Integration hatten wir schon angesprochen.
461
00:34:47,660 --> 00:34:52,130
Auch da sehe ich bei KI, wenn man diese
ganzen Problematiken bei der
462
00:34:52,130 --> 00:34:57,950
Spracherkennung und Übersetzung
ausgehebelt sind, wenn die ausgehebelt
463
00:34:57,950 --> 00:35:01,940
sind, dass wir dort auch noch viele
Potenziale haben, die es zu heben gilt, um
464
00:35:01,940 --> 00:35:06,860
Inklusion und Integration einfach
einfacher zu machen. Und was ich auch sehe
465
00:35:06,860 --> 00:35:14,090
ist im Kontext autonomes Fahren oder auch
Verkehrsleitsysteme, das ganze Thema
466
00:35:14,090 --> 00:35:18,200
Schultransporte, sei es
jahreszeitenbedingt oder vielleicht auch
467
00:35:18,200 --> 00:35:23,240
im ländlichen Raum und vor allem aber auch
mit Blick auf Förderschulen oder inklusive
468
00:35:23,240 --> 00:35:28,280
Schulen. KI-Systeme können sicherlich
dabei unterstützen, den Transport gut zu
469
00:35:28,280 --> 00:35:32,480
organisieren und effizient zu
organisieren. Und wir werden es ja
470
00:35:32,480 --> 00:35:36,980
mindestens im nächsten Jahr auch noch mit
dieser Pandemie zu tun haben. Und gerade
471
00:35:36,980 --> 00:35:41,450
inklusive Schulen oder Förderschulen haben
bei diesem ganzen Transport Thema
472
00:35:41,450 --> 00:35:49,010
tatsächlich ein großes Problem, weil dort
die Zusammenkunft von Schüler:innen in so
473
00:35:49,010 --> 00:35:54,140
einem Schulbus oder in so einem Transport
Bus hin zur Schule für Menschen oder
474
00:35:54,140 --> 00:35:57,770
Schüler:innen mit Behinderung einfach noch
ein viel, viel größeres Risiko darstellen,
475
00:35:57,770 --> 00:36:02,870
als es für gesunde Schüler:innen ist. Also
Menschen mit Behinderung gehören zur
476
00:36:02,870 --> 00:36:10,500
Risikogruppe Nummer eins. Zu weiteren
Potenzialen auf der Makroebene. Dort gibt
477
00:36:10,500 --> 00:36:13,860
es tatsächlich schon konkrete
Anwendungsfälle, die uns für Deutschland
478
00:36:13,860 --> 00:36:18,990
auch ein Vorbild sein könnten. Also sowohl
die Schweiz als auch Belgien haben zum
479
00:36:18,990 --> 00:36:22,470
Beispiel Systeme entwickelt, um die
Durchmischung, die soziale Durchmischung
480
00:36:22,470 --> 00:36:28,050
an Schulen zu optimieren. Dass in etwas
wohlhabenderen Stadtvierteln nicht nur
481
00:36:28,050 --> 00:36:31,980
privilegierte Schüleri:nnen sind und die
weniger Privilegierten dann halt in
482
00:36:31,980 --> 00:36:36,180
Problemschulen landen, sondern dass dort
einfach nochmal neu berechnet wird, wie
483
00:36:36,180 --> 00:36:39,630
eine bessere Durchmischung stattfinden
kann. Das wurde in der Schweiz zum
484
00:36:39,630 --> 00:36:45,180
Beispiel so gemacht, dass die die
Straßenzüge neu berechnet werden, wie
485
00:36:45,180 --> 00:36:49,650
Wohngebiete bestimmten Schulen zugeteilt
werden. Das unter der Maßgabe, dass die
486
00:36:49,650 --> 00:36:53,340
Schulwege sicher sein müssen und dass sie
nicht länger sein sollen als bisher
487
00:36:53,340 --> 00:36:57,900
gehabt. Und das hat im ersten Versuch
tatsächlich so gut funktioniert, dass
488
00:36:57,900 --> 00:37:02,820
jetzt mehrere Kantone versuchen wollen,
dieses System zu übernehmen. In Belgien
489
00:37:02,820 --> 00:37:07,050
hat es ein ähnliches Projekt gegeben. Dort
wird jetzt im Moment das System aber
490
00:37:07,050 --> 00:37:12,870
nochmal überarbeitet, weil dort Eltern
sich beschwert haben, dass dass sie ihre
491
00:37:12,870 --> 00:37:17,700
Kinder nicht mehr auf Schulen schicken
oder gehen lassen können, die zum Beispiel
492
00:37:17,700 --> 00:37:20,760
bestimmte Schwerpunkte haben. Dann gibt es
dann eine Schule, die hat eine
493
00:37:20,760 --> 00:37:25,320
Spezialisierung auf den musischen Bereich
oder auf den sportlichen Bereich. Und dort
494
00:37:25,320 --> 00:37:28,680
wird das System jetzt so überarbeitet,
dass die Schulen dort auch Faktoren
495
00:37:28,680 --> 00:37:32,820
gewichten können, sodass es dort
zusätzlich zu der besseren sozialen
496
00:37:32,820 --> 00:37:36,660
Durchmischung auch die Möglichkeit gibt,
noch bestimmte Schwerpunkte zu setzen.
497
00:37:36,660 --> 00:37:43,590
Auch wieder in UK gibt es ein System, dass
es Behörden erleichtern soll,
498
00:37:43,590 --> 00:37:48,180
Schulinspektionen vorzunehmen. Das heißt,
dort wird aufgrund von bestimmten
499
00:37:48,180 --> 00:37:52,620
Indikatoren rechtzeitig prognostiziert,
welcher Schule vielleicht nochmal eine
500
00:37:52,620 --> 00:37:56,610
Inspektion oder ein Besuch durch die
Behörde bedarf, um bestimmte Entwicklungen
501
00:37:56,610 --> 00:38:01,560
vielleicht rechtzeitig zu stoppen. Und
auch in England, das fand ich ganz gut,
502
00:38:01,560 --> 00:38:07,470
gibt es ein, gibt es die NGO Nesta, die
einige von euch vielleicht kennen. Und die
503
00:38:07,470 --> 00:38:12,450
haben ein eigenes Papier entwickelt, das
genau auf das abzielt, was ich hier auch
504
00:38:12,450 --> 00:38:16,650
vorstellen möchte. Nämlich wenn wir KI im
Bildungssektor schon einsetzen wollen,
505
00:38:16,650 --> 00:38:20,490
dann sollten wir uns auf die strukturellen
Probleme konzentrieren. Oder wenn wir
506
00:38:20,490 --> 00:38:23,580
schon auf der Mikroebene arbeiten, dann
sollten wir uns auf Systeme konzentrieren,
507
00:38:23,580 --> 00:38:28,320
die mit den Daten von Lehrkräften arbeiten
und Lehrkräfte bei ihrer Arbeit
508
00:38:28,320 --> 00:38:32,130
unterstützen. Zumindest jetzt in einem
ersten Schritt, wenn die KI-Systeme noch
509
00:38:32,130 --> 00:38:37,470
nicht so gut und so weiterentwickelt sind,
wie wir sie vielleicht gerne hätten. Diese
510
00:38:37,470 --> 00:38:42,870
Systeme können tatsächlich schon Vorbild
sein, auch für Deutschland. Und wovon ich
511
00:38:42,870 --> 00:38:46,470
in Deutschland auch ein bisschen träume
und woran wir gerade politisch arbeiten,
512
00:38:46,470 --> 00:38:51,030
ist dieser leidige Königsteiner Schlüssel
zum Beispiel. Der Königsteiner Schlüssel
513
00:38:51,030 --> 00:38:55,560
verteilt im Moment Fördergelder nach
Bevölkerungsdichte und nach
514
00:38:55,560 --> 00:38:59,280
Steueraufkommen. Da funktioniert das ganz
klassisch jetzt im Moment nach dem
515
00:38:59,280 --> 00:39:02,490
Matthäus Prinzip. Wer hat, dem wird
gegeben. Reiche Länder bekommen den
516
00:39:02,490 --> 00:39:06,990
höheren Anteil an Fördergeldern und die
etwas ärmeren Länder bekommen halt nicht
517
00:39:06,990 --> 00:39:11,550
so viel. Dabei sollte es doch eigentlich
genau umgekehrt sein. Und wenn es
518
00:39:11,550 --> 00:39:19,950
tatsächlich möglich wäre, mit einem KI-
System auf Basis von noch mehr oder
519
00:39:19,950 --> 00:39:24,630
anderen Daten zu ermitteln, welcher
Förderzweck genau welche Förderhöhe
520
00:39:24,630 --> 00:39:29,580
brauch, dann wäre es doch vielleicht sogar
möglich, dass wir je nach Förderzweck
521
00:39:29,580 --> 00:39:34,410
jedes Mal diesen Verteilungsschlüssel neu
errechnen. Also wenn es dort Möglichkeiten
522
00:39:34,410 --> 00:39:38,160
gibt oder wenn es dort Ansätze gibt sowas
zu entwickeln, bitte ich um
523
00:39:38,160 --> 00:39:42,360
Kontaktaufnahme. Das würde mich sehr sehr
interessieren. Selbstverständlich würde
524
00:39:42,360 --> 00:39:46,560
das voraussetzen, dass von den Schulen,
Schulträgern und auch Schulbehörden
525
00:39:46,560 --> 00:39:51,810
nochmal ganz andere Daten auch erhoben und
erfasst werden. Es gibt aber auch bereits
526
00:39:51,810 --> 00:39:56,970
Bildungsdatenbank. Es gibt die
Forschungsdatenbank Bildung, wo jetzt im
527
00:39:56,970 --> 00:40:00,720
Moment schon Bildungsstudien eingestellt
sind, also die Infrastruktur letztendlich
528
00:40:00,720 --> 00:40:05,220
wäre für sowas vorhanden. Es müsste sich
vielleicht nur etwas in der Kultur ändern,
529
00:40:05,220 --> 00:40:12,090
damit Schulen auch bereit sind oder damit
überhaupt auch Länder und Behörden dort
530
00:40:12,090 --> 00:40:17,730
anfangen bestimmte Daten zu erheben, um
dann halt auch die strukturellen Systeme
531
00:40:17,730 --> 00:40:25,380
auflösen zu können. So, welche
Anforderungen brauchen wir letztendlich,
532
00:40:25,380 --> 00:40:30,600
um auf dieser Makroebene an die
strukturellen Probleme heranzugehen? Dort
533
00:40:30,600 --> 00:40:33,690
würde ich gerne unterscheiden, ein
bisschen was können Menschen auf der
534
00:40:33,690 --> 00:40:37,950
persönlichen Ebene tun? Was muss auf der
Organisationsebene passieren und vor
535
00:40:37,950 --> 00:40:41,490
allem was braucht es noch auf der
rechtlichen Ebene? Im Moment wird ja ganz,
536
00:40:41,490 --> 00:40:45,360
ganz viel immer davon geredet. Lehrkräfte
müssen sich fortbilden, damit sie mit
537
00:40:45,360 --> 00:40:50,700
diesem System arbeiten können. Ja, das ist
aber auch nur ein Teil, der getan werden
538
00:40:50,700 --> 00:40:55,020
muss. Und Teil dieser Fortbildung ist
natürlich nicht nur, dass es darum geht,
539
00:40:55,020 --> 00:40:59,040
wie diese Systeme angewendet werden,
sondern es braucht ein tiefes Verständnis
540
00:40:59,040 --> 00:41:04,410
einfach von KI als soziotechnisches
System. Und es braucht das schöne
541
00:41:04,410 --> 00:41:10,680
Stichwort Data Literacy. Das heißt, ein
Verständnis dafür zu entwickeln, was Daten
542
00:41:10,680 --> 00:41:16,560
überhaupt aussagen und aber vor allem
anderen eigentlich braucht es auf der ganz
543
00:41:16,560 --> 00:41:20,640
individuellen Ebene immer noch ganz viel
Fortbildung, was überhaupt das Thema
544
00:41:20,640 --> 00:41:26,220
Digitalisierung betrifft und auch der
damit verbundene Kulturwandel. Überhaupt,
545
00:41:26,220 --> 00:41:32,670
sich zu öffnen, um Informationen oder auch
Inhalte zu teilen, um eine gewisse
546
00:41:32,670 --> 00:41:37,170
Fehlerkultur zu entwickeln. All das ist ja
gerade noch im Umbruch. Und wenn wir jetzt
547
00:41:37,170 --> 00:41:40,680
davon reden, dass wir KI-Systeme an den
Schulen wollen oder dass es gefördert
548
00:41:40,680 --> 00:41:44,820
werden soll, dann habe ich manchmal das
Gefühl, wir wollen einem Kind, das gerade
549
00:41:44,820 --> 00:41:48,750
das Fahrradfahren gelernt hat, wollen wir
jetzt in einen Rennwagen setzen, weil es
550
00:41:48,750 --> 00:41:52,560
damit ja noch sicherer zur Schule kommt.
Das passiert alles in einem sehr, sehr
551
00:41:52,560 --> 00:41:57,900
großen Tempo, das nicht damit erledigt
werden sollte, dass wir uns einfach nur
552
00:41:57,900 --> 00:42:01,250
darauf zurücklehnen und sagen, Lehrkräfte
müssen sich weiterbilden und dann können
553
00:42:01,250 --> 00:42:04,860
sie auch KI-Systeme in der Schule
einsetzen. Die Eltern habe ich jetzt
554
00:42:04,860 --> 00:42:07,950
nochmal in Klammern gesetzt. Davon
ausgehend, dass wir es vielleicht wirklich
555
00:42:07,950 --> 00:42:11,370
schaffen, unsere Forschungs- und
Entwicklungsschwerpunkte mehr auf die
556
00:42:11,370 --> 00:42:15,540
Makro und auf die Meso Ebene zu legen und
weniger auf die Schüler basierten Systeme.
557
00:42:15,540 --> 00:42:20,460
auf der Organisationsebene, also dort wo
entschieden wird. Letztendlich kommt ein
558
00:42:20,460 --> 00:42:25,290
KI System zum Einsatz - Ja oder nein. Das
ist die Schulleitung oder das Schulträger
559
00:42:25,290 --> 00:42:30,150
oder vielleicht auch Bundesländer. Muss
natürlich als allererstes mal hinterfragt
560
00:42:30,150 --> 00:42:33,660
werden. Wozu brauche ich das System? Ich
habe es eben schon angesprochen. Wenn wir
561
00:42:33,660 --> 00:42:37,150
ein soziales Problem an der Schule
feststellen, ist ein technisches System
562
00:42:37,150 --> 00:42:41,500
tatsächlich dafür die Lösung? Oder sollten
wir vielleicht eher auf der sozialen Ebene
563
00:42:41,500 --> 00:42:45,640
nochmal schauen, was wir vielleicht an
unseren Lernzielen oder an unseren
564
00:42:45,640 --> 00:42:49,210
Methoden oder an unserer
Organisationskultur verändern müssen?
565
00:42:49,210 --> 00:42:53,680
Selbst wenn wir uns entscheiden für ein
technisches System, dann muss natürlich
566
00:42:53,680 --> 00:42:57,910
entsprechend die Infrastruktur gegeben
sein. Das heißt, die Frage ist: Wo werden
567
00:42:57,910 --> 00:43:01,990
Daten, mit denen gearbeitet wird? Wo
werden sie gespeichert? Sind sie dort
568
00:43:01,990 --> 00:43:05,920
überhaupt sicher genug? Haben wir
überhaupt WLAN an den Schule, damit dort
569
00:43:05,920 --> 00:43:10,240
vor Ort gearbeitet werden kann? All diese
Fragen. Natürlich braucht es auch auf der
570
00:43:10,240 --> 00:43:14,440
Entscheidungsebene Kompetenzen. Es braucht
den Kulturwandel und überhaupt erst einmal
571
00:43:14,440 --> 00:43:19,750
die Grundlagen der Digitalisierung, bevor
wir mit KI die nächsten Stufe gehen. Wir
572
00:43:19,750 --> 00:43:23,950
brauchen die Regelung zur menschlichen
Entscheidungsfähigkeit tatsächlich auch in
573
00:43:23,950 --> 00:43:29,980
den Arbeitsverträgen und wie auch in
anderen Verwaltungsbereichen auch sollte
574
00:43:29,980 --> 00:43:33,820
es auch im Bildungsbereich einfach ganz
klare Beschaffungsrichtlinien geben. Wenn
575
00:43:33,820 --> 00:43:38,920
Systeme angeschafft werden, dann braucht
es ganz klare Anforderungskataloge, wie
576
00:43:38,920 --> 00:43:44,860
diese Systeme gestaltet werden sollen. Und
natürlich muss sich dann auch der Bund
577
00:43:44,860 --> 00:43:50,410
entscheiden, Förderungen in die richtige
Richtung zu schicken und diese Systeme zu
578
00:43:50,410 --> 00:43:54,910
fördern und zu unterstützen, die sich auf
die Meso- und Makroebene fokussieren und
579
00:43:54,910 --> 00:44:02,050
nicht die Attack Startups, die versuchen,
das Lernerlebnis für Schüler zu
580
00:44:02,050 --> 00:44:06,250
verbessern, obwohl es dafür keine Evidenz
gibt, werde ich auch nicht müde, das immer
581
00:44:06,250 --> 00:44:11,200
wieder zu wiederholen. Und dann haben wir
natürlich auf der rechtlichen Ebene noch
582
00:44:11,200 --> 00:44:14,800
viele offene Fragen, die KI-Systeme im
Allgemeinen betreffen und gar nicht
583
00:44:14,800 --> 00:44:19,360
unbedingt nur auf den Bildungssektor
Anwendung finden. Und das ist einmal die
584
00:44:19,360 --> 00:44:24,070
Problematik der Nachvollziehbarkeit. Also
solange KI-Systeme an sich selber nicht
585
00:44:24,070 --> 00:44:27,700
nachvollziehbar sind, müssen zumindest
Schnittstellen geschaffen werden, dass
586
00:44:27,700 --> 00:44:32,980
Evualator:innen oder Forscher:innen
zumindest reingucken können, was das
587
00:44:32,980 --> 00:44:38,020
System überhaupt macht. Wir brauchen eine
Nachweisbarkeit, dass diese Systeme
588
00:44:38,020 --> 00:44:42,790
funktionieren, erst recht, wenn wir mit
Schüler:innen an Daten arbeiten wollen. Und
589
00:44:42,790 --> 00:44:48,340
wir brauchen eine Kritikalität ex ante.
Wir reden hier vom Bildungssektor. Dort
590
00:44:48,340 --> 00:44:52,300
werden Lebenswege vorbestimmt. Das ist
nicht der Raum, um Experimente zu machen
591
00:44:52,300 --> 00:44:56,590
und mal Systeme loszulassen, laufen zu
lassen und dann mal zu gucken, welche
592
00:44:56,590 --> 00:45:01,000
Probleme sie eventuell entwickeln. Wir
haben aus dem Ausland jetzt schon genügend
593
00:45:01,000 --> 00:45:04,870
Beispiele, was nicht gut funktioniert. Ich
wäre kein Fan davon, wenn wir das Ganze
594
00:45:04,870 --> 00:45:09,790
hier in Deutschland nochmal wiederholen
wollen. Eigentlich nicht nötig, das zu
595
00:45:09,790 --> 00:45:12,190
sagen, aber es braucht letztendlich auch
eine rechtlich bindende
596
00:45:12,190 --> 00:45:17,470
Anbieterstabilität. Es gab tatsächlich,
ich glaube auch in den USA, das System
597
00:45:17,470 --> 00:45:21,760
inBlue. Das wurde überall ausgerollt und
eingesetzt. Und dann irgendwann hat der
598
00:45:21,760 --> 00:45:25,390
Anbieter entschieden, seine Dienste
einzustellen. Was aus den Daten geworden
599
00:45:25,390 --> 00:45:31,270
ist bis dahin weiß letztendlich kein
Mensch. Das ganze Thema Offenheit sollte
600
00:45:31,270 --> 00:45:35,230
gerade bei KI Entwicklung im
Bildungssektor viel, viel stärker auch
601
00:45:35,230 --> 00:45:41,883
eingefordert und verankert werden. Das
heißt, auch KI-Systeme sollten wie Open-
602
00:45:41,883 --> 00:45:47,710
Source-Software behandelt werden, als
OpenAI z.B. stärker mitgefördert werden. Wir
603
00:45:47,710 --> 00:45:54,400
müssen viel stärker entwickeln im Bereich
OER Open Data, um dann diese ganzen Daten,
604
00:45:54,400 --> 00:45:59,740
die wir im Lern-Kontext dann auch sammeln,
wiederum als Open Educational Data, also
605
00:45:59,740 --> 00:46:05,380
als OED auch wieder zur Verfügung zu
stellen. Ohne offene Datenbasis kommen wir
606
00:46:05,380 --> 00:46:10,810
da nicht hin. Sehr charmant finde ich auch
die Idee der öffentlichen Register. Dort
607
00:46:10,810 --> 00:46:14,770
sollten sich auch KI-Systeme im
Bildungsbereich eintragen lassen. Und was
608
00:46:14,770 --> 00:46:19,480
auf jeden Fall passieren muss, ist die
Überarbeitung des Artikels 22 der DSGVO.
609
00:46:19,480 --> 00:46:24,040
Dort werden im Moment ja nur
Entscheidungen geregelt,
610
00:46:25,060 --> 00:46:29,950
vollautomatisierte Entscheidungen sind
dort geregelt. Was nicht geregelt ist,
611
00:46:29,950 --> 00:46:34,630
sind teilautomatisierte Systeme und
teilautomatisierte Systeme sind ja die, die
612
00:46:34,630 --> 00:46:38,170
jetzt eigentlich weitestgehend im Einsatz
sind. Und wenn wir auch da wieder im
613
00:46:38,170 --> 00:46:41,470
Hinterkopf haben, dass ja als Argument
immer noch gilt: Der Mensch trifft die
614
00:46:41,470 --> 00:46:45,160
letzte Entscheidung, werden wir es auch
zukünftig verstärkt mit teil-
615
00:46:45,160 --> 00:46:49,840
automatisierten System zu tun haben. Und
dort müssen Einspruchsrechte und
616
00:46:49,840 --> 00:46:55,370
Widerspruchsrechte einfach noch klarer
geregelt werden. Ach nee, bevor ich zu
617
00:46:55,370 --> 00:47:00,380
meinem Fazit komme, möchte ich nochmal auf
die lange Kette der Verantwortlichkeit
618
00:47:00,380 --> 00:47:05,540
auch nochmal eingehen. Wenn Systeme
tatsächlich ausgewählt werden, müssen
619
00:47:05,540 --> 00:47:11,360
Entscheider in der Lage sein, auch diese
Systeme zu beurteilen. Und in ganz, ganz
620
00:47:11,360 --> 00:47:16,100
grober Anlehnung an diese lange Kette der
Verantwortlichkeit von Katharina Zweig und
621
00:47:16,100 --> 00:47:21,470
Tobias Kraft sollte es mit in einen
Anforderungskatalog und sollte es mit in
622
00:47:21,470 --> 00:47:26,090
den Kompetenzkatalog von all denjenigen,
die dazu entscheiden, dass sie in der Lage
623
00:47:26,090 --> 00:47:30,620
sind, zu hinterfragen und zu prüfen.
Aufgrund von welcher Datenbasis wurde ein
624
00:47:30,620 --> 00:47:35,000
System trainiert, also welche Qualität,
welche Quantität? Wie alt sind die Daten?
625
00:47:35,000 --> 00:47:39,530
Passen sie überhaupt zum Trainingszweck?
Dann letztendlich auch nach welchen
626
00:47:39,530 --> 00:47:45,500
Maßgaben wurde das System trainiert? Ganz
ganz wichtig ist ja auch ein KI-System,
627
00:47:45,500 --> 00:47:48,950
das einmal für einen bestimmten Zweck
trainiert wurde, ist nicht unbedingt
628
00:47:48,950 --> 00:47:52,430
günstig in einem ganz anderen
Anwendungskontext. Gerade im
629
00:47:52,430 --> 00:47:55,850
Bildungsbereich, wenn damit geworben wird,
dass bei Übersetzungssystemen oder
630
00:47:55,850 --> 00:48:00,080
Spracherkennungssystemen das es ja ganz
ganz tolle Software as a Service Systeme
631
00:48:00,080 --> 00:48:04,250
schon gibt, die quasi von der Stange
gekauft werden können, muss immer noch
632
00:48:04,250 --> 00:48:08,000
hinterfragt werden: Passt das tatsächlich
zu meinem Anwendungskontext? Und
633
00:48:08,000 --> 00:48:12,350
letztendlich passt auch dieses System zu
meinem Ethik-System, das ich bei mir an
634
00:48:12,350 --> 00:48:17,930
der Schule habe. Datenverwendung ist ganz,
ganz wichtig. Was passiert mit den Daten,
635
00:48:17,930 --> 00:48:22,490
die erhoben werden an einer Schule, auch
wenn es nur Daten von Lehrkräften sind?
636
00:48:22,490 --> 00:48:26,390
Gerade in dem Moment, wo es
personenbezogene Daten sind, muss einfach
637
00:48:26,390 --> 00:48:31,310
sichergestellt werden, dass nicht nur
rechtlich, sondern auch tatsächlich aktiv
638
00:48:31,310 --> 00:48:34,670
in der Anwendung ist, es überhaupt kein
Weg gibt, dass diese Daten an Stellen
639
00:48:34,670 --> 00:48:38,900
weitergegeben werden, wo sie nicht
hingehören. Es gibt aus den USA, auch mal
640
00:48:38,900 --> 00:48:46,280
wieder dort dieses Beispiel, dass Akteure
der Wissenschaftsverlagsbranche Daten von
641
00:48:46,280 --> 00:48:50,540
Wissenschaftlern weitergegeben haben an
die Einwanderungsbehörde ICE, was auch
642
00:48:50,540 --> 00:48:53,600
immer sie dort verloren haben. Aber das
sind alles Entwicklungen, die müssen
643
00:48:53,600 --> 00:48:58,400
ausgeschlossen sein. Ganz großer Komplex
IT-Sicherheit. Das muss sichergestellt
644
00:48:58,400 --> 00:49:03,740
sein. Das ist im Prinzip ein eigener
Vortrag. Dort möchte ich hier aber
645
00:49:03,740 --> 00:49:07,840
verweisen auf die Arbeiten der Stiftung
Neue Verantwortung, die schon ganz, ganz
646
00:49:07,840 --> 00:49:11,530
viel dazu untersucht und entwickelt und
auch Schaubilder gemacht haben, welche
647
00:49:11,530 --> 00:49:16,450
Angriffs-Vektoren es für KI-Systeme
überhaupt gibt. Und letztendlich müssen
648
00:49:16,450 --> 00:49:20,830
Entscheider:innen auch sicherstellen, dass es
Ressourcen gibt, um dieses Thema, wenn sie
649
00:49:20,830 --> 00:49:23,920
dann einmal im Einsatz sind, auch
tatsächlich dauerhaft evaluiert sind,
650
00:49:23,920 --> 00:49:27,550
damit sich diese ganzen Schwächen, die wir
ja kennen, nicht erst in der Praxis, dann
651
00:49:27,550 --> 00:49:33,520
auch noch einschleichen. Das heißt, wenn
einem bewusst wird, was es alles für
652
00:49:33,520 --> 00:49:37,780
Anforderungen braucht, um KI-Systeme im
Bildungssektor egal zu welchem Zweck
653
00:49:37,780 --> 00:49:42,940
einzusetzen, dann wird glaube ich klar,
dass das etwas ist, was noch ein sehr
654
00:49:42,940 --> 00:49:47,350
langer Weg ist, was nicht überhastet
angegangen werden soll und was noch sehr,
655
00:49:47,350 --> 00:49:51,580
sehr viel Qualifizierung und
Weiterentwicklung braucht. Und das
656
00:49:51,580 --> 00:49:55,960
letztendlich bringt mich jetzt zu meinem
Fazit. Bisher ist es so, dass bei KI im
657
00:49:55,960 --> 00:49:59,680
Bildungssektor vornehmlich darüber
gesprochen wird, dass Learning Analytics
658
00:49:59,680 --> 00:50:03,250
Systeme eingesetzt werden, um halt das
Lernverhalten von Schülerinnen und
659
00:50:03,250 --> 00:50:07,840
Schülern zu analysieren und dabei mit
personenbezogenen Daten gearbeitet wird.
660
00:50:07,840 --> 00:50:12,580
Letztendlich gibt es zum jetzigen
Zeitpunkt noch keine Evidenz dafür, dass
661
00:50:12,580 --> 00:50:15,910
diese Systeme funktionieren und dass diese
ganzen Datensammlungen auch tatsächlich
662
00:50:15,910 --> 00:50:19,600
sinnvoll sind. Es ist ganz, ganz viel
Marketing und vor allem auch
663
00:50:19,600 --> 00:50:22,990
Wirtschaftsförderung dahinter. Wenn diese
Startups jetzt in die Richtung gefördert
664
00:50:22,990 --> 00:50:28,060
werden und das Risiko, das damit entsteht,
wenn diese Systeme weiterhin in die
665
00:50:28,060 --> 00:50:31,450
Schulen gedrückt werden, ist dass die
wahren strukturellen Probleme einfach
666
00:50:31,450 --> 00:50:35,020
dadurch verschleiert werden und dass diese
Mangelwirtschaft einfach fortgesetzt
667
00:50:35,020 --> 00:50:39,040
werden und diese ganzen Potenziale, die KI
tatsächlich mit sich bringt, diese
668
00:50:39,040 --> 00:50:45,190
Probleme tatsächlich mit zu lösen, dass
die einfach gar nicht gehoben werden. Das
669
00:50:45,190 --> 00:50:51,250
Risiko dabei ist, dass es vornehmlich
immer um personenbezogene Daten von
670
00:50:51,250 --> 00:50:55,540
minderjährigen Schüler:innen geht und dass
die ganzen Chancen, die wir im OpenData
671
00:50:55,540 --> 00:51:00,670
Bereich haben, dafür einfach weiterhin
nicht genutzt werden. Und wir haben jetzt
672
00:51:00,670 --> 00:51:04,900
den Zeitpunkt, wo die Weichen gestellt
werden. Ist das genau der Pfad, auf dem
673
00:51:04,900 --> 00:51:08,620
wir jetzt auch weitergehen wollen? Oder
wollen wir jetzt anfangen, in diese
674
00:51:08,620 --> 00:51:13,600
Entwicklung einzugreifen und den Fokus
mehr auf die Meso- und Makroebene legen?
675
00:51:13,600 --> 00:51:19,510
Die EU-Kommission hat jetzt kürzlich ihren
überarbeiteten Digital Education Plan
676
00:51:19,510 --> 00:51:24,070
vorgestellt. Dort ist zu diesem ganzen
Thema KI vorgesehen, dass Lehrkräfte
677
00:51:24,070 --> 00:51:29,140
weitergebildet werden müssen. Dass es
Ethik-Leitlinien geben müssen und
678
00:51:29,140 --> 00:51:32,140
letztendlich auch, dass Forschung nochmal
intensiviert werden muss. Und das ist
679
00:51:32,140 --> 00:51:37,060
jetzt genau der Punkt, um dort reinzugehen
und die Fragen zu stellen und darauf hin
680
00:51:37,060 --> 00:51:42,580
zu drängen, dass in die richtige Richtung
geforscht wird. Das hat mich letztendlich
681
00:51:42,580 --> 00:51:48,250
in dieser ganzen Vorbereitung zu meiner
Empfehlung gebracht. In Anlehnung an diese
682
00:51:48,250 --> 00:51:52,360
Pyramide von der Datenethikkommissionen,
die ich eigentlich, wenn das Prinzip der
683
00:51:52,360 --> 00:51:56,800
Risiko-Klassifizierung diskutabel ist,
finde ich eigentlich dieses
684
00:51:56,800 --> 00:52:03,100
Pyramidensystem sehr gelungen. Und
übertragen auf KI-Systeme im
685
00:52:03,100 --> 00:52:07,900
Bildungsbereich sehe ich einen ganz, ganz
großen, grünen, unkritischen Bereich, wenn
686
00:52:07,900 --> 00:52:11,230
es darum geht, die Forschung und
Entwicklung auf der Makroebene weiter zu
687
00:52:11,230 --> 00:52:16,210
unterstützen und weiter zu fördern. Alles
unter der Nutzung von Open Data, die
688
00:52:16,210 --> 00:52:20,680
entweder schon vorhanden sind oder
vielleicht auch noch weiter erhoben und
689
00:52:20,680 --> 00:52:24,580
genutzt werden können. Das fließt
größtenteils auch noch mit rein in die
690
00:52:24,580 --> 00:52:29,770
Meso Ebene, die auch auf der Basis von
Open Data schon sehr sehr viel Gutes
691
00:52:29,770 --> 00:52:34,690
erreichen kann. Und ganz ganz oben in der
Spitze, wo ich den roten Bereich sehe, ist
692
00:52:34,690 --> 00:52:39,880
tatsächlich die Mikroebene, wenn es um die
Analyse-Systeme geht für Schüler:innen und
693
00:52:39,880 --> 00:52:44,470
für Lehrkräfte, wo mit personenbezogenen
Daten gearbeitet wird. Wenn es dort
694
00:52:44,470 --> 00:52:48,820
weitere Entwicklungen geben sollte, dann
würde ich es bevorzugen, wenn es dort ein
695
00:52:48,820 --> 00:52:52,180
Forschungsbereich gibt oder den
Anwendungsbereich vielleicht höchstens für
696
00:52:52,180 --> 00:52:57,940
Lehrkräfte. Aber dass wir die ganze
Analyse von Schüler:innen vielleicht
697
00:52:57,940 --> 00:53:01,450
erst mal noch außen vorlassen, bis wir
vielleicht viel mehr über KI-Systeme
698
00:53:01,450 --> 00:53:05,740
wissen und alles immer unter der
Voraussetzung, dass die Daten, die erhoben
699
00:53:05,740 --> 00:53:09,580
werden, dann auch weiter zur Verfügung
gestellt werden für die Generierung von
700
00:53:09,580 --> 00:53:16,840
Open Educational Data. Das war's. Vielen
Dank für eure Aufmerksamkeit. Alle
701
00:53:16,840 --> 00:53:20,590
Anregungen, um die ich gebeten habe, alle
Lücken, die ich vielleicht noch gelassen
702
00:53:20,590 --> 00:53:24,440
habe, oder alle Interessenten, die Lust
haben, an diesem Thema auch noch mit
703
00:53:24,440 --> 00:53:28,670
weiterzuarbeiten, freue ich mich total
über Kontaktaufnahme und Feedback und
704
00:53:28,670 --> 00:53:33,470
weitere Informationen. Ich habe hier auch
noch einen großen Anhang mit Quellen, die
705
00:53:33,470 --> 00:53:38,480
ich verarbeitet habe. Wenn es dazu auch
noch Rückfragen gibt, kommt jederzeit
706
00:53:38,480 --> 00:53:42,770
- nicht jederzeit, nich nachts um drei. Also per E-Mail
schon, aber vielleicht nicht per Telefon.
707
00:53:42,770 --> 00:53:46,550
Aber die habt ihr ja auch gar nicht die
Nummer - egal, kommt einfach auf mich zu.
708
00:53:46,550 --> 00:53:50,450
Und dann würde es mich freuen, wenn wir im
Gespräch bleiben. Vielen Dank.
709
00:53:50,450 --> 00:53:56,270
Herald: Hallo Nina, schön, dass du da
710
00:53:56,270 --> 00:54:02,270
warst. Danke für den spannenden Vortrag
grade. Wir hatten so ein bisschen
711
00:54:02,270 --> 00:54:05,660
technische Probleme im Hintergrund. Ich
hoffe deswegen, dass alle im Live-Stream
712
00:54:05,660 --> 00:54:14,450
den Talk auch gut sehen konnten. Nina, du
hast viel erzählt über KI und die Grenzen
713
00:54:14,450 --> 00:54:19,880
und Vorteile. Was sind denn so aus deiner
Sicht vielleicht die klugen nächsten
714
00:54:19,880 --> 00:54:23,540
Schritte, die man so gehen müsste? Was
künstliche Intelligenz und Klassenzimmer
715
00:54:23,540 --> 00:54:29,330
betrifft?
Nina: Hallo Nina, ja genau. Was sind die,
716
00:54:29,330 --> 00:54:33,470
was sind die nächsten Schritte? Also ich
glaube wir sind im Moment an so einer
717
00:54:33,470 --> 00:54:37,760
Entwicklungsphase, wo KI in der Schule und
im Bildungsbereich einfach noch nicht so
718
00:54:37,760 --> 00:54:40,790
wahnsinnig weit verbreitet ist. Und ich
hab das ja auch gemerkt bei meiner
719
00:54:40,790 --> 00:54:45,380
Recherche und auch z.B. hier, was diese
Meso-Ebene angeht. Es gibt noch nicht so
720
00:54:45,380 --> 00:54:50,450
extrem viele Anwendungen, wo man konkret
jetzt schon reingehen und eingreifen kann
721
00:54:50,450 --> 00:54:52,910
und sagen wir wollen hier eine andere
Entwicklung oder das und das muss so
722
00:54:52,910 --> 00:54:59,270
konkret weitergehen. Was allerdings gut an
dieser Entwicklung ist, ist eben, dass wir
723
00:54:59,270 --> 00:55:04,670
noch an diesem frühen Punkt sind und auch
die Möglichkeiten haben, Einfluss nehmen
724
00:55:04,670 --> 00:55:09,040
zu können. Habe ich da ein äh im
Hintergrund gehört? Ja okay, ich rede
725
00:55:09,040 --> 00:55:14,260
einfach weiter. Das heißt, nach allem, was
ich jetzt mitbekommen habe, wie sich das
726
00:55:14,260 --> 00:55:20,050
Thema KI in der Bildung gerade ansetzt zu
entwickeln, möchte ich eigentlich gerne so
727
00:55:20,050 --> 00:55:24,250
eine Art Break machen. Einen kleinen
Schnitt und nochmal hinterfragen ist der
728
00:55:24,250 --> 00:55:28,300
Weg, der jetzt eingeschlagen wird von den
Attack-Startups und auch von den
729
00:55:28,300 --> 00:55:32,200
Regierungen, ist das überhaupt der
Richtige, dass wir KI-Systeme einsetzen,
730
00:55:32,200 --> 00:55:38,650
um das Verhalten und Lernverhalten von
Lernenden zu analysieren? Oder wollen wir
731
00:55:38,650 --> 00:55:42,160
nicht nochmal überlegen, ob wir nicht die
KI-Systeme, die wir jetzt haben, dazu
732
00:55:42,160 --> 00:55:45,490
nutzen können, die strukturellen Probleme
im Bildungssektor anzugehen? Davon gibt es
733
00:55:45,490 --> 00:55:49,510
genug. Dort haben wir eine ganz andere
Datenbasis und es kann vor allem weniger
734
00:55:49,510 --> 00:55:54,370
Schaden angerichtet werden für die
einzelnen Personen, die analysiert werden
735
00:55:54,370 --> 00:55:57,940
oder dann halt auch im besten Fall gar
nicht mehr analysiert werden, weil alles,
736
00:55:57,940 --> 00:56:02,500
was wir aus der KI Geschichte wissen, dass
es sehr, sehr viel Schwierigkeiten gibt,
737
00:56:02,500 --> 00:56:06,970
sobald KI in sozialen Kontexten eingesetzt
werden. Also wenn KI-Systeme benutzt
738
00:56:06,970 --> 00:56:10,570
werden, um Menschen zu analysieren, jetzt
kurz auf den Punkt gebracht, dann führt
739
00:56:10,570 --> 00:56:14,380
das meistens zu größeren Problemen und wir
sollten in der Bildung nicht diese Fehler
740
00:56:14,380 --> 00:56:18,760
wiederholen.
Herald: Ja, das sind auf jeden Fall
741
00:56:18,760 --> 00:56:23,530
ziemlich gute Gedankenanstöße. Wir haben
leider gar nicht so richtig, richtig viel
742
00:56:23,530 --> 00:56:26,440
Zeit, um jetzt hier noch Fragen zu
beantworten. Ich sehe gerade im Chat auch
743
00:56:26,440 --> 00:56:31,330
tatsächlich keine. Ich bin aber sicher,
dass es da noch viel Gesprächsbedarf gibt.
744
00:56:31,330 --> 00:56:36,790
Deswegen würde ich vorschlagen, dass wir
jetzt mit dir in einen Big Blue Button
745
00:56:36,790 --> 00:56:38,022
umziehen.
746
00:56:38,022 --> 00:56:40,750
Outro Musik
747
00:56:40,750 --> 00:56:48,000
Untertitel erstellt von c3subtitles.de
im Jahr 2021. Mach mit und hilf uns!