Intro Musik
Hallo und herzlich willkommen zu meinem
Vortrag "KI im Klassenzimmer - yay oder
nay?" Ich bin Nina, ich bin derzeit
wissenschaftliche Mitarbeiterin im Büro
von Birke Bull-Bischoff. Sie ist die
bildungspolitische Sprecherin der
Linksfraktion im Bundestag. Die letzten
zwei Jahre habe ich auch die Enquete-
Kommission KI im Bundestag für die Linke
mitbegleitet. Und davor habe ich auch
schon mal im Bildungssektor gearbeitet,
sodass ich diesen Vortrag jetzt hier
nutzen möchte, um mal alle meine
Beobachtungen zum Thema KI in der Schule
zusammenzutragen und vor allem auch einen
Blick auf die dabei verarbeiteten Daten zu
werfen und einen Ausblick darauf zu
schaffen, wie KI vielleicht sogar dafür
benutzt werden kann, um strukturelle
Probleme im Bildungssektor anzugehen.
Vorausschicken möchte ich, dass wenn ich
hier von KI rede, ich jeweils sogenannte
schwache KI meine und mich auf Machine
Learning in als seinen Ausprägung beziehe.
Ich möchte euch zuerst einen kleinen Überblick
geben, wie KI im Schulbereich im Moment schon
eingesetzt werden kann. Was dabei auch
tatsächlich noch nicht so wahnsinnig gut
läuft. Dann natürlich zeigen, was meiner
Meinung nach besser laufen könnte, welche
Anforderungen es braucht, damit es besser
laufen kann und dann auch am Ende mit
einer konkreten Empfehlung schließen. Als
ich mich vor ungefähr einem Jahr
angefangen habe, mit diesem Thema vertieft
zu beschäftigen, sind mir zwei Dinge
aufgefallen. Zum einen ist der Begriff KI
eigentlich noch nicht wirklich konkret und
allgemein definiert und all diese KI
Anwendungen im Bildungsbereich auch noch
nicht. Da wird also viel experimentiert
und herumgeworfen mit Learning Analytics,
mit Tutor Systemen, intelligenten Tutor
Systemen. Das ganze unter die Oberbegriffe
von Educational Data Mining gestellt. Das
ist wiederum teilweise die Voraussetzung
oder steht neben dem anderen Begriff von
AIED, also Artificial Intelligence in
Education. Also da kann man je nach Autor
und je nach Anwendungsbereich baut das
eine auf dem anderen auf oder steht
nebeneinander oder ist eine Folge davon.
All das ist ein Signal dafür, dass wir in
diesem Bereich tatsächlich noch sehr am
Anfang stehen, dass das alles sehr
unstrukturiert ist. Und letztendlich ist
auch der ganze Anbietermarkt von diesem
System noch sehr am Anfang und
unstrukturiert. Derzeit sind es vor allem
oder eigentlich ausschließlich proprietäre
Systeme, sodass auch teilweise Forscher
manchmal gar nicht so richtig wissen:
Arbeitet ein System, das mit KI wirbt,
eigentlich wirklich mit KI im Sinne von
Machine Learning oder ist es nur ein
einfacher Algorithmus ohne Lernverfahren?
Oder wie viel Werbung und wie viel
Marketing steckt eigentlich in diesem
Anbietersystem eigentlich wirklich
dahinter? Dann gibt es aber neben dem
ganzen Learning Analytics Bereich, der
sich sehr konkret auf die Erhebung und
Analyse von lernenden Daten, also zur
Verbesserung von Lernerlebnissen und
Lernenergebnissen beschäftigt, gibt es
noch weitere Anwendungsbereiche, in denen
KI eingesetzt wird. In den USA gibt es zum
Beispiel ein Verfahren, dass das
Surfverhalten analysiert. Auf dieser
Keyword Liste der Risikofaktoren stehen
dann allerdings auch Begriffe wie schwul,
queer oder Gedichtsammlung. Also selbst
wenn wir jetzt auch von sehr intoleranten
Gesellschaften ausgehen, ist es natürlich
überhaupt nicht zu unterstützen, dass
diese Begriffe überhaupt irgendwie
Personen zugeordnet und im Sinne einer
Risikoprävention verwendet werden.
Gesichtserkennung auf dem Schulgelände gab
es neben den USA auch in Europa schon. Das
hat Schweden mal an einer Schule probiert
und die wurden dann aber nach sehr, sehr
kurzer Zeit auf Basis der DSGVO auch schon
mit einer hohen Strafe versehen. Also
nicht unbedingt nachahmenswert. In China
ist man da schon ein bisschen weiter und
auch ein bisschen toleranter. Dort gibt es
Gesichtserkennung auch in der Mensa und in
Bibliotheken, sodass dann ganz nebenbei
auch noch Ernährungsverhalten und
Leseverhalten noch mit erfasst und
analysiert werden. Ganz besonders charmant
ist natürlich, dass Eltern sich in
Klassenzimmerkameras auch mit einloggen
können, um ihre Kinder dort direkt im
Unterricht damit zu beobachten. Es gibt
zwar hier und da sogar in China
Widerstände dagegen und das finden nicht
alle Eltern toll. Aber so wie ich das
mitbekommen habe in den letzten Monaten,
ist die Entwicklung da wahrscheinlich eher
noch schwer aufzuhalten. Hier in
Deutschland gibt es Forschungsprojekte, um
zum Beispiel mit einem Stift direkt beim
Schreiben, Üben, Schreibfehler oder
Schreibschwächen rechtzeitig zu erkennen.
Eher aus dem Hochschulbereich ist dieses
Beispiel entnommen vom KIT, wo die
Studienabbruchswahrscheinlichkeit
berechnet wird. Je nachdem was man mit den
Ergebnissen macht, kann das vielleicht
sogar sinnvoll sein, weil dann rechtzeitig
Hilfestellung gegeben werden kann. Aber
wie dann einzelne Entscheider:innen mit
solchen Ergebnissen umgehen, das steht
natürlich nochmal auf einem ganz anderen
Blatt. Und dann wird am DFKI und auch in
der Universität von Tübingen an
intelligenten Schulbüchern geforscht, die
auch mit Daten arbeiten aus iTrackern, EEG
Messung und sogar aus der
Nasentemperaturmessung. Dabei wird davon
ausgegangen, dass wenn die Nasentemperatur
fällt, davon auszugehen ist, dass einem
Lernenden bei seinem Lernstoff gerade
Schwierigkeiten begegnen und das würde
dann letztendlich in einer perfekten
intelligenten Schulbuchversion dazu
führen, dass ihnen noch ergänzende andere
Inhalte angezeigt werden oder vielleicht
irgendwie der ganze Lernpfad dann in
Zukunft anders aufgebaut wird. Ich bin
sehr gespannt, ob diese System Entwicklung
jetzt auch im Pandemiewinter Daten erhebt,
wo wahrscheinlich jeder Schüler zu jeder
Zeit einfach kalte Nasen hat und was das
letztendlich für die Lernpfadentwicklung
bedeutet. Aber das ist ein anderes Thema.
Kann KI denn überhaupt im Bildungssystem
etwas Positives beitragen? Und wenn wir
uns die Stärken von KI angucken, dann
sieht es auf den ersten Blick tatsächlich
so aus, als wäre das eigentlich gar keine
so schlechte Idee. Gerade im Bereich der
Spracherkennung oder Übersetzungssysteme
mit allen Schwächen, die damit
einhergehen, kann es tatsächlich dazu
beitragen, dass Integration oder auch
Inklusion an Schulen einfach erleichtert
werden im Sinne von ergänzt werden. Wenn
Systeme gut gemacht sind, können sie
zumindest kurzfristig immerhin auch die
Motivation von Schüler:innen steigern und
können im Idealfall Lehrkräfte auch
tatsächlich entlasten. Das wäre alles
total wunderschön, wenn es nicht auch
Schwächen im KI-System gibt, die euch alle
sicherlich total vertraut sind. Die
Qualität eines KI-Systems bemisst sich vor
allem nach der Datenbasis. Garbage in
garbage out, wie man so schön sagt. Und
viele Daten im Bildungsprozess, der ja ein
sozialer Prozess ist, der ist vielleicht
gar nicht unbedingt optimal
operationalisierbar, d.h. da stellt sich
immer noch die große Frage: Welche Daten
können überhaupt erfasst werden und wie
können sie überhaupt sinnvoll analysiert
werden? Lerndaten betreffend MINT-Fächer,
die auf Logik basiert sind, eignen sich
dafür sicherlich besser als zum Beispiel
die sogenannten 4K Kompetenzen, also
Kollaboration, Kreativität zum Beispiel.
Wie will man sowas messen und wie will man
sowas in Operationalisierbarkeit pressen?
Das steht noch im Raum. Dann haben wir
natürlich auch im Bildungsbereich die
üblichen Probleme mit der
Nachvollziehbarkeit und mit der
Erklärbarkeit und die Risiken von
Verzerrungen. Auch nicht ganz unwichtig
ist die Problematik, dass eine Korrelation
noch keine Kausalität mit sich bringt.
Also hier nochmal das Beispiel mit der
Nase und Temperatur. Es kann ganz viele
verschiedene Gründe haben, warum
Gehirnströme gerade einen bestimmten Weg
nehmen, warum Körpertemperatur sich
verändern oder warum sich Augenbewegungen
entweder direkt bei einem Lerninhalten
oder auch im Raum bewegen. Das hat alles
nicht zwangsläufig was mit dem
Lerninhalten oder mit der Lernatmosphäre
zu tun. Bei all meinen Recherchen für
diesen Vortrag habe ich immer ganz
explizit gefragt: Gibt es denn Beweise
dafür überhaupt, dass diese KI-Systeme
vielleicht auch gut funktionieren und den
Lernenden tatsächlich was bringen? Aber
diese Evidenz gibt es bislang nicht. Ich
habe interessanterweise, als kleine
Anekdote am Rande, auf der Webseite von
bettermarks eine Bewertung gefunden für das
System bettermarks von dem
neurowissenschaftlichen Institut, das
unter der Leitung von Manfred Spitzer
steht, der ist den Freunden der digitalen
Bildung vor allem dadurch bekannt, dass er
viele Elemente der digitalen Bildung
eigentlich eher verteufelt. Aber dort wird
auf der Website natürlich dem System
bettermarks bescheinigt, dass es einen total
guten Lerneffekt hat. Wie gesagt, Forscher
konnten das bisher noch nicht bestätigen.
Wenn wir nun diese KI-Systeme mit all
ihren Schwächen auf die Schulen ungebremst
loslassen, dann kann das dazu führen, dass
wir eigentlich anstatt dieser Entlastung
eher Überforderung produzieren, dass wir
Normierungen und Standardisierungen in
Bereichen einführen, die vielleicht gar
nicht ohne weiteres standardisierbar sind.
Wir können Lehrkräfte in unangenehme
Situationen bringen, wenn sie z.B. in
einer Elternsprechstunde mit Eltern
konfrontiert sind, die nicht nur die
Methoden des Lehrers hinterfragen. Das
machen sie ja jetzt schon häufig genug.
Sondern dann vielleicht auch
Bewertungssysteme hinterfragen und dann
von Lehrkräften wissen wollen: Wie kommt
denn dieses System zu dem Ergebnis oder zu
dieser Bewertung meines Kindes? Und
Lehrkräfte so was nicht einfach erklären
können. Größtes Problem ist natürlich,
dass alle Systeme, über die im Moment im
Bildungssektor gesprochen wird, diese
Learning Analytics Systeme und Tutor
Systeme, dass die mit personenbezogenen
Daten von ja größtenteils minderjährigen
Schüler:innen arbeiten. D.h. da werden
Datensammlungen angefertigt, es werden
Datenprofile angefertigt und das alles
unterwandert die informationelle
Selbstbestimmung der Kinder. Selbst wenn
Eltern dieser Verwendung natürlich
zustimmen müssen, stellt sich ja auch noch
die Frage: Wie gut sind die Eltern denn
überhaupt informiert über all die
Konsequenzen und die Folgen, die das hat?
Inwieweit gibt es vielleicht auch einen
gewissen sozialen Gruppenzwang in einem
Klassenverband oder einer Schule sich
anzuschließen, auch wenn man vielleicht
als Eltern selber gar nicht genau weiß,
was das dann eigentlich bedeutet? All das
ist im Moment noch ein bisschen unklar.
Und das sind genau diese Punkte, über die
meiner Meinung nach im Moment noch viel zu
wenig tatsächlich offen gesprochen wird.
Was diese Schwäche tatsächlich in der
Praxis für Probleme mit sich bringen
können, sehen wir auch schon in
ausländischen Anwendungen. Zum Glück muss
man fast sagen, im Moment. Ich weiß ich,
ob ihr das mitbekommen habt. Im Sommer gab
es diese Problematik mit dem britischen
System Ofqual. Genauso wie bei uns auch
haben die Schulen unter der Pandemie
gelitten und es konnten bestimmte
Prüfungen zu Abschlüssen nicht richtig gut
oder überhaupt nicht durchgeführt werden.
D.h. Lehrkräfte wurden gebeten, doch
aufgrund von ihren persönlichen
Einschätzung dann die Schüler mit einer
Abschlussnote zu versehen. Diese
Abschlussnoten waren dann aber den
Behörden offensichtlich zu gut, sodass sie
nochmal einen Algorithmus eingesetzt
haben, der das Ganze nachrechnen sollte.
Das wiederum führte dazu, dass viele Noten
wieder abgewertet worden und die Schüler
sich verschlechtert haben. Dagegen sind
dann natürlich die Schüler:innen wiederum auf
die Straße gegangen und haben sich
gewehrt, sodass am Ende doch wieder die
Beurteilung der Lehrkräfte eingesetzt
wurde. Zum Glück. Ein anderes Beispiel,
von dem ich gelesen habe, ist das System
Edgenuity. Ich weiß jetzt nicht wie das
richtig betont ist. Dort hat eine Mutter
festgestellt, dass die
Textverarbeitungssysteme, die die Aufsätze
ihres Kindes bewerten sollen, viel, viel
schlechter bewerten als frühe die
Aufsätze, die das Kind einfach ganz normal
mit der Hand in der Schule geschrieben
hat. Und dann ist in diesem System auf den
Grund gegangen und hat festgestellt, dass
das System vor allem bewertet anhand der
Häufigkeit von bestimmten Stichwörtern.
Und dann hat sie versucht, einfach mal so
als Beispiel einfach nur mit
Stichwortwolken so eine Aufsatzaufgabe zu
erfüllen. Und tatsächlich wurden dieses
Stichwortwolken besser bewertet als ein
komplett zusammenhängender Text. Was
natürlich, wenn man das System so weit
einmal verstanden und geknackt hat,
relativ leicht ist, solche Aufgaben zu
bestehen, aber natürlich überhaupt gar
keinen Bildungseffekt mehr mit sich
bringt. Auch eher aus dem Hochschulbereich
sind diese Testverfahren Proctorio und
ExamSoft bekannt, sollen hier an dieser
Stelle aber trotzdem angesprochen werden.
Einfach um schon mal aufzuzeigen, welche
Probleme damit einhergehen, bevor wir auf
die Idee kommen, sie vielleicht auch an
den Schulen einzusetzen. Diese Systeme
arbeiten vor allem mit Kameraüberwachung,
aber auch mit Geräuschanalysen und mit
Bewegungsanalysen, um daraus Rückschlüsse
zu ziehen, ob ein Prüfling gerade versucht
zu täuschen. Und diese Systeme haben jetzt
schon in der Praxis verschiedene Probleme
aufgezeigt. Also das ganz typische
Problem, was wir ja schon in anderen
Kamerakontexten kennen bei People of
Color. Sie werden dann von der Kamera
nicht erkannt, werden dann gebeten noch
zusätzliche Lichtquellen einzusetzen. Dann
kann das tatsächlich dazu führen, dass
Menschen diskriminiert werden, die in
beengten Verhältnissen in einer WG wohnen
oder vielleicht noch Kinder um sich haben,
weil dann unbekannte Geräusche Quellen
auftauchen, die ein System vielleicht als
Täuschungsversuch oder als
Unterstützerperson klassifizieren kann.
Aber auch gesundheitlich beeinträchtigte
Menschen sind zusätzlich belastet, einfach
weil sie angeben müssen, dass sie
vielleicht häufiger mal ins Bad müssen
oder dass sie eine Insulinpumpe tragen,
einfach damit das System von bestimmten
Signalen also z.B. nicht irritiert ist.
Also all das führt dazu, dass Menschen
gezwungen werden, Dinge offenzulegen und
vor allem diese Daten auch in Datenbanken
mit erfasst werden, die eigentlich sehr
persönlich und sehr privat sind und mit
einem Prüfergebnisse überhaupt gar nichts
zu tun haben. Hier in Deutschland kennen
wir alle oder die meisten von euch
wahrscheinlich diese Anwendung Duolingo
zum Vokabel- oder zum Sprachtraining.
Duolingo hat auch ein Englisch Test
aufgelegt, der auch online absolviert
werden kann und auch dort wird mit
Kamerasystem gearbeitet und ich habe bei
einer Forschung nachgelesen, dass
Forschenden dann versucht haben, da auch
mal auf den Grund zu gehen, ob Duolingo
denn ausschließen kann, dass diese
bekannten Systeme bei Duolingo nicht
auftauchen. Also diese Diskriminierungen
nicht passieren können oder auch z.B.
Diskriminierung aufgrund von Akzenten
nicht automatisch als fehlerhaft
eingestuft werden. Und leider konnte
zumindest zu dem Zeitpunkt der Befragung
Duolingo diese Diskriminierung nicht
ausschließen. Ein System, über das ich
gestolpert bin bei meiner Recherche ist
DyRiAS. Ich habe leider noch nicht
herausgefunden, ob Schulen überhaupt damit
arbeiten. Und wenn ja, wie viele. Wenn ihr
was über dieses System und seine Anwendung
wisst, bin ich für sachdienliche Hinweise
total dankbar. Was ich darüber gelesen
habe ist, dass DyRiAS ist ein
Risikoanalysesystem, was unter anderem
auch genutzt werden kann, um ein Risiko
für häusliche Gewalt zu identifizieren. Es
wird auch in der Schule angewendet, sodass
Lehrkräfte nach einer Schulung und wenn
sie eine Lizenz erworben haben, mit diesem
System erkennen können, ob Schüler:innen
demnächst vielleicht mal Amok laufen. Und
dazu werden Kommunikationsverhalten und
Verhaltensweisen analysiert. Wie genau das
System funktioniert, wie gesagt, weiß ich
im Detail nicht. Da werde ich aber
sicherlich nochmal in Zukunft etwas tiefer
einsteigen, um das zu verstehen. Weil mich
das sehr irritiert. Im Ergebnis bekommen
Lehrkräfte dann so einen farblichen
Balken. Das ist also ein original
Screenshot aus der Broschüre. Und
vollkommen unklar ist für mich tatsächlich
auch, was genau passiert oder wer Zugang
zu diesen Daten hat. Wenn dann ein Kind
tatsächlich immer weiter in diesen roten
Bereich rutscht. Was heißt überhaupt roter
Bereich und bedeutet das höchste Warnstufe
oder bedeutet Stufe 5 schon, hier musst du
eigentlich sofort die Polizei rufen. Dazu
kommt noch, dass die Daten, die für dieses
System erfasst werden, dass die
browserbasiert, verarbeitet werden.
Immerhin verschlüsselt. Weiteres halbwegs
beruhigendes Signal ist, das DyRiAS in
seiner Broschüre zumindest darauf
hinweist, dass die Nutzung von
gewaltorientierten Computerspielen oder
auch das Tragen eines Irokesenschnitt zum
Beispiel keine Indikatoren seien für eine
erhöhte Gewaltbereitschaft. Aber wie
gesagt, da werde ich mich auf jeden Fall
nochmal weiter informieren wollen, wie
dieses System genau in der Praxis
arbeitet. Und letztendlich ist es auch mal
sehr interessant zu wissen, was passiert
dann eigentlich mit diesem
Farbskalasystem. In der ganzen
Beschäftigung mit KI in den letzten zwei
Jahren hat sich bei uns im Fraktionsteam
irgendwann mal diese Frage aufgedrängt,
was es denn überhaupt mit den Menschen
macht, die mit solchen KI-Systeme
arbeiten. Und es wird immer so ein
bisschen als beruhigendes, ja sozusagen
als so eine Art Feigenblatt ganz oft
erwähnt. Naja, am Ende die letzte
Entscheidung trifft ja der Mensch. Aber
was bedeutet das eigentlich? Weil für uns
hat dann tatsächlich an der Stelle diese
Debatte nicht aufgehört, sondern erst
angefangen. Weil die Frage ist dann:
Welche Verantwortung kann ein Mensch dann
überhaupt für seine Entscheidung
übernehmen und wenn er tatsächlich diese
Entscheidung treffen soll, ist er
überhaupt dazu befähigt, diese
Entscheidung zu treffen? Einmal
tatsächlich kognitiv - weiß er überhaupt,
wie das System funktioniert? Kann er
einschätzen, wenn eine Klassifizierung
oder eine Entscheidungsvorbereitung
vorgenommen oder vielleicht sogar eine
Entscheidung getroffen wird? Kann er
überhaupt erkennen, ob diese Entscheidung
des Systems richtig ist in seinem Sinne
oder ob er vielleicht sich dagegen
entscheiden sollte? Und selbst wenn er
sich entscheidet, sich dagegen zu
entscheiden, ist er überhaupt dazu
berechtigt aufgrund von seiner Rolle in
der Organisation? Es gibt Organisationen,
da wird es ja vielleicht durchaus
erwartet, dass er eigenmächtig entscheidet
und dann gibt es andere
Organisationsformen, wo es genau von ihm
erwartet wird, sich nicht eigenmächtig zu
entscheiden. Das betrifft jetzt alles
nicht nur den Bereich Bildung, sondern
insgesamt soziale Kontexte im Einsatz von
KI-Systemne. Eine grundsätzliche Frage, die
wir uns stellen müssen in allen
Anwendungssektoren ist: Wer entscheidet
denn überhaupt besser der Mensch oder die
Maschine? Und nach welchen Gütekriterien
wird das entschieden? Im Bildungsbereich
gibt es ja durchaus die Meinung, dass es
heißt, lieber sollen Schüler von scheinbar
neutralen Systemen bewertet werden als von
vorurteilsbelasteten Menschen. Aber auch
ein System ist natürlich niemals neutral.
Und auch selbst wenn ein Mensch mit
Vorurteilen belastet ist, hat er trotzdem
nur einen relativ kleinen
Entscheidungsspielraum. Wenn hingegen für
Bewertungsverfahren Systeme eingesetzt
werden, dann wirken sie direkt auf die
ganze Schule oder im schlechtesten Fall
vielleicht sogar für das ganze Land. Und
auch wenn wir uns dafür entscheiden, dass
Entscheidungen an Maschinen ausgelagert
werden soll, um Schaden zu vermeiden, ist
auch die Frage: Wodurch entsteht denn
überhaupt ein Schaden? Entsteht ein
Schaden durch ein richtig funktionierendes
System, das dann aber langfristig
gesellschaftliche Schäden mit sich bringt?
Oder entsteht ein Schaden durch ein nicht
gut funktionierendes System oder nicht wie
erwartet funktionierendes System? Und
entstehen Schäden eigentlich nur durch Tun
oder entstehen Schäden auch durch
Unterlassung? Das heißt bezogen auf diese
Entscheidung: Wer entscheidet besser,
Mensch oder Maschine? Müssen all diese
Aspekte mit betrachtet werden. Und auch
der Verzicht auf ein maschinelles System,
das vielleicht irgendwann nachweislich
einen positiven Effekt hat, kann
tatsächlich zu einem Schaden führen. Wenn
wir uns dann dafür entschieden haben, dass
wir ein KI System ergänzend einsetzen wollen
in einem bestimmten Anwendungssektor, dann
muss als nächstes entschieden werden: Wie
viel Entscheidungsspielraum soll der
Mensch dann überhaupt noch haben, wenn es
heißt: Am Schluss trifft der Mensch die
letzte Entscheidung? Die Papiere von der
EU-Kommission zum Beispiel gehen im Moment
von drei verschiedenen Stufen aus. Human
in Command, Human on Command und Human in
the Loop. Aber es gibt schon aus der
Informatik viel ältere
Klassifizierungssysteme, die viel
ausgefeilter sind, z.B. vom MIT aus den
1980er Jahren, die bis zu zehn Stufen
unterscheiden, in denen verschiedene
Autonomiegrade vom Menschen bis zur
Maschine einmal durchlaufen werden, also
von der vollständigen Autonomie für den
Menschen bis hin zur vollständigen
Autonomie durch die Maschine. Das heißt,
da ist dieser, diese Aussage, die
menschliche, die letzte Entscheidung
trifft der Mensch ist noch so viel
wahnsinnig vielen Fragen unterworfen und
vor allem aber, finde halte ich das für
die allerwichtigste Frage, genau diese
Abstufungen, welchen
Entscheidungsspielraum Mensch überhaupt
hat, weil daraus leitet sich dann
letztendlich auch ab, wie ein Mensch
weitergebildet werden muss, mit diesem
System überhaupt zu arbeiten und welche
Vereinbarungen er vielleicht in seinem
Arbeitsvertrag braucht, also welche Rechte
er überhaupt hat, diesen
Entscheidungsspielraum tatsächlich
wahrzunehmen. So, selbst wenn er diesen
Entscheidungsspielraum dann für sich
festgelegt hat, dann ist auch noch die
Frage: Wie viel Entscheidungsspielraum
lässt das System dann tatsächlich zu? Es
gibt in diesem ganzen Bereich Mensch-
Maschine Interaktion derzeit noch sehr,
sehr wenig Forschung. Aber die ersten
Forschungen, die es schon gegeben hat, die
zeigen zum Beispiel: Selbst wenn Menschen
erkennen, dass das System gerade nicht
optimal arbeitet und sie möchten gerne in
das System eingreifen, um einen Fehler zu
eliminieren oder eine Korrektur
vorzunehmen und dann dabei feststellen,
dass dieser Prozess so wahnsinnig
aufwendig und kompliziert ist, dann neigen
Menschen tatsächlich dazu, mit diesem
fehlerhaften System trotz besseren Wissens
weiterzuarbeiten. Und das ist halt etwas,
was wir gerade in sozialen Kontexten und
gerade in Bereichen, in denen KI-Systeme
über das Leben oder Lebenswege von
Menschen entscheiden, einfach ganz genau
hinschauen sollten, was es denn eigentlich
bedeutet, wenn der Mensch die letzte
Entscheidung treffen soll. Denn am Ende
kann es tatsächlich sein, dass der
Entscheidungsspielraum, der dort
angedeutet wird, mit dieser Aussage viel,
viel kleiner ist als angenommen
Handlungsspielräume geklärt sind. Und
auch, weil wir von total optimal
funktionierenden KI-System ausgehen. Dann
ergeben sich immer noch Probleme auf der
strukturellen Ebene, sodass wir auf lange
Sicht einfach schauen müssen: Was macht
das dann mit der Lernkultur, mit der
Bildungskultur an Schulen? Das fängt an
bei der Erhebung von den Daten, also der
Datafisierung von Lernprozessen. Aber ich
werde nicht müde, immer wieder zu
wiederholen, dass wir immer noch mit
personenbezogenen Daten von größtenteils
minderjährigen Schüler:innen arbeiten und
dass wir Kinder auch schon sehr, sehr früh
daran gewöhnen, sich mit algorithmischen
Klassifizierungs- und Bewertungsverfahren
auseinanderzusetzen und sich vielleicht
ihnen auch sogar zu unterwerfen, ohne dass
sie sie aufgrund der Black-Box Problematik
vielleicht nachvollziehen können. Nächste
Problematik ist das Ding der
Standardisierung, Operationalisierung von
Daten. Welche Dinge werden dabei
ausgelassen? Wer bestimmt, was der
Standard ist? Wer bestimmt, was das
normale ist? Inwieweit können diese
Systeme überhaupt hinterfragt werden?
Welche Qualitäts- und Fairness-Maße beim
Training, welche Feedback an diese Systeme
gegeben werden? In der Bildung gehört es
letztendlich dazu, auch nicht
standardisierte Wege zu gehen. Hetty,
einer der renommiertesten
Bildungsforscher, hat in seiner Studie
Visible Learning unter anderem nochmal
herausgestellt, dass es zum einen zum
Bildungserfolg gehört und dass es auch mit
Bildungserfolg beiträgt, wenn Schüler:innen
befähigt werden, vorgegebene Lösungswege
aufzubrechen oder auch ihre eigenen zu
finden. Aber durch diese ganze
Vereinzelung und durch die
Standardisierung gehen halt einfach auch
bestimmte Möglichkeiten im Lern-Spektrum
verloren, sodass Schüler:innen gar nicht
mit alternativen Möglichkeiten vielleicht
mehr konfrontiert werden, um ihren
Horizont zu erweitern. Die nächste
Problematik ist das Scheitern. Wenn ich
jetzt in einem normalen Klassenverbund
vielleicht selber schon mal merke, ich
komme hier an meine Grenzen oder ich komme
mit der Aufgabenstellung nicht zurecht,
dann ist das natürlich total frustrierend.
Aber gleichzeitig gehört das auch mit zum
Bildungsprozess und zur
Persönlichkeitsentwicklung auch dazu,
Grenzen zu erkennen, auch mit Misserfolgen
umzugehen. Und wenn all dies ausbleibt,
dann verschieben sich diese Grenzen
einfach viel, viel weiter nach hinten,
weil dann immer nur der Inhalt präsentiert
wird, der geradezu meinem vom System
errechneten Lernniveau passt und ich aber
vielleicht gar nicht mehr dazu richtig
gefordert werde, mich auch aber mit Dingen
auseinanderzusetzen, die ich vielleicht
noch gar nicht können kann, die mich aber
vielleicht jetzt aktuell nochmal
weiterbringen. Jetzt im Klassenverband
gibt es zwar auch das Thema der
Binnendifferenzierung, also dass es
unterschiedliche Inhalte idealerweise für
verschiedene Lernniveaus oder für
verschiedene Lerntypen gibt. Aber in einem
Klassenverband gibt es immer noch die
Möglichkeit, das in Gruppenarbeiten z.B.
zu organisieren, wo etwas schwächere
Schüler mit etwas stärkeren Schülern
zusammen an einer Lösung arbeiten können.
Wenn wir auf individualisierte
systembasierte Lernpfade gehen, dann
sitzen im Prinzip die Schüler:innen dort
alleine und das System entscheidet, was
hier präsentiert wird und was nicht
präsentiert wird. Da geht einfach sehr,
sehr viel verloren. Das Spektrum verengt
sich. Gleichzeitig kann es aber auch
passieren, dass Lehrkräfte vielleicht noch
mehr angegriffen werden, als sie es
vielleicht jetzt schon werden von Eltern
einfach in Frage gestellt werden. Ihre
Entscheidungssysteme können mehr in Frage
gestellt werden, weil Lehrkräfte
vielleicht verlangen, dass ein System
nochmal die Bewertung nachvollzieht, was
letztendlich sehr demotivierend für
Lehrkräfte sein kann, was Vertrauen
unterwandern kann und letztendlich auch
die Autorität von Lehrkräften wieder
unterwandern kann. Wir haben sowieso schon
ein großes Problem mit Lehrkräftemangel
und die Frage ist, ob solche Entwicklungen
Lehrkräfte oder angehende Lehrkräfte
motiviert, diesen Beruf dann überhaupt
noch zu ergreifen, wenn sie sich dann auch
zukünftig immer mit technischen System
messen müssen. Letztendlich aber
wahrscheinlich das größte Problem: Was
macht es mit der Ungleichheit? Also alle
Bildungsberichte gehen im Prinzip immer
wieder davon aus, dass wir
Bildungsungleichheiten und
Ungerechtigkeiten haben. Das ist eines der
größten Probleme im Bildungssektor, das es
tatsächlich gibt, und die Frage ist,
inwieweit die der verstärkte Einsatz von
KI-Systemen diese Ungleichheiten entweder
aushebelt oder vielleicht sogar verstärken
kann. Das kann auf der individuellen Ebene
passieren, dass Schüler:innen, die sich
vielleicht sehr gut selbst organisieren
können und vielleicht sehr gut mit Systemen
arbeiten können, dieses schneller
verstehen, vielleicht auch schneller
wissen, wie sie es umgehen können. Während
vielleicht eher lernschwache Schüler sich
dem System eher ausgeliefert fühlen und
vielleicht eher demotiviert werden, sich
dann nochmal Hilfe zu suchen oder
vielleicht auch Lehrkräfte das gar nicht
unbedingt erkennen können, dass
Schüler:innen vielleicht überhaupt
Schwierigkeiten haben, wenn sie diese
Systeme zuhause anwenden oder vielleicht
hinter einem Bildschirm verschwinden. Auf
einer größeren Ebene kann der Einsatz von
KI Systemen die Ungleichheit verschärfen,
weil einfach die Frage ist: Werden sich
dann zukünftig eher gut ausgestattete
Schulen in reichen Bundesländern, in
privilegierten Umfeldern KI-Systeme zur
Unterstützung leisten können? Oder werden
KI-Systeme eher eingesetzt werden können
in weniger privilegierten Kontexten? Es
gibt in den USA gab es jetzt die
Gründungen von Rocketchip Schulen. Ich
kann mir den Namen immer sehr schlecht
merken. Rocketchip Public Schools heißen
sie und dort sitzt dann im Prinzip nur
noch eine Hilfslehrkraft, die dann bis zu
90 Schüler:innen an ihren
Computerbildschirmen steuert, anleitet,
irgendwie unterstützt, um einfach auch
Stellen an gut ausgebildeten Lehrkräften
einzusparen. Dort läuft es auf eine Art
Massenabfertigung hin und die Forschung,
die es da gegeben hat, hat jetzt zumindest
letztes Jahr schon gezeigt, dass die
Ergebnisse, die die Schüler:innen dort erzielen,
bis zu einer Note schlechter sind als
Schüler:innen, die in einem herkömmlichen
Klassenverband mit vernünftig
ausgebildeten Lehrkräften lernen. Wir
kennen diese Diskussionen auch im
Gesundheitsbereich, in der Pflege. Auch da
wird diskutiert, ob Robotics Systeme in
der Pflege eher ein System für die
Privilegierten sind. Wer es sich leisten
kann, holt sich einen Roboter dazu. Oder
ob es auch da eher um eine Auslagerung an
Technik geht, dass wir in weniger
privilegierten Einrichtungen einfach von
Maschinen betreut werden anstatt von
Menschen. Also da kann der Bildungssektor
sich vielleicht ganz gut am
Gesundheitssektor orientieren und diese
Debatte dort mal verfolgen, in welche
Richtung das geht. All diese Schwächen und
Risiken zusammengenommen frage ich mich
tatsächlich, ob das Werben für KI-Systeme
an Schulen oder auch teilweise der Druck,
der da gemacht wird, dass das eigentlich
totale super Sache ist. Ob das nicht
letztendlich einfach nur gemacht wird, um
die eigentlichen Probleme im Schulsystem
zu verschleiern. Denn eigentlich haben wir
es mit einer großen Mangelfinanzierung zu
tun. Wir haben zu große Klassen, wir haben
zu wenig Lehrkräfte, wir haben einen
wahnsinnigen Sanierungsstau. Und wenn
gleichzeitig dann aber von Regierungen
mitempfohlen wird, dass wir doch KI-
Systeme und Learning Analytics einsetzen,
weil dadurch die Lehrkräfte entlastet
werden und sich dann besser um die
Schüler:innen kümmern sollen. Wobei wir
eigentlich gar keine Evidenz dafür haben,
dass das tatsächlich so funktioniert und
so klappt. Dann habe ich einfach zunehmend
das Gefühl, dass genau diese
Mangelwirtschaft einfach aufrechterhalten
werden soll und dadurch verschleiert
werden soll, dass wir mal wieder
versuchen, soziale Probleme mit Technik zu
lösen. Und das ist etwas, wo wir meiner
Meinung nach genau jetzt an diesem Punkt
sind, diese Diskussion zu führen und diese
Entwicklung zu verhindern, weil
diejenigen, die letztendlich darunter
leiden, sind neben den Lehrkräften, die am
Ende nämlich nur scheinbar entlastet
werden, vor allem die Schülerinnen und
Schüler, deren Daten jetzt einfach erhoben
werden und verarbeitet werden sollen und
wir gar nicht wissen, was daraus am Ende
wird. So bedeutet das jetzt aber, dass KI-
Systeme im Bildungssektor und in der
Schule gar nichts verloren haben. So weit
würde ich gar nicht gehen, sondern ich
möchte gerne in Zukunft unterscheiden, auf
welchen Ebenen wir KI-Systeme im
Bildungssektor einsetzen. Wir haben jetzt
bisher immer so ein bisschen betrachtet,
was auf der Mikroebene passiert, also wo
personenbezogene Daten von Schüler:innen
oder von Lehrkräften analysiert und
verarbeitet werden. Es gibt aber auch noch
die Meso und Makroebene im Bildungssystem.
Auf der Mesoebene reden wir von dem Zugang
zu Lernorten oder auch zu Lerninhalten und
die Makroebene betrachtet tatsächlich die
übergreifende Steuerung von
Bildungssysteme, wo sich z.B. auch die
Problematik der Ungerechtigkeit lösen
lassen müsste. Auf der Meso- und auf der
Makroebene gibt es tatsächlich dann die
Möglichkeit mit Open Data zu arbeiten und
nicht mit personenbezogenen Daten, um halt
diese bestimmten oder diese konkreten
Probleme mit anzugehen. Und ich möchte
jetzt im Folgenden eigentlich mal
vorstellen, welche Beispiele es dafür
jetzt schon gibt oder welche es geben
könnte, damit es nicht so als Behauptung
im leeren Raum steht. Also nochmal zurück
auf die Mikroebene gegangen, gibt es dort
auch durchaus Möglichkeiten, mit Systemen
zu arbeiten, die nicht unbedingt die
personenbezogenen Daten von Schülerinnen
und Schülern verarbeiten. Das ist zum
einen die Möglichkeit: Es gibt ein System,
dass Lehrkräfte neue Methoden zum Beispiel
anhand einer KI trainieren können und
aufgrund des Feedbacks der KI dann sehen
können, wo Verständnisschwächen entstehen,
sodass sie dann ihre Methoden und ihre
Erklärweisen nochmal anpassen können,
bevor sie damit konkret in die Klasse
gehen. Dann gibt es natürlich diesen
ganzen Bereich der Administration,
Vertretungspläne, Stundenpläne oder auch
Postverwaltung. Da gibt es ja schon einige
Beispiele, auch aus Behörden, wie sowas
eingesetzt werden kann mit ganz, ganz
unkritischen Anwendungsbereichen und
keinen großen personenbezogenen Daten, die
dafür nötig sind. Was auch total günstig
ist, ist natürlich alles, was dazu
beiträgt, das System KI zu verstehen. Also
selbst wenn ich Anwendungen durchaus in
gewissen Bereichen hier intensiv in Frage
stellen möchte, ist zu keinem Zeitpunkt in
Frage zu stellen, dass natürlich
verstanden und gelernt werden muss, wie
algorithmische und KI-Systeme
funktionieren und was man mit ihnen machen
kann. Das heißt, als Unterstützung für
Lernmethoden oder auch um Experimente
durchzuführen, ist es auch für Schüler
durchaus geeignet. Es gab mal diesen
Wettbewerb. Ich weiß nicht, ob der jedes
Jahr stattfindet, zur KI Schule des
Jahres. Dort haben jugendliche
Schüler:innen unter anderem ein System
entwickelt, um Zugverspätung
vorherzusagen, also sehr anwendungsnah und
sehr sinnvoll für viele von uns. Und auch
Methoden der Textanalyse oder Datenbank-
Analysen. Auch die können Schülern
durchaus zugutekommen, sodass sie sie als
Werkzeuge für das eigene Lernen benutzen
und dabei aber weniger Schüler:innen
Werkzeuge für das KI-System darstellen
müssen. Auf der Meso-Ebene habe ich
tatsächlich im Moment sehr, sehr wenig
Anwendungsbeispiele gefunden, was da
gemacht werden kann. Also eine Sache, die
mich inspiriert hat, ist das Ergebnis
eines EDU Hacks. Dort hat eine Gruppe eine
Open Source Bibliothek entwickelt und
sowas kann ich mir sehr sehr gut auch
tatsächlich für Deutschland vorstellen,
dass wir, wir haben ja diese Problematik,
Lehrkräfte von euch werden das kennen, ich
hab das jetzt auch schon oft gehört, dass
Lehrkräfte immer auf der Suche sind. Wo
finde ich denn gute OER Materialien? Woher
weiß ich dann, dass die gut sind oder
nicht? Woher weiß ich, ob die zu meinem
Unterricht passen? Es ist alles so weit
verstreut. Ich weiß gar nicht, wo ich das
ganze gute Zeug finden soll. Sowas alles
in eine Datenbank zu packen und dann mit
KI-Systeme durchsuchbar zu machen und
vielleicht auch so durchsuchbar zu machen,
dass Lehrkräfte schnell dort auch wissen,
wie komme ich dann an genau die
Ergebnisse, die ich gerade für meinen
Unterricht gebrauchen kann. Könnte ein
Anwendungsbeispiel sein. Die OER-Strategie
der Bundesregierung ist ja jetzt
ausgelaufen. Wird gerade neu entwickelt.
Kommt im nächsten Jahr. Und wir wissen
leider noch nicht, was drin steht. Aber es
bleibt einfach zu hoffen, dass eine
Zentralisierung oder zumindest eine
bessere Auffindbarkeit von OER-Inhalten
dort mitgedacht wird. Das Thema Inklusion-
Integration hatten wir schon angesprochen.
Auch da sehe ich bei KI, wenn man diese
ganzen Problematiken bei der
Spracherkennung und Übersetzung
ausgehebelt sind, wenn die ausgehebelt
sind, dass wir dort auch noch viele
Potenziale haben, die es zu heben gilt, um
Inklusion und Integration einfach
einfacher zu machen. Und was ich auch sehe
ist im Kontext autonomes Fahren oder auch
Verkehrsleitsysteme, das ganze Thema
Schultransporte, sei es
jahreszeitenbedingt oder vielleicht auch
im ländlichen Raum und vor allem aber auch
mit Blick auf Förderschulen oder inklusive
Schulen. KI-Systeme können sicherlich
dabei unterstützen, den Transport gut zu
organisieren und effizient zu
organisieren. Und wir werden es ja
mindestens im nächsten Jahr auch noch mit
dieser Pandemie zu tun haben. Und gerade
inklusive Schulen oder Förderschulen haben
bei diesem ganzen Transport Thema
tatsächlich ein großes Problem, weil dort
die Zusammenkunft von Schüler:innen in so
einem Schulbus oder in so einem Transport
Bus hin zur Schule für Menschen oder
Schüler:innen mit Behinderung einfach noch
ein viel, viel größeres Risiko darstellen,
als es für gesunde Schüler:innen ist. Also
Menschen mit Behinderung gehören zur
Risikogruppe Nummer eins. Zu weiteren
Potenzialen auf der Makroebene. Dort gibt
es tatsächlich schon konkrete
Anwendungsfälle, die uns für Deutschland
auch ein Vorbild sein könnten. Also sowohl
die Schweiz als auch Belgien haben zum
Beispiel Systeme entwickelt, um die
Durchmischung, die soziale Durchmischung
an Schulen zu optimieren. Dass in etwas
wohlhabenderen Stadtvierteln nicht nur
privilegierte Schüleri:nnen sind und die
weniger Privilegierten dann halt in
Problemschulen landen, sondern dass dort
einfach nochmal neu berechnet wird, wie
eine bessere Durchmischung stattfinden
kann. Das wurde in der Schweiz zum
Beispiel so gemacht, dass die die
Straßenzüge neu berechnet werden, wie
Wohngebiete bestimmten Schulen zugeteilt
werden. Das unter der Maßgabe, dass die
Schulwege sicher sein müssen und dass sie
nicht länger sein sollen als bisher
gehabt. Und das hat im ersten Versuch
tatsächlich so gut funktioniert, dass
jetzt mehrere Kantone versuchen wollen,
dieses System zu übernehmen. In Belgien
hat es ein ähnliches Projekt gegeben. Dort
wird jetzt im Moment das System aber
nochmal überarbeitet, weil dort Eltern
sich beschwert haben, dass dass sie ihre
Kinder nicht mehr auf Schulen schicken
oder gehen lassen können, die zum Beispiel
bestimmte Schwerpunkte haben. Dann gibt es
dann eine Schule, die hat eine
Spezialisierung auf den musischen Bereich
oder auf den sportlichen Bereich. Und dort
wird das System jetzt so überarbeitet,
dass die Schulen dort auch Faktoren
gewichten können, sodass es dort
zusätzlich zu der besseren sozialen
Durchmischung auch die Möglichkeit gibt,
noch bestimmte Schwerpunkte zu setzen.
Auch wieder in UK gibt es ein System, dass
es Behörden erleichtern soll,
Schulinspektionen vorzunehmen. Das heißt,
dort wird aufgrund von bestimmten
Indikatoren rechtzeitig prognostiziert,
welcher Schule vielleicht nochmal eine
Inspektion oder ein Besuch durch die
Behörde bedarf, um bestimmte Entwicklungen
vielleicht rechtzeitig zu stoppen. Und
auch in England, das fand ich ganz gut,
gibt es ein, gibt es die NGO Nesta, die
einige von euch vielleicht kennen. Und die
haben ein eigenes Papier entwickelt, das
genau auf das abzielt, was ich hier auch
vorstellen möchte. Nämlich wenn wir KI im
Bildungssektor schon einsetzen wollen,
dann sollten wir uns auf die strukturellen
Probleme konzentrieren. Oder wenn wir
schon auf der Mikroebene arbeiten, dann
sollten wir uns auf Systeme konzentrieren,
die mit den Daten von Lehrkräften arbeiten
und Lehrkräfte bei ihrer Arbeit
unterstützen. Zumindest jetzt in einem
ersten Schritt, wenn die KI-Systeme noch
nicht so gut und so weiterentwickelt sind,
wie wir sie vielleicht gerne hätten. Diese
Systeme können tatsächlich schon Vorbild
sein, auch für Deutschland. Und wovon ich
in Deutschland auch ein bisschen träume
und woran wir gerade politisch arbeiten,
ist dieser leidige Königsteiner Schlüssel
zum Beispiel. Der Königsteiner Schlüssel
verteilt im Moment Fördergelder nach
Bevölkerungsdichte und nach
Steueraufkommen. Da funktioniert das ganz
klassisch jetzt im Moment nach dem
Matthäus Prinzip. Wer hat, dem wird
gegeben. Reiche Länder bekommen den
höheren Anteil an Fördergeldern und die
etwas ärmeren Länder bekommen halt nicht
so viel. Dabei sollte es doch eigentlich
genau umgekehrt sein. Und wenn es
tatsächlich möglich wäre, mit einem KI-
System auf Basis von noch mehr oder
anderen Daten zu ermitteln, welcher
Förderzweck genau welche Förderhöhe
brauch, dann wäre es doch vielleicht sogar
möglich, dass wir je nach Förderzweck
jedes Mal diesen Verteilungsschlüssel neu
errechnen. Also wenn es dort Möglichkeiten
gibt oder wenn es dort Ansätze gibt sowas
zu entwickeln, bitte ich um
Kontaktaufnahme. Das würde mich sehr sehr
interessieren. Selbstverständlich würde
das voraussetzen, dass von den Schulen,
Schulträgern und auch Schulbehörden
nochmal ganz andere Daten auch erhoben und
erfasst werden. Es gibt aber auch bereits
Bildungsdatenbank. Es gibt die
Forschungsdatenbank Bildung, wo jetzt im
Moment schon Bildungsstudien eingestellt
sind, also die Infrastruktur letztendlich
wäre für sowas vorhanden. Es müsste sich
vielleicht nur etwas in der Kultur ändern,
damit Schulen auch bereit sind oder damit
überhaupt auch Länder und Behörden dort
anfangen bestimmte Daten zu erheben, um
dann halt auch die strukturellen Systeme
auflösen zu können. So, welche
Anforderungen brauchen wir letztendlich,
um auf dieser Makroebene an die
strukturellen Probleme heranzugehen? Dort
würde ich gerne unterscheiden, ein
bisschen was können Menschen auf der
persönlichen Ebene tun? Was muss auf der
Organisationsebene passieren und vor
allem was braucht es noch auf der
rechtlichen Ebene? Im Moment wird ja ganz,
ganz viel immer davon geredet. Lehrkräfte
müssen sich fortbilden, damit sie mit
diesem System arbeiten können. Ja, das ist
aber auch nur ein Teil, der getan werden
muss. Und Teil dieser Fortbildung ist
natürlich nicht nur, dass es darum geht,
wie diese Systeme angewendet werden,
sondern es braucht ein tiefes Verständnis
einfach von KI als soziotechnisches
System. Und es braucht das schöne
Stichwort Data Literacy. Das heißt, ein
Verständnis dafür zu entwickeln, was Daten
überhaupt aussagen und aber vor allem
anderen eigentlich braucht es auf der ganz
individuellen Ebene immer noch ganz viel
Fortbildung, was überhaupt das Thema
Digitalisierung betrifft und auch der
damit verbundene Kulturwandel. Überhaupt,
sich zu öffnen, um Informationen oder auch
Inhalte zu teilen, um eine gewisse
Fehlerkultur zu entwickeln. All das ist ja
gerade noch im Umbruch. Und wenn wir jetzt
davon reden, dass wir KI-Systeme an den
Schulen wollen oder dass es gefördert
werden soll, dann habe ich manchmal das
Gefühl, wir wollen einem Kind, das gerade
das Fahrradfahren gelernt hat, wollen wir
jetzt in einen Rennwagen setzen, weil es
damit ja noch sicherer zur Schule kommt.
Das passiert alles in einem sehr, sehr
großen Tempo, das nicht damit erledigt
werden sollte, dass wir uns einfach nur
darauf zurücklehnen und sagen, Lehrkräfte
müssen sich weiterbilden und dann können
sie auch KI-Systeme in der Schule
einsetzen. Die Eltern habe ich jetzt
nochmal in Klammern gesetzt. Davon
ausgehend, dass wir es vielleicht wirklich
schaffen, unsere Forschungs- und
Entwicklungsschwerpunkte mehr auf die
Makro und auf die Meso Ebene zu legen und
weniger auf die Schüler basierten Systeme.
auf der Organisationsebene, also dort wo
entschieden wird. Letztendlich kommt ein
KI System zum Einsatz - Ja oder nein. Das
ist die Schulleitung oder das Schulträger
oder vielleicht auch Bundesländer. Muss
natürlich als allererstes mal hinterfragt
werden. Wozu brauche ich das System? Ich
habe es eben schon angesprochen. Wenn wir
ein soziales Problem an der Schule
feststellen, ist ein technisches System
tatsächlich dafür die Lösung? Oder sollten
wir vielleicht eher auf der sozialen Ebene
nochmal schauen, was wir vielleicht an
unseren Lernzielen oder an unseren
Methoden oder an unserer
Organisationskultur verändern müssen?
Selbst wenn wir uns entscheiden für ein
technisches System, dann muss natürlich
entsprechend die Infrastruktur gegeben
sein. Das heißt, die Frage ist: Wo werden
Daten, mit denen gearbeitet wird? Wo
werden sie gespeichert? Sind sie dort
überhaupt sicher genug? Haben wir
überhaupt WLAN an den Schule, damit dort
vor Ort gearbeitet werden kann? All diese
Fragen. Natürlich braucht es auch auf der
Entscheidungsebene Kompetenzen. Es braucht
den Kulturwandel und überhaupt erst einmal
die Grundlagen der Digitalisierung, bevor
wir mit KI die nächsten Stufe gehen. Wir
brauchen die Regelung zur menschlichen
Entscheidungsfähigkeit tatsächlich auch in
den Arbeitsverträgen und wie auch in
anderen Verwaltungsbereichen auch sollte
es auch im Bildungsbereich einfach ganz
klare Beschaffungsrichtlinien geben. Wenn
Systeme angeschafft werden, dann braucht
es ganz klare Anforderungskataloge, wie
diese Systeme gestaltet werden sollen. Und
natürlich muss sich dann auch der Bund
entscheiden, Förderungen in die richtige
Richtung zu schicken und diese Systeme zu
fördern und zu unterstützen, die sich auf
die Meso- und Makroebene fokussieren und
nicht die Attack Startups, die versuchen,
das Lernerlebnis für Schüler zu
verbessern, obwohl es dafür keine Evidenz
gibt, werde ich auch nicht müde, das immer
wieder zu wiederholen. Und dann haben wir
natürlich auf der rechtlichen Ebene noch
viele offene Fragen, die KI-Systeme im
Allgemeinen betreffen und gar nicht
unbedingt nur auf den Bildungssektor
Anwendung finden. Und das ist einmal die
Problematik der Nachvollziehbarkeit. Also
solange KI-Systeme an sich selber nicht
nachvollziehbar sind, müssen zumindest
Schnittstellen geschaffen werden, dass
Evualator:innen oder Forscher:innen
zumindest reingucken können, was das
System überhaupt macht. Wir brauchen eine
Nachweisbarkeit, dass diese Systeme
funktionieren, erst recht, wenn wir mit
Schüler:innen an Daten arbeiten wollen. Und
wir brauchen eine Kritikalität ex ante.
Wir reden hier vom Bildungssektor. Dort
werden Lebenswege vorbestimmt. Das ist
nicht der Raum, um Experimente zu machen
und mal Systeme loszulassen, laufen zu
lassen und dann mal zu gucken, welche
Probleme sie eventuell entwickeln. Wir
haben aus dem Ausland jetzt schon genügend
Beispiele, was nicht gut funktioniert. Ich
wäre kein Fan davon, wenn wir das Ganze
hier in Deutschland nochmal wiederholen
wollen. Eigentlich nicht nötig, das zu
sagen, aber es braucht letztendlich auch
eine rechtlich bindende
Anbieterstabilität. Es gab tatsächlich,
ich glaube auch in den USA, das System
inBlue. Das wurde überall ausgerollt und
eingesetzt. Und dann irgendwann hat der
Anbieter entschieden, seine Dienste
einzustellen. Was aus den Daten geworden
ist bis dahin weiß letztendlich kein
Mensch. Das ganze Thema Offenheit sollte
gerade bei KI Entwicklung im
Bildungssektor viel, viel stärker auch
eingefordert und verankert werden. Das
heißt, auch KI-Systeme sollten wie Open-
Source-Software behandelt werden, als
OpenAI z.B. stärker mitgefördert werden. Wir
müssen viel stärker entwickeln im Bereich
OER Open Data, um dann diese ganzen Daten,
die wir im Lern-Kontext dann auch sammeln,
wiederum als Open Educational Data, also
als OED auch wieder zur Verfügung zu
stellen. Ohne offene Datenbasis kommen wir
da nicht hin. Sehr charmant finde ich auch
die Idee der öffentlichen Register. Dort
sollten sich auch KI-Systeme im
Bildungsbereich eintragen lassen. Und was
auf jeden Fall passieren muss, ist die
Überarbeitung des Artikels 22 der DSGVO.
Dort werden im Moment ja nur
Entscheidungen geregelt,
vollautomatisierte Entscheidungen sind
dort geregelt. Was nicht geregelt ist,
sind teilautomatisierte Systeme und
teilautomatisierte Systeme sind ja die, die
jetzt eigentlich weitestgehend im Einsatz
sind. Und wenn wir auch da wieder im
Hinterkopf haben, dass ja als Argument
immer noch gilt: Der Mensch trifft die
letzte Entscheidung, werden wir es auch
zukünftig verstärkt mit teil-
automatisierten System zu tun haben. Und
dort müssen Einspruchsrechte und
Widerspruchsrechte einfach noch klarer
geregelt werden. Ach nee, bevor ich zu
meinem Fazit komme, möchte ich nochmal auf
die lange Kette der Verantwortlichkeit
auch nochmal eingehen. Wenn Systeme
tatsächlich ausgewählt werden, müssen
Entscheider in der Lage sein, auch diese
Systeme zu beurteilen. Und in ganz, ganz
grober Anlehnung an diese lange Kette der
Verantwortlichkeit von Katharina Zweig und
Tobias Kraft sollte es mit in einen
Anforderungskatalog und sollte es mit in
den Kompetenzkatalog von all denjenigen,
die dazu entscheiden, dass sie in der Lage
sind, zu hinterfragen und zu prüfen.
Aufgrund von welcher Datenbasis wurde ein
System trainiert, also welche Qualität,
welche Quantität? Wie alt sind die Daten?
Passen sie überhaupt zum Trainingszweck?
Dann letztendlich auch nach welchen
Maßgaben wurde das System trainiert? Ganz
ganz wichtig ist ja auch ein KI-System,
das einmal für einen bestimmten Zweck
trainiert wurde, ist nicht unbedingt
günstig in einem ganz anderen
Anwendungskontext. Gerade im
Bildungsbereich, wenn damit geworben wird,
dass bei Übersetzungssystemen oder
Spracherkennungssystemen das es ja ganz
ganz tolle Software as a Service Systeme
schon gibt, die quasi von der Stange
gekauft werden können, muss immer noch
hinterfragt werden: Passt das tatsächlich
zu meinem Anwendungskontext? Und
letztendlich passt auch dieses System zu
meinem Ethik-System, das ich bei mir an
der Schule habe. Datenverwendung ist ganz,
ganz wichtig. Was passiert mit den Daten,
die erhoben werden an einer Schule, auch
wenn es nur Daten von Lehrkräften sind?
Gerade in dem Moment, wo es
personenbezogene Daten sind, muss einfach
sichergestellt werden, dass nicht nur
rechtlich, sondern auch tatsächlich aktiv
in der Anwendung ist, es überhaupt kein
Weg gibt, dass diese Daten an Stellen
weitergegeben werden, wo sie nicht
hingehören. Es gibt aus den USA, auch mal
wieder dort dieses Beispiel, dass Akteure
der Wissenschaftsverlagsbranche Daten von
Wissenschaftlern weitergegeben haben an
die Einwanderungsbehörde ICE, was auch
immer sie dort verloren haben. Aber das
sind alles Entwicklungen, die müssen
ausgeschlossen sein. Ganz großer Komplex
IT-Sicherheit. Das muss sichergestellt
sein. Das ist im Prinzip ein eigener
Vortrag. Dort möchte ich hier aber
verweisen auf die Arbeiten der Stiftung
Neue Verantwortung, die schon ganz, ganz
viel dazu untersucht und entwickelt und
auch Schaubilder gemacht haben, welche
Angriffs-Vektoren es für KI-Systeme
überhaupt gibt. Und letztendlich müssen
Entscheider:innen auch sicherstellen, dass es
Ressourcen gibt, um dieses Thema, wenn sie
dann einmal im Einsatz sind, auch
tatsächlich dauerhaft evaluiert sind,
damit sich diese ganzen Schwächen, die wir
ja kennen, nicht erst in der Praxis, dann
auch noch einschleichen. Das heißt, wenn
einem bewusst wird, was es alles für
Anforderungen braucht, um KI-Systeme im
Bildungssektor egal zu welchem Zweck
einzusetzen, dann wird glaube ich klar,
dass das etwas ist, was noch ein sehr
langer Weg ist, was nicht überhastet
angegangen werden soll und was noch sehr,
sehr viel Qualifizierung und
Weiterentwicklung braucht. Und das
letztendlich bringt mich jetzt zu meinem
Fazit. Bisher ist es so, dass bei KI im
Bildungssektor vornehmlich darüber
gesprochen wird, dass Learning Analytics
Systeme eingesetzt werden, um halt das
Lernverhalten von Schülerinnen und
Schülern zu analysieren und dabei mit
personenbezogenen Daten gearbeitet wird.
Letztendlich gibt es zum jetzigen
Zeitpunkt noch keine Evidenz dafür, dass
diese Systeme funktionieren und dass diese
ganzen Datensammlungen auch tatsächlich
sinnvoll sind. Es ist ganz, ganz viel
Marketing und vor allem auch
Wirtschaftsförderung dahinter. Wenn diese
Startups jetzt in die Richtung gefördert
werden und das Risiko, das damit entsteht,
wenn diese Systeme weiterhin in die
Schulen gedrückt werden, ist dass die
wahren strukturellen Probleme einfach
dadurch verschleiert werden und dass diese
Mangelwirtschaft einfach fortgesetzt
werden und diese ganzen Potenziale, die KI
tatsächlich mit sich bringt, diese
Probleme tatsächlich mit zu lösen, dass
die einfach gar nicht gehoben werden. Das
Risiko dabei ist, dass es vornehmlich
immer um personenbezogene Daten von
minderjährigen Schüler:innen geht und dass
die ganzen Chancen, die wir im OpenData
Bereich haben, dafür einfach weiterhin
nicht genutzt werden. Und wir haben jetzt
den Zeitpunkt, wo die Weichen gestellt
werden. Ist das genau der Pfad, auf dem
wir jetzt auch weitergehen wollen? Oder
wollen wir jetzt anfangen, in diese
Entwicklung einzugreifen und den Fokus
mehr auf die Meso- und Makroebene legen?
Die EU-Kommission hat jetzt kürzlich ihren
überarbeiteten Digital Education Plan
vorgestellt. Dort ist zu diesem ganzen
Thema KI vorgesehen, dass Lehrkräfte
weitergebildet werden müssen. Dass es
Ethik-Leitlinien geben müssen und
letztendlich auch, dass Forschung nochmal
intensiviert werden muss. Und das ist
jetzt genau der Punkt, um dort reinzugehen
und die Fragen zu stellen und darauf hin
zu drängen, dass in die richtige Richtung
geforscht wird. Das hat mich letztendlich
in dieser ganzen Vorbereitung zu meiner
Empfehlung gebracht. In Anlehnung an diese
Pyramide von der Datenethikkommissionen,
die ich eigentlich, wenn das Prinzip der
Risiko-Klassifizierung diskutabel ist,
finde ich eigentlich dieses
Pyramidensystem sehr gelungen. Und
übertragen auf KI-Systeme im
Bildungsbereich sehe ich einen ganz, ganz
großen, grünen, unkritischen Bereich, wenn
es darum geht, die Forschung und
Entwicklung auf der Makroebene weiter zu
unterstützen und weiter zu fördern. Alles
unter der Nutzung von Open Data, die
entweder schon vorhanden sind oder
vielleicht auch noch weiter erhoben und
genutzt werden können. Das fließt
größtenteils auch noch mit rein in die
Meso Ebene, die auch auf der Basis von
Open Data schon sehr sehr viel Gutes
erreichen kann. Und ganz ganz oben in der
Spitze, wo ich den roten Bereich sehe, ist
tatsächlich die Mikroebene, wenn es um die
Analyse-Systeme geht für Schüler:innen und
für Lehrkräfte, wo mit personenbezogenen
Daten gearbeitet wird. Wenn es dort
weitere Entwicklungen geben sollte, dann
würde ich es bevorzugen, wenn es dort ein
Forschungsbereich gibt oder den
Anwendungsbereich vielleicht höchstens für
Lehrkräfte. Aber dass wir die ganze
Analyse von Schüler:innen vielleicht
erst mal noch außen vorlassen, bis wir
vielleicht viel mehr über KI-Systeme
wissen und alles immer unter der
Voraussetzung, dass die Daten, die erhoben
werden, dann auch weiter zur Verfügung
gestellt werden für die Generierung von
Open Educational Data. Das war's. Vielen
Dank für eure Aufmerksamkeit. Alle
Anregungen, um die ich gebeten habe, alle
Lücken, die ich vielleicht noch gelassen
habe, oder alle Interessenten, die Lust
haben, an diesem Thema auch noch mit
weiterzuarbeiten, freue ich mich total
über Kontaktaufnahme und Feedback und
weitere Informationen. Ich habe hier auch
noch einen großen Anhang mit Quellen, die
ich verarbeitet habe. Wenn es dazu auch
noch Rückfragen gibt, kommt jederzeit
- nicht jederzeit, nich nachts um drei. Also per E-Mail
schon, aber vielleicht nicht per Telefon.
Aber die habt ihr ja auch gar nicht die
Nummer - egal, kommt einfach auf mich zu.
Und dann würde es mich freuen, wenn wir im
Gespräch bleiben. Vielen Dank.
Herald: Hallo Nina, schön, dass du da
warst. Danke für den spannenden Vortrag
grade. Wir hatten so ein bisschen
technische Probleme im Hintergrund. Ich
hoffe deswegen, dass alle im Live-Stream
den Talk auch gut sehen konnten. Nina, du
hast viel erzählt über KI und die Grenzen
und Vorteile. Was sind denn so aus deiner
Sicht vielleicht die klugen nächsten
Schritte, die man so gehen müsste? Was
künstliche Intelligenz und Klassenzimmer
betrifft?
Nina: Hallo Nina, ja genau. Was sind die,
was sind die nächsten Schritte? Also ich
glaube wir sind im Moment an so einer
Entwicklungsphase, wo KI in der Schule und
im Bildungsbereich einfach noch nicht so
wahnsinnig weit verbreitet ist. Und ich
hab das ja auch gemerkt bei meiner
Recherche und auch z.B. hier, was diese
Meso-Ebene angeht. Es gibt noch nicht so
extrem viele Anwendungen, wo man konkret
jetzt schon reingehen und eingreifen kann
und sagen wir wollen hier eine andere
Entwicklung oder das und das muss so
konkret weitergehen. Was allerdings gut an
dieser Entwicklung ist, ist eben, dass wir
noch an diesem frühen Punkt sind und auch
die Möglichkeiten haben, Einfluss nehmen
zu können. Habe ich da ein äh im
Hintergrund gehört? Ja okay, ich rede
einfach weiter. Das heißt, nach allem, was
ich jetzt mitbekommen habe, wie sich das
Thema KI in der Bildung gerade ansetzt zu
entwickeln, möchte ich eigentlich gerne so
eine Art Break machen. Einen kleinen
Schnitt und nochmal hinterfragen ist der
Weg, der jetzt eingeschlagen wird von den
Attack-Startups und auch von den
Regierungen, ist das überhaupt der
Richtige, dass wir KI-Systeme einsetzen,
um das Verhalten und Lernverhalten von
Lernenden zu analysieren? Oder wollen wir
nicht nochmal überlegen, ob wir nicht die
KI-Systeme, die wir jetzt haben, dazu
nutzen können, die strukturellen Probleme
im Bildungssektor anzugehen? Davon gibt es
genug. Dort haben wir eine ganz andere
Datenbasis und es kann vor allem weniger
Schaden angerichtet werden für die
einzelnen Personen, die analysiert werden
oder dann halt auch im besten Fall gar
nicht mehr analysiert werden, weil alles,
was wir aus der KI Geschichte wissen, dass
es sehr, sehr viel Schwierigkeiten gibt,
sobald KI in sozialen Kontexten eingesetzt
werden. Also wenn KI-Systeme benutzt
werden, um Menschen zu analysieren, jetzt
kurz auf den Punkt gebracht, dann führt
das meistens zu größeren Problemen und wir
sollten in der Bildung nicht diese Fehler
wiederholen.
Herald: Ja, das sind auf jeden Fall
ziemlich gute Gedankenanstöße. Wir haben
leider gar nicht so richtig, richtig viel
Zeit, um jetzt hier noch Fragen zu
beantworten. Ich sehe gerade im Chat auch
tatsächlich keine. Ich bin aber sicher,
dass es da noch viel Gesprächsbedarf gibt.
Deswegen würde ich vorschlagen, dass wir
jetzt mit dir in einen Big Blue Button
umziehen.
Outro Musik
Untertitel erstellt von c3subtitles.de
im Jahr 2021. Mach mit und hilf uns!