- 
Intro Musik 
- 
Hallo und herzlich willkommen zu meinem
 Vortrag "KI im Klassenzimmer - yay oder
 
- 
nay?" Ich bin Nina, ich bin derzeit
 wissenschaftliche Mitarbeiterin im Büro
 
- 
von Birke Bull-Bischoff. Sie ist die
 bildungspolitische Sprecherin der
 
- 
Linksfraktion im Bundestag. Die letzten
 zwei Jahre habe ich auch die Enquete-
 
- 
Kommission KI im Bundestag für die Linke
 mitbegleitet. Und davor habe ich auch
 
- 
schon mal im Bildungssektor gearbeitet,
 sodass ich diesen Vortrag jetzt hier
 
- 
nutzen möchte, um mal alle meine
 Beobachtungen zum Thema KI in der Schule
 
- 
zusammenzutragen und vor allem auch einen
 Blick auf die dabei verarbeiteten Daten zu
 
- 
werfen und einen Ausblick darauf zu
 schaffen, wie KI vielleicht sogar dafür
 
- 
benutzt werden kann, um strukturelle
 Probleme im Bildungssektor anzugehen.
 
- 
Vorausschicken möchte ich, dass wenn ich
 hier von KI rede, ich jeweils sogenannte
 
- 
schwache KI meine und mich auf Machine
 Learning in als seinen Ausprägung beziehe.
 
- 
Ich möchte euch zuerst einen kleinen Überblick
 geben, wie KI im Schulbereich im Moment schon
 
- 
eingesetzt werden kann. Was dabei auch
 tatsächlich noch nicht so wahnsinnig gut
 
- 
läuft. Dann natürlich zeigen, was meiner
 Meinung nach besser laufen könnte, welche
 
- 
Anforderungen es braucht, damit es besser
 laufen kann und dann auch am Ende mit
 
- 
einer konkreten Empfehlung schließen. Als
 ich mich vor ungefähr einem Jahr
 
- 
angefangen habe, mit diesem Thema vertieft
 zu beschäftigen, sind mir zwei Dinge
 
- 
aufgefallen. Zum einen ist der Begriff KI
 eigentlich noch nicht wirklich konkret und
 
- 
allgemein definiert und all diese KI
 Anwendungen im Bildungsbereich auch noch
 
- 
nicht. Da wird also viel experimentiert
 und herumgeworfen mit Learning Analytics,
 
- 
mit Tutor Systemen, intelligenten Tutor
 Systemen. Das ganze unter die Oberbegriffe
 
- 
von Educational Data Mining gestellt. Das
 ist wiederum teilweise die Voraussetzung
 
- 
oder steht neben dem anderen Begriff von
 AIED, also Artificial Intelligence in
 
- 
Education. Also da kann man je nach Autor
 und je nach Anwendungsbereich baut das
 
- 
eine auf dem anderen auf oder steht
 nebeneinander oder ist eine Folge davon.
 
- 
All das ist ein Signal dafür, dass wir in
 diesem Bereich tatsächlich noch sehr am
 
- 
Anfang stehen, dass das alles sehr
 unstrukturiert ist. Und letztendlich ist
 
- 
auch der ganze Anbietermarkt von diesem
 System noch sehr am Anfang und
 
- 
unstrukturiert. Derzeit sind es vor allem
 oder eigentlich ausschließlich proprietäre
 
- 
Systeme, sodass auch teilweise Forscher
 manchmal gar nicht so richtig wissen:
 
- 
Arbeitet ein System, das mit KI wirbt,
 eigentlich wirklich mit KI im Sinne von
 
- 
Machine Learning oder ist es nur ein
 einfacher Algorithmus ohne Lernverfahren?
 
- 
Oder wie viel Werbung und wie viel
 Marketing steckt eigentlich in diesem
 
- 
Anbietersystem eigentlich wirklich
 dahinter? Dann gibt es aber neben dem
 
- 
ganzen Learning Analytics Bereich, der
 sich sehr konkret auf die Erhebung und
 
- 
Analyse von lernenden Daten, also zur
 Verbesserung von Lernerlebnissen und
 
- 
Lernenergebnissen beschäftigt, gibt es
 noch weitere Anwendungsbereiche, in denen
 
- 
KI eingesetzt wird. In den USA gibt es zum
 Beispiel ein Verfahren, dass das
 
- 
Surfverhalten analysiert. Auf dieser
 Keyword Liste der Risikofaktoren stehen
 
- 
dann allerdings auch Begriffe wie schwul,
 queer oder Gedichtsammlung. Also selbst
 
- 
wenn wir jetzt auch von sehr intoleranten
 Gesellschaften ausgehen, ist es natürlich
 
- 
überhaupt nicht zu unterstützen, dass
 diese Begriffe überhaupt irgendwie
 
- 
Personen zugeordnet und im Sinne einer
 Risikoprävention verwendet werden.
 
- 
Gesichtserkennung auf dem Schulgelände gab
 es neben den USA auch in Europa schon. Das
 
- 
hat Schweden mal an einer Schule probiert
 und die wurden dann aber nach sehr, sehr
 
- 
kurzer Zeit auf Basis der DSGVO auch schon
 mit einer hohen Strafe versehen. Also
 
- 
nicht unbedingt nachahmenswert. In China
 ist man da schon ein bisschen weiter und
 
- 
auch ein bisschen toleranter. Dort gibt es
 Gesichtserkennung auch in der Mensa und in
 
- 
Bibliotheken, sodass dann ganz nebenbei
 auch noch Ernährungsverhalten und
 
- 
Leseverhalten noch mit erfasst und
 analysiert werden. Ganz besonders charmant
 
- 
ist natürlich, dass Eltern sich in
 Klassenzimmerkameras auch mit einloggen
 
- 
können, um ihre Kinder dort direkt im
 Unterricht damit zu beobachten. Es gibt
 
- 
zwar hier und da sogar in China
 Widerstände dagegen und das finden nicht
 
- 
alle Eltern toll. Aber so wie ich das
 mitbekommen habe in den letzten Monaten,
 
- 
ist die Entwicklung da wahrscheinlich eher
 noch schwer aufzuhalten. Hier in
 
- 
Deutschland gibt es Forschungsprojekte, um
 zum Beispiel mit einem Stift direkt beim
 
- 
Schreiben, Üben, Schreibfehler oder
 Schreibschwächen rechtzeitig zu erkennen.
 
- 
Eher aus dem Hochschulbereich ist dieses
 Beispiel entnommen vom KIT, wo die
 
- 
Studienabbruchswahrscheinlichkeit
 berechnet wird. Je nachdem was man mit den
 
- 
Ergebnissen macht, kann das vielleicht
 sogar sinnvoll sein, weil dann rechtzeitig
 
- 
Hilfestellung gegeben werden kann. Aber
 wie dann einzelne Entscheider:innen mit
 
- 
solchen Ergebnissen umgehen, das steht
 natürlich nochmal auf einem ganz anderen
 
- 
Blatt. Und dann wird am DFKI und auch in
 der Universität von Tübingen an
 
- 
intelligenten Schulbüchern geforscht, die
 auch mit Daten arbeiten aus iTrackern, EEG
 
- 
Messung und sogar aus der
 Nasentemperaturmessung. Dabei wird davon
 
- 
ausgegangen, dass wenn die Nasentemperatur
 fällt, davon auszugehen ist, dass einem
 
- 
Lernenden bei seinem Lernstoff gerade
 Schwierigkeiten begegnen und das würde
 
- 
dann letztendlich in einer perfekten
 intelligenten Schulbuchversion dazu
 
- 
führen, dass ihnen noch ergänzende andere
 Inhalte angezeigt werden oder vielleicht
 
- 
irgendwie der ganze Lernpfad dann in
 Zukunft anders aufgebaut wird. Ich bin
 
- 
sehr gespannt, ob diese System Entwicklung
 jetzt auch im Pandemiewinter Daten erhebt,
 
- 
wo wahrscheinlich jeder Schüler zu jeder
 Zeit einfach kalte Nasen hat und was das
 
- 
letztendlich für die Lernpfadentwicklung
 bedeutet. Aber das ist ein anderes Thema.
 
- 
Kann KI denn überhaupt im Bildungssystem
 etwas Positives beitragen? Und wenn wir
 
- 
uns die Stärken von KI angucken, dann
 sieht es auf den ersten Blick tatsächlich
 
- 
so aus, als wäre das eigentlich gar keine
 so schlechte Idee. Gerade im Bereich der
 
- 
Spracherkennung oder Übersetzungssysteme
 mit allen Schwächen, die damit
 
- 
einhergehen, kann es tatsächlich dazu
 beitragen, dass Integration oder auch
 
- 
Inklusion an Schulen einfach erleichtert
 werden im Sinne von ergänzt werden. Wenn
 
- 
Systeme gut gemacht sind, können sie
 zumindest kurzfristig immerhin auch die
 
- 
Motivation von Schüler:innen steigern und
 können im Idealfall Lehrkräfte auch
 
- 
tatsächlich entlasten. Das wäre alles
 total wunderschön, wenn es nicht auch
 
- 
Schwächen im KI-System gibt, die euch alle
 sicherlich total vertraut sind. Die
 
- 
Qualität eines KI-Systems bemisst sich vor
 allem nach der Datenbasis. Garbage in
 
- 
garbage out, wie man so schön sagt. Und
 viele Daten im Bildungsprozess, der ja ein
 
- 
sozialer Prozess ist, der ist vielleicht
 gar nicht unbedingt optimal
 
- 
operationalisierbar, d.h. da stellt sich
 immer noch die große Frage: Welche Daten
 
- 
können überhaupt erfasst werden und wie
 können sie überhaupt sinnvoll analysiert
 
- 
werden? Lerndaten betreffend MINT-Fächer,
 die auf Logik basiert sind, eignen sich
 
- 
dafür sicherlich besser als zum Beispiel
 die sogenannten 4K Kompetenzen, also
 
- 
Kollaboration, Kreativität zum Beispiel.
 Wie will man sowas messen und wie will man
 
- 
sowas in Operationalisierbarkeit pressen?
 Das steht noch im Raum. Dann haben wir
 
- 
natürlich auch im Bildungsbereich die
 üblichen Probleme mit der
 
- 
Nachvollziehbarkeit und mit der
 Erklärbarkeit und die Risiken von
 
- 
Verzerrungen. Auch nicht ganz unwichtig
 ist die Problematik, dass eine Korrelation
 
- 
noch keine Kausalität mit sich bringt.
 Also hier nochmal das Beispiel mit der
 
- 
Nase und Temperatur. Es kann ganz viele
 verschiedene Gründe haben, warum
 
- 
Gehirnströme gerade einen bestimmten Weg
 nehmen, warum Körpertemperatur sich
 
- 
verändern oder warum sich Augenbewegungen
 entweder direkt bei einem Lerninhalten
 
- 
oder auch im Raum bewegen. Das hat alles
 nicht zwangsläufig was mit dem
 
- 
Lerninhalten oder mit der Lernatmosphäre
 zu tun. Bei all meinen Recherchen für
 
- 
diesen Vortrag habe ich immer ganz
 explizit gefragt: Gibt es denn Beweise
 
- 
dafür überhaupt, dass diese KI-Systeme
 vielleicht auch gut funktionieren und den
 
- 
Lernenden tatsächlich was bringen? Aber
 diese Evidenz gibt es bislang nicht. Ich
 
- 
habe interessanterweise, als kleine
 Anekdote am Rande, auf der Webseite von
 
- 
bettermarks eine Bewertung gefunden für das
 System bettermarks von dem
 
- 
neurowissenschaftlichen Institut, das
 unter der Leitung von Manfred Spitzer
 
- 
steht, der ist den Freunden der digitalen
 Bildung vor allem dadurch bekannt, dass er
 
- 
viele Elemente der digitalen Bildung
 eigentlich eher verteufelt. Aber dort wird
 
- 
auf der Website natürlich dem System
 bettermarks bescheinigt, dass es einen total
 
- 
guten Lerneffekt hat. Wie gesagt, Forscher
 konnten das bisher noch nicht bestätigen.
 
- 
Wenn wir nun diese KI-Systeme mit all
 ihren Schwächen auf die Schulen ungebremst
 
- 
loslassen, dann kann das dazu führen, dass
 wir eigentlich anstatt dieser Entlastung
 
- 
eher Überforderung produzieren, dass wir
 Normierungen und Standardisierungen in
 
- 
Bereichen einführen, die vielleicht gar
 nicht ohne weiteres standardisierbar sind.
 
- 
Wir können Lehrkräfte in unangenehme
 Situationen bringen, wenn sie z.B. in
 
- 
einer Elternsprechstunde mit Eltern
 konfrontiert sind, die nicht nur die
 
- 
Methoden des Lehrers hinterfragen. Das
 machen sie ja jetzt schon häufig genug.
 
- 
Sondern dann vielleicht auch
 Bewertungssysteme hinterfragen und dann
 
- 
von Lehrkräften wissen wollen: Wie kommt
 denn dieses System zu dem Ergebnis oder zu
 
- 
dieser Bewertung meines Kindes? Und
 Lehrkräfte so was nicht einfach erklären
 
- 
können. Größtes Problem ist natürlich,
 dass alle Systeme, über die im Moment im
 
- 
Bildungssektor gesprochen wird, diese
 Learning Analytics Systeme und Tutor
 
- 
Systeme, dass die mit personenbezogenen
 Daten von ja größtenteils minderjährigen
 
- 
Schüler:innen arbeiten. D.h. da werden
 Datensammlungen angefertigt, es werden
 
- 
Datenprofile angefertigt und das alles
 unterwandert die informationelle
 
- 
Selbstbestimmung der Kinder. Selbst wenn
 Eltern dieser Verwendung natürlich
 
- 
zustimmen müssen, stellt sich ja auch noch
 die Frage: Wie gut sind die Eltern denn
 
- 
überhaupt informiert über all die
 Konsequenzen und die Folgen, die das hat?
 
- 
Inwieweit gibt es vielleicht auch einen
 gewissen sozialen Gruppenzwang in einem
 
- 
Klassenverband oder einer Schule sich
 anzuschließen, auch wenn man vielleicht
 
- 
als Eltern selber gar nicht genau weiß,
 was das dann eigentlich bedeutet? All das
 
- 
ist im Moment noch ein bisschen unklar.
 Und das sind genau diese Punkte, über die
 
- 
meiner Meinung nach im Moment noch viel zu
 wenig tatsächlich offen gesprochen wird.
 
- 
Was diese Schwäche tatsächlich in der
 Praxis für Probleme mit sich bringen
 
- 
können, sehen wir auch schon in
 ausländischen Anwendungen. Zum Glück muss
 
- 
man fast sagen, im Moment. Ich weiß ich,
 ob ihr das mitbekommen habt. Im Sommer gab
 
- 
es diese Problematik mit dem britischen
 System Ofqual. Genauso wie bei uns auch
 
- 
haben die Schulen unter der Pandemie
 gelitten und es konnten bestimmte
 
- 
Prüfungen zu Abschlüssen nicht richtig gut
 oder überhaupt nicht durchgeführt werden.
 
- 
D.h. Lehrkräfte wurden gebeten, doch
 aufgrund von ihren persönlichen
 
- 
Einschätzung dann die Schüler mit einer
 Abschlussnote zu versehen. Diese
 
- 
Abschlussnoten waren dann aber den
 Behörden offensichtlich zu gut, sodass sie
 
- 
nochmal einen Algorithmus eingesetzt
 haben, der das Ganze nachrechnen sollte.
 
- 
Das wiederum führte dazu, dass viele Noten
 wieder abgewertet worden und die Schüler
 
- 
sich verschlechtert haben. Dagegen sind
 dann natürlich die Schüler:innen wiederum auf
 
- 
die Straße gegangen und haben sich
 gewehrt, sodass am Ende doch wieder die
 
- 
Beurteilung der Lehrkräfte eingesetzt
 wurde. Zum Glück. Ein anderes Beispiel,
 
- 
von dem ich gelesen habe, ist das System
 Edgenuity. Ich weiß jetzt nicht wie das
 
- 
richtig betont ist. Dort hat eine Mutter
 festgestellt, dass die
 
- 
Textverarbeitungssysteme, die die Aufsätze
 ihres Kindes bewerten sollen, viel, viel
 
- 
schlechter bewerten als frühe die
 Aufsätze, die das Kind einfach ganz normal
 
- 
mit der Hand in der Schule geschrieben
 hat. Und dann ist in diesem System auf den
 
- 
Grund gegangen und hat festgestellt, dass
 das System vor allem bewertet anhand der
 
- 
Häufigkeit von bestimmten Stichwörtern.
 Und dann hat sie versucht, einfach mal so
 
- 
als Beispiel einfach nur mit
 Stichwortwolken so eine Aufsatzaufgabe zu
 
- 
erfüllen. Und tatsächlich wurden dieses
 Stichwortwolken besser bewertet als ein
 
- 
komplett zusammenhängender Text. Was
 natürlich, wenn man das System so weit
 
- 
einmal verstanden und geknackt hat,
 relativ leicht ist, solche Aufgaben zu
 
- 
bestehen, aber natürlich überhaupt gar
 keinen Bildungseffekt mehr mit sich
 
- 
bringt. Auch eher aus dem Hochschulbereich
 sind diese Testverfahren Proctorio und
 
- 
ExamSoft bekannt, sollen hier an dieser
 Stelle aber trotzdem angesprochen werden.
 
- 
Einfach um schon mal aufzuzeigen, welche
 Probleme damit einhergehen, bevor wir auf
 
- 
die Idee kommen, sie vielleicht auch an
 den Schulen einzusetzen. Diese Systeme
 
- 
arbeiten vor allem mit Kameraüberwachung,
 aber auch mit Geräuschanalysen und mit
 
- 
Bewegungsanalysen, um daraus Rückschlüsse
 zu ziehen, ob ein Prüfling gerade versucht
 
- 
zu täuschen. Und diese Systeme haben jetzt
 schon in der Praxis verschiedene Probleme
 
- 
aufgezeigt. Also das ganz typische
 Problem, was wir ja schon in anderen
 
- 
Kamerakontexten kennen bei People of
 Color. Sie werden dann von der Kamera
 
- 
nicht erkannt, werden dann gebeten noch
 zusätzliche Lichtquellen einzusetzen. Dann
 
- 
kann das tatsächlich dazu führen, dass
 Menschen diskriminiert werden, die in
 
- 
beengten Verhältnissen in einer WG wohnen
 oder vielleicht noch Kinder um sich haben,
 
- 
weil dann unbekannte Geräusche Quellen
 auftauchen, die ein System vielleicht als
 
- 
Täuschungsversuch oder als
 Unterstützerperson klassifizieren kann.
 
- 
Aber auch gesundheitlich beeinträchtigte
 Menschen sind zusätzlich belastet, einfach
 
- 
weil sie angeben müssen, dass sie
 vielleicht häufiger mal ins Bad müssen
 
- 
oder dass sie eine Insulinpumpe tragen,
 einfach damit das System von bestimmten
 
- 
Signalen also z.B. nicht irritiert ist.
 Also all das führt dazu, dass Menschen
 
- 
gezwungen werden, Dinge offenzulegen und
 vor allem diese Daten auch in Datenbanken
 
- 
mit erfasst werden, die eigentlich sehr
 persönlich und sehr privat sind und mit
 
- 
einem Prüfergebnisse überhaupt gar nichts
 zu tun haben. Hier in Deutschland kennen
 
- 
wir alle oder die meisten von euch
 wahrscheinlich diese Anwendung Duolingo
 
- 
zum Vokabel- oder zum Sprachtraining.
 Duolingo hat auch ein Englisch Test
 
- 
aufgelegt, der auch online absolviert
 werden kann und auch dort wird mit
 
- 
Kamerasystem gearbeitet und ich habe bei
 einer Forschung nachgelesen, dass
 
- 
Forschenden dann versucht haben, da auch
 mal auf den Grund zu gehen, ob Duolingo
 
- 
denn ausschließen kann, dass diese
 bekannten Systeme bei Duolingo nicht
 
- 
auftauchen. Also diese Diskriminierungen
 nicht passieren können oder auch z.B.
 
- 
Diskriminierung aufgrund von Akzenten
 nicht automatisch als fehlerhaft
 
- 
eingestuft werden. Und leider konnte
 zumindest zu dem Zeitpunkt der Befragung
 
- 
Duolingo diese Diskriminierung nicht
 ausschließen. Ein System, über das ich
 
- 
gestolpert bin bei meiner Recherche ist
 DyRiAS. Ich habe leider noch nicht
 
- 
herausgefunden, ob Schulen überhaupt damit
 arbeiten. Und wenn ja, wie viele. Wenn ihr
 
- 
was über dieses System und seine Anwendung
 wisst, bin ich für sachdienliche Hinweise
 
- 
total dankbar. Was ich darüber gelesen
 habe ist, dass DyRiAS ist ein
 
- 
Risikoanalysesystem, was unter anderem
 auch genutzt werden kann, um ein Risiko
 
- 
für häusliche Gewalt zu identifizieren. Es
 wird auch in der Schule angewendet, sodass
 
- 
Lehrkräfte nach einer Schulung und wenn
 sie eine Lizenz erworben haben, mit diesem
 
- 
System erkennen können, ob Schüler:innen
 demnächst vielleicht mal Amok laufen. Und
 
- 
dazu werden Kommunikationsverhalten und
 Verhaltensweisen analysiert. Wie genau das
 
- 
System funktioniert, wie gesagt, weiß ich
 im Detail nicht. Da werde ich aber
 
- 
sicherlich nochmal in Zukunft etwas tiefer
 einsteigen, um das zu verstehen. Weil mich
 
- 
das sehr irritiert. Im Ergebnis bekommen
 Lehrkräfte dann so einen farblichen
 
- 
Balken. Das ist also ein original
 Screenshot aus der Broschüre. Und
 
- 
vollkommen unklar ist für mich tatsächlich
 auch, was genau passiert oder wer Zugang
 
- 
zu diesen Daten hat. Wenn dann ein Kind
 tatsächlich immer weiter in diesen roten
 
- 
Bereich rutscht. Was heißt überhaupt roter
 Bereich und bedeutet das höchste Warnstufe
 
- 
oder bedeutet Stufe 5 schon, hier musst du
 eigentlich sofort die Polizei rufen. Dazu
 
- 
kommt noch, dass die Daten, die für dieses
 System erfasst werden, dass die
 
- 
browserbasiert, verarbeitet werden.
 Immerhin verschlüsselt. Weiteres halbwegs
 
- 
beruhigendes Signal ist, das DyRiAS in
 seiner Broschüre zumindest darauf
 
- 
hinweist, dass die Nutzung von
 gewaltorientierten Computerspielen oder
 
- 
auch das Tragen eines Irokesenschnitt zum
 Beispiel keine Indikatoren seien für eine
 
- 
erhöhte Gewaltbereitschaft. Aber wie
 gesagt, da werde ich mich auf jeden Fall
 
- 
nochmal weiter informieren wollen, wie
 dieses System genau in der Praxis
 
- 
arbeitet. Und letztendlich ist es auch mal
 sehr interessant zu wissen, was passiert
 
- 
dann eigentlich mit diesem
 Farbskalasystem. In der ganzen
 
- 
Beschäftigung mit KI in den letzten zwei
 Jahren hat sich bei uns im Fraktionsteam
 
- 
irgendwann mal diese Frage aufgedrängt,
 was es denn überhaupt mit den Menschen
 
- 
macht, die mit solchen KI-Systeme
 arbeiten. Und es wird immer so ein
 
- 
bisschen als beruhigendes, ja sozusagen
 als so eine Art Feigenblatt ganz oft
 
- 
erwähnt. Naja, am Ende die letzte
 Entscheidung trifft ja der Mensch. Aber
 
- 
was bedeutet das eigentlich? Weil für uns
 hat dann tatsächlich an der Stelle diese
 
- 
Debatte nicht aufgehört, sondern erst
 angefangen. Weil die Frage ist dann:
 
- 
Welche Verantwortung kann ein Mensch dann
 überhaupt für seine Entscheidung
 
- 
übernehmen und wenn er tatsächlich diese
 Entscheidung treffen soll, ist er
 
- 
überhaupt dazu befähigt, diese
 Entscheidung zu treffen? Einmal
 
- 
tatsächlich kognitiv - weiß er überhaupt,
 wie das System funktioniert? Kann er
 
- 
einschätzen, wenn eine Klassifizierung
 oder eine Entscheidungsvorbereitung
 
- 
vorgenommen oder vielleicht sogar eine
 Entscheidung getroffen wird? Kann er
 
- 
überhaupt erkennen, ob diese Entscheidung
 des Systems richtig ist in seinem Sinne
 
- 
oder ob er vielleicht sich dagegen
 entscheiden sollte? Und selbst wenn er
 
- 
sich entscheidet, sich dagegen zu
 entscheiden, ist er überhaupt dazu
 
- 
berechtigt aufgrund von seiner Rolle in
 der Organisation? Es gibt Organisationen,
 
- 
da wird es ja vielleicht durchaus
 erwartet, dass er eigenmächtig entscheidet
 
- 
und dann gibt es andere
 Organisationsformen, wo es genau von ihm
 
- 
erwartet wird, sich nicht eigenmächtig zu
 entscheiden. Das betrifft jetzt alles
 
- 
nicht nur den Bereich Bildung, sondern
 insgesamt soziale Kontexte im Einsatz von
 
- 
KI-Systemne. Eine grundsätzliche Frage, die
 wir uns stellen müssen in allen
 
- 
Anwendungssektoren ist: Wer entscheidet
 denn überhaupt besser der Mensch oder die
 
- 
Maschine? Und nach welchen Gütekriterien
 wird das entschieden? Im Bildungsbereich
 
- 
gibt es ja durchaus die Meinung, dass es
 heißt, lieber sollen Schüler von scheinbar
 
- 
neutralen Systemen bewertet werden als von
 vorurteilsbelasteten Menschen. Aber auch
 
- 
ein System ist natürlich niemals neutral.
 Und auch selbst wenn ein Mensch mit
 
- 
Vorurteilen belastet ist, hat er trotzdem
 nur einen relativ kleinen
 
- 
Entscheidungsspielraum. Wenn hingegen für
 Bewertungsverfahren Systeme eingesetzt
 
- 
werden, dann wirken sie direkt auf die
 ganze Schule oder im schlechtesten Fall
 
- 
vielleicht sogar für das ganze Land. Und
 auch wenn wir uns dafür entscheiden, dass
 
- 
Entscheidungen an Maschinen ausgelagert
 werden soll, um Schaden zu vermeiden, ist
 
- 
auch die Frage: Wodurch entsteht denn
 überhaupt ein Schaden? Entsteht ein
 
- 
Schaden durch ein richtig funktionierendes
 System, das dann aber langfristig
 
- 
gesellschaftliche Schäden mit sich bringt?
 Oder entsteht ein Schaden durch ein nicht
 
- 
gut funktionierendes System oder nicht wie
 erwartet funktionierendes System? Und
 
- 
entstehen Schäden eigentlich nur durch Tun
 oder entstehen Schäden auch durch
 
- 
Unterlassung? Das heißt bezogen auf diese
 Entscheidung: Wer entscheidet besser,
 
- 
Mensch oder Maschine? Müssen all diese
 Aspekte mit betrachtet werden. Und auch
 
- 
der Verzicht auf ein maschinelles System,
 das vielleicht irgendwann nachweislich
 
- 
einen positiven Effekt hat, kann
 tatsächlich zu einem Schaden führen. Wenn
 
- 
wir uns dann dafür entschieden haben, dass
 wir ein KI System ergänzend einsetzen wollen
 
- 
in einem bestimmten Anwendungssektor, dann
 muss als nächstes entschieden werden: Wie
 
- 
viel Entscheidungsspielraum soll der
 Mensch dann überhaupt noch haben, wenn es
 
- 
heißt: Am Schluss trifft der Mensch die
 letzte Entscheidung? Die Papiere von der
 
- 
EU-Kommission zum Beispiel gehen im Moment
 von drei verschiedenen Stufen aus. Human
 
- 
in Command, Human on Command und Human in
 the Loop. Aber es gibt schon aus der
 
- 
Informatik viel ältere
 Klassifizierungssysteme, die viel
 
- 
ausgefeilter sind, z.B. vom MIT aus den
 1980er Jahren, die bis zu zehn Stufen
 
- 
unterscheiden, in denen verschiedene
 Autonomiegrade vom Menschen bis zur
 
- 
Maschine einmal durchlaufen werden, also
 von der vollständigen Autonomie für den
 
- 
Menschen bis hin zur vollständigen
 Autonomie durch die Maschine. Das heißt,
 
- 
da ist dieser, diese Aussage, die
 menschliche, die letzte Entscheidung
 
- 
trifft der Mensch ist noch so viel
 wahnsinnig vielen Fragen unterworfen und
 
- 
vor allem aber, finde halte ich das für
 die allerwichtigste Frage, genau diese
 
- 
Abstufungen, welchen
 Entscheidungsspielraum Mensch überhaupt
 
- 
hat, weil daraus leitet sich dann
 letztendlich auch ab, wie ein Mensch
 
- 
weitergebildet werden muss, mit diesem
 System überhaupt zu arbeiten und welche
 
- 
Vereinbarungen er vielleicht in seinem
 Arbeitsvertrag braucht, also welche Rechte
 
- 
er überhaupt hat, diesen
 Entscheidungsspielraum tatsächlich
 
- 
wahrzunehmen. So, selbst wenn er diesen
 Entscheidungsspielraum dann für sich
 
- 
festgelegt hat, dann ist auch noch die
 Frage: Wie viel Entscheidungsspielraum
 
- 
lässt das System dann tatsächlich zu? Es
 gibt in diesem ganzen Bereich Mensch-
 
- 
Maschine Interaktion derzeit noch sehr,
 sehr wenig Forschung. Aber die ersten
 
- 
Forschungen, die es schon gegeben hat, die
 zeigen zum Beispiel: Selbst wenn Menschen
 
- 
erkennen, dass das System gerade nicht
 optimal arbeitet und sie möchten gerne in
 
- 
das System eingreifen, um einen Fehler zu
 eliminieren oder eine Korrektur
 
- 
vorzunehmen und dann dabei feststellen,
 dass dieser Prozess so wahnsinnig
 
- 
aufwendig und kompliziert ist, dann neigen
 Menschen tatsächlich dazu, mit diesem
 
- 
fehlerhaften System trotz besseren Wissens
 weiterzuarbeiten. Und das ist halt etwas,
 
- 
was wir gerade in sozialen Kontexten und
 gerade in Bereichen, in denen KI-Systeme
 
- 
über das Leben oder Lebenswege von
 Menschen entscheiden, einfach ganz genau
 
- 
hinschauen sollten, was es denn eigentlich
 bedeutet, wenn der Mensch die letzte
 
- 
Entscheidung treffen soll. Denn am Ende
 kann es tatsächlich sein, dass der
 
- 
Entscheidungsspielraum, der dort
 angedeutet wird, mit dieser Aussage viel,
 
- 
viel kleiner ist als angenommen
 Handlungsspielräume geklärt sind. Und
 
- 
auch, weil wir von total optimal
 funktionierenden KI-System ausgehen. Dann
 
- 
ergeben sich immer noch Probleme auf der
 strukturellen Ebene, sodass wir auf lange
 
- 
Sicht einfach schauen müssen: Was macht
 das dann mit der Lernkultur, mit der
 
- 
Bildungskultur an Schulen? Das fängt an
 bei der Erhebung von den Daten, also der
 
- 
Datafisierung von Lernprozessen. Aber ich
 werde nicht müde, immer wieder zu
 
- 
wiederholen, dass wir immer noch mit
 personenbezogenen Daten von größtenteils
 
- 
minderjährigen Schüler:innen arbeiten und
 dass wir Kinder auch schon sehr, sehr früh
 
- 
daran gewöhnen, sich mit algorithmischen
 Klassifizierungs- und Bewertungsverfahren
 
- 
auseinanderzusetzen und sich vielleicht
 ihnen auch sogar zu unterwerfen, ohne dass
 
- 
sie sie aufgrund der Black-Box Problematik
 vielleicht nachvollziehen können. Nächste
 
- 
Problematik ist das Ding der
 Standardisierung, Operationalisierung von
 
- 
Daten. Welche Dinge werden dabei
 ausgelassen? Wer bestimmt, was der
 
- 
Standard ist? Wer bestimmt, was das
 normale ist? Inwieweit können diese
 
- 
Systeme überhaupt hinterfragt werden?
 Welche Qualitäts- und Fairness-Maße beim
 
- 
Training, welche Feedback an diese Systeme
 gegeben werden? In der Bildung gehört es
 
- 
letztendlich dazu, auch nicht
 standardisierte Wege zu gehen. Hetty,
 
- 
einer der renommiertesten
 Bildungsforscher, hat in seiner Studie
 
- 
Visible Learning unter anderem nochmal
 herausgestellt, dass es zum einen zum
 
- 
Bildungserfolg gehört und dass es auch mit
 Bildungserfolg beiträgt, wenn Schüler:innen
 
- 
befähigt werden, vorgegebene Lösungswege
 aufzubrechen oder auch ihre eigenen zu
 
- 
finden. Aber durch diese ganze
 Vereinzelung und durch die
 
- 
Standardisierung gehen halt einfach auch
 bestimmte Möglichkeiten im Lern-Spektrum
 
- 
verloren, sodass Schüler:innen gar nicht
 mit alternativen Möglichkeiten vielleicht
 
- 
mehr konfrontiert werden, um ihren
 Horizont zu erweitern. Die nächste
 
- 
Problematik ist das Scheitern. Wenn ich
 jetzt in einem normalen Klassenverbund
 
- 
vielleicht selber schon mal merke, ich
 komme hier an meine Grenzen oder ich komme
 
- 
mit der Aufgabenstellung nicht zurecht,
 dann ist das natürlich total frustrierend.
 
- 
Aber gleichzeitig gehört das auch mit zum
 Bildungsprozess und zur
 
- 
Persönlichkeitsentwicklung auch dazu,
 Grenzen zu erkennen, auch mit Misserfolgen
 
- 
umzugehen. Und wenn all dies ausbleibt,
 dann verschieben sich diese Grenzen
 
- 
einfach viel, viel weiter nach hinten,
 weil dann immer nur der Inhalt präsentiert
 
- 
wird, der geradezu meinem vom System
 errechneten Lernniveau passt und ich aber
 
- 
vielleicht gar nicht mehr dazu richtig
 gefordert werde, mich auch aber mit Dingen
 
- 
auseinanderzusetzen, die ich vielleicht
 noch gar nicht können kann, die mich aber
 
- 
vielleicht jetzt aktuell nochmal
 weiterbringen. Jetzt im Klassenverband
 
- 
gibt es zwar auch das Thema der
 Binnendifferenzierung, also dass es
 
- 
unterschiedliche Inhalte idealerweise für
 verschiedene Lernniveaus oder für
 
- 
verschiedene Lerntypen gibt. Aber in einem
 Klassenverband gibt es immer noch die
 
- 
Möglichkeit, das in Gruppenarbeiten z.B.
 zu organisieren, wo etwas schwächere
 
- 
Schüler mit etwas stärkeren Schülern
 zusammen an einer Lösung arbeiten können.
 
- 
Wenn wir auf individualisierte
 systembasierte Lernpfade gehen, dann
 
- 
sitzen im Prinzip die Schüler:innen dort
 alleine und das System entscheidet, was
 
- 
hier präsentiert wird und was nicht
 präsentiert wird. Da geht einfach sehr,
 
- 
sehr viel verloren. Das Spektrum verengt
 sich. Gleichzeitig kann es aber auch
 
- 
passieren, dass Lehrkräfte vielleicht noch
 mehr angegriffen werden, als sie es
 
- 
vielleicht jetzt schon werden von Eltern
 einfach in Frage gestellt werden. Ihre
 
- 
Entscheidungssysteme können mehr in Frage
 gestellt werden, weil Lehrkräfte
 
- 
vielleicht verlangen, dass ein System
 nochmal die Bewertung nachvollzieht, was
 
- 
letztendlich sehr demotivierend für
 Lehrkräfte sein kann, was Vertrauen
 
- 
unterwandern kann und letztendlich auch
 die Autorität von Lehrkräften wieder
 
- 
unterwandern kann. Wir haben sowieso schon
 ein großes Problem mit Lehrkräftemangel
 
- 
und die Frage ist, ob solche Entwicklungen
 Lehrkräfte oder angehende Lehrkräfte
 
- 
motiviert, diesen Beruf dann überhaupt
 noch zu ergreifen, wenn sie sich dann auch
 
- 
zukünftig immer mit technischen System
 messen müssen. Letztendlich aber
 
- 
wahrscheinlich das größte Problem: Was
 macht es mit der Ungleichheit? Also alle
 
- 
Bildungsberichte gehen im Prinzip immer
 wieder davon aus, dass wir
 
- 
Bildungsungleichheiten und
 Ungerechtigkeiten haben. Das ist eines der
 
- 
größten Probleme im Bildungssektor, das es
 tatsächlich gibt, und die Frage ist,
 
- 
inwieweit die der verstärkte Einsatz von
 KI-Systemen diese Ungleichheiten entweder
 
- 
aushebelt oder vielleicht sogar verstärken
 kann. Das kann auf der individuellen Ebene
 
- 
passieren, dass Schüler:innen, die sich
 vielleicht sehr gut selbst organisieren
 
- 
können und vielleicht sehr gut mit Systemen
 arbeiten können, dieses schneller
 
- 
verstehen, vielleicht auch schneller
 wissen, wie sie es umgehen können. Während
 
- 
vielleicht eher lernschwache Schüler sich
 dem System eher ausgeliefert fühlen und
 
- 
vielleicht eher demotiviert werden, sich
 dann nochmal Hilfe zu suchen oder
 
- 
vielleicht auch Lehrkräfte das gar nicht
 unbedingt erkennen können, dass
 
- 
Schüler:innen vielleicht überhaupt
 Schwierigkeiten haben, wenn sie diese
 
- 
Systeme zuhause anwenden oder vielleicht
 hinter einem Bildschirm verschwinden. Auf
 
- 
einer größeren Ebene kann der Einsatz von
 KI Systemen die Ungleichheit verschärfen,
 
- 
weil einfach die Frage ist: Werden sich
 dann zukünftig eher gut ausgestattete
 
- 
Schulen in reichen Bundesländern, in
 privilegierten Umfeldern KI-Systeme zur
 
- 
Unterstützung leisten können? Oder werden
 KI-Systeme eher eingesetzt werden können
 
- 
in weniger privilegierten Kontexten? Es
 gibt in den USA gab es jetzt die
 
- 
Gründungen von Rocketchip Schulen. Ich
 kann mir den Namen immer sehr schlecht
 
- 
merken. Rocketchip Public Schools heißen
 sie und dort sitzt dann im Prinzip nur
 
- 
noch eine Hilfslehrkraft, die dann bis zu
 90 Schüler:innen an ihren
 
- 
Computerbildschirmen steuert, anleitet,
 irgendwie unterstützt, um einfach auch
 
- 
Stellen an gut ausgebildeten Lehrkräften
 einzusparen. Dort läuft es auf eine Art
 
- 
Massenabfertigung hin und die Forschung,
 die es da gegeben hat, hat jetzt zumindest
 
- 
letztes Jahr schon gezeigt, dass die
 Ergebnisse, die die Schüler:innen dort erzielen,
 
- 
bis zu einer Note schlechter sind als
 Schüler:innen, die in einem herkömmlichen
 
- 
Klassenverband mit vernünftig
 ausgebildeten Lehrkräften lernen. Wir
 
- 
kennen diese Diskussionen auch im
 Gesundheitsbereich, in der Pflege. Auch da
 
- 
wird diskutiert, ob Robotics Systeme in
 der Pflege eher ein System für die
 
- 
Privilegierten sind. Wer es sich leisten
 kann, holt sich einen Roboter dazu. Oder
 
- 
ob es auch da eher um eine Auslagerung an
 Technik geht, dass wir in weniger
 
- 
privilegierten Einrichtungen einfach von
 Maschinen betreut werden anstatt von
 
- 
Menschen. Also da kann der Bildungssektor
 sich vielleicht ganz gut am
 
- 
Gesundheitssektor orientieren und diese
 Debatte dort mal verfolgen, in welche
 
- 
Richtung das geht. All diese Schwächen und
 Risiken zusammengenommen frage ich mich
 
- 
tatsächlich, ob das Werben für KI-Systeme
 an Schulen oder auch teilweise der Druck,
 
- 
der da gemacht wird, dass das eigentlich
 totale super Sache ist. Ob das nicht
 
- 
letztendlich einfach nur gemacht wird, um
 die eigentlichen Probleme im Schulsystem
 
- 
zu verschleiern. Denn eigentlich haben wir
 es mit einer großen Mangelfinanzierung zu
 
- 
tun. Wir haben zu große Klassen, wir haben
 zu wenig Lehrkräfte, wir haben einen
 
- 
wahnsinnigen Sanierungsstau. Und wenn
 gleichzeitig dann aber von Regierungen
 
- 
mitempfohlen wird, dass wir doch KI-
 Systeme und Learning Analytics einsetzen,
 
- 
weil dadurch die Lehrkräfte entlastet
 werden und sich dann besser um die
 
- 
Schüler:innen kümmern sollen. Wobei wir
 eigentlich gar keine Evidenz dafür haben,
 
- 
dass das tatsächlich so funktioniert und
 so klappt. Dann habe ich einfach zunehmend
 
- 
das Gefühl, dass genau diese
 Mangelwirtschaft einfach aufrechterhalten
 
- 
werden soll und dadurch verschleiert
 werden soll, dass wir mal wieder
 
- 
versuchen, soziale Probleme mit Technik zu
 lösen. Und das ist etwas, wo wir meiner
 
- 
Meinung nach genau jetzt an diesem Punkt
 sind, diese Diskussion zu führen und diese
 
- 
Entwicklung zu verhindern, weil
 diejenigen, die letztendlich darunter
 
- 
leiden, sind neben den Lehrkräften, die am
 Ende nämlich nur scheinbar entlastet
 
- 
werden, vor allem die Schülerinnen und
 Schüler, deren Daten jetzt einfach erhoben
 
- 
werden und verarbeitet werden sollen und
 wir gar nicht wissen, was daraus am Ende
 
- 
wird. So bedeutet das jetzt aber, dass KI-
 Systeme im Bildungssektor und in der
 
- 
Schule gar nichts verloren haben. So weit
 würde ich gar nicht gehen, sondern ich
 
- 
möchte gerne in Zukunft unterscheiden, auf
 welchen Ebenen wir KI-Systeme im
 
- 
Bildungssektor einsetzen. Wir haben jetzt
 bisher immer so ein bisschen betrachtet,
 
- 
was auf der Mikroebene passiert, also wo
 personenbezogene Daten von Schüler:innen
 
- 
oder von Lehrkräften analysiert und
 verarbeitet werden. Es gibt aber auch noch
 
- 
die Meso und Makroebene im Bildungssystem.
 Auf der Mesoebene reden wir von dem Zugang
 
- 
zu Lernorten oder auch zu Lerninhalten und
 die Makroebene betrachtet tatsächlich die
 
- 
übergreifende Steuerung von
 Bildungssysteme, wo sich z.B. auch die
 
- 
Problematik der Ungerechtigkeit lösen
 lassen müsste. Auf der Meso- und auf der
 
- 
Makroebene gibt es tatsächlich dann die
 Möglichkeit mit Open Data zu arbeiten und
 
- 
nicht mit personenbezogenen Daten, um halt
 diese bestimmten oder diese konkreten
 
- 
Probleme mit anzugehen. Und ich möchte
 jetzt im Folgenden eigentlich mal
 
- 
vorstellen, welche Beispiele es dafür
 jetzt schon gibt oder welche es geben
 
- 
könnte, damit es nicht so als Behauptung
 im leeren Raum steht. Also nochmal zurück
 
- 
auf die Mikroebene gegangen, gibt es dort
 auch durchaus Möglichkeiten, mit Systemen
 
- 
zu arbeiten, die nicht unbedingt die
 personenbezogenen Daten von Schülerinnen
 
- 
und Schülern verarbeiten. Das ist zum
 einen die Möglichkeit: Es gibt ein System,
 
- 
dass Lehrkräfte neue Methoden zum Beispiel
 anhand einer KI trainieren können und
 
- 
aufgrund des Feedbacks der KI dann sehen
 können, wo Verständnisschwächen entstehen,
 
- 
sodass sie dann ihre Methoden und ihre
 Erklärweisen nochmal anpassen können,
 
- 
bevor sie damit konkret in die Klasse
 gehen. Dann gibt es natürlich diesen
 
- 
ganzen Bereich der Administration,
 Vertretungspläne, Stundenpläne oder auch
 
- 
Postverwaltung. Da gibt es ja schon einige
 Beispiele, auch aus Behörden, wie sowas
 
- 
eingesetzt werden kann mit ganz, ganz
 unkritischen Anwendungsbereichen und
 
- 
keinen großen personenbezogenen Daten, die
 dafür nötig sind. Was auch total günstig
 
- 
ist, ist natürlich alles, was dazu
 beiträgt, das System KI zu verstehen. Also
 
- 
selbst wenn ich Anwendungen durchaus in
 gewissen Bereichen hier intensiv in Frage
 
- 
stellen möchte, ist zu keinem Zeitpunkt in
 Frage zu stellen, dass natürlich
 
- 
verstanden und gelernt werden muss, wie
 algorithmische und KI-Systeme
 
- 
funktionieren und was man mit ihnen machen
 kann. Das heißt, als Unterstützung für
 
- 
Lernmethoden oder auch um Experimente
 durchzuführen, ist es auch für Schüler
 
- 
durchaus geeignet. Es gab mal diesen
 Wettbewerb. Ich weiß nicht, ob der jedes
 
- 
Jahr stattfindet, zur KI Schule des
 Jahres. Dort haben jugendliche
 
- 
Schüler:innen unter anderem ein System
 entwickelt, um Zugverspätung
 
- 
vorherzusagen, also sehr anwendungsnah und
 sehr sinnvoll für viele von uns. Und auch
 
- 
Methoden der Textanalyse oder Datenbank-
 Analysen. Auch die können Schülern
 
- 
durchaus zugutekommen, sodass sie sie als
 Werkzeuge für das eigene Lernen benutzen
 
- 
und dabei aber weniger Schüler:innen
 Werkzeuge für das KI-System darstellen
 
- 
müssen. Auf der Meso-Ebene habe ich
 tatsächlich im Moment sehr, sehr wenig
 
- 
Anwendungsbeispiele gefunden, was da
 gemacht werden kann. Also eine Sache, die
 
- 
mich inspiriert hat, ist das Ergebnis
 eines EDU Hacks. Dort hat eine Gruppe eine
 
- 
Open Source Bibliothek entwickelt und
 sowas kann ich mir sehr sehr gut auch
 
- 
tatsächlich für Deutschland vorstellen,
 dass wir, wir haben ja diese Problematik,
 
- 
Lehrkräfte von euch werden das kennen, ich
 hab das jetzt auch schon oft gehört, dass
 
- 
Lehrkräfte immer auf der Suche sind. Wo
 finde ich denn gute OER Materialien? Woher
 
- 
weiß ich dann, dass die gut sind oder
 nicht? Woher weiß ich, ob die zu meinem
 
- 
Unterricht passen? Es ist alles so weit
 verstreut. Ich weiß gar nicht, wo ich das
 
- 
ganze gute Zeug finden soll. Sowas alles
 in eine Datenbank zu packen und dann mit
 
- 
KI-Systeme durchsuchbar zu machen und
 vielleicht auch so durchsuchbar zu machen,
 
- 
dass Lehrkräfte schnell dort auch wissen,
 wie komme ich dann an genau die
 
- 
Ergebnisse, die ich gerade für meinen
 Unterricht gebrauchen kann. Könnte ein
 
- 
Anwendungsbeispiel sein. Die OER-Strategie
 der Bundesregierung ist ja jetzt
 
- 
ausgelaufen. Wird gerade neu entwickelt.
 Kommt im nächsten Jahr. Und wir wissen
 
- 
leider noch nicht, was drin steht. Aber es
 bleibt einfach zu hoffen, dass eine
 
- 
Zentralisierung oder zumindest eine
 bessere Auffindbarkeit von OER-Inhalten
 
- 
dort mitgedacht wird. Das Thema Inklusion-
 Integration hatten wir schon angesprochen.
 
- 
Auch da sehe ich bei KI, wenn man diese
 ganzen Problematiken bei der
 
- 
Spracherkennung und Übersetzung
 ausgehebelt sind, wenn die ausgehebelt
 
- 
sind, dass wir dort auch noch viele
 Potenziale haben, die es zu heben gilt, um
 
- 
Inklusion und Integration einfach
 einfacher zu machen. Und was ich auch sehe
 
- 
ist im Kontext autonomes Fahren oder auch
 Verkehrsleitsysteme, das ganze Thema
 
- 
Schultransporte, sei es
 jahreszeitenbedingt oder vielleicht auch
 
- 
im ländlichen Raum und vor allem aber auch
 mit Blick auf Förderschulen oder inklusive
 
- 
Schulen. KI-Systeme können sicherlich
 dabei unterstützen, den Transport gut zu
 
- 
organisieren und effizient zu
 organisieren. Und wir werden es ja
 
- 
mindestens im nächsten Jahr auch noch mit
 dieser Pandemie zu tun haben. Und gerade
 
- 
inklusive Schulen oder Förderschulen haben
 bei diesem ganzen Transport Thema
 
- 
tatsächlich ein großes Problem, weil dort
 die Zusammenkunft von Schüler:innen in so
 
- 
einem Schulbus oder in so einem Transport
 Bus hin zur Schule für Menschen oder
 
- 
Schüler:innen mit Behinderung einfach noch
 ein viel, viel größeres Risiko darstellen,
 
- 
als es für gesunde Schüler:innen ist. Also
 Menschen mit Behinderung gehören zur
 
- 
Risikogruppe Nummer eins. Zu weiteren
 Potenzialen auf der Makroebene. Dort gibt
 
- 
es tatsächlich schon konkrete
 Anwendungsfälle, die uns für Deutschland
 
- 
auch ein Vorbild sein könnten. Also sowohl
 die Schweiz als auch Belgien haben zum
 
- 
Beispiel Systeme entwickelt, um die
 Durchmischung, die soziale Durchmischung
 
- 
an Schulen zu optimieren. Dass in etwas
 wohlhabenderen Stadtvierteln nicht nur
 
- 
privilegierte Schüleri:nnen sind und die
 weniger Privilegierten dann halt in
 
- 
Problemschulen landen, sondern dass dort
 einfach nochmal neu berechnet wird, wie
 
- 
eine bessere Durchmischung stattfinden
 kann. Das wurde in der Schweiz zum
 
- 
Beispiel so gemacht, dass die die
 Straßenzüge neu berechnet werden, wie
 
- 
Wohngebiete bestimmten Schulen zugeteilt
 werden. Das unter der Maßgabe, dass die
 
- 
Schulwege sicher sein müssen und dass sie
 nicht länger sein sollen als bisher
 
- 
gehabt. Und das hat im ersten Versuch
 tatsächlich so gut funktioniert, dass
 
- 
jetzt mehrere Kantone versuchen wollen,
 dieses System zu übernehmen. In Belgien
 
- 
hat es ein ähnliches Projekt gegeben. Dort
 wird jetzt im Moment das System aber
 
- 
nochmal überarbeitet, weil dort Eltern
 sich beschwert haben, dass dass sie ihre
 
- 
Kinder nicht mehr auf Schulen schicken
 oder gehen lassen können, die zum Beispiel
 
- 
bestimmte Schwerpunkte haben. Dann gibt es
 dann eine Schule, die hat eine
 
- 
Spezialisierung auf den musischen Bereich
 oder auf den sportlichen Bereich. Und dort
 
- 
wird das System jetzt so überarbeitet,
 dass die Schulen dort auch Faktoren
 
- 
gewichten können, sodass es dort
 zusätzlich zu der besseren sozialen
 
- 
Durchmischung auch die Möglichkeit gibt,
 noch bestimmte Schwerpunkte zu setzen.
 
- 
Auch wieder in UK gibt es ein System, dass
 es Behörden erleichtern soll,
 
- 
Schulinspektionen vorzunehmen. Das heißt,
 dort wird aufgrund von bestimmten
 
- 
Indikatoren rechtzeitig prognostiziert,
 welcher Schule vielleicht nochmal eine
 
- 
Inspektion oder ein Besuch durch die
 Behörde bedarf, um bestimmte Entwicklungen
 
- 
vielleicht rechtzeitig zu stoppen. Und
 auch in England, das fand ich ganz gut,
 
- 
gibt es ein, gibt es die NGO Nesta, die
 einige von euch vielleicht kennen. Und die
 
- 
haben ein eigenes Papier entwickelt, das
 genau auf das abzielt, was ich hier auch
 
- 
vorstellen möchte. Nämlich wenn wir KI im
 Bildungssektor schon einsetzen wollen,
 
- 
dann sollten wir uns auf die strukturellen
 Probleme konzentrieren. Oder wenn wir
 
- 
schon auf der Mikroebene arbeiten, dann
 sollten wir uns auf Systeme konzentrieren,
 
- 
die mit den Daten von Lehrkräften arbeiten
 und Lehrkräfte bei ihrer Arbeit
 
- 
unterstützen. Zumindest jetzt in einem
 ersten Schritt, wenn die KI-Systeme noch
 
- 
nicht so gut und so weiterentwickelt sind,
 wie wir sie vielleicht gerne hätten. Diese
 
- 
Systeme können tatsächlich schon Vorbild
 sein, auch für Deutschland. Und wovon ich
 
- 
in Deutschland auch ein bisschen träume
 und woran wir gerade politisch arbeiten,
 
- 
ist dieser leidige Königsteiner Schlüssel
 zum Beispiel. Der Königsteiner Schlüssel
 
- 
verteilt im Moment Fördergelder nach
 Bevölkerungsdichte und nach
 
- 
Steueraufkommen. Da funktioniert das ganz
 klassisch jetzt im Moment nach dem
 
- 
Matthäus Prinzip. Wer hat, dem wird
 gegeben. Reiche Länder bekommen den
 
- 
höheren Anteil an Fördergeldern und die
 etwas ärmeren Länder bekommen halt nicht
 
- 
so viel. Dabei sollte es doch eigentlich
 genau umgekehrt sein. Und wenn es
 
- 
tatsächlich möglich wäre, mit einem KI-
 System auf Basis von noch mehr oder
 
- 
anderen Daten zu ermitteln, welcher
 Förderzweck genau welche Förderhöhe
 
- 
brauch, dann wäre es doch vielleicht sogar
 möglich, dass wir je nach Förderzweck
 
- 
jedes Mal diesen Verteilungsschlüssel neu
 errechnen. Also wenn es dort Möglichkeiten
 
- 
gibt oder wenn es dort Ansätze gibt sowas
 zu entwickeln, bitte ich um
 
- 
Kontaktaufnahme. Das würde mich sehr sehr
 interessieren. Selbstverständlich würde
 
- 
das voraussetzen, dass von den Schulen,
 Schulträgern und auch Schulbehörden
 
- 
nochmal ganz andere Daten auch erhoben und
 erfasst werden. Es gibt aber auch bereits
 
- 
Bildungsdatenbank. Es gibt die
 Forschungsdatenbank Bildung, wo jetzt im
 
- 
Moment schon Bildungsstudien eingestellt
 sind, also die Infrastruktur letztendlich
 
- 
wäre für sowas vorhanden. Es müsste sich
 vielleicht nur etwas in der Kultur ändern,
 
- 
damit Schulen auch bereit sind oder damit
 überhaupt auch Länder und Behörden dort
 
- 
anfangen bestimmte Daten zu erheben, um
 dann halt auch die strukturellen Systeme
 
- 
auflösen zu können. So, welche
 Anforderungen brauchen wir letztendlich,
 
- 
um auf dieser Makroebene an die
 strukturellen Probleme heranzugehen? Dort
 
- 
würde ich gerne unterscheiden, ein
 bisschen was können Menschen auf der
 
- 
persönlichen Ebene tun? Was muss auf der
 Organisationsebene passieren und vor
 
- 
allem was braucht es noch auf der
 rechtlichen Ebene? Im Moment wird ja ganz,
 
- 
ganz viel immer davon geredet. Lehrkräfte
 müssen sich fortbilden, damit sie mit
 
- 
diesem System arbeiten können. Ja, das ist
 aber auch nur ein Teil, der getan werden
 
- 
muss. Und Teil dieser Fortbildung ist
 natürlich nicht nur, dass es darum geht,
 
- 
wie diese Systeme angewendet werden,
 sondern es braucht ein tiefes Verständnis
 
- 
einfach von KI als soziotechnisches
 System. Und es braucht das schöne
 
- 
Stichwort Data Literacy. Das heißt, ein
 Verständnis dafür zu entwickeln, was Daten
 
- 
überhaupt aussagen und aber vor allem
 anderen eigentlich braucht es auf der ganz
 
- 
individuellen Ebene immer noch ganz viel
 Fortbildung, was überhaupt das Thema
 
- 
Digitalisierung betrifft und auch der
 damit verbundene Kulturwandel. Überhaupt,
 
- 
sich zu öffnen, um Informationen oder auch
 Inhalte zu teilen, um eine gewisse
 
- 
Fehlerkultur zu entwickeln. All das ist ja
 gerade noch im Umbruch. Und wenn wir jetzt
 
- 
davon reden, dass wir KI-Systeme an den
 Schulen wollen oder dass es gefördert
 
- 
werden soll, dann habe ich manchmal das
 Gefühl, wir wollen einem Kind, das gerade
 
- 
das Fahrradfahren gelernt hat, wollen wir
 jetzt in einen Rennwagen setzen, weil es
 
- 
damit ja noch sicherer zur Schule kommt.
 Das passiert alles in einem sehr, sehr
 
- 
großen Tempo, das nicht damit erledigt
 werden sollte, dass wir uns einfach nur
 
- 
darauf zurücklehnen und sagen, Lehrkräfte
 müssen sich weiterbilden und dann können
 
- 
sie auch KI-Systeme in der Schule
 einsetzen. Die Eltern habe ich jetzt
 
- 
nochmal in Klammern gesetzt. Davon
 ausgehend, dass wir es vielleicht wirklich
 
- 
schaffen, unsere Forschungs- und
 Entwicklungsschwerpunkte mehr auf die
 
- 
Makro und auf die Meso Ebene zu legen und
 weniger auf die Schüler basierten Systeme.
 
- 
auf der Organisationsebene, also dort wo
 entschieden wird. Letztendlich kommt ein
 
- 
KI System zum Einsatz - Ja oder nein. Das
 ist die Schulleitung oder das Schulträger
 
- 
oder vielleicht auch Bundesländer. Muss
 natürlich als allererstes mal hinterfragt
 
- 
werden. Wozu brauche ich das System? Ich
 habe es eben schon angesprochen. Wenn wir
 
- 
ein soziales Problem an der Schule
 feststellen, ist ein technisches System
 
- 
tatsächlich dafür die Lösung? Oder sollten
 wir vielleicht eher auf der sozialen Ebene
 
- 
nochmal schauen, was wir vielleicht an
 unseren Lernzielen oder an unseren
 
- 
Methoden oder an unserer
 Organisationskultur verändern müssen?
 
- 
Selbst wenn wir uns entscheiden für ein
 technisches System, dann muss natürlich
 
- 
entsprechend die Infrastruktur gegeben
 sein. Das heißt, die Frage ist: Wo werden
 
- 
Daten, mit denen gearbeitet wird? Wo
 werden sie gespeichert? Sind sie dort
 
- 
überhaupt sicher genug? Haben wir
 überhaupt WLAN an den Schule, damit dort
 
- 
vor Ort gearbeitet werden kann? All diese
 Fragen. Natürlich braucht es auch auf der
 
- 
Entscheidungsebene Kompetenzen. Es braucht
 den Kulturwandel und überhaupt erst einmal
 
- 
die Grundlagen der Digitalisierung, bevor
 wir mit KI die nächsten Stufe gehen. Wir
 
- 
brauchen die Regelung zur menschlichen
 Entscheidungsfähigkeit tatsächlich auch in
 
- 
den Arbeitsverträgen und wie auch in
 anderen Verwaltungsbereichen auch sollte
 
- 
es auch im Bildungsbereich einfach ganz
 klare Beschaffungsrichtlinien geben. Wenn
 
- 
Systeme angeschafft werden, dann braucht
 es ganz klare Anforderungskataloge, wie
 
- 
diese Systeme gestaltet werden sollen. Und
 natürlich muss sich dann auch der Bund
 
- 
entscheiden, Förderungen in die richtige
 Richtung zu schicken und diese Systeme zu
 
- 
fördern und zu unterstützen, die sich auf
 die Meso- und Makroebene fokussieren und
 
- 
nicht die Attack Startups, die versuchen,
 das Lernerlebnis für Schüler zu
 
- 
verbessern, obwohl es dafür keine Evidenz
 gibt, werde ich auch nicht müde, das immer
 
- 
wieder zu wiederholen. Und dann haben wir
 natürlich auf der rechtlichen Ebene noch
 
- 
viele offene Fragen, die KI-Systeme im
 Allgemeinen betreffen und gar nicht
 
- 
unbedingt nur auf den Bildungssektor
 Anwendung finden. Und das ist einmal die
 
- 
Problematik der Nachvollziehbarkeit. Also
 solange KI-Systeme an sich selber nicht
 
- 
nachvollziehbar sind, müssen zumindest
 Schnittstellen geschaffen werden, dass
 
- 
Evualator:innen oder Forscher:innen
 zumindest reingucken können, was das
 
- 
System überhaupt macht. Wir brauchen eine
 Nachweisbarkeit, dass diese Systeme
 
- 
funktionieren, erst recht, wenn wir mit
 Schüler:innen an Daten arbeiten wollen. Und
 
- 
wir brauchen eine Kritikalität ex ante.
 Wir reden hier vom Bildungssektor. Dort
 
- 
werden Lebenswege vorbestimmt. Das ist
 nicht der Raum, um Experimente zu machen
 
- 
und mal Systeme loszulassen, laufen zu
 lassen und dann mal zu gucken, welche
 
- 
Probleme sie eventuell entwickeln. Wir
 haben aus dem Ausland jetzt schon genügend
 
- 
Beispiele, was nicht gut funktioniert. Ich
 wäre kein Fan davon, wenn wir das Ganze
 
- 
hier in Deutschland nochmal wiederholen
 wollen. Eigentlich nicht nötig, das zu
 
- 
sagen, aber es braucht letztendlich auch
 eine rechtlich bindende
 
- 
Anbieterstabilität. Es gab tatsächlich,
 ich glaube auch in den USA, das System
 
- 
inBlue. Das wurde überall ausgerollt und
 eingesetzt. Und dann irgendwann hat der
 
- 
Anbieter entschieden, seine Dienste
 einzustellen. Was aus den Daten geworden
 
- 
ist bis dahin weiß letztendlich kein
 Mensch. Das ganze Thema Offenheit sollte
 
- 
gerade bei KI Entwicklung im
 Bildungssektor viel, viel stärker auch
 
- 
eingefordert und verankert werden. Das
 heißt, auch KI-Systeme sollten wie Open-
 
- 
Source-Software behandelt werden, als
 OpenAI z.B. stärker mitgefördert werden. Wir
 
- 
müssen viel stärker entwickeln im Bereich
 OER Open Data, um dann diese ganzen Daten,
 
- 
die wir im Lern-Kontext dann auch sammeln,
 wiederum als Open Educational Data, also
 
- 
als OED auch wieder zur Verfügung zu
 stellen. Ohne offene Datenbasis kommen wir
 
- 
da nicht hin. Sehr charmant finde ich auch
 die Idee der öffentlichen Register. Dort
 
- 
sollten sich auch KI-Systeme im
 Bildungsbereich eintragen lassen. Und was
 
- 
auf jeden Fall passieren muss, ist die
 Überarbeitung des Artikels 22 der DSGVO.
 
- 
Dort werden im Moment ja nur
 Entscheidungen geregelt,
 
- 
vollautomatisierte Entscheidungen sind
 dort geregelt. Was nicht geregelt ist,
 
- 
sind teilautomatisierte Systeme und
 teilautomatisierte Systeme sind ja die, die
 
- 
jetzt eigentlich weitestgehend im Einsatz
 sind. Und wenn wir auch da wieder im
 
- 
Hinterkopf haben, dass ja als Argument
 immer noch gilt: Der Mensch trifft die
 
- 
letzte Entscheidung, werden wir es auch
 zukünftig verstärkt mit teil-
 
- 
automatisierten System zu tun haben. Und
 dort müssen Einspruchsrechte und
 
- 
Widerspruchsrechte einfach noch klarer
 geregelt werden. Ach nee, bevor ich zu
 
- 
meinem Fazit komme, möchte ich nochmal auf
 die lange Kette der Verantwortlichkeit
 
- 
auch nochmal eingehen. Wenn Systeme
 tatsächlich ausgewählt werden, müssen
 
- 
Entscheider in der Lage sein, auch diese
 Systeme zu beurteilen. Und in ganz, ganz
 
- 
grober Anlehnung an diese lange Kette der
 Verantwortlichkeit von Katharina Zweig und
 
- 
Tobias Kraft sollte es mit in einen
 Anforderungskatalog und sollte es mit in
 
- 
den Kompetenzkatalog von all denjenigen,
 die dazu entscheiden, dass sie in der Lage
 
- 
sind, zu hinterfragen und zu prüfen.
 Aufgrund von welcher Datenbasis wurde ein
 
- 
System trainiert, also welche Qualität,
 welche Quantität? Wie alt sind die Daten?
 
- 
Passen sie überhaupt zum Trainingszweck?
 Dann letztendlich auch nach welchen
 
- 
Maßgaben wurde das System trainiert? Ganz
 ganz wichtig ist ja auch ein KI-System,
 
- 
das einmal für einen bestimmten Zweck
 trainiert wurde, ist nicht unbedingt
 
- 
günstig in einem ganz anderen
 Anwendungskontext. Gerade im
 
- 
Bildungsbereich, wenn damit geworben wird,
 dass bei Übersetzungssystemen oder
 
- 
Spracherkennungssystemen das es ja ganz
 ganz tolle Software as a Service Systeme
 
- 
schon gibt, die quasi von der Stange
 gekauft werden können, muss immer noch
 
- 
hinterfragt werden: Passt das tatsächlich
 zu meinem Anwendungskontext? Und
 
- 
letztendlich passt auch dieses System zu
 meinem Ethik-System, das ich bei mir an
 
- 
der Schule habe. Datenverwendung ist ganz,
 ganz wichtig. Was passiert mit den Daten,
 
- 
die erhoben werden an einer Schule, auch
 wenn es nur Daten von Lehrkräften sind?
 
- 
Gerade in dem Moment, wo es
 personenbezogene Daten sind, muss einfach
 
- 
sichergestellt werden, dass nicht nur
 rechtlich, sondern auch tatsächlich aktiv
 
- 
in der Anwendung ist, es überhaupt kein
 Weg gibt, dass diese Daten an Stellen
 
- 
weitergegeben werden, wo sie nicht
 hingehören. Es gibt aus den USA, auch mal
 
- 
wieder dort dieses Beispiel, dass Akteure
 der Wissenschaftsverlagsbranche Daten von
 
- 
Wissenschaftlern weitergegeben haben an
 die Einwanderungsbehörde ICE, was auch
 
- 
immer sie dort verloren haben. Aber das
 sind alles Entwicklungen, die müssen
 
- 
ausgeschlossen sein. Ganz großer Komplex
 IT-Sicherheit. Das muss sichergestellt
 
- 
sein. Das ist im Prinzip ein eigener
 Vortrag. Dort möchte ich hier aber
 
- 
verweisen auf die Arbeiten der Stiftung
 Neue Verantwortung, die schon ganz, ganz
 
- 
viel dazu untersucht und entwickelt und
 auch Schaubilder gemacht haben, welche
 
- 
Angriffs-Vektoren es für KI-Systeme
 überhaupt gibt. Und letztendlich müssen
 
- 
Entscheider:innen auch sicherstellen, dass es
 Ressourcen gibt, um dieses Thema, wenn sie
 
- 
dann einmal im Einsatz sind, auch
 tatsächlich dauerhaft evaluiert sind,
 
- 
damit sich diese ganzen Schwächen, die wir
 ja kennen, nicht erst in der Praxis, dann
 
- 
auch noch einschleichen. Das heißt, wenn
 einem bewusst wird, was es alles für
 
- 
Anforderungen braucht, um KI-Systeme im
 Bildungssektor egal zu welchem Zweck
 
- 
einzusetzen, dann wird glaube ich klar,
 dass das etwas ist, was noch ein sehr
 
- 
langer Weg ist, was nicht überhastet
 angegangen werden soll und was noch sehr,
 
- 
sehr viel Qualifizierung und
 Weiterentwicklung braucht. Und das
 
- 
letztendlich bringt mich jetzt zu meinem
 Fazit. Bisher ist es so, dass bei KI im
 
- 
Bildungssektor vornehmlich darüber
 gesprochen wird, dass Learning Analytics
 
- 
Systeme eingesetzt werden, um halt das
 Lernverhalten von Schülerinnen und
 
- 
Schülern zu analysieren und dabei mit
 personenbezogenen Daten gearbeitet wird.
 
- 
Letztendlich gibt es zum jetzigen
 Zeitpunkt noch keine Evidenz dafür, dass
 
- 
diese Systeme funktionieren und dass diese
 ganzen Datensammlungen auch tatsächlich
 
- 
sinnvoll sind. Es ist ganz, ganz viel
 Marketing und vor allem auch
 
- 
Wirtschaftsförderung dahinter. Wenn diese
 Startups jetzt in die Richtung gefördert
 
- 
werden und das Risiko, das damit entsteht,
 wenn diese Systeme weiterhin in die
 
- 
Schulen gedrückt werden, ist dass die
 wahren strukturellen Probleme einfach
 
- 
dadurch verschleiert werden und dass diese
 Mangelwirtschaft einfach fortgesetzt
 
- 
werden und diese ganzen Potenziale, die KI
 tatsächlich mit sich bringt, diese
 
- 
Probleme tatsächlich mit zu lösen, dass
 die einfach gar nicht gehoben werden. Das
 
- 
Risiko dabei ist, dass es vornehmlich
 immer um personenbezogene Daten von
 
- 
minderjährigen Schüler:innen geht und dass
 die ganzen Chancen, die wir im OpenData
 
- 
Bereich haben, dafür einfach weiterhin
 nicht genutzt werden. Und wir haben jetzt
 
- 
den Zeitpunkt, wo die Weichen gestellt
 werden. Ist das genau der Pfad, auf dem
 
- 
wir jetzt auch weitergehen wollen? Oder
 wollen wir jetzt anfangen, in diese
 
- 
Entwicklung einzugreifen und den Fokus
 mehr auf die Meso- und Makroebene legen?
 
- 
Die EU-Kommission hat jetzt kürzlich ihren
 überarbeiteten Digital Education Plan
 
- 
vorgestellt. Dort ist zu diesem ganzen
 Thema KI vorgesehen, dass Lehrkräfte
 
- 
weitergebildet werden müssen. Dass es
 Ethik-Leitlinien geben müssen und
 
- 
letztendlich auch, dass Forschung nochmal
 intensiviert werden muss. Und das ist
 
- 
jetzt genau der Punkt, um dort reinzugehen
 und die Fragen zu stellen und darauf hin
 
- 
zu drängen, dass in die richtige Richtung
 geforscht wird. Das hat mich letztendlich
 
- 
in dieser ganzen Vorbereitung zu meiner
 Empfehlung gebracht. In Anlehnung an diese
 
- 
Pyramide von der Datenethikkommissionen,
 die ich eigentlich, wenn das Prinzip der
 
- 
Risiko-Klassifizierung diskutabel ist,
 finde ich eigentlich dieses
 
- 
Pyramidensystem sehr gelungen. Und
 übertragen auf KI-Systeme im
 
- 
Bildungsbereich sehe ich einen ganz, ganz
 großen, grünen, unkritischen Bereich, wenn
 
- 
es darum geht, die Forschung und
 Entwicklung auf der Makroebene weiter zu
 
- 
unterstützen und weiter zu fördern. Alles
 unter der Nutzung von Open Data, die
 
- 
entweder schon vorhanden sind oder
 vielleicht auch noch weiter erhoben und
 
- 
genutzt werden können. Das fließt
 größtenteils auch noch mit rein in die
 
- 
Meso Ebene, die auch auf der Basis von
 Open Data schon sehr sehr viel Gutes
 
- 
erreichen kann. Und ganz ganz oben in der
 Spitze, wo ich den roten Bereich sehe, ist
 
- 
tatsächlich die Mikroebene, wenn es um die
 Analyse-Systeme geht für Schüler:innen und
 
- 
für Lehrkräfte, wo mit personenbezogenen
 Daten gearbeitet wird. Wenn es dort
 
- 
weitere Entwicklungen geben sollte, dann
 würde ich es bevorzugen, wenn es dort ein
 
- 
Forschungsbereich gibt oder den
 Anwendungsbereich vielleicht höchstens für
 
- 
Lehrkräfte. Aber dass wir die ganze
 Analyse von Schüler:innen vielleicht
 
- 
erst mal noch außen vorlassen, bis wir
 vielleicht viel mehr über KI-Systeme
 
- 
wissen und alles immer unter der
 Voraussetzung, dass die Daten, die erhoben
 
- 
werden, dann auch weiter zur Verfügung
 gestellt werden für die Generierung von
 
- 
Open Educational Data. Das war's. Vielen
 Dank für eure Aufmerksamkeit. Alle
 
- 
Anregungen, um die ich gebeten habe, alle
 Lücken, die ich vielleicht noch gelassen
 
- 
habe, oder alle Interessenten, die Lust
 haben, an diesem Thema auch noch mit
 
- 
weiterzuarbeiten, freue ich mich total
 über Kontaktaufnahme und Feedback und
 
- 
weitere Informationen. Ich habe hier auch
 noch einen großen Anhang mit Quellen, die
 
- 
ich verarbeitet habe. Wenn es dazu auch
 noch Rückfragen gibt, kommt jederzeit
 
- 
- nicht jederzeit, nich nachts um drei. Also per E-Mail
 schon, aber vielleicht nicht per Telefon.
 
- 
Aber die habt ihr ja auch gar nicht die
 Nummer - egal, kommt einfach auf mich zu.
 
- 
Und dann würde es mich freuen, wenn wir im
 Gespräch bleiben. Vielen Dank.
 
- 
Herald: Hallo Nina, schön, dass du da 
- 
warst. Danke für den spannenden Vortrag
 grade. Wir hatten so ein bisschen
 
- 
technische Probleme im Hintergrund. Ich
 hoffe deswegen, dass alle im Live-Stream
 
- 
den Talk auch gut sehen konnten. Nina, du
 hast viel erzählt über KI und die Grenzen
 
- 
und Vorteile. Was sind denn so aus deiner
 Sicht vielleicht die klugen nächsten
 
- 
Schritte, die man so gehen müsste? Was
 künstliche Intelligenz und Klassenzimmer
 
- 
betrifft?
 Nina: Hallo Nina, ja genau. Was sind die,
 
- 
was sind die nächsten Schritte? Also ich
 glaube wir sind im Moment an so einer
 
- 
Entwicklungsphase, wo KI in der Schule und
 im Bildungsbereich einfach noch nicht so
 
- 
wahnsinnig weit verbreitet ist. Und ich
 hab das ja auch gemerkt bei meiner
 
- 
Recherche und auch z.B. hier, was diese
 Meso-Ebene angeht. Es gibt noch nicht so
 
- 
extrem viele Anwendungen, wo man konkret
 jetzt schon reingehen und eingreifen kann
 
- 
und sagen wir wollen hier eine andere
 Entwicklung oder das und das muss so
 
- 
konkret weitergehen. Was allerdings gut an
 dieser Entwicklung ist, ist eben, dass wir
 
- 
noch an diesem frühen Punkt sind und auch
 die Möglichkeiten haben, Einfluss nehmen
 
- 
zu können. Habe ich da ein äh im
 Hintergrund gehört? Ja okay, ich rede
 
- 
einfach weiter. Das heißt, nach allem, was
 ich jetzt mitbekommen habe, wie sich das
 
- 
Thema KI in der Bildung gerade ansetzt zu
 entwickeln, möchte ich eigentlich gerne so
 
- 
eine Art Break machen. Einen kleinen
 Schnitt und nochmal hinterfragen ist der
 
- 
Weg, der jetzt eingeschlagen wird von den
 Attack-Startups und auch von den
 
- 
Regierungen, ist das überhaupt der
 Richtige, dass wir KI-Systeme einsetzen,
 
- 
um das Verhalten und Lernverhalten von
 Lernenden zu analysieren? Oder wollen wir
 
- 
nicht nochmal überlegen, ob wir nicht die
 KI-Systeme, die wir jetzt haben, dazu
 
- 
nutzen können, die strukturellen Probleme
 im Bildungssektor anzugehen? Davon gibt es
 
- 
genug. Dort haben wir eine ganz andere
 Datenbasis und es kann vor allem weniger
 
- 
Schaden angerichtet werden für die
 einzelnen Personen, die analysiert werden
 
- 
oder dann halt auch im besten Fall gar
 nicht mehr analysiert werden, weil alles,
 
- 
was wir aus der KI Geschichte wissen, dass
 es sehr, sehr viel Schwierigkeiten gibt,
 
- 
sobald KI in sozialen Kontexten eingesetzt
 werden. Also wenn KI-Systeme benutzt
 
- 
werden, um Menschen zu analysieren, jetzt
 kurz auf den Punkt gebracht, dann führt
 
- 
das meistens zu größeren Problemen und wir
 sollten in der Bildung nicht diese Fehler
 
- 
wiederholen.
 Herald: Ja, das sind auf jeden Fall
 
- 
ziemlich gute Gedankenanstöße. Wir haben
 leider gar nicht so richtig, richtig viel
 
- 
Zeit, um jetzt hier noch Fragen zu
 beantworten. Ich sehe gerade im Chat auch
 
- 
tatsächlich keine. Ich bin aber sicher,
 dass es da noch viel Gesprächsbedarf gibt.
 
- 
Deswegen würde ich vorschlagen, dass wir
 jetzt mit dir in einen Big Blue Button
 
- 
umziehen. 
- 
Outro Musik 
- 
Untertitel erstellt von c3subtitles.de
 im Jahr 2021. Mach mit und hilf uns!