< Return to Video

#rC3 - KI im Klassenzimmer - yay oder nay?

  • 0:00 - 0:15
    Intro Musik
  • 0:15 - 0:20
    Hallo und herzlich willkommen zu meinem
    Vortrag "KI im Klassenzimmer - yay oder
  • 0:20 - 0:24
    nay?" Ich bin Nina, ich bin derzeit
    wissenschaftliche Mitarbeiterin im Büro
  • 0:24 - 0:27
    von Birke Bull-Bischoff. Sie ist die
    bildungspolitische Sprecherin der
  • 0:27 - 0:31
    Linksfraktion im Bundestag. Die letzten
    zwei Jahre habe ich auch die Enquete-
  • 0:31 - 0:35
    Kommission KI im Bundestag für die Linke
    mitbegleitet. Und davor habe ich auch
  • 0:35 - 0:39
    schon mal im Bildungssektor gearbeitet,
    sodass ich diesen Vortrag jetzt hier
  • 0:39 - 0:43
    nutzen möchte, um mal alle meine
    Beobachtungen zum Thema KI in der Schule
  • 0:43 - 0:49
    zusammenzutragen und vor allem auch einen
    Blick auf die dabei verarbeiteten Daten zu
  • 0:49 - 0:53
    werfen und einen Ausblick darauf zu
    schaffen, wie KI vielleicht sogar dafür
  • 0:53 - 0:57
    benutzt werden kann, um strukturelle
    Probleme im Bildungssektor anzugehen.
  • 0:57 - 1:03
    Vorausschicken möchte ich, dass wenn ich
    hier von KI rede, ich jeweils sogenannte
  • 1:03 - 1:08
    schwache KI meine und mich auf Machine
    Learning in als seinen Ausprägung beziehe.
  • 1:08 - 1:14
    Ich möchte euch zuerst einen kleinen Überblick
    geben, wie KI im Schulbereich im Moment schon
  • 1:14 - 1:18
    eingesetzt werden kann. Was dabei auch
    tatsächlich noch nicht so wahnsinnig gut
  • 1:18 - 1:22
    läuft. Dann natürlich zeigen, was meiner
    Meinung nach besser laufen könnte, welche
  • 1:22 - 1:25
    Anforderungen es braucht, damit es besser
    laufen kann und dann auch am Ende mit
  • 1:25 - 1:30
    einer konkreten Empfehlung schließen. Als
    ich mich vor ungefähr einem Jahr
  • 1:30 - 1:35
    angefangen habe, mit diesem Thema vertieft
    zu beschäftigen, sind mir zwei Dinge
  • 1:35 - 1:40
    aufgefallen. Zum einen ist der Begriff KI
    eigentlich noch nicht wirklich konkret und
  • 1:40 - 1:45
    allgemein definiert und all diese KI
    Anwendungen im Bildungsbereich auch noch
  • 1:45 - 1:50
    nicht. Da wird also viel experimentiert
    und herumgeworfen mit Learning Analytics,
  • 1:50 - 1:54
    mit Tutor Systemen, intelligenten Tutor
    Systemen. Das ganze unter die Oberbegriffe
  • 1:54 - 2:00
    von Educational Data Mining gestellt. Das
    ist wiederum teilweise die Voraussetzung
  • 2:00 - 2:05
    oder steht neben dem anderen Begriff von
    AIED, also Artificial Intelligence in
  • 2:05 - 2:12
    Education. Also da kann man je nach Autor
    und je nach Anwendungsbereich baut das
  • 2:12 - 2:16
    eine auf dem anderen auf oder steht
    nebeneinander oder ist eine Folge davon.
  • 2:16 - 2:20
    All das ist ein Signal dafür, dass wir in
    diesem Bereich tatsächlich noch sehr am
  • 2:20 - 2:24
    Anfang stehen, dass das alles sehr
    unstrukturiert ist. Und letztendlich ist
  • 2:24 - 2:29
    auch der ganze Anbietermarkt von diesem
    System noch sehr am Anfang und
  • 2:29 - 2:34
    unstrukturiert. Derzeit sind es vor allem
    oder eigentlich ausschließlich proprietäre
  • 2:34 - 2:38
    Systeme, sodass auch teilweise Forscher
    manchmal gar nicht so richtig wissen:
  • 2:38 - 2:43
    Arbeitet ein System, das mit KI wirbt,
    eigentlich wirklich mit KI im Sinne von
  • 2:43 - 2:47
    Machine Learning oder ist es nur ein
    einfacher Algorithmus ohne Lernverfahren?
  • 2:47 - 2:51
    Oder wie viel Werbung und wie viel
    Marketing steckt eigentlich in diesem
  • 2:51 - 2:57
    Anbietersystem eigentlich wirklich
    dahinter? Dann gibt es aber neben dem
  • 2:57 - 3:02
    ganzen Learning Analytics Bereich, der
    sich sehr konkret auf die Erhebung und
  • 3:02 - 3:08
    Analyse von lernenden Daten, also zur
    Verbesserung von Lernerlebnissen und
  • 3:08 - 3:13
    Lernenergebnissen beschäftigt, gibt es
    noch weitere Anwendungsbereiche, in denen
  • 3:13 - 3:17
    KI eingesetzt wird. In den USA gibt es zum
    Beispiel ein Verfahren, dass das
  • 3:17 - 3:23
    Surfverhalten analysiert. Auf dieser
    Keyword Liste der Risikofaktoren stehen
  • 3:23 - 3:28
    dann allerdings auch Begriffe wie schwul,
    queer oder Gedichtsammlung. Also selbst
  • 3:28 - 3:31
    wenn wir jetzt auch von sehr intoleranten
    Gesellschaften ausgehen, ist es natürlich
  • 3:31 - 3:35
    überhaupt nicht zu unterstützen, dass
    diese Begriffe überhaupt irgendwie
  • 3:35 - 3:38
    Personen zugeordnet und im Sinne einer
    Risikoprävention verwendet werden.
  • 3:38 - 3:44
    Gesichtserkennung auf dem Schulgelände gab
    es neben den USA auch in Europa schon. Das
  • 3:44 - 3:47
    hat Schweden mal an einer Schule probiert
    und die wurden dann aber nach sehr, sehr
  • 3:47 - 3:51
    kurzer Zeit auf Basis der DSGVO auch schon
    mit einer hohen Strafe versehen. Also
  • 3:51 - 3:56
    nicht unbedingt nachahmenswert. In China
    ist man da schon ein bisschen weiter und
  • 3:56 - 3:59
    auch ein bisschen toleranter. Dort gibt es
    Gesichtserkennung auch in der Mensa und in
  • 3:59 - 4:04
    Bibliotheken, sodass dann ganz nebenbei
    auch noch Ernährungsverhalten und
  • 4:04 - 4:09
    Leseverhalten noch mit erfasst und
    analysiert werden. Ganz besonders charmant
  • 4:09 - 4:13
    ist natürlich, dass Eltern sich in
    Klassenzimmerkameras auch mit einloggen
  • 4:13 - 4:19
    können, um ihre Kinder dort direkt im
    Unterricht damit zu beobachten. Es gibt
  • 4:19 - 4:22
    zwar hier und da sogar in China
    Widerstände dagegen und das finden nicht
  • 4:22 - 4:25
    alle Eltern toll. Aber so wie ich das
    mitbekommen habe in den letzten Monaten,
  • 4:25 - 4:29
    ist die Entwicklung da wahrscheinlich eher
    noch schwer aufzuhalten. Hier in
  • 4:29 - 4:33
    Deutschland gibt es Forschungsprojekte, um
    zum Beispiel mit einem Stift direkt beim
  • 4:33 - 4:38
    Schreiben, Üben, Schreibfehler oder
    Schreibschwächen rechtzeitig zu erkennen.
  • 4:38 - 4:43
    Eher aus dem Hochschulbereich ist dieses
    Beispiel entnommen vom KIT, wo die
  • 4:43 - 4:46
    Studienabbruchswahrscheinlichkeit
    berechnet wird. Je nachdem was man mit den
  • 4:46 - 4:50
    Ergebnissen macht, kann das vielleicht
    sogar sinnvoll sein, weil dann rechtzeitig
  • 4:50 - 4:55
    Hilfestellung gegeben werden kann. Aber
    wie dann einzelne Entscheider:innen mit
  • 4:55 - 4:57
    solchen Ergebnissen umgehen, das steht
    natürlich nochmal auf einem ganz anderen
  • 4:57 - 5:04
    Blatt. Und dann wird am DFKI und auch in
    der Universität von Tübingen an
  • 5:04 - 5:10
    intelligenten Schulbüchern geforscht, die
    auch mit Daten arbeiten aus iTrackern, EEG
  • 5:10 - 5:14
    Messung und sogar aus der
    Nasentemperaturmessung. Dabei wird davon
  • 5:14 - 5:19
    ausgegangen, dass wenn die Nasentemperatur
    fällt, davon auszugehen ist, dass einem
  • 5:19 - 5:25
    Lernenden bei seinem Lernstoff gerade
    Schwierigkeiten begegnen und das würde
  • 5:25 - 5:29
    dann letztendlich in einer perfekten
    intelligenten Schulbuchversion dazu
  • 5:29 - 5:34
    führen, dass ihnen noch ergänzende andere
    Inhalte angezeigt werden oder vielleicht
  • 5:34 - 5:38
    irgendwie der ganze Lernpfad dann in
    Zukunft anders aufgebaut wird. Ich bin
  • 5:38 - 5:45
    sehr gespannt, ob diese System Entwicklung
    jetzt auch im Pandemiewinter Daten erhebt,
  • 5:45 - 5:50
    wo wahrscheinlich jeder Schüler zu jeder
    Zeit einfach kalte Nasen hat und was das
  • 5:50 - 5:55
    letztendlich für die Lernpfadentwicklung
    bedeutet. Aber das ist ein anderes Thema.
  • 5:55 - 6:01
    Kann KI denn überhaupt im Bildungssystem
    etwas Positives beitragen? Und wenn wir
  • 6:01 - 6:04
    uns die Stärken von KI angucken, dann
    sieht es auf den ersten Blick tatsächlich
  • 6:04 - 6:08
    so aus, als wäre das eigentlich gar keine
    so schlechte Idee. Gerade im Bereich der
  • 6:08 - 6:12
    Spracherkennung oder Übersetzungssysteme
    mit allen Schwächen, die damit
  • 6:12 - 6:18
    einhergehen, kann es tatsächlich dazu
    beitragen, dass Integration oder auch
  • 6:18 - 6:24
    Inklusion an Schulen einfach erleichtert
    werden im Sinne von ergänzt werden. Wenn
  • 6:24 - 6:29
    Systeme gut gemacht sind, können sie
    zumindest kurzfristig immerhin auch die
  • 6:29 - 6:33
    Motivation von Schüler:innen steigern und
    können im Idealfall Lehrkräfte auch
  • 6:33 - 6:39
    tatsächlich entlasten. Das wäre alles
    total wunderschön, wenn es nicht auch
  • 6:39 - 6:44
    Schwächen im KI-System gibt, die euch alle
    sicherlich total vertraut sind. Die
  • 6:44 - 6:48
    Qualität eines KI-Systems bemisst sich vor
    allem nach der Datenbasis. Garbage in
  • 6:48 - 6:53
    garbage out, wie man so schön sagt. Und
    viele Daten im Bildungsprozess, der ja ein
  • 6:53 - 6:57
    sozialer Prozess ist, der ist vielleicht
    gar nicht unbedingt optimal
  • 6:57 - 7:01
    operationalisierbar, d.h. da stellt sich
    immer noch die große Frage: Welche Daten
  • 7:01 - 7:06
    können überhaupt erfasst werden und wie
    können sie überhaupt sinnvoll analysiert
  • 7:06 - 7:11
    werden? Lerndaten betreffend MINT-Fächer,
    die auf Logik basiert sind, eignen sich
  • 7:11 - 7:16
    dafür sicherlich besser als zum Beispiel
    die sogenannten 4K Kompetenzen, also
  • 7:16 - 7:21
    Kollaboration, Kreativität zum Beispiel.
    Wie will man sowas messen und wie will man
  • 7:21 - 7:27
    sowas in Operationalisierbarkeit pressen?
    Das steht noch im Raum. Dann haben wir
  • 7:27 - 7:31
    natürlich auch im Bildungsbereich die
    üblichen Probleme mit der
  • 7:31 - 7:36
    Nachvollziehbarkeit und mit der
    Erklärbarkeit und die Risiken von
  • 7:36 - 7:41
    Verzerrungen. Auch nicht ganz unwichtig
    ist die Problematik, dass eine Korrelation
  • 7:41 - 7:45
    noch keine Kausalität mit sich bringt.
    Also hier nochmal das Beispiel mit der
  • 7:45 - 7:49
    Nase und Temperatur. Es kann ganz viele
    verschiedene Gründe haben, warum
  • 7:49 - 7:55
    Gehirnströme gerade einen bestimmten Weg
    nehmen, warum Körpertemperatur sich
  • 7:55 - 8:01
    verändern oder warum sich Augenbewegungen
    entweder direkt bei einem Lerninhalten
  • 8:01 - 8:04
    oder auch im Raum bewegen. Das hat alles
    nicht zwangsläufig was mit dem
  • 8:04 - 8:09
    Lerninhalten oder mit der Lernatmosphäre
    zu tun. Bei all meinen Recherchen für
  • 8:09 - 8:13
    diesen Vortrag habe ich immer ganz
    explizit gefragt: Gibt es denn Beweise
  • 8:13 - 8:17
    dafür überhaupt, dass diese KI-Systeme
    vielleicht auch gut funktionieren und den
  • 8:17 - 8:21
    Lernenden tatsächlich was bringen? Aber
    diese Evidenz gibt es bislang nicht. Ich
  • 8:21 - 8:25
    habe interessanterweise, als kleine
    Anekdote am Rande, auf der Webseite von
  • 8:25 - 8:30
    bettermarks eine Bewertung gefunden für das
    System bettermarks von dem
  • 8:30 - 8:33
    neurowissenschaftlichen Institut, das
    unter der Leitung von Manfred Spitzer
  • 8:33 - 8:37
    steht, der ist den Freunden der digitalen
    Bildung vor allem dadurch bekannt, dass er
  • 8:37 - 8:41
    viele Elemente der digitalen Bildung
    eigentlich eher verteufelt. Aber dort wird
  • 8:41 - 8:45
    auf der Website natürlich dem System
    bettermarks bescheinigt, dass es einen total
  • 8:45 - 8:50
    guten Lerneffekt hat. Wie gesagt, Forscher
    konnten das bisher noch nicht bestätigen.
  • 8:50 - 8:56
    Wenn wir nun diese KI-Systeme mit all
    ihren Schwächen auf die Schulen ungebremst
  • 8:56 - 9:01
    loslassen, dann kann das dazu führen, dass
    wir eigentlich anstatt dieser Entlastung
  • 9:01 - 9:06
    eher Überforderung produzieren, dass wir
    Normierungen und Standardisierungen in
  • 9:06 - 9:10
    Bereichen einführen, die vielleicht gar
    nicht ohne weiteres standardisierbar sind.
  • 9:10 - 9:15
    Wir können Lehrkräfte in unangenehme
    Situationen bringen, wenn sie z.B. in
  • 9:15 - 9:19
    einer Elternsprechstunde mit Eltern
    konfrontiert sind, die nicht nur die
  • 9:19 - 9:22
    Methoden des Lehrers hinterfragen. Das
    machen sie ja jetzt schon häufig genug.
  • 9:22 - 9:25
    Sondern dann vielleicht auch
    Bewertungssysteme hinterfragen und dann
  • 9:25 - 9:30
    von Lehrkräften wissen wollen: Wie kommt
    denn dieses System zu dem Ergebnis oder zu
  • 9:30 - 9:33
    dieser Bewertung meines Kindes? Und
    Lehrkräfte so was nicht einfach erklären
  • 9:33 - 9:40
    können. Größtes Problem ist natürlich,
    dass alle Systeme, über die im Moment im
  • 9:40 - 9:44
    Bildungssektor gesprochen wird, diese
    Learning Analytics Systeme und Tutor
  • 9:44 - 9:48
    Systeme, dass die mit personenbezogenen
    Daten von ja größtenteils minderjährigen
  • 9:48 - 9:53
    Schüler:innen arbeiten. D.h. da werden
    Datensammlungen angefertigt, es werden
  • 9:53 - 9:58
    Datenprofile angefertigt und das alles
    unterwandert die informationelle
  • 9:58 - 10:04
    Selbstbestimmung der Kinder. Selbst wenn
    Eltern dieser Verwendung natürlich
  • 10:04 - 10:08
    zustimmen müssen, stellt sich ja auch noch
    die Frage: Wie gut sind die Eltern denn
  • 10:08 - 10:12
    überhaupt informiert über all die
    Konsequenzen und die Folgen, die das hat?
  • 10:12 - 10:16
    Inwieweit gibt es vielleicht auch einen
    gewissen sozialen Gruppenzwang in einem
  • 10:16 - 10:19
    Klassenverband oder einer Schule sich
    anzuschließen, auch wenn man vielleicht
  • 10:19 - 10:23
    als Eltern selber gar nicht genau weiß,
    was das dann eigentlich bedeutet? All das
  • 10:23 - 10:28
    ist im Moment noch ein bisschen unklar.
    Und das sind genau diese Punkte, über die
  • 10:28 - 10:32
    meiner Meinung nach im Moment noch viel zu
    wenig tatsächlich offen gesprochen wird.
  • 10:32 - 10:38
    Was diese Schwäche tatsächlich in der
    Praxis für Probleme mit sich bringen
  • 10:38 - 10:43
    können, sehen wir auch schon in
    ausländischen Anwendungen. Zum Glück muss
  • 10:43 - 10:47
    man fast sagen, im Moment. Ich weiß ich,
    ob ihr das mitbekommen habt. Im Sommer gab
  • 10:47 - 10:53
    es diese Problematik mit dem britischen
    System Ofqual. Genauso wie bei uns auch
  • 10:53 - 10:57
    haben die Schulen unter der Pandemie
    gelitten und es konnten bestimmte
  • 10:57 - 11:02
    Prüfungen zu Abschlüssen nicht richtig gut
    oder überhaupt nicht durchgeführt werden.
  • 11:02 - 11:06
    D.h. Lehrkräfte wurden gebeten, doch
    aufgrund von ihren persönlichen
  • 11:06 - 11:11
    Einschätzung dann die Schüler mit einer
    Abschlussnote zu versehen. Diese
  • 11:11 - 11:14
    Abschlussnoten waren dann aber den
    Behörden offensichtlich zu gut, sodass sie
  • 11:14 - 11:17
    nochmal einen Algorithmus eingesetzt
    haben, der das Ganze nachrechnen sollte.
  • 11:17 - 11:21
    Das wiederum führte dazu, dass viele Noten
    wieder abgewertet worden und die Schüler
  • 11:21 - 11:25
    sich verschlechtert haben. Dagegen sind
    dann natürlich die Schüler:innen wiederum auf
  • 11:25 - 11:29
    die Straße gegangen und haben sich
    gewehrt, sodass am Ende doch wieder die
  • 11:29 - 11:33
    Beurteilung der Lehrkräfte eingesetzt
    wurde. Zum Glück. Ein anderes Beispiel,
  • 11:33 - 11:37
    von dem ich gelesen habe, ist das System
    Edgenuity. Ich weiß jetzt nicht wie das
  • 11:37 - 11:41
    richtig betont ist. Dort hat eine Mutter
    festgestellt, dass die
  • 11:41 - 11:47
    Textverarbeitungssysteme, die die Aufsätze
    ihres Kindes bewerten sollen, viel, viel
  • 11:47 - 11:52
    schlechter bewerten als frühe die
    Aufsätze, die das Kind einfach ganz normal
  • 11:52 - 11:55
    mit der Hand in der Schule geschrieben
    hat. Und dann ist in diesem System auf den
  • 11:55 - 12:00
    Grund gegangen und hat festgestellt, dass
    das System vor allem bewertet anhand der
  • 12:00 - 12:04
    Häufigkeit von bestimmten Stichwörtern.
    Und dann hat sie versucht, einfach mal so
  • 12:04 - 12:08
    als Beispiel einfach nur mit
    Stichwortwolken so eine Aufsatzaufgabe zu
  • 12:08 - 12:14
    erfüllen. Und tatsächlich wurden dieses
    Stichwortwolken besser bewertet als ein
  • 12:14 - 12:19
    komplett zusammenhängender Text. Was
    natürlich, wenn man das System so weit
  • 12:19 - 12:23
    einmal verstanden und geknackt hat,
    relativ leicht ist, solche Aufgaben zu
  • 12:23 - 12:27
    bestehen, aber natürlich überhaupt gar
    keinen Bildungseffekt mehr mit sich
  • 12:27 - 12:33
    bringt. Auch eher aus dem Hochschulbereich
    sind diese Testverfahren Proctorio und
  • 12:33 - 12:38
    ExamSoft bekannt, sollen hier an dieser
    Stelle aber trotzdem angesprochen werden.
  • 12:38 - 12:41
    Einfach um schon mal aufzuzeigen, welche
    Probleme damit einhergehen, bevor wir auf
  • 12:41 - 12:46
    die Idee kommen, sie vielleicht auch an
    den Schulen einzusetzen. Diese Systeme
  • 12:46 - 12:52
    arbeiten vor allem mit Kameraüberwachung,
    aber auch mit Geräuschanalysen und mit
  • 12:52 - 12:57
    Bewegungsanalysen, um daraus Rückschlüsse
    zu ziehen, ob ein Prüfling gerade versucht
  • 12:57 - 13:02
    zu täuschen. Und diese Systeme haben jetzt
    schon in der Praxis verschiedene Probleme
  • 13:02 - 13:06
    aufgezeigt. Also das ganz typische
    Problem, was wir ja schon in anderen
  • 13:06 - 13:11
    Kamerakontexten kennen bei People of
    Color. Sie werden dann von der Kamera
  • 13:11 - 13:16
    nicht erkannt, werden dann gebeten noch
    zusätzliche Lichtquellen einzusetzen. Dann
  • 13:16 - 13:19
    kann das tatsächlich dazu führen, dass
    Menschen diskriminiert werden, die in
  • 13:19 - 13:24
    beengten Verhältnissen in einer WG wohnen
    oder vielleicht noch Kinder um sich haben,
  • 13:24 - 13:28
    weil dann unbekannte Geräusche Quellen
    auftauchen, die ein System vielleicht als
  • 13:28 - 13:32
    Täuschungsversuch oder als
    Unterstützerperson klassifizieren kann.
  • 13:32 - 13:38
    Aber auch gesundheitlich beeinträchtigte
    Menschen sind zusätzlich belastet, einfach
  • 13:38 - 13:42
    weil sie angeben müssen, dass sie
    vielleicht häufiger mal ins Bad müssen
  • 13:42 - 13:46
    oder dass sie eine Insulinpumpe tragen,
    einfach damit das System von bestimmten
  • 13:46 - 13:51
    Signalen also z.B. nicht irritiert ist.
    Also all das führt dazu, dass Menschen
  • 13:51 - 13:56
    gezwungen werden, Dinge offenzulegen und
    vor allem diese Daten auch in Datenbanken
  • 13:56 - 13:59
    mit erfasst werden, die eigentlich sehr
    persönlich und sehr privat sind und mit
  • 13:59 - 14:04
    einem Prüfergebnisse überhaupt gar nichts
    zu tun haben. Hier in Deutschland kennen
  • 14:04 - 14:07
    wir alle oder die meisten von euch
    wahrscheinlich diese Anwendung Duolingo
  • 14:07 - 14:12
    zum Vokabel- oder zum Sprachtraining.
    Duolingo hat auch ein Englisch Test
  • 14:12 - 14:16
    aufgelegt, der auch online absolviert
    werden kann und auch dort wird mit
  • 14:16 - 14:24
    Kamerasystem gearbeitet und ich habe bei
    einer Forschung nachgelesen, dass
  • 14:24 - 14:27
    Forschenden dann versucht haben, da auch
    mal auf den Grund zu gehen, ob Duolingo
  • 14:27 - 14:31
    denn ausschließen kann, dass diese
    bekannten Systeme bei Duolingo nicht
  • 14:31 - 14:35
    auftauchen. Also diese Diskriminierungen
    nicht passieren können oder auch z.B.
  • 14:35 - 14:40
    Diskriminierung aufgrund von Akzenten
    nicht automatisch als fehlerhaft
  • 14:40 - 14:44
    eingestuft werden. Und leider konnte
    zumindest zu dem Zeitpunkt der Befragung
  • 14:44 - 14:49
    Duolingo diese Diskriminierung nicht
    ausschließen. Ein System, über das ich
  • 14:49 - 14:54
    gestolpert bin bei meiner Recherche ist
    DyRiAS. Ich habe leider noch nicht
  • 14:54 - 14:58
    herausgefunden, ob Schulen überhaupt damit
    arbeiten. Und wenn ja, wie viele. Wenn ihr
  • 14:58 - 15:02
    was über dieses System und seine Anwendung
    wisst, bin ich für sachdienliche Hinweise
  • 15:02 - 15:07
    total dankbar. Was ich darüber gelesen
    habe ist, dass DyRiAS ist ein
  • 15:07 - 15:13
    Risikoanalysesystem, was unter anderem
    auch genutzt werden kann, um ein Risiko
  • 15:13 - 15:18
    für häusliche Gewalt zu identifizieren. Es
    wird auch in der Schule angewendet, sodass
  • 15:18 - 15:23
    Lehrkräfte nach einer Schulung und wenn
    sie eine Lizenz erworben haben, mit diesem
  • 15:23 - 15:28
    System erkennen können, ob Schüler:innen
    demnächst vielleicht mal Amok laufen. Und
  • 15:28 - 15:35
    dazu werden Kommunikationsverhalten und
    Verhaltensweisen analysiert. Wie genau das
  • 15:35 - 15:38
    System funktioniert, wie gesagt, weiß ich
    im Detail nicht. Da werde ich aber
  • 15:38 - 15:42
    sicherlich nochmal in Zukunft etwas tiefer
    einsteigen, um das zu verstehen. Weil mich
  • 15:42 - 15:47
    das sehr irritiert. Im Ergebnis bekommen
    Lehrkräfte dann so einen farblichen
  • 15:47 - 15:53
    Balken. Das ist also ein original
    Screenshot aus der Broschüre. Und
  • 15:53 - 15:57
    vollkommen unklar ist für mich tatsächlich
    auch, was genau passiert oder wer Zugang
  • 15:57 - 16:01
    zu diesen Daten hat. Wenn dann ein Kind
    tatsächlich immer weiter in diesen roten
  • 16:01 - 16:05
    Bereich rutscht. Was heißt überhaupt roter
    Bereich und bedeutet das höchste Warnstufe
  • 16:05 - 16:11
    oder bedeutet Stufe 5 schon, hier musst du
    eigentlich sofort die Polizei rufen. Dazu
  • 16:11 - 16:15
    kommt noch, dass die Daten, die für dieses
    System erfasst werden, dass die
  • 16:15 - 16:22
    browserbasiert, verarbeitet werden.
    Immerhin verschlüsselt. Weiteres halbwegs
  • 16:22 - 16:25
    beruhigendes Signal ist, das DyRiAS in
    seiner Broschüre zumindest darauf
  • 16:25 - 16:30
    hinweist, dass die Nutzung von
    gewaltorientierten Computerspielen oder
  • 16:30 - 16:34
    auch das Tragen eines Irokesenschnitt zum
    Beispiel keine Indikatoren seien für eine
  • 16:34 - 16:37
    erhöhte Gewaltbereitschaft. Aber wie
    gesagt, da werde ich mich auf jeden Fall
  • 16:37 - 16:41
    nochmal weiter informieren wollen, wie
    dieses System genau in der Praxis
  • 16:41 - 16:46
    arbeitet. Und letztendlich ist es auch mal
    sehr interessant zu wissen, was passiert
  • 16:46 - 16:50
    dann eigentlich mit diesem
    Farbskalasystem. In der ganzen
  • 16:50 - 16:55
    Beschäftigung mit KI in den letzten zwei
    Jahren hat sich bei uns im Fraktionsteam
  • 16:55 - 17:00
    irgendwann mal diese Frage aufgedrängt,
    was es denn überhaupt mit den Menschen
  • 17:00 - 17:04
    macht, die mit solchen KI-Systeme
    arbeiten. Und es wird immer so ein
  • 17:04 - 17:09
    bisschen als beruhigendes, ja sozusagen
    als so eine Art Feigenblatt ganz oft
  • 17:09 - 17:13
    erwähnt. Naja, am Ende die letzte
    Entscheidung trifft ja der Mensch. Aber
  • 17:13 - 17:17
    was bedeutet das eigentlich? Weil für uns
    hat dann tatsächlich an der Stelle diese
  • 17:17 - 17:21
    Debatte nicht aufgehört, sondern erst
    angefangen. Weil die Frage ist dann:
  • 17:21 - 17:26
    Welche Verantwortung kann ein Mensch dann
    überhaupt für seine Entscheidung
  • 17:26 - 17:30
    übernehmen und wenn er tatsächlich diese
    Entscheidung treffen soll, ist er
  • 17:30 - 17:33
    überhaupt dazu befähigt, diese
    Entscheidung zu treffen? Einmal
  • 17:33 - 17:38
    tatsächlich kognitiv - weiß er überhaupt,
    wie das System funktioniert? Kann er
  • 17:38 - 17:42
    einschätzen, wenn eine Klassifizierung
    oder eine Entscheidungsvorbereitung
  • 17:42 - 17:46
    vorgenommen oder vielleicht sogar eine
    Entscheidung getroffen wird? Kann er
  • 17:46 - 17:51
    überhaupt erkennen, ob diese Entscheidung
    des Systems richtig ist in seinem Sinne
  • 17:51 - 17:56
    oder ob er vielleicht sich dagegen
    entscheiden sollte? Und selbst wenn er
  • 17:56 - 18:00
    sich entscheidet, sich dagegen zu
    entscheiden, ist er überhaupt dazu
  • 18:00 - 18:04
    berechtigt aufgrund von seiner Rolle in
    der Organisation? Es gibt Organisationen,
  • 18:04 - 18:07
    da wird es ja vielleicht durchaus
    erwartet, dass er eigenmächtig entscheidet
  • 18:07 - 18:10
    und dann gibt es andere
    Organisationsformen, wo es genau von ihm
  • 18:10 - 18:14
    erwartet wird, sich nicht eigenmächtig zu
    entscheiden. Das betrifft jetzt alles
  • 18:14 - 18:23
    nicht nur den Bereich Bildung, sondern
    insgesamt soziale Kontexte im Einsatz von
  • 18:23 - 18:27
    KI-Systemne. Eine grundsätzliche Frage, die
    wir uns stellen müssen in allen
  • 18:27 - 18:30
    Anwendungssektoren ist: Wer entscheidet
    denn überhaupt besser der Mensch oder die
  • 18:30 - 18:35
    Maschine? Und nach welchen Gütekriterien
    wird das entschieden? Im Bildungsbereich
  • 18:35 - 18:39
    gibt es ja durchaus die Meinung, dass es
    heißt, lieber sollen Schüler von scheinbar
  • 18:39 - 18:44
    neutralen Systemen bewertet werden als von
    vorurteilsbelasteten Menschen. Aber auch
  • 18:44 - 18:49
    ein System ist natürlich niemals neutral.
    Und auch selbst wenn ein Mensch mit
  • 18:49 - 18:54
    Vorurteilen belastet ist, hat er trotzdem
    nur einen relativ kleinen
  • 18:54 - 18:59
    Entscheidungsspielraum. Wenn hingegen für
    Bewertungsverfahren Systeme eingesetzt
  • 18:59 - 19:02
    werden, dann wirken sie direkt auf die
    ganze Schule oder im schlechtesten Fall
  • 19:02 - 19:07
    vielleicht sogar für das ganze Land. Und
    auch wenn wir uns dafür entscheiden, dass
  • 19:07 - 19:13
    Entscheidungen an Maschinen ausgelagert
    werden soll, um Schaden zu vermeiden, ist
  • 19:13 - 19:15
    auch die Frage: Wodurch entsteht denn
    überhaupt ein Schaden? Entsteht ein
  • 19:15 - 19:21
    Schaden durch ein richtig funktionierendes
    System, das dann aber langfristig
  • 19:21 - 19:26
    gesellschaftliche Schäden mit sich bringt?
    Oder entsteht ein Schaden durch ein nicht
  • 19:26 - 19:31
    gut funktionierendes System oder nicht wie
    erwartet funktionierendes System? Und
  • 19:31 - 19:35
    entstehen Schäden eigentlich nur durch Tun
    oder entstehen Schäden auch durch
  • 19:35 - 19:40
    Unterlassung? Das heißt bezogen auf diese
    Entscheidung: Wer entscheidet besser,
  • 19:40 - 19:44
    Mensch oder Maschine? Müssen all diese
    Aspekte mit betrachtet werden. Und auch
  • 19:44 - 19:48
    der Verzicht auf ein maschinelles System,
    das vielleicht irgendwann nachweislich
  • 19:48 - 19:55
    einen positiven Effekt hat, kann
    tatsächlich zu einem Schaden führen. Wenn
  • 19:55 - 19:59
    wir uns dann dafür entschieden haben, dass
    wir ein KI System ergänzend einsetzen wollen
  • 19:59 - 20:03
    in einem bestimmten Anwendungssektor, dann
    muss als nächstes entschieden werden: Wie
  • 20:03 - 20:07
    viel Entscheidungsspielraum soll der
    Mensch dann überhaupt noch haben, wenn es
  • 20:07 - 20:11
    heißt: Am Schluss trifft der Mensch die
    letzte Entscheidung? Die Papiere von der
  • 20:11 - 20:16
    EU-Kommission zum Beispiel gehen im Moment
    von drei verschiedenen Stufen aus. Human
  • 20:16 - 20:21
    in Command, Human on Command und Human in
    the Loop. Aber es gibt schon aus der
  • 20:21 - 20:24
    Informatik viel ältere
    Klassifizierungssysteme, die viel
  • 20:24 - 20:30
    ausgefeilter sind, z.B. vom MIT aus den
    1980er Jahren, die bis zu zehn Stufen
  • 20:30 - 20:35
    unterscheiden, in denen verschiedene
    Autonomiegrade vom Menschen bis zur
  • 20:35 - 20:39
    Maschine einmal durchlaufen werden, also
    von der vollständigen Autonomie für den
  • 20:39 - 20:44
    Menschen bis hin zur vollständigen
    Autonomie durch die Maschine. Das heißt,
  • 20:44 - 20:49
    da ist dieser, diese Aussage, die
    menschliche, die letzte Entscheidung
  • 20:49 - 20:54
    trifft der Mensch ist noch so viel
    wahnsinnig vielen Fragen unterworfen und
  • 20:54 - 20:58
    vor allem aber, finde halte ich das für
    die allerwichtigste Frage, genau diese
  • 20:58 - 21:01
    Abstufungen, welchen
    Entscheidungsspielraum Mensch überhaupt
  • 21:01 - 21:05
    hat, weil daraus leitet sich dann
    letztendlich auch ab, wie ein Mensch
  • 21:05 - 21:08
    weitergebildet werden muss, mit diesem
    System überhaupt zu arbeiten und welche
  • 21:08 - 21:12
    Vereinbarungen er vielleicht in seinem
    Arbeitsvertrag braucht, also welche Rechte
  • 21:12 - 21:15
    er überhaupt hat, diesen
    Entscheidungsspielraum tatsächlich
  • 21:15 - 21:24
    wahrzunehmen. So, selbst wenn er diesen
    Entscheidungsspielraum dann für sich
  • 21:24 - 21:27
    festgelegt hat, dann ist auch noch die
    Frage: Wie viel Entscheidungsspielraum
  • 21:27 - 21:31
    lässt das System dann tatsächlich zu? Es
    gibt in diesem ganzen Bereich Mensch-
  • 21:31 - 21:35
    Maschine Interaktion derzeit noch sehr,
    sehr wenig Forschung. Aber die ersten
  • 21:35 - 21:40
    Forschungen, die es schon gegeben hat, die
    zeigen zum Beispiel: Selbst wenn Menschen
  • 21:40 - 21:45
    erkennen, dass das System gerade nicht
    optimal arbeitet und sie möchten gerne in
  • 21:45 - 21:48
    das System eingreifen, um einen Fehler zu
    eliminieren oder eine Korrektur
  • 21:48 - 21:53
    vorzunehmen und dann dabei feststellen,
    dass dieser Prozess so wahnsinnig
  • 21:53 - 21:56
    aufwendig und kompliziert ist, dann neigen
    Menschen tatsächlich dazu, mit diesem
  • 21:56 - 22:01
    fehlerhaften System trotz besseren Wissens
    weiterzuarbeiten. Und das ist halt etwas,
  • 22:01 - 22:06
    was wir gerade in sozialen Kontexten und
    gerade in Bereichen, in denen KI-Systeme
  • 22:06 - 22:11
    über das Leben oder Lebenswege von
    Menschen entscheiden, einfach ganz genau
  • 22:11 - 22:14
    hinschauen sollten, was es denn eigentlich
    bedeutet, wenn der Mensch die letzte
  • 22:14 - 22:18
    Entscheidung treffen soll. Denn am Ende
    kann es tatsächlich sein, dass der
  • 22:18 - 22:22
    Entscheidungsspielraum, der dort
    angedeutet wird, mit dieser Aussage viel,
  • 22:22 - 22:25
    viel kleiner ist als angenommen
    Handlungsspielräume geklärt sind. Und
  • 22:25 - 22:29
    auch, weil wir von total optimal
    funktionierenden KI-System ausgehen. Dann
  • 22:29 - 22:32
    ergeben sich immer noch Probleme auf der
    strukturellen Ebene, sodass wir auf lange
  • 22:32 - 22:36
    Sicht einfach schauen müssen: Was macht
    das dann mit der Lernkultur, mit der
  • 22:36 - 22:41
    Bildungskultur an Schulen? Das fängt an
    bei der Erhebung von den Daten, also der
  • 22:41 - 22:45
    Datafisierung von Lernprozessen. Aber ich
    werde nicht müde, immer wieder zu
  • 22:45 - 22:48
    wiederholen, dass wir immer noch mit
    personenbezogenen Daten von größtenteils
  • 22:48 - 22:53
    minderjährigen Schüler:innen arbeiten und
    dass wir Kinder auch schon sehr, sehr früh
  • 22:53 - 22:56
    daran gewöhnen, sich mit algorithmischen
    Klassifizierungs- und Bewertungsverfahren
  • 22:56 - 23:01
    auseinanderzusetzen und sich vielleicht
    ihnen auch sogar zu unterwerfen, ohne dass
  • 23:01 - 23:05
    sie sie aufgrund der Black-Box Problematik
    vielleicht nachvollziehen können. Nächste
  • 23:05 - 23:09
    Problematik ist das Ding der
    Standardisierung, Operationalisierung von
  • 23:09 - 23:14
    Daten. Welche Dinge werden dabei
    ausgelassen? Wer bestimmt, was der
  • 23:14 - 23:18
    Standard ist? Wer bestimmt, was das
    normale ist? Inwieweit können diese
  • 23:18 - 23:21
    Systeme überhaupt hinterfragt werden?
    Welche Qualitäts- und Fairness-Maße beim
  • 23:21 - 23:28
    Training, welche Feedback an diese Systeme
    gegeben werden? In der Bildung gehört es
  • 23:28 - 23:31
    letztendlich dazu, auch nicht
    standardisierte Wege zu gehen. Hetty,
  • 23:31 - 23:34
    einer der renommiertesten
    Bildungsforscher, hat in seiner Studie
  • 23:34 - 23:39
    Visible Learning unter anderem nochmal
    herausgestellt, dass es zum einen zum
  • 23:39 - 23:43
    Bildungserfolg gehört und dass es auch mit
    Bildungserfolg beiträgt, wenn Schüler:innen
  • 23:43 - 23:48
    befähigt werden, vorgegebene Lösungswege
    aufzubrechen oder auch ihre eigenen zu
  • 23:48 - 23:53
    finden. Aber durch diese ganze
    Vereinzelung und durch die
  • 23:53 - 23:58
    Standardisierung gehen halt einfach auch
    bestimmte Möglichkeiten im Lern-Spektrum
  • 23:58 - 24:03
    verloren, sodass Schüler:innen gar nicht
    mit alternativen Möglichkeiten vielleicht
  • 24:03 - 24:07
    mehr konfrontiert werden, um ihren
    Horizont zu erweitern. Die nächste
  • 24:07 - 24:12
    Problematik ist das Scheitern. Wenn ich
    jetzt in einem normalen Klassenverbund
  • 24:12 - 24:16
    vielleicht selber schon mal merke, ich
    komme hier an meine Grenzen oder ich komme
  • 24:16 - 24:19
    mit der Aufgabenstellung nicht zurecht,
    dann ist das natürlich total frustrierend.
  • 24:19 - 24:23
    Aber gleichzeitig gehört das auch mit zum
    Bildungsprozess und zur
  • 24:23 - 24:28
    Persönlichkeitsentwicklung auch dazu,
    Grenzen zu erkennen, auch mit Misserfolgen
  • 24:28 - 24:32
    umzugehen. Und wenn all dies ausbleibt,
    dann verschieben sich diese Grenzen
  • 24:32 - 24:38
    einfach viel, viel weiter nach hinten,
    weil dann immer nur der Inhalt präsentiert
  • 24:38 - 24:45
    wird, der geradezu meinem vom System
    errechneten Lernniveau passt und ich aber
  • 24:45 - 24:48
    vielleicht gar nicht mehr dazu richtig
    gefordert werde, mich auch aber mit Dingen
  • 24:48 - 24:53
    auseinanderzusetzen, die ich vielleicht
    noch gar nicht können kann, die mich aber
  • 24:53 - 24:57
    vielleicht jetzt aktuell nochmal
    weiterbringen. Jetzt im Klassenverband
  • 24:57 - 25:00
    gibt es zwar auch das Thema der
    Binnendifferenzierung, also dass es
  • 25:00 - 25:04
    unterschiedliche Inhalte idealerweise für
    verschiedene Lernniveaus oder für
  • 25:04 - 25:08
    verschiedene Lerntypen gibt. Aber in einem
    Klassenverband gibt es immer noch die
  • 25:08 - 25:13
    Möglichkeit, das in Gruppenarbeiten z.B.
    zu organisieren, wo etwas schwächere
  • 25:13 - 25:17
    Schüler mit etwas stärkeren Schülern
    zusammen an einer Lösung arbeiten können.
  • 25:17 - 25:21
    Wenn wir auf individualisierte
    systembasierte Lernpfade gehen, dann
  • 25:21 - 25:25
    sitzen im Prinzip die Schüler:innen dort
    alleine und das System entscheidet, was
  • 25:25 - 25:28
    hier präsentiert wird und was nicht
    präsentiert wird. Da geht einfach sehr,
  • 25:28 - 25:32
    sehr viel verloren. Das Spektrum verengt
    sich. Gleichzeitig kann es aber auch
  • 25:32 - 25:37
    passieren, dass Lehrkräfte vielleicht noch
    mehr angegriffen werden, als sie es
  • 25:37 - 25:41
    vielleicht jetzt schon werden von Eltern
    einfach in Frage gestellt werden. Ihre
  • 25:41 - 25:45
    Entscheidungssysteme können mehr in Frage
    gestellt werden, weil Lehrkräfte
  • 25:45 - 25:49
    vielleicht verlangen, dass ein System
    nochmal die Bewertung nachvollzieht, was
  • 25:49 - 25:52
    letztendlich sehr demotivierend für
    Lehrkräfte sein kann, was Vertrauen
  • 25:52 - 25:56
    unterwandern kann und letztendlich auch
    die Autorität von Lehrkräften wieder
  • 25:56 - 25:59
    unterwandern kann. Wir haben sowieso schon
    ein großes Problem mit Lehrkräftemangel
  • 25:59 - 26:05
    und die Frage ist, ob solche Entwicklungen
    Lehrkräfte oder angehende Lehrkräfte
  • 26:05 - 26:09
    motiviert, diesen Beruf dann überhaupt
    noch zu ergreifen, wenn sie sich dann auch
  • 26:09 - 26:13
    zukünftig immer mit technischen System
    messen müssen. Letztendlich aber
  • 26:13 - 26:18
    wahrscheinlich das größte Problem: Was
    macht es mit der Ungleichheit? Also alle
  • 26:18 - 26:22
    Bildungsberichte gehen im Prinzip immer
    wieder davon aus, dass wir
  • 26:22 - 26:25
    Bildungsungleichheiten und
    Ungerechtigkeiten haben. Das ist eines der
  • 26:25 - 26:30
    größten Probleme im Bildungssektor, das es
    tatsächlich gibt, und die Frage ist,
  • 26:30 - 26:37
    inwieweit die der verstärkte Einsatz von
    KI-Systemen diese Ungleichheiten entweder
  • 26:37 - 26:41
    aushebelt oder vielleicht sogar verstärken
    kann. Das kann auf der individuellen Ebene
  • 26:41 - 26:45
    passieren, dass Schüler:innen, die sich
    vielleicht sehr gut selbst organisieren
  • 26:45 - 26:48
    können und vielleicht sehr gut mit Systemen
    arbeiten können, dieses schneller
  • 26:48 - 26:52
    verstehen, vielleicht auch schneller
    wissen, wie sie es umgehen können. Während
  • 26:52 - 26:57
    vielleicht eher lernschwache Schüler sich
    dem System eher ausgeliefert fühlen und
  • 26:57 - 27:01
    vielleicht eher demotiviert werden, sich
    dann nochmal Hilfe zu suchen oder
  • 27:01 - 27:04
    vielleicht auch Lehrkräfte das gar nicht
    unbedingt erkennen können, dass
  • 27:04 - 27:07
    Schüler:innen vielleicht überhaupt
    Schwierigkeiten haben, wenn sie diese
  • 27:07 - 27:12
    Systeme zuhause anwenden oder vielleicht
    hinter einem Bildschirm verschwinden. Auf
  • 27:12 - 27:17
    einer größeren Ebene kann der Einsatz von
    KI Systemen die Ungleichheit verschärfen,
  • 27:17 - 27:22
    weil einfach die Frage ist: Werden sich
    dann zukünftig eher gut ausgestattete
  • 27:22 - 27:27
    Schulen in reichen Bundesländern, in
    privilegierten Umfeldern KI-Systeme zur
  • 27:27 - 27:32
    Unterstützung leisten können? Oder werden
    KI-Systeme eher eingesetzt werden können
  • 27:32 - 27:36
    in weniger privilegierten Kontexten? Es
    gibt in den USA gab es jetzt die
  • 27:36 - 27:41
    Gründungen von Rocketchip Schulen. Ich
    kann mir den Namen immer sehr schlecht
  • 27:41 - 27:48
    merken. Rocketchip Public Schools heißen
    sie und dort sitzt dann im Prinzip nur
  • 27:48 - 27:51
    noch eine Hilfslehrkraft, die dann bis zu
    90 Schüler:innen an ihren
  • 27:51 - 27:59
    Computerbildschirmen steuert, anleitet,
    irgendwie unterstützt, um einfach auch
  • 27:59 - 28:03
    Stellen an gut ausgebildeten Lehrkräften
    einzusparen. Dort läuft es auf eine Art
  • 28:03 - 28:08
    Massenabfertigung hin und die Forschung,
    die es da gegeben hat, hat jetzt zumindest
  • 28:08 - 28:13
    letztes Jahr schon gezeigt, dass die
    Ergebnisse, die die Schüler:innen dort erzielen,
  • 28:13 - 28:17
    bis zu einer Note schlechter sind als
    Schüler:innen, die in einem herkömmlichen
  • 28:17 - 28:21
    Klassenverband mit vernünftig
    ausgebildeten Lehrkräften lernen. Wir
  • 28:21 - 28:25
    kennen diese Diskussionen auch im
    Gesundheitsbereich, in der Pflege. Auch da
  • 28:25 - 28:30
    wird diskutiert, ob Robotics Systeme in
    der Pflege eher ein System für die
  • 28:30 - 28:35
    Privilegierten sind. Wer es sich leisten
    kann, holt sich einen Roboter dazu. Oder
  • 28:35 - 28:40
    ob es auch da eher um eine Auslagerung an
    Technik geht, dass wir in weniger
  • 28:40 - 28:44
    privilegierten Einrichtungen einfach von
    Maschinen betreut werden anstatt von
  • 28:44 - 28:48
    Menschen. Also da kann der Bildungssektor
    sich vielleicht ganz gut am
  • 28:48 - 28:52
    Gesundheitssektor orientieren und diese
    Debatte dort mal verfolgen, in welche
  • 28:52 - 28:59
    Richtung das geht. All diese Schwächen und
    Risiken zusammengenommen frage ich mich
  • 28:59 - 29:07
    tatsächlich, ob das Werben für KI-Systeme
    an Schulen oder auch teilweise der Druck,
  • 29:07 - 29:11
    der da gemacht wird, dass das eigentlich
    totale super Sache ist. Ob das nicht
  • 29:11 - 29:16
    letztendlich einfach nur gemacht wird, um
    die eigentlichen Probleme im Schulsystem
  • 29:16 - 29:20
    zu verschleiern. Denn eigentlich haben wir
    es mit einer großen Mangelfinanzierung zu
  • 29:20 - 29:24
    tun. Wir haben zu große Klassen, wir haben
    zu wenig Lehrkräfte, wir haben einen
  • 29:24 - 29:28
    wahnsinnigen Sanierungsstau. Und wenn
    gleichzeitig dann aber von Regierungen
  • 29:28 - 29:33
    mitempfohlen wird, dass wir doch KI-
    Systeme und Learning Analytics einsetzen,
  • 29:33 - 29:36
    weil dadurch die Lehrkräfte entlastet
    werden und sich dann besser um die
  • 29:36 - 29:41
    Schüler:innen kümmern sollen. Wobei wir
    eigentlich gar keine Evidenz dafür haben,
  • 29:41 - 29:45
    dass das tatsächlich so funktioniert und
    so klappt. Dann habe ich einfach zunehmend
  • 29:45 - 29:49
    das Gefühl, dass genau diese
    Mangelwirtschaft einfach aufrechterhalten
  • 29:49 - 29:52
    werden soll und dadurch verschleiert
    werden soll, dass wir mal wieder
  • 29:52 - 29:56
    versuchen, soziale Probleme mit Technik zu
    lösen. Und das ist etwas, wo wir meiner
  • 29:56 - 30:00
    Meinung nach genau jetzt an diesem Punkt
    sind, diese Diskussion zu führen und diese
  • 30:00 - 30:04
    Entwicklung zu verhindern, weil
    diejenigen, die letztendlich darunter
  • 30:04 - 30:09
    leiden, sind neben den Lehrkräften, die am
    Ende nämlich nur scheinbar entlastet
  • 30:09 - 30:13
    werden, vor allem die Schülerinnen und
    Schüler, deren Daten jetzt einfach erhoben
  • 30:13 - 30:16
    werden und verarbeitet werden sollen und
    wir gar nicht wissen, was daraus am Ende
  • 30:16 - 30:24
    wird. So bedeutet das jetzt aber, dass KI-
    Systeme im Bildungssektor und in der
  • 30:24 - 30:27
    Schule gar nichts verloren haben. So weit
    würde ich gar nicht gehen, sondern ich
  • 30:27 - 30:30
    möchte gerne in Zukunft unterscheiden, auf
    welchen Ebenen wir KI-Systeme im
  • 30:30 - 30:34
    Bildungssektor einsetzen. Wir haben jetzt
    bisher immer so ein bisschen betrachtet,
  • 30:34 - 30:39
    was auf der Mikroebene passiert, also wo
    personenbezogene Daten von Schüler:innen
  • 30:39 - 30:43
    oder von Lehrkräften analysiert und
    verarbeitet werden. Es gibt aber auch noch
  • 30:43 - 30:48
    die Meso und Makroebene im Bildungssystem.
    Auf der Mesoebene reden wir von dem Zugang
  • 30:48 - 30:53
    zu Lernorten oder auch zu Lerninhalten und
    die Makroebene betrachtet tatsächlich die
  • 30:53 - 30:57
    übergreifende Steuerung von
    Bildungssysteme, wo sich z.B. auch die
  • 30:57 - 31:02
    Problematik der Ungerechtigkeit lösen
    lassen müsste. Auf der Meso- und auf der
  • 31:02 - 31:07
    Makroebene gibt es tatsächlich dann die
    Möglichkeit mit Open Data zu arbeiten und
  • 31:07 - 31:13
    nicht mit personenbezogenen Daten, um halt
    diese bestimmten oder diese konkreten
  • 31:13 - 31:16
    Probleme mit anzugehen. Und ich möchte
    jetzt im Folgenden eigentlich mal
  • 31:16 - 31:20
    vorstellen, welche Beispiele es dafür
    jetzt schon gibt oder welche es geben
  • 31:20 - 31:30
    könnte, damit es nicht so als Behauptung
    im leeren Raum steht. Also nochmal zurück
  • 31:30 - 31:36
    auf die Mikroebene gegangen, gibt es dort
    auch durchaus Möglichkeiten, mit Systemen
  • 31:36 - 31:41
    zu arbeiten, die nicht unbedingt die
    personenbezogenen Daten von Schülerinnen
  • 31:41 - 31:44
    und Schülern verarbeiten. Das ist zum
    einen die Möglichkeit: Es gibt ein System,
  • 31:44 - 31:50
    dass Lehrkräfte neue Methoden zum Beispiel
    anhand einer KI trainieren können und
  • 31:50 - 31:55
    aufgrund des Feedbacks der KI dann sehen
    können, wo Verständnisschwächen entstehen,
  • 31:55 - 31:59
    sodass sie dann ihre Methoden und ihre
    Erklärweisen nochmal anpassen können,
  • 31:59 - 32:03
    bevor sie damit konkret in die Klasse
    gehen. Dann gibt es natürlich diesen
  • 32:03 - 32:09
    ganzen Bereich der Administration,
    Vertretungspläne, Stundenpläne oder auch
  • 32:09 - 32:14
    Postverwaltung. Da gibt es ja schon einige
    Beispiele, auch aus Behörden, wie sowas
  • 32:14 - 32:18
    eingesetzt werden kann mit ganz, ganz
    unkritischen Anwendungsbereichen und
  • 32:18 - 32:25
    keinen großen personenbezogenen Daten, die
    dafür nötig sind. Was auch total günstig
  • 32:25 - 32:30
    ist, ist natürlich alles, was dazu
    beiträgt, das System KI zu verstehen. Also
  • 32:30 - 32:35
    selbst wenn ich Anwendungen durchaus in
    gewissen Bereichen hier intensiv in Frage
  • 32:35 - 32:39
    stellen möchte, ist zu keinem Zeitpunkt in
    Frage zu stellen, dass natürlich
  • 32:39 - 32:44
    verstanden und gelernt werden muss, wie
    algorithmische und KI-Systeme
  • 32:44 - 32:49
    funktionieren und was man mit ihnen machen
    kann. Das heißt, als Unterstützung für
  • 32:49 - 32:54
    Lernmethoden oder auch um Experimente
    durchzuführen, ist es auch für Schüler
  • 32:54 - 32:58
    durchaus geeignet. Es gab mal diesen
    Wettbewerb. Ich weiß nicht, ob der jedes
  • 32:58 - 33:02
    Jahr stattfindet, zur KI Schule des
    Jahres. Dort haben jugendliche
  • 33:02 - 33:05
    Schüler:innen unter anderem ein System
    entwickelt, um Zugverspätung
  • 33:05 - 33:11
    vorherzusagen, also sehr anwendungsnah und
    sehr sinnvoll für viele von uns. Und auch
  • 33:11 - 33:17
    Methoden der Textanalyse oder Datenbank-
    Analysen. Auch die können Schülern
  • 33:17 - 33:20
    durchaus zugutekommen, sodass sie sie als
    Werkzeuge für das eigene Lernen benutzen
  • 33:20 - 33:25
    und dabei aber weniger Schüler:innen
    Werkzeuge für das KI-System darstellen
  • 33:25 - 33:31
    müssen. Auf der Meso-Ebene habe ich
    tatsächlich im Moment sehr, sehr wenig
  • 33:31 - 33:36
    Anwendungsbeispiele gefunden, was da
    gemacht werden kann. Also eine Sache, die
  • 33:36 - 33:41
    mich inspiriert hat, ist das Ergebnis
    eines EDU Hacks. Dort hat eine Gruppe eine
  • 33:41 - 33:46
    Open Source Bibliothek entwickelt und
    sowas kann ich mir sehr sehr gut auch
  • 33:46 - 33:51
    tatsächlich für Deutschland vorstellen,
    dass wir, wir haben ja diese Problematik,
  • 33:51 - 33:56
    Lehrkräfte von euch werden das kennen, ich
    hab das jetzt auch schon oft gehört, dass
  • 33:56 - 34:00
    Lehrkräfte immer auf der Suche sind. Wo
    finde ich denn gute OER Materialien? Woher
  • 34:00 - 34:03
    weiß ich dann, dass die gut sind oder
    nicht? Woher weiß ich, ob die zu meinem
  • 34:03 - 34:06
    Unterricht passen? Es ist alles so weit
    verstreut. Ich weiß gar nicht, wo ich das
  • 34:06 - 34:11
    ganze gute Zeug finden soll. Sowas alles
    in eine Datenbank zu packen und dann mit
  • 34:11 - 34:14
    KI-Systeme durchsuchbar zu machen und
    vielleicht auch so durchsuchbar zu machen,
  • 34:14 - 34:19
    dass Lehrkräfte schnell dort auch wissen,
    wie komme ich dann an genau die
  • 34:19 - 34:22
    Ergebnisse, die ich gerade für meinen
    Unterricht gebrauchen kann. Könnte ein
  • 34:22 - 34:27
    Anwendungsbeispiel sein. Die OER-Strategie
    der Bundesregierung ist ja jetzt
  • 34:27 - 34:33
    ausgelaufen. Wird gerade neu entwickelt.
    Kommt im nächsten Jahr. Und wir wissen
  • 34:33 - 34:37
    leider noch nicht, was drin steht. Aber es
    bleibt einfach zu hoffen, dass eine
  • 34:37 - 34:41
    Zentralisierung oder zumindest eine
    bessere Auffindbarkeit von OER-Inhalten
  • 34:41 - 34:48
    dort mitgedacht wird. Das Thema Inklusion-
    Integration hatten wir schon angesprochen.
  • 34:48 - 34:52
    Auch da sehe ich bei KI, wenn man diese
    ganzen Problematiken bei der
  • 34:52 - 34:58
    Spracherkennung und Übersetzung
    ausgehebelt sind, wenn die ausgehebelt
  • 34:58 - 35:02
    sind, dass wir dort auch noch viele
    Potenziale haben, die es zu heben gilt, um
  • 35:02 - 35:07
    Inklusion und Integration einfach
    einfacher zu machen. Und was ich auch sehe
  • 35:07 - 35:14
    ist im Kontext autonomes Fahren oder auch
    Verkehrsleitsysteme, das ganze Thema
  • 35:14 - 35:18
    Schultransporte, sei es
    jahreszeitenbedingt oder vielleicht auch
  • 35:18 - 35:23
    im ländlichen Raum und vor allem aber auch
    mit Blick auf Förderschulen oder inklusive
  • 35:23 - 35:28
    Schulen. KI-Systeme können sicherlich
    dabei unterstützen, den Transport gut zu
  • 35:28 - 35:32
    organisieren und effizient zu
    organisieren. Und wir werden es ja
  • 35:32 - 35:37
    mindestens im nächsten Jahr auch noch mit
    dieser Pandemie zu tun haben. Und gerade
  • 35:37 - 35:41
    inklusive Schulen oder Förderschulen haben
    bei diesem ganzen Transport Thema
  • 35:41 - 35:49
    tatsächlich ein großes Problem, weil dort
    die Zusammenkunft von Schüler:innen in so
  • 35:49 - 35:54
    einem Schulbus oder in so einem Transport
    Bus hin zur Schule für Menschen oder
  • 35:54 - 35:58
    Schüler:innen mit Behinderung einfach noch
    ein viel, viel größeres Risiko darstellen,
  • 35:58 - 36:03
    als es für gesunde Schüler:innen ist. Also
    Menschen mit Behinderung gehören zur
  • 36:03 - 36:10
    Risikogruppe Nummer eins. Zu weiteren
    Potenzialen auf der Makroebene. Dort gibt
  • 36:10 - 36:14
    es tatsächlich schon konkrete
    Anwendungsfälle, die uns für Deutschland
  • 36:14 - 36:19
    auch ein Vorbild sein könnten. Also sowohl
    die Schweiz als auch Belgien haben zum
  • 36:19 - 36:22
    Beispiel Systeme entwickelt, um die
    Durchmischung, die soziale Durchmischung
  • 36:22 - 36:28
    an Schulen zu optimieren. Dass in etwas
    wohlhabenderen Stadtvierteln nicht nur
  • 36:28 - 36:32
    privilegierte Schüleri:nnen sind und die
    weniger Privilegierten dann halt in
  • 36:32 - 36:36
    Problemschulen landen, sondern dass dort
    einfach nochmal neu berechnet wird, wie
  • 36:36 - 36:40
    eine bessere Durchmischung stattfinden
    kann. Das wurde in der Schweiz zum
  • 36:40 - 36:45
    Beispiel so gemacht, dass die die
    Straßenzüge neu berechnet werden, wie
  • 36:45 - 36:50
    Wohngebiete bestimmten Schulen zugeteilt
    werden. Das unter der Maßgabe, dass die
  • 36:50 - 36:53
    Schulwege sicher sein müssen und dass sie
    nicht länger sein sollen als bisher
  • 36:53 - 36:58
    gehabt. Und das hat im ersten Versuch
    tatsächlich so gut funktioniert, dass
  • 36:58 - 37:03
    jetzt mehrere Kantone versuchen wollen,
    dieses System zu übernehmen. In Belgien
  • 37:03 - 37:07
    hat es ein ähnliches Projekt gegeben. Dort
    wird jetzt im Moment das System aber
  • 37:07 - 37:13
    nochmal überarbeitet, weil dort Eltern
    sich beschwert haben, dass dass sie ihre
  • 37:13 - 37:18
    Kinder nicht mehr auf Schulen schicken
    oder gehen lassen können, die zum Beispiel
  • 37:18 - 37:21
    bestimmte Schwerpunkte haben. Dann gibt es
    dann eine Schule, die hat eine
  • 37:21 - 37:25
    Spezialisierung auf den musischen Bereich
    oder auf den sportlichen Bereich. Und dort
  • 37:25 - 37:29
    wird das System jetzt so überarbeitet,
    dass die Schulen dort auch Faktoren
  • 37:29 - 37:33
    gewichten können, sodass es dort
    zusätzlich zu der besseren sozialen
  • 37:33 - 37:37
    Durchmischung auch die Möglichkeit gibt,
    noch bestimmte Schwerpunkte zu setzen.
  • 37:37 - 37:44
    Auch wieder in UK gibt es ein System, dass
    es Behörden erleichtern soll,
  • 37:44 - 37:48
    Schulinspektionen vorzunehmen. Das heißt,
    dort wird aufgrund von bestimmten
  • 37:48 - 37:53
    Indikatoren rechtzeitig prognostiziert,
    welcher Schule vielleicht nochmal eine
  • 37:53 - 37:57
    Inspektion oder ein Besuch durch die
    Behörde bedarf, um bestimmte Entwicklungen
  • 37:57 - 38:02
    vielleicht rechtzeitig zu stoppen. Und
    auch in England, das fand ich ganz gut,
  • 38:02 - 38:07
    gibt es ein, gibt es die NGO Nesta, die
    einige von euch vielleicht kennen. Und die
  • 38:07 - 38:12
    haben ein eigenes Papier entwickelt, das
    genau auf das abzielt, was ich hier auch
  • 38:12 - 38:17
    vorstellen möchte. Nämlich wenn wir KI im
    Bildungssektor schon einsetzen wollen,
  • 38:17 - 38:20
    dann sollten wir uns auf die strukturellen
    Probleme konzentrieren. Oder wenn wir
  • 38:20 - 38:24
    schon auf der Mikroebene arbeiten, dann
    sollten wir uns auf Systeme konzentrieren,
  • 38:24 - 38:28
    die mit den Daten von Lehrkräften arbeiten
    und Lehrkräfte bei ihrer Arbeit
  • 38:28 - 38:32
    unterstützen. Zumindest jetzt in einem
    ersten Schritt, wenn die KI-Systeme noch
  • 38:32 - 38:37
    nicht so gut und so weiterentwickelt sind,
    wie wir sie vielleicht gerne hätten. Diese
  • 38:37 - 38:43
    Systeme können tatsächlich schon Vorbild
    sein, auch für Deutschland. Und wovon ich
  • 38:43 - 38:46
    in Deutschland auch ein bisschen träume
    und woran wir gerade politisch arbeiten,
  • 38:46 - 38:51
    ist dieser leidige Königsteiner Schlüssel
    zum Beispiel. Der Königsteiner Schlüssel
  • 38:51 - 38:56
    verteilt im Moment Fördergelder nach
    Bevölkerungsdichte und nach
  • 38:56 - 38:59
    Steueraufkommen. Da funktioniert das ganz
    klassisch jetzt im Moment nach dem
  • 38:59 - 39:02
    Matthäus Prinzip. Wer hat, dem wird
    gegeben. Reiche Länder bekommen den
  • 39:02 - 39:07
    höheren Anteil an Fördergeldern und die
    etwas ärmeren Länder bekommen halt nicht
  • 39:07 - 39:12
    so viel. Dabei sollte es doch eigentlich
    genau umgekehrt sein. Und wenn es
  • 39:12 - 39:20
    tatsächlich möglich wäre, mit einem KI-
    System auf Basis von noch mehr oder
  • 39:20 - 39:25
    anderen Daten zu ermitteln, welcher
    Förderzweck genau welche Förderhöhe
  • 39:25 - 39:30
    brauch, dann wäre es doch vielleicht sogar
    möglich, dass wir je nach Förderzweck
  • 39:30 - 39:34
    jedes Mal diesen Verteilungsschlüssel neu
    errechnen. Also wenn es dort Möglichkeiten
  • 39:34 - 39:38
    gibt oder wenn es dort Ansätze gibt sowas
    zu entwickeln, bitte ich um
  • 39:38 - 39:42
    Kontaktaufnahme. Das würde mich sehr sehr
    interessieren. Selbstverständlich würde
  • 39:42 - 39:47
    das voraussetzen, dass von den Schulen,
    Schulträgern und auch Schulbehörden
  • 39:47 - 39:52
    nochmal ganz andere Daten auch erhoben und
    erfasst werden. Es gibt aber auch bereits
  • 39:52 - 39:57
    Bildungsdatenbank. Es gibt die
    Forschungsdatenbank Bildung, wo jetzt im
  • 39:57 - 40:01
    Moment schon Bildungsstudien eingestellt
    sind, also die Infrastruktur letztendlich
  • 40:01 - 40:05
    wäre für sowas vorhanden. Es müsste sich
    vielleicht nur etwas in der Kultur ändern,
  • 40:05 - 40:12
    damit Schulen auch bereit sind oder damit
    überhaupt auch Länder und Behörden dort
  • 40:12 - 40:18
    anfangen bestimmte Daten zu erheben, um
    dann halt auch die strukturellen Systeme
  • 40:18 - 40:25
    auflösen zu können. So, welche
    Anforderungen brauchen wir letztendlich,
  • 40:25 - 40:31
    um auf dieser Makroebene an die
    strukturellen Probleme heranzugehen? Dort
  • 40:31 - 40:34
    würde ich gerne unterscheiden, ein
    bisschen was können Menschen auf der
  • 40:34 - 40:38
    persönlichen Ebene tun? Was muss auf der
    Organisationsebene passieren und vor
  • 40:38 - 40:41
    allem was braucht es noch auf der
    rechtlichen Ebene? Im Moment wird ja ganz,
  • 40:41 - 40:45
    ganz viel immer davon geredet. Lehrkräfte
    müssen sich fortbilden, damit sie mit
  • 40:45 - 40:51
    diesem System arbeiten können. Ja, das ist
    aber auch nur ein Teil, der getan werden
  • 40:51 - 40:55
    muss. Und Teil dieser Fortbildung ist
    natürlich nicht nur, dass es darum geht,
  • 40:55 - 40:59
    wie diese Systeme angewendet werden,
    sondern es braucht ein tiefes Verständnis
  • 40:59 - 41:04
    einfach von KI als soziotechnisches
    System. Und es braucht das schöne
  • 41:04 - 41:11
    Stichwort Data Literacy. Das heißt, ein
    Verständnis dafür zu entwickeln, was Daten
  • 41:11 - 41:17
    überhaupt aussagen und aber vor allem
    anderen eigentlich braucht es auf der ganz
  • 41:17 - 41:21
    individuellen Ebene immer noch ganz viel
    Fortbildung, was überhaupt das Thema
  • 41:21 - 41:26
    Digitalisierung betrifft und auch der
    damit verbundene Kulturwandel. Überhaupt,
  • 41:26 - 41:33
    sich zu öffnen, um Informationen oder auch
    Inhalte zu teilen, um eine gewisse
  • 41:33 - 41:37
    Fehlerkultur zu entwickeln. All das ist ja
    gerade noch im Umbruch. Und wenn wir jetzt
  • 41:37 - 41:41
    davon reden, dass wir KI-Systeme an den
    Schulen wollen oder dass es gefördert
  • 41:41 - 41:45
    werden soll, dann habe ich manchmal das
    Gefühl, wir wollen einem Kind, das gerade
  • 41:45 - 41:49
    das Fahrradfahren gelernt hat, wollen wir
    jetzt in einen Rennwagen setzen, weil es
  • 41:49 - 41:53
    damit ja noch sicherer zur Schule kommt.
    Das passiert alles in einem sehr, sehr
  • 41:53 - 41:58
    großen Tempo, das nicht damit erledigt
    werden sollte, dass wir uns einfach nur
  • 41:58 - 42:01
    darauf zurücklehnen und sagen, Lehrkräfte
    müssen sich weiterbilden und dann können
  • 42:01 - 42:05
    sie auch KI-Systeme in der Schule
    einsetzen. Die Eltern habe ich jetzt
  • 42:05 - 42:08
    nochmal in Klammern gesetzt. Davon
    ausgehend, dass wir es vielleicht wirklich
  • 42:08 - 42:11
    schaffen, unsere Forschungs- und
    Entwicklungsschwerpunkte mehr auf die
  • 42:11 - 42:16
    Makro und auf die Meso Ebene zu legen und
    weniger auf die Schüler basierten Systeme.
  • 42:16 - 42:20
    auf der Organisationsebene, also dort wo
    entschieden wird. Letztendlich kommt ein
  • 42:20 - 42:25
    KI System zum Einsatz - Ja oder nein. Das
    ist die Schulleitung oder das Schulträger
  • 42:25 - 42:30
    oder vielleicht auch Bundesländer. Muss
    natürlich als allererstes mal hinterfragt
  • 42:30 - 42:34
    werden. Wozu brauche ich das System? Ich
    habe es eben schon angesprochen. Wenn wir
  • 42:34 - 42:37
    ein soziales Problem an der Schule
    feststellen, ist ein technisches System
  • 42:37 - 42:42
    tatsächlich dafür die Lösung? Oder sollten
    wir vielleicht eher auf der sozialen Ebene
  • 42:42 - 42:46
    nochmal schauen, was wir vielleicht an
    unseren Lernzielen oder an unseren
  • 42:46 - 42:49
    Methoden oder an unserer
    Organisationskultur verändern müssen?
  • 42:49 - 42:54
    Selbst wenn wir uns entscheiden für ein
    technisches System, dann muss natürlich
  • 42:54 - 42:58
    entsprechend die Infrastruktur gegeben
    sein. Das heißt, die Frage ist: Wo werden
  • 42:58 - 43:02
    Daten, mit denen gearbeitet wird? Wo
    werden sie gespeichert? Sind sie dort
  • 43:02 - 43:06
    überhaupt sicher genug? Haben wir
    überhaupt WLAN an den Schule, damit dort
  • 43:06 - 43:10
    vor Ort gearbeitet werden kann? All diese
    Fragen. Natürlich braucht es auch auf der
  • 43:10 - 43:14
    Entscheidungsebene Kompetenzen. Es braucht
    den Kulturwandel und überhaupt erst einmal
  • 43:14 - 43:20
    die Grundlagen der Digitalisierung, bevor
    wir mit KI die nächsten Stufe gehen. Wir
  • 43:20 - 43:24
    brauchen die Regelung zur menschlichen
    Entscheidungsfähigkeit tatsächlich auch in
  • 43:24 - 43:30
    den Arbeitsverträgen und wie auch in
    anderen Verwaltungsbereichen auch sollte
  • 43:30 - 43:34
    es auch im Bildungsbereich einfach ganz
    klare Beschaffungsrichtlinien geben. Wenn
  • 43:34 - 43:39
    Systeme angeschafft werden, dann braucht
    es ganz klare Anforderungskataloge, wie
  • 43:39 - 43:45
    diese Systeme gestaltet werden sollen. Und
    natürlich muss sich dann auch der Bund
  • 43:45 - 43:50
    entscheiden, Förderungen in die richtige
    Richtung zu schicken und diese Systeme zu
  • 43:50 - 43:55
    fördern und zu unterstützen, die sich auf
    die Meso- und Makroebene fokussieren und
  • 43:55 - 44:02
    nicht die Attack Startups, die versuchen,
    das Lernerlebnis für Schüler zu
  • 44:02 - 44:06
    verbessern, obwohl es dafür keine Evidenz
    gibt, werde ich auch nicht müde, das immer
  • 44:06 - 44:11
    wieder zu wiederholen. Und dann haben wir
    natürlich auf der rechtlichen Ebene noch
  • 44:11 - 44:15
    viele offene Fragen, die KI-Systeme im
    Allgemeinen betreffen und gar nicht
  • 44:15 - 44:19
    unbedingt nur auf den Bildungssektor
    Anwendung finden. Und das ist einmal die
  • 44:19 - 44:24
    Problematik der Nachvollziehbarkeit. Also
    solange KI-Systeme an sich selber nicht
  • 44:24 - 44:28
    nachvollziehbar sind, müssen zumindest
    Schnittstellen geschaffen werden, dass
  • 44:28 - 44:33
    Evualator:innen oder Forscher:innen
    zumindest reingucken können, was das
  • 44:33 - 44:38
    System überhaupt macht. Wir brauchen eine
    Nachweisbarkeit, dass diese Systeme
  • 44:38 - 44:43
    funktionieren, erst recht, wenn wir mit
    Schüler:innen an Daten arbeiten wollen. Und
  • 44:43 - 44:48
    wir brauchen eine Kritikalität ex ante.
    Wir reden hier vom Bildungssektor. Dort
  • 44:48 - 44:52
    werden Lebenswege vorbestimmt. Das ist
    nicht der Raum, um Experimente zu machen
  • 44:52 - 44:57
    und mal Systeme loszulassen, laufen zu
    lassen und dann mal zu gucken, welche
  • 44:57 - 45:01
    Probleme sie eventuell entwickeln. Wir
    haben aus dem Ausland jetzt schon genügend
  • 45:01 - 45:05
    Beispiele, was nicht gut funktioniert. Ich
    wäre kein Fan davon, wenn wir das Ganze
  • 45:05 - 45:10
    hier in Deutschland nochmal wiederholen
    wollen. Eigentlich nicht nötig, das zu
  • 45:10 - 45:12
    sagen, aber es braucht letztendlich auch
    eine rechtlich bindende
  • 45:12 - 45:17
    Anbieterstabilität. Es gab tatsächlich,
    ich glaube auch in den USA, das System
  • 45:17 - 45:22
    inBlue. Das wurde überall ausgerollt und
    eingesetzt. Und dann irgendwann hat der
  • 45:22 - 45:25
    Anbieter entschieden, seine Dienste
    einzustellen. Was aus den Daten geworden
  • 45:25 - 45:31
    ist bis dahin weiß letztendlich kein
    Mensch. Das ganze Thema Offenheit sollte
  • 45:31 - 45:35
    gerade bei KI Entwicklung im
    Bildungssektor viel, viel stärker auch
  • 45:35 - 45:42
    eingefordert und verankert werden. Das
    heißt, auch KI-Systeme sollten wie Open-
  • 45:42 - 45:48
    Source-Software behandelt werden, als
    OpenAI z.B. stärker mitgefördert werden. Wir
  • 45:48 - 45:54
    müssen viel stärker entwickeln im Bereich
    OER Open Data, um dann diese ganzen Daten,
  • 45:54 - 46:00
    die wir im Lern-Kontext dann auch sammeln,
    wiederum als Open Educational Data, also
  • 46:00 - 46:05
    als OED auch wieder zur Verfügung zu
    stellen. Ohne offene Datenbasis kommen wir
  • 46:05 - 46:11
    da nicht hin. Sehr charmant finde ich auch
    die Idee der öffentlichen Register. Dort
  • 46:11 - 46:15
    sollten sich auch KI-Systeme im
    Bildungsbereich eintragen lassen. Und was
  • 46:15 - 46:19
    auf jeden Fall passieren muss, ist die
    Überarbeitung des Artikels 22 der DSGVO.
  • 46:19 - 46:24
    Dort werden im Moment ja nur
    Entscheidungen geregelt,
  • 46:25 - 46:30
    vollautomatisierte Entscheidungen sind
    dort geregelt. Was nicht geregelt ist,
  • 46:30 - 46:35
    sind teilautomatisierte Systeme und
    teilautomatisierte Systeme sind ja die, die
  • 46:35 - 46:38
    jetzt eigentlich weitestgehend im Einsatz
    sind. Und wenn wir auch da wieder im
  • 46:38 - 46:41
    Hinterkopf haben, dass ja als Argument
    immer noch gilt: Der Mensch trifft die
  • 46:41 - 46:45
    letzte Entscheidung, werden wir es auch
    zukünftig verstärkt mit teil-
  • 46:45 - 46:50
    automatisierten System zu tun haben. Und
    dort müssen Einspruchsrechte und
  • 46:50 - 46:55
    Widerspruchsrechte einfach noch klarer
    geregelt werden. Ach nee, bevor ich zu
  • 46:55 - 47:00
    meinem Fazit komme, möchte ich nochmal auf
    die lange Kette der Verantwortlichkeit
  • 47:00 - 47:06
    auch nochmal eingehen. Wenn Systeme
    tatsächlich ausgewählt werden, müssen
  • 47:06 - 47:11
    Entscheider in der Lage sein, auch diese
    Systeme zu beurteilen. Und in ganz, ganz
  • 47:11 - 47:16
    grober Anlehnung an diese lange Kette der
    Verantwortlichkeit von Katharina Zweig und
  • 47:16 - 47:21
    Tobias Kraft sollte es mit in einen
    Anforderungskatalog und sollte es mit in
  • 47:21 - 47:26
    den Kompetenzkatalog von all denjenigen,
    die dazu entscheiden, dass sie in der Lage
  • 47:26 - 47:31
    sind, zu hinterfragen und zu prüfen.
    Aufgrund von welcher Datenbasis wurde ein
  • 47:31 - 47:35
    System trainiert, also welche Qualität,
    welche Quantität? Wie alt sind die Daten?
  • 47:35 - 47:40
    Passen sie überhaupt zum Trainingszweck?
    Dann letztendlich auch nach welchen
  • 47:40 - 47:46
    Maßgaben wurde das System trainiert? Ganz
    ganz wichtig ist ja auch ein KI-System,
  • 47:46 - 47:49
    das einmal für einen bestimmten Zweck
    trainiert wurde, ist nicht unbedingt
  • 47:49 - 47:52
    günstig in einem ganz anderen
    Anwendungskontext. Gerade im
  • 47:52 - 47:56
    Bildungsbereich, wenn damit geworben wird,
    dass bei Übersetzungssystemen oder
  • 47:56 - 48:00
    Spracherkennungssystemen das es ja ganz
    ganz tolle Software as a Service Systeme
  • 48:00 - 48:04
    schon gibt, die quasi von der Stange
    gekauft werden können, muss immer noch
  • 48:04 - 48:08
    hinterfragt werden: Passt das tatsächlich
    zu meinem Anwendungskontext? Und
  • 48:08 - 48:12
    letztendlich passt auch dieses System zu
    meinem Ethik-System, das ich bei mir an
  • 48:12 - 48:18
    der Schule habe. Datenverwendung ist ganz,
    ganz wichtig. Was passiert mit den Daten,
  • 48:18 - 48:22
    die erhoben werden an einer Schule, auch
    wenn es nur Daten von Lehrkräften sind?
  • 48:22 - 48:26
    Gerade in dem Moment, wo es
    personenbezogene Daten sind, muss einfach
  • 48:26 - 48:31
    sichergestellt werden, dass nicht nur
    rechtlich, sondern auch tatsächlich aktiv
  • 48:31 - 48:35
    in der Anwendung ist, es überhaupt kein
    Weg gibt, dass diese Daten an Stellen
  • 48:35 - 48:39
    weitergegeben werden, wo sie nicht
    hingehören. Es gibt aus den USA, auch mal
  • 48:39 - 48:46
    wieder dort dieses Beispiel, dass Akteure
    der Wissenschaftsverlagsbranche Daten von
  • 48:46 - 48:51
    Wissenschaftlern weitergegeben haben an
    die Einwanderungsbehörde ICE, was auch
  • 48:51 - 48:54
    immer sie dort verloren haben. Aber das
    sind alles Entwicklungen, die müssen
  • 48:54 - 48:58
    ausgeschlossen sein. Ganz großer Komplex
    IT-Sicherheit. Das muss sichergestellt
  • 48:58 - 49:04
    sein. Das ist im Prinzip ein eigener
    Vortrag. Dort möchte ich hier aber
  • 49:04 - 49:08
    verweisen auf die Arbeiten der Stiftung
    Neue Verantwortung, die schon ganz, ganz
  • 49:08 - 49:12
    viel dazu untersucht und entwickelt und
    auch Schaubilder gemacht haben, welche
  • 49:12 - 49:16
    Angriffs-Vektoren es für KI-Systeme
    überhaupt gibt. Und letztendlich müssen
  • 49:16 - 49:21
    Entscheider:innen auch sicherstellen, dass es
    Ressourcen gibt, um dieses Thema, wenn sie
  • 49:21 - 49:24
    dann einmal im Einsatz sind, auch
    tatsächlich dauerhaft evaluiert sind,
  • 49:24 - 49:28
    damit sich diese ganzen Schwächen, die wir
    ja kennen, nicht erst in der Praxis, dann
  • 49:28 - 49:34
    auch noch einschleichen. Das heißt, wenn
    einem bewusst wird, was es alles für
  • 49:34 - 49:38
    Anforderungen braucht, um KI-Systeme im
    Bildungssektor egal zu welchem Zweck
  • 49:38 - 49:43
    einzusetzen, dann wird glaube ich klar,
    dass das etwas ist, was noch ein sehr
  • 49:43 - 49:47
    langer Weg ist, was nicht überhastet
    angegangen werden soll und was noch sehr,
  • 49:47 - 49:52
    sehr viel Qualifizierung und
    Weiterentwicklung braucht. Und das
  • 49:52 - 49:56
    letztendlich bringt mich jetzt zu meinem
    Fazit. Bisher ist es so, dass bei KI im
  • 49:56 - 50:00
    Bildungssektor vornehmlich darüber
    gesprochen wird, dass Learning Analytics
  • 50:00 - 50:03
    Systeme eingesetzt werden, um halt das
    Lernverhalten von Schülerinnen und
  • 50:03 - 50:08
    Schülern zu analysieren und dabei mit
    personenbezogenen Daten gearbeitet wird.
  • 50:08 - 50:13
    Letztendlich gibt es zum jetzigen
    Zeitpunkt noch keine Evidenz dafür, dass
  • 50:13 - 50:16
    diese Systeme funktionieren und dass diese
    ganzen Datensammlungen auch tatsächlich
  • 50:16 - 50:20
    sinnvoll sind. Es ist ganz, ganz viel
    Marketing und vor allem auch
  • 50:20 - 50:23
    Wirtschaftsförderung dahinter. Wenn diese
    Startups jetzt in die Richtung gefördert
  • 50:23 - 50:28
    werden und das Risiko, das damit entsteht,
    wenn diese Systeme weiterhin in die
  • 50:28 - 50:31
    Schulen gedrückt werden, ist dass die
    wahren strukturellen Probleme einfach
  • 50:31 - 50:35
    dadurch verschleiert werden und dass diese
    Mangelwirtschaft einfach fortgesetzt
  • 50:35 - 50:39
    werden und diese ganzen Potenziale, die KI
    tatsächlich mit sich bringt, diese
  • 50:39 - 50:45
    Probleme tatsächlich mit zu lösen, dass
    die einfach gar nicht gehoben werden. Das
  • 50:45 - 50:51
    Risiko dabei ist, dass es vornehmlich
    immer um personenbezogene Daten von
  • 50:51 - 50:56
    minderjährigen Schüler:innen geht und dass
    die ganzen Chancen, die wir im OpenData
  • 50:56 - 51:01
    Bereich haben, dafür einfach weiterhin
    nicht genutzt werden. Und wir haben jetzt
  • 51:01 - 51:05
    den Zeitpunkt, wo die Weichen gestellt
    werden. Ist das genau der Pfad, auf dem
  • 51:05 - 51:09
    wir jetzt auch weitergehen wollen? Oder
    wollen wir jetzt anfangen, in diese
  • 51:09 - 51:14
    Entwicklung einzugreifen und den Fokus
    mehr auf die Meso- und Makroebene legen?
  • 51:14 - 51:20
    Die EU-Kommission hat jetzt kürzlich ihren
    überarbeiteten Digital Education Plan
  • 51:20 - 51:24
    vorgestellt. Dort ist zu diesem ganzen
    Thema KI vorgesehen, dass Lehrkräfte
  • 51:24 - 51:29
    weitergebildet werden müssen. Dass es
    Ethik-Leitlinien geben müssen und
  • 51:29 - 51:32
    letztendlich auch, dass Forschung nochmal
    intensiviert werden muss. Und das ist
  • 51:32 - 51:37
    jetzt genau der Punkt, um dort reinzugehen
    und die Fragen zu stellen und darauf hin
  • 51:37 - 51:43
    zu drängen, dass in die richtige Richtung
    geforscht wird. Das hat mich letztendlich
  • 51:43 - 51:48
    in dieser ganzen Vorbereitung zu meiner
    Empfehlung gebracht. In Anlehnung an diese
  • 51:48 - 51:52
    Pyramide von der Datenethikkommissionen,
    die ich eigentlich, wenn das Prinzip der
  • 51:52 - 51:57
    Risiko-Klassifizierung diskutabel ist,
    finde ich eigentlich dieses
  • 51:57 - 52:03
    Pyramidensystem sehr gelungen. Und
    übertragen auf KI-Systeme im
  • 52:03 - 52:08
    Bildungsbereich sehe ich einen ganz, ganz
    großen, grünen, unkritischen Bereich, wenn
  • 52:08 - 52:11
    es darum geht, die Forschung und
    Entwicklung auf der Makroebene weiter zu
  • 52:11 - 52:16
    unterstützen und weiter zu fördern. Alles
    unter der Nutzung von Open Data, die
  • 52:16 - 52:21
    entweder schon vorhanden sind oder
    vielleicht auch noch weiter erhoben und
  • 52:21 - 52:25
    genutzt werden können. Das fließt
    größtenteils auch noch mit rein in die
  • 52:25 - 52:30
    Meso Ebene, die auch auf der Basis von
    Open Data schon sehr sehr viel Gutes
  • 52:30 - 52:35
    erreichen kann. Und ganz ganz oben in der
    Spitze, wo ich den roten Bereich sehe, ist
  • 52:35 - 52:40
    tatsächlich die Mikroebene, wenn es um die
    Analyse-Systeme geht für Schüler:innen und
  • 52:40 - 52:44
    für Lehrkräfte, wo mit personenbezogenen
    Daten gearbeitet wird. Wenn es dort
  • 52:44 - 52:49
    weitere Entwicklungen geben sollte, dann
    würde ich es bevorzugen, wenn es dort ein
  • 52:49 - 52:52
    Forschungsbereich gibt oder den
    Anwendungsbereich vielleicht höchstens für
  • 52:52 - 52:58
    Lehrkräfte. Aber dass wir die ganze
    Analyse von Schüler:innen vielleicht
  • 52:58 - 53:01
    erst mal noch außen vorlassen, bis wir
    vielleicht viel mehr über KI-Systeme
  • 53:01 - 53:06
    wissen und alles immer unter der
    Voraussetzung, dass die Daten, die erhoben
  • 53:06 - 53:10
    werden, dann auch weiter zur Verfügung
    gestellt werden für die Generierung von
  • 53:10 - 53:17
    Open Educational Data. Das war's. Vielen
    Dank für eure Aufmerksamkeit. Alle
  • 53:17 - 53:21
    Anregungen, um die ich gebeten habe, alle
    Lücken, die ich vielleicht noch gelassen
  • 53:21 - 53:24
    habe, oder alle Interessenten, die Lust
    haben, an diesem Thema auch noch mit
  • 53:24 - 53:29
    weiterzuarbeiten, freue ich mich total
    über Kontaktaufnahme und Feedback und
  • 53:29 - 53:33
    weitere Informationen. Ich habe hier auch
    noch einen großen Anhang mit Quellen, die
  • 53:33 - 53:38
    ich verarbeitet habe. Wenn es dazu auch
    noch Rückfragen gibt, kommt jederzeit
  • 53:38 - 53:43
    - nicht jederzeit, nich nachts um drei. Also per E-Mail
    schon, aber vielleicht nicht per Telefon.
  • 53:43 - 53:47
    Aber die habt ihr ja auch gar nicht die
    Nummer - egal, kommt einfach auf mich zu.
  • 53:47 - 53:50
    Und dann würde es mich freuen, wenn wir im
    Gespräch bleiben. Vielen Dank.
  • 53:50 - 53:56
    Herald: Hallo Nina, schön, dass du da
  • 53:56 - 54:02
    warst. Danke für den spannenden Vortrag
    grade. Wir hatten so ein bisschen
  • 54:02 - 54:06
    technische Probleme im Hintergrund. Ich
    hoffe deswegen, dass alle im Live-Stream
  • 54:06 - 54:14
    den Talk auch gut sehen konnten. Nina, du
    hast viel erzählt über KI und die Grenzen
  • 54:14 - 54:20
    und Vorteile. Was sind denn so aus deiner
    Sicht vielleicht die klugen nächsten
  • 54:20 - 54:24
    Schritte, die man so gehen müsste? Was
    künstliche Intelligenz und Klassenzimmer
  • 54:24 - 54:29
    betrifft?
    Nina: Hallo Nina, ja genau. Was sind die,
  • 54:29 - 54:33
    was sind die nächsten Schritte? Also ich
    glaube wir sind im Moment an so einer
  • 54:33 - 54:38
    Entwicklungsphase, wo KI in der Schule und
    im Bildungsbereich einfach noch nicht so
  • 54:38 - 54:41
    wahnsinnig weit verbreitet ist. Und ich
    hab das ja auch gemerkt bei meiner
  • 54:41 - 54:45
    Recherche und auch z.B. hier, was diese
    Meso-Ebene angeht. Es gibt noch nicht so
  • 54:45 - 54:50
    extrem viele Anwendungen, wo man konkret
    jetzt schon reingehen und eingreifen kann
  • 54:50 - 54:53
    und sagen wir wollen hier eine andere
    Entwicklung oder das und das muss so
  • 54:53 - 54:59
    konkret weitergehen. Was allerdings gut an
    dieser Entwicklung ist, ist eben, dass wir
  • 54:59 - 55:05
    noch an diesem frühen Punkt sind und auch
    die Möglichkeiten haben, Einfluss nehmen
  • 55:05 - 55:09
    zu können. Habe ich da ein äh im
    Hintergrund gehört? Ja okay, ich rede
  • 55:09 - 55:14
    einfach weiter. Das heißt, nach allem, was
    ich jetzt mitbekommen habe, wie sich das
  • 55:14 - 55:20
    Thema KI in der Bildung gerade ansetzt zu
    entwickeln, möchte ich eigentlich gerne so
  • 55:20 - 55:24
    eine Art Break machen. Einen kleinen
    Schnitt und nochmal hinterfragen ist der
  • 55:24 - 55:28
    Weg, der jetzt eingeschlagen wird von den
    Attack-Startups und auch von den
  • 55:28 - 55:32
    Regierungen, ist das überhaupt der
    Richtige, dass wir KI-Systeme einsetzen,
  • 55:32 - 55:39
    um das Verhalten und Lernverhalten von
    Lernenden zu analysieren? Oder wollen wir
  • 55:39 - 55:42
    nicht nochmal überlegen, ob wir nicht die
    KI-Systeme, die wir jetzt haben, dazu
  • 55:42 - 55:45
    nutzen können, die strukturellen Probleme
    im Bildungssektor anzugehen? Davon gibt es
  • 55:45 - 55:50
    genug. Dort haben wir eine ganz andere
    Datenbasis und es kann vor allem weniger
  • 55:50 - 55:54
    Schaden angerichtet werden für die
    einzelnen Personen, die analysiert werden
  • 55:54 - 55:58
    oder dann halt auch im besten Fall gar
    nicht mehr analysiert werden, weil alles,
  • 55:58 - 56:02
    was wir aus der KI Geschichte wissen, dass
    es sehr, sehr viel Schwierigkeiten gibt,
  • 56:02 - 56:07
    sobald KI in sozialen Kontexten eingesetzt
    werden. Also wenn KI-Systeme benutzt
  • 56:07 - 56:11
    werden, um Menschen zu analysieren, jetzt
    kurz auf den Punkt gebracht, dann führt
  • 56:11 - 56:14
    das meistens zu größeren Problemen und wir
    sollten in der Bildung nicht diese Fehler
  • 56:14 - 56:19
    wiederholen.
    Herald: Ja, das sind auf jeden Fall
  • 56:19 - 56:24
    ziemlich gute Gedankenanstöße. Wir haben
    leider gar nicht so richtig, richtig viel
  • 56:24 - 56:26
    Zeit, um jetzt hier noch Fragen zu
    beantworten. Ich sehe gerade im Chat auch
  • 56:26 - 56:31
    tatsächlich keine. Ich bin aber sicher,
    dass es da noch viel Gesprächsbedarf gibt.
  • 56:31 - 56:37
    Deswegen würde ich vorschlagen, dass wir
    jetzt mit dir in einen Big Blue Button
  • 56:37 - 56:38
    umziehen.
  • 56:38 - 56:41
    Outro Musik
  • 56:41 - 56:48
    Untertitel erstellt von c3subtitles.de
    im Jahr 2021. Mach mit und hilf uns!
Title:
#rC3 - KI im Klassenzimmer - yay oder nay?
Description:

more » « less
Video Language:
German
Duration:
56:48

German subtitles

Revisions