1 00:00:00,000 --> 00:00:14,820 Intro Musik 2 00:00:14,820 --> 00:00:19,740 Hallo und herzlich willkommen zu meinem Vortrag "KI im Klassenzimmer - yay oder 3 00:00:19,740 --> 00:00:24,030 nay?" Ich bin Nina, ich bin derzeit wissenschaftliche Mitarbeiterin im Büro 4 00:00:24,030 --> 00:00:26,880 von Birke Bull-Bischoff. Sie ist die bildungspolitische Sprecherin der 5 00:00:26,880 --> 00:00:30,990 Linksfraktion im Bundestag. Die letzten zwei Jahre habe ich auch die Enquete- 6 00:00:30,990 --> 00:00:35,310 Kommission KI im Bundestag für die Linke mitbegleitet. Und davor habe ich auch 7 00:00:35,310 --> 00:00:38,760 schon mal im Bildungssektor gearbeitet, sodass ich diesen Vortrag jetzt hier 8 00:00:38,760 --> 00:00:42,990 nutzen möchte, um mal alle meine Beobachtungen zum Thema KI in der Schule 9 00:00:42,990 --> 00:00:49,230 zusammenzutragen und vor allem auch einen Blick auf die dabei verarbeiteten Daten zu 10 00:00:49,230 --> 00:00:53,190 werfen und einen Ausblick darauf zu schaffen, wie KI vielleicht sogar dafür 11 00:00:53,190 --> 00:00:57,420 benutzt werden kann, um strukturelle Probleme im Bildungssektor anzugehen. 12 00:00:57,420 --> 00:01:03,150 Vorausschicken möchte ich, dass wenn ich hier von KI rede, ich jeweils sogenannte 13 00:01:03,150 --> 00:01:07,820 schwache KI meine und mich auf Machine Learning in als seinen Ausprägung beziehe. 14 00:01:07,820 --> 00:01:13,890 Ich möchte euch zuerst einen kleinen Überblick geben, wie KI im Schulbereich im Moment schon 15 00:01:13,890 --> 00:01:17,700 eingesetzt werden kann. Was dabei auch tatsächlich noch nicht so wahnsinnig gut 16 00:01:17,700 --> 00:01:21,690 läuft. Dann natürlich zeigen, was meiner Meinung nach besser laufen könnte, welche 17 00:01:21,690 --> 00:01:25,260 Anforderungen es braucht, damit es besser laufen kann und dann auch am Ende mit 18 00:01:25,260 --> 00:01:30,240 einer konkreten Empfehlung schließen. Als ich mich vor ungefähr einem Jahr 19 00:01:30,240 --> 00:01:35,220 angefangen habe, mit diesem Thema vertieft zu beschäftigen, sind mir zwei Dinge 20 00:01:35,220 --> 00:01:39,870 aufgefallen. Zum einen ist der Begriff KI eigentlich noch nicht wirklich konkret und 21 00:01:39,870 --> 00:01:44,520 allgemein definiert und all diese KI Anwendungen im Bildungsbereich auch noch 22 00:01:44,520 --> 00:01:49,710 nicht. Da wird also viel experimentiert und herumgeworfen mit Learning Analytics, 23 00:01:49,710 --> 00:01:53,970 mit Tutor Systemen, intelligenten Tutor Systemen. Das ganze unter die Oberbegriffe 24 00:01:53,970 --> 00:01:59,850 von Educational Data Mining gestellt. Das ist wiederum teilweise die Voraussetzung 25 00:01:59,850 --> 00:02:04,710 oder steht neben dem anderen Begriff von AIED, also Artificial Intelligence in 26 00:02:04,710 --> 00:02:11,940 Education. Also da kann man je nach Autor und je nach Anwendungsbereich baut das 27 00:02:11,940 --> 00:02:16,080 eine auf dem anderen auf oder steht nebeneinander oder ist eine Folge davon. 28 00:02:16,080 --> 00:02:20,250 All das ist ein Signal dafür, dass wir in diesem Bereich tatsächlich noch sehr am 29 00:02:20,250 --> 00:02:24,200 Anfang stehen, dass das alles sehr unstrukturiert ist. Und letztendlich ist 30 00:02:24,200 --> 00:02:28,700 auch der ganze Anbietermarkt von diesem System noch sehr am Anfang und 31 00:02:28,700 --> 00:02:34,040 unstrukturiert. Derzeit sind es vor allem oder eigentlich ausschließlich proprietäre 32 00:02:34,040 --> 00:02:37,550 Systeme, sodass auch teilweise Forscher manchmal gar nicht so richtig wissen: 33 00:02:37,550 --> 00:02:42,800 Arbeitet ein System, das mit KI wirbt, eigentlich wirklich mit KI im Sinne von 34 00:02:42,800 --> 00:02:46,560 Machine Learning oder ist es nur ein einfacher Algorithmus ohne Lernverfahren? 35 00:02:46,560 --> 00:02:51,470 Oder wie viel Werbung und wie viel Marketing steckt eigentlich in diesem 36 00:02:51,470 --> 00:02:56,540 Anbietersystem eigentlich wirklich dahinter? Dann gibt es aber neben dem 37 00:02:56,540 --> 00:03:01,880 ganzen Learning Analytics Bereich, der sich sehr konkret auf die Erhebung und 38 00:03:01,880 --> 00:03:08,480 Analyse von lernenden Daten, also zur Verbesserung von Lernerlebnissen und 39 00:03:08,480 --> 00:03:12,680 Lernenergebnissen beschäftigt, gibt es noch weitere Anwendungsbereiche, in denen 40 00:03:12,680 --> 00:03:17,270 KI eingesetzt wird. In den USA gibt es zum Beispiel ein Verfahren, dass das 41 00:03:17,270 --> 00:03:23,180 Surfverhalten analysiert. Auf dieser Keyword Liste der Risikofaktoren stehen 42 00:03:23,180 --> 00:03:28,370 dann allerdings auch Begriffe wie schwul, queer oder Gedichtsammlung. Also selbst 43 00:03:28,370 --> 00:03:31,400 wenn wir jetzt auch von sehr intoleranten Gesellschaften ausgehen, ist es natürlich 44 00:03:31,400 --> 00:03:34,820 überhaupt nicht zu unterstützen, dass diese Begriffe überhaupt irgendwie 45 00:03:34,820 --> 00:03:38,450 Personen zugeordnet und im Sinne einer Risikoprävention verwendet werden. 46 00:03:38,450 --> 00:03:43,820 Gesichtserkennung auf dem Schulgelände gab es neben den USA auch in Europa schon. Das 47 00:03:43,820 --> 00:03:46,880 hat Schweden mal an einer Schule probiert und die wurden dann aber nach sehr, sehr 48 00:03:46,880 --> 00:03:51,410 kurzer Zeit auf Basis der DSGVO auch schon mit einer hohen Strafe versehen. Also 49 00:03:51,410 --> 00:03:55,670 nicht unbedingt nachahmenswert. In China ist man da schon ein bisschen weiter und 50 00:03:55,670 --> 00:03:59,150 auch ein bisschen toleranter. Dort gibt es Gesichtserkennung auch in der Mensa und in 51 00:03:59,150 --> 00:04:03,770 Bibliotheken, sodass dann ganz nebenbei auch noch Ernährungsverhalten und 52 00:04:03,770 --> 00:04:09,020 Leseverhalten noch mit erfasst und analysiert werden. Ganz besonders charmant 53 00:04:09,020 --> 00:04:13,340 ist natürlich, dass Eltern sich in Klassenzimmerkameras auch mit einloggen 54 00:04:13,340 --> 00:04:18,620 können, um ihre Kinder dort direkt im Unterricht damit zu beobachten. Es gibt 55 00:04:18,620 --> 00:04:21,800 zwar hier und da sogar in China Widerstände dagegen und das finden nicht 56 00:04:21,800 --> 00:04:24,830 alle Eltern toll. Aber so wie ich das mitbekommen habe in den letzten Monaten, 57 00:04:24,830 --> 00:04:28,820 ist die Entwicklung da wahrscheinlich eher noch schwer aufzuhalten. Hier in 58 00:04:28,820 --> 00:04:33,230 Deutschland gibt es Forschungsprojekte, um zum Beispiel mit einem Stift direkt beim 59 00:04:33,230 --> 00:04:38,000 Schreiben, Üben, Schreibfehler oder Schreibschwächen rechtzeitig zu erkennen. 60 00:04:38,000 --> 00:04:42,800 Eher aus dem Hochschulbereich ist dieses Beispiel entnommen vom KIT, wo die 61 00:04:42,800 --> 00:04:46,460 Studienabbruchswahrscheinlichkeit berechnet wird. Je nachdem was man mit den 62 00:04:46,460 --> 00:04:49,910 Ergebnissen macht, kann das vielleicht sogar sinnvoll sein, weil dann rechtzeitig 63 00:04:49,910 --> 00:04:54,590 Hilfestellung gegeben werden kann. Aber wie dann einzelne Entscheider:innen mit 64 00:04:54,590 --> 00:04:57,080 solchen Ergebnissen umgehen, das steht natürlich nochmal auf einem ganz anderen 65 00:04:57,080 --> 00:05:03,560 Blatt. Und dann wird am DFKI und auch in der Universität von Tübingen an 66 00:05:03,560 --> 00:05:10,190 intelligenten Schulbüchern geforscht, die auch mit Daten arbeiten aus iTrackern, EEG 67 00:05:10,190 --> 00:05:13,910 Messung und sogar aus der Nasentemperaturmessung. Dabei wird davon 68 00:05:13,910 --> 00:05:19,040 ausgegangen, dass wenn die Nasentemperatur fällt, davon auszugehen ist, dass einem 69 00:05:19,040 --> 00:05:25,400 Lernenden bei seinem Lernstoff gerade Schwierigkeiten begegnen und das würde 70 00:05:25,400 --> 00:05:29,480 dann letztendlich in einer perfekten intelligenten Schulbuchversion dazu 71 00:05:29,480 --> 00:05:33,650 führen, dass ihnen noch ergänzende andere Inhalte angezeigt werden oder vielleicht 72 00:05:33,650 --> 00:05:38,000 irgendwie der ganze Lernpfad dann in Zukunft anders aufgebaut wird. Ich bin 73 00:05:38,000 --> 00:05:45,470 sehr gespannt, ob diese System Entwicklung jetzt auch im Pandemiewinter Daten erhebt, 74 00:05:45,470 --> 00:05:50,450 wo wahrscheinlich jeder Schüler zu jeder Zeit einfach kalte Nasen hat und was das 75 00:05:50,450 --> 00:05:54,800 letztendlich für die Lernpfadentwicklung bedeutet. Aber das ist ein anderes Thema. 76 00:05:54,800 --> 00:06:00,680 Kann KI denn überhaupt im Bildungssystem etwas Positives beitragen? Und wenn wir 77 00:06:00,680 --> 00:06:03,920 uns die Stärken von KI angucken, dann sieht es auf den ersten Blick tatsächlich 78 00:06:03,920 --> 00:06:08,150 so aus, als wäre das eigentlich gar keine so schlechte Idee. Gerade im Bereich der 79 00:06:08,150 --> 00:06:12,170 Spracherkennung oder Übersetzungssysteme mit allen Schwächen, die damit 80 00:06:12,170 --> 00:06:17,600 einhergehen, kann es tatsächlich dazu beitragen, dass Integration oder auch 81 00:06:17,600 --> 00:06:23,870 Inklusion an Schulen einfach erleichtert werden im Sinne von ergänzt werden. Wenn 82 00:06:23,870 --> 00:06:28,550 Systeme gut gemacht sind, können sie zumindest kurzfristig immerhin auch die 83 00:06:28,550 --> 00:06:33,470 Motivation von Schüler:innen steigern und können im Idealfall Lehrkräfte auch 84 00:06:33,470 --> 00:06:38,570 tatsächlich entlasten. Das wäre alles total wunderschön, wenn es nicht auch 85 00:06:38,570 --> 00:06:44,360 Schwächen im KI-System gibt, die euch alle sicherlich total vertraut sind. Die 86 00:06:44,360 --> 00:06:48,410 Qualität eines KI-Systems bemisst sich vor allem nach der Datenbasis. Garbage in 87 00:06:48,410 --> 00:06:53,480 garbage out, wie man so schön sagt. Und viele Daten im Bildungsprozess, der ja ein 88 00:06:53,480 --> 00:06:57,020 sozialer Prozess ist, der ist vielleicht gar nicht unbedingt optimal 89 00:06:57,020 --> 00:07:00,890 operationalisierbar, d.h. da stellt sich immer noch die große Frage: Welche Daten 90 00:07:00,890 --> 00:07:05,630 können überhaupt erfasst werden und wie können sie überhaupt sinnvoll analysiert 91 00:07:05,630 --> 00:07:11,450 werden? Lerndaten betreffend MINT-Fächer, die auf Logik basiert sind, eignen sich 92 00:07:11,450 --> 00:07:16,190 dafür sicherlich besser als zum Beispiel die sogenannten 4K Kompetenzen, also 93 00:07:16,190 --> 00:07:20,510 Kollaboration, Kreativität zum Beispiel. Wie will man sowas messen und wie will man 94 00:07:20,510 --> 00:07:27,320 sowas in Operationalisierbarkeit pressen? Das steht noch im Raum. Dann haben wir 95 00:07:27,320 --> 00:07:30,680 natürlich auch im Bildungsbereich die üblichen Probleme mit der 96 00:07:30,680 --> 00:07:35,600 Nachvollziehbarkeit und mit der Erklärbarkeit und die Risiken von 97 00:07:35,600 --> 00:07:40,940 Verzerrungen. Auch nicht ganz unwichtig ist die Problematik, dass eine Korrelation 98 00:07:40,940 --> 00:07:45,290 noch keine Kausalität mit sich bringt. Also hier nochmal das Beispiel mit der 99 00:07:45,290 --> 00:07:49,400 Nase und Temperatur. Es kann ganz viele verschiedene Gründe haben, warum 100 00:07:49,400 --> 00:07:55,130 Gehirnströme gerade einen bestimmten Weg nehmen, warum Körpertemperatur sich 101 00:07:55,130 --> 00:08:00,650 verändern oder warum sich Augenbewegungen entweder direkt bei einem Lerninhalten 102 00:08:00,650 --> 00:08:04,430 oder auch im Raum bewegen. Das hat alles nicht zwangsläufig was mit dem 103 00:08:04,430 --> 00:08:09,350 Lerninhalten oder mit der Lernatmosphäre zu tun. Bei all meinen Recherchen für 104 00:08:09,350 --> 00:08:12,710 diesen Vortrag habe ich immer ganz explizit gefragt: Gibt es denn Beweise 105 00:08:12,710 --> 00:08:16,550 dafür überhaupt, dass diese KI-Systeme vielleicht auch gut funktionieren und den 106 00:08:16,550 --> 00:08:20,930 Lernenden tatsächlich was bringen? Aber diese Evidenz gibt es bislang nicht. Ich 107 00:08:20,930 --> 00:08:24,800 habe interessanterweise, als kleine Anekdote am Rande, auf der Webseite von 108 00:08:24,800 --> 00:08:29,670 bettermarks eine Bewertung gefunden für das System bettermarks von dem 109 00:08:29,670 --> 00:08:32,850 neurowissenschaftlichen Institut, das unter der Leitung von Manfred Spitzer 110 00:08:32,850 --> 00:08:37,380 steht, der ist den Freunden der digitalen Bildung vor allem dadurch bekannt, dass er 111 00:08:37,380 --> 00:08:41,310 viele Elemente der digitalen Bildung eigentlich eher verteufelt. Aber dort wird 112 00:08:41,310 --> 00:08:44,790 auf der Website natürlich dem System bettermarks bescheinigt, dass es einen total 113 00:08:44,790 --> 00:08:49,500 guten Lerneffekt hat. Wie gesagt, Forscher konnten das bisher noch nicht bestätigen. 114 00:08:49,500 --> 00:08:56,400 Wenn wir nun diese KI-Systeme mit all ihren Schwächen auf die Schulen ungebremst 115 00:08:56,400 --> 00:09:01,290 loslassen, dann kann das dazu führen, dass wir eigentlich anstatt dieser Entlastung 116 00:09:01,290 --> 00:09:06,450 eher Überforderung produzieren, dass wir Normierungen und Standardisierungen in 117 00:09:06,450 --> 00:09:10,020 Bereichen einführen, die vielleicht gar nicht ohne weiteres standardisierbar sind. 118 00:09:10,020 --> 00:09:15,240 Wir können Lehrkräfte in unangenehme Situationen bringen, wenn sie z.B. in 119 00:09:15,240 --> 00:09:18,750 einer Elternsprechstunde mit Eltern konfrontiert sind, die nicht nur die 120 00:09:18,750 --> 00:09:21,630 Methoden des Lehrers hinterfragen. Das machen sie ja jetzt schon häufig genug. 121 00:09:21,630 --> 00:09:25,020 Sondern dann vielleicht auch Bewertungssysteme hinterfragen und dann 122 00:09:25,020 --> 00:09:29,760 von Lehrkräften wissen wollen: Wie kommt denn dieses System zu dem Ergebnis oder zu 123 00:09:29,760 --> 00:09:33,120 dieser Bewertung meines Kindes? Und Lehrkräfte so was nicht einfach erklären 124 00:09:33,120 --> 00:09:40,260 können. Größtes Problem ist natürlich, dass alle Systeme, über die im Moment im 125 00:09:40,260 --> 00:09:43,680 Bildungssektor gesprochen wird, diese Learning Analytics Systeme und Tutor 126 00:09:43,680 --> 00:09:48,120 Systeme, dass die mit personenbezogenen Daten von ja größtenteils minderjährigen 127 00:09:48,120 --> 00:09:52,740 Schüler:innen arbeiten. D.h. da werden Datensammlungen angefertigt, es werden 128 00:09:52,740 --> 00:09:57,600 Datenprofile angefertigt und das alles unterwandert die informationelle 129 00:09:57,600 --> 00:10:03,990 Selbstbestimmung der Kinder. Selbst wenn Eltern dieser Verwendung natürlich 130 00:10:03,990 --> 00:10:07,770 zustimmen müssen, stellt sich ja auch noch die Frage: Wie gut sind die Eltern denn 131 00:10:07,770 --> 00:10:12,240 überhaupt informiert über all die Konsequenzen und die Folgen, die das hat? 132 00:10:12,240 --> 00:10:16,500 Inwieweit gibt es vielleicht auch einen gewissen sozialen Gruppenzwang in einem 133 00:10:16,500 --> 00:10:19,290 Klassenverband oder einer Schule sich anzuschließen, auch wenn man vielleicht 134 00:10:19,290 --> 00:10:22,950 als Eltern selber gar nicht genau weiß, was das dann eigentlich bedeutet? All das 135 00:10:22,950 --> 00:10:28,170 ist im Moment noch ein bisschen unklar. Und das sind genau diese Punkte, über die 136 00:10:28,170 --> 00:10:32,460 meiner Meinung nach im Moment noch viel zu wenig tatsächlich offen gesprochen wird. 137 00:10:32,460 --> 00:10:37,830 Was diese Schwäche tatsächlich in der Praxis für Probleme mit sich bringen 138 00:10:37,830 --> 00:10:43,250 können, sehen wir auch schon in ausländischen Anwendungen. Zum Glück muss 139 00:10:43,250 --> 00:10:47,240 man fast sagen, im Moment. Ich weiß ich, ob ihr das mitbekommen habt. Im Sommer gab 140 00:10:47,240 --> 00:10:52,520 es diese Problematik mit dem britischen System Ofqual. Genauso wie bei uns auch 141 00:10:52,520 --> 00:10:56,510 haben die Schulen unter der Pandemie gelitten und es konnten bestimmte 142 00:10:56,510 --> 00:11:02,420 Prüfungen zu Abschlüssen nicht richtig gut oder überhaupt nicht durchgeführt werden. 143 00:11:02,420 --> 00:11:05,840 D.h. Lehrkräfte wurden gebeten, doch aufgrund von ihren persönlichen 144 00:11:05,840 --> 00:11:10,640 Einschätzung dann die Schüler mit einer Abschlussnote zu versehen. Diese 145 00:11:10,640 --> 00:11:14,120 Abschlussnoten waren dann aber den Behörden offensichtlich zu gut, sodass sie 146 00:11:14,120 --> 00:11:17,330 nochmal einen Algorithmus eingesetzt haben, der das Ganze nachrechnen sollte. 147 00:11:17,330 --> 00:11:21,410 Das wiederum führte dazu, dass viele Noten wieder abgewertet worden und die Schüler 148 00:11:21,410 --> 00:11:24,560 sich verschlechtert haben. Dagegen sind dann natürlich die Schüler:innen wiederum auf 149 00:11:24,560 --> 00:11:28,520 die Straße gegangen und haben sich gewehrt, sodass am Ende doch wieder die 150 00:11:28,520 --> 00:11:32,990 Beurteilung der Lehrkräfte eingesetzt wurde. Zum Glück. Ein anderes Beispiel, 151 00:11:32,990 --> 00:11:36,590 von dem ich gelesen habe, ist das System Edgenuity. Ich weiß jetzt nicht wie das 152 00:11:36,590 --> 00:11:40,730 richtig betont ist. Dort hat eine Mutter festgestellt, dass die 153 00:11:40,730 --> 00:11:47,300 Textverarbeitungssysteme, die die Aufsätze ihres Kindes bewerten sollen, viel, viel 154 00:11:47,300 --> 00:11:51,740 schlechter bewerten als frühe die Aufsätze, die das Kind einfach ganz normal 155 00:11:51,740 --> 00:11:54,740 mit der Hand in der Schule geschrieben hat. Und dann ist in diesem System auf den 156 00:11:54,740 --> 00:12:00,110 Grund gegangen und hat festgestellt, dass das System vor allem bewertet anhand der 157 00:12:00,110 --> 00:12:04,400 Häufigkeit von bestimmten Stichwörtern. Und dann hat sie versucht, einfach mal so 158 00:12:04,400 --> 00:12:08,330 als Beispiel einfach nur mit Stichwortwolken so eine Aufsatzaufgabe zu 159 00:12:08,330 --> 00:12:14,090 erfüllen. Und tatsächlich wurden dieses Stichwortwolken besser bewertet als ein 160 00:12:14,090 --> 00:12:18,680 komplett zusammenhängender Text. Was natürlich, wenn man das System so weit 161 00:12:18,680 --> 00:12:22,820 einmal verstanden und geknackt hat, relativ leicht ist, solche Aufgaben zu 162 00:12:22,820 --> 00:12:26,510 bestehen, aber natürlich überhaupt gar keinen Bildungseffekt mehr mit sich 163 00:12:26,510 --> 00:12:32,660 bringt. Auch eher aus dem Hochschulbereich sind diese Testverfahren Proctorio und 164 00:12:32,660 --> 00:12:37,730 ExamSoft bekannt, sollen hier an dieser Stelle aber trotzdem angesprochen werden. 165 00:12:37,730 --> 00:12:41,300 Einfach um schon mal aufzuzeigen, welche Probleme damit einhergehen, bevor wir auf 166 00:12:41,300 --> 00:12:45,500 die Idee kommen, sie vielleicht auch an den Schulen einzusetzen. Diese Systeme 167 00:12:45,500 --> 00:12:51,730 arbeiten vor allem mit Kameraüberwachung, aber auch mit Geräuschanalysen und mit 168 00:12:51,730 --> 00:12:56,740 Bewegungsanalysen, um daraus Rückschlüsse zu ziehen, ob ein Prüfling gerade versucht 169 00:12:56,740 --> 00:13:02,440 zu täuschen. Und diese Systeme haben jetzt schon in der Praxis verschiedene Probleme 170 00:13:02,440 --> 00:13:06,490 aufgezeigt. Also das ganz typische Problem, was wir ja schon in anderen 171 00:13:06,490 --> 00:13:10,810 Kamerakontexten kennen bei People of Color. Sie werden dann von der Kamera 172 00:13:10,810 --> 00:13:16,000 nicht erkannt, werden dann gebeten noch zusätzliche Lichtquellen einzusetzen. Dann 173 00:13:16,000 --> 00:13:19,450 kann das tatsächlich dazu führen, dass Menschen diskriminiert werden, die in 174 00:13:19,450 --> 00:13:23,620 beengten Verhältnissen in einer WG wohnen oder vielleicht noch Kinder um sich haben, 175 00:13:23,620 --> 00:13:27,850 weil dann unbekannte Geräusche Quellen auftauchen, die ein System vielleicht als 176 00:13:27,850 --> 00:13:31,510 Täuschungsversuch oder als Unterstützerperson klassifizieren kann. 177 00:13:31,510 --> 00:13:37,600 Aber auch gesundheitlich beeinträchtigte Menschen sind zusätzlich belastet, einfach 178 00:13:37,600 --> 00:13:41,530 weil sie angeben müssen, dass sie vielleicht häufiger mal ins Bad müssen 179 00:13:41,530 --> 00:13:46,180 oder dass sie eine Insulinpumpe tragen, einfach damit das System von bestimmten 180 00:13:46,180 --> 00:13:50,560 Signalen also z.B. nicht irritiert ist. Also all das führt dazu, dass Menschen 181 00:13:50,560 --> 00:13:56,320 gezwungen werden, Dinge offenzulegen und vor allem diese Daten auch in Datenbanken 182 00:13:56,320 --> 00:13:59,290 mit erfasst werden, die eigentlich sehr persönlich und sehr privat sind und mit 183 00:13:59,290 --> 00:14:03,610 einem Prüfergebnisse überhaupt gar nichts zu tun haben. Hier in Deutschland kennen 184 00:14:03,610 --> 00:14:06,850 wir alle oder die meisten von euch wahrscheinlich diese Anwendung Duolingo 185 00:14:06,850 --> 00:14:12,010 zum Vokabel- oder zum Sprachtraining. Duolingo hat auch ein Englisch Test 186 00:14:12,010 --> 00:14:16,300 aufgelegt, der auch online absolviert werden kann und auch dort wird mit 187 00:14:16,300 --> 00:14:23,800 Kamerasystem gearbeitet und ich habe bei einer Forschung nachgelesen, dass 188 00:14:23,800 --> 00:14:27,400 Forschenden dann versucht haben, da auch mal auf den Grund zu gehen, ob Duolingo 189 00:14:27,400 --> 00:14:30,910 denn ausschließen kann, dass diese bekannten Systeme bei Duolingo nicht 190 00:14:30,910 --> 00:14:35,050 auftauchen. Also diese Diskriminierungen nicht passieren können oder auch z.B. 191 00:14:35,050 --> 00:14:39,760 Diskriminierung aufgrund von Akzenten nicht automatisch als fehlerhaft 192 00:14:39,760 --> 00:14:43,690 eingestuft werden. Und leider konnte zumindest zu dem Zeitpunkt der Befragung 193 00:14:43,690 --> 00:14:48,910 Duolingo diese Diskriminierung nicht ausschließen. Ein System, über das ich 194 00:14:48,910 --> 00:14:53,650 gestolpert bin bei meiner Recherche ist DyRiAS. Ich habe leider noch nicht 195 00:14:53,650 --> 00:14:58,480 herausgefunden, ob Schulen überhaupt damit arbeiten. Und wenn ja, wie viele. Wenn ihr 196 00:14:58,480 --> 00:15:01,900 was über dieses System und seine Anwendung wisst, bin ich für sachdienliche Hinweise 197 00:15:01,900 --> 00:15:06,580 total dankbar. Was ich darüber gelesen habe ist, dass DyRiAS ist ein 198 00:15:06,580 --> 00:15:12,970 Risikoanalysesystem, was unter anderem auch genutzt werden kann, um ein Risiko 199 00:15:12,970 --> 00:15:17,530 für häusliche Gewalt zu identifizieren. Es wird auch in der Schule angewendet, sodass 200 00:15:17,530 --> 00:15:22,840 Lehrkräfte nach einer Schulung und wenn sie eine Lizenz erworben haben, mit diesem 201 00:15:22,840 --> 00:15:28,450 System erkennen können, ob Schüler:innen demnächst vielleicht mal Amok laufen. Und 202 00:15:28,450 --> 00:15:35,050 dazu werden Kommunikationsverhalten und Verhaltensweisen analysiert. Wie genau das 203 00:15:35,050 --> 00:15:37,660 System funktioniert, wie gesagt, weiß ich im Detail nicht. Da werde ich aber 204 00:15:37,660 --> 00:15:42,130 sicherlich nochmal in Zukunft etwas tiefer einsteigen, um das zu verstehen. Weil mich 205 00:15:42,130 --> 00:15:47,440 das sehr irritiert. Im Ergebnis bekommen Lehrkräfte dann so einen farblichen 206 00:15:47,440 --> 00:15:52,780 Balken. Das ist also ein original Screenshot aus der Broschüre. Und 207 00:15:52,780 --> 00:15:56,860 vollkommen unklar ist für mich tatsächlich auch, was genau passiert oder wer Zugang 208 00:15:56,860 --> 00:16:00,700 zu diesen Daten hat. Wenn dann ein Kind tatsächlich immer weiter in diesen roten 209 00:16:00,700 --> 00:16:05,110 Bereich rutscht. Was heißt überhaupt roter Bereich und bedeutet das höchste Warnstufe 210 00:16:05,110 --> 00:16:11,470 oder bedeutet Stufe 5 schon, hier musst du eigentlich sofort die Polizei rufen. Dazu 211 00:16:11,470 --> 00:16:15,250 kommt noch, dass die Daten, die für dieses System erfasst werden, dass die 212 00:16:15,250 --> 00:16:21,910 browserbasiert, verarbeitet werden. Immerhin verschlüsselt. Weiteres halbwegs 213 00:16:21,910 --> 00:16:25,150 beruhigendes Signal ist, das DyRiAS in seiner Broschüre zumindest darauf 214 00:16:25,150 --> 00:16:29,800 hinweist, dass die Nutzung von gewaltorientierten Computerspielen oder 215 00:16:29,800 --> 00:16:33,520 auch das Tragen eines Irokesenschnitt zum Beispiel keine Indikatoren seien für eine 216 00:16:33,520 --> 00:16:37,030 erhöhte Gewaltbereitschaft. Aber wie gesagt, da werde ich mich auf jeden Fall 217 00:16:37,030 --> 00:16:40,930 nochmal weiter informieren wollen, wie dieses System genau in der Praxis 218 00:16:40,930 --> 00:16:46,450 arbeitet. Und letztendlich ist es auch mal sehr interessant zu wissen, was passiert 219 00:16:46,450 --> 00:16:50,440 dann eigentlich mit diesem Farbskalasystem. In der ganzen 220 00:16:50,440 --> 00:16:55,210 Beschäftigung mit KI in den letzten zwei Jahren hat sich bei uns im Fraktionsteam 221 00:16:55,210 --> 00:16:59,500 irgendwann mal diese Frage aufgedrängt, was es denn überhaupt mit den Menschen 222 00:16:59,500 --> 00:17:04,140 macht, die mit solchen KI-Systeme arbeiten. Und es wird immer so ein 223 00:17:04,140 --> 00:17:08,610 bisschen als beruhigendes, ja sozusagen als so eine Art Feigenblatt ganz oft 224 00:17:08,610 --> 00:17:13,320 erwähnt. Naja, am Ende die letzte Entscheidung trifft ja der Mensch. Aber 225 00:17:13,320 --> 00:17:16,800 was bedeutet das eigentlich? Weil für uns hat dann tatsächlich an der Stelle diese 226 00:17:16,800 --> 00:17:20,910 Debatte nicht aufgehört, sondern erst angefangen. Weil die Frage ist dann: 227 00:17:20,910 --> 00:17:25,740 Welche Verantwortung kann ein Mensch dann überhaupt für seine Entscheidung 228 00:17:25,740 --> 00:17:30,000 übernehmen und wenn er tatsächlich diese Entscheidung treffen soll, ist er 229 00:17:30,000 --> 00:17:32,610 überhaupt dazu befähigt, diese Entscheidung zu treffen? Einmal 230 00:17:32,610 --> 00:17:37,710 tatsächlich kognitiv - weiß er überhaupt, wie das System funktioniert? Kann er 231 00:17:37,710 --> 00:17:41,760 einschätzen, wenn eine Klassifizierung oder eine Entscheidungsvorbereitung 232 00:17:41,760 --> 00:17:45,780 vorgenommen oder vielleicht sogar eine Entscheidung getroffen wird? Kann er 233 00:17:45,780 --> 00:17:51,450 überhaupt erkennen, ob diese Entscheidung des Systems richtig ist in seinem Sinne 234 00:17:51,450 --> 00:17:55,620 oder ob er vielleicht sich dagegen entscheiden sollte? Und selbst wenn er 235 00:17:55,620 --> 00:17:59,910 sich entscheidet, sich dagegen zu entscheiden, ist er überhaupt dazu 236 00:17:59,910 --> 00:18:03,570 berechtigt aufgrund von seiner Rolle in der Organisation? Es gibt Organisationen, 237 00:18:03,570 --> 00:18:07,200 da wird es ja vielleicht durchaus erwartet, dass er eigenmächtig entscheidet 238 00:18:07,200 --> 00:18:10,260 und dann gibt es andere Organisationsformen, wo es genau von ihm 239 00:18:10,260 --> 00:18:14,340 erwartet wird, sich nicht eigenmächtig zu entscheiden. Das betrifft jetzt alles 240 00:18:14,340 --> 00:18:22,590 nicht nur den Bereich Bildung, sondern insgesamt soziale Kontexte im Einsatz von 241 00:18:22,590 --> 00:18:27,210 KI-Systemne. Eine grundsätzliche Frage, die wir uns stellen müssen in allen 242 00:18:27,210 --> 00:18:30,450 Anwendungssektoren ist: Wer entscheidet denn überhaupt besser der Mensch oder die 243 00:18:30,450 --> 00:18:34,770 Maschine? Und nach welchen Gütekriterien wird das entschieden? Im Bildungsbereich 244 00:18:34,770 --> 00:18:39,450 gibt es ja durchaus die Meinung, dass es heißt, lieber sollen Schüler von scheinbar 245 00:18:39,450 --> 00:18:44,370 neutralen Systemen bewertet werden als von vorurteilsbelasteten Menschen. Aber auch 246 00:18:44,370 --> 00:18:49,080 ein System ist natürlich niemals neutral. Und auch selbst wenn ein Mensch mit 247 00:18:49,080 --> 00:18:54,090 Vorurteilen belastet ist, hat er trotzdem nur einen relativ kleinen 248 00:18:54,090 --> 00:18:58,560 Entscheidungsspielraum. Wenn hingegen für Bewertungsverfahren Systeme eingesetzt 249 00:18:58,560 --> 00:19:02,010 werden, dann wirken sie direkt auf die ganze Schule oder im schlechtesten Fall 250 00:19:02,010 --> 00:19:07,350 vielleicht sogar für das ganze Land. Und auch wenn wir uns dafür entscheiden, dass 251 00:19:07,350 --> 00:19:12,630 Entscheidungen an Maschinen ausgelagert werden soll, um Schaden zu vermeiden, ist 252 00:19:12,630 --> 00:19:15,270 auch die Frage: Wodurch entsteht denn überhaupt ein Schaden? Entsteht ein 253 00:19:15,270 --> 00:19:20,550 Schaden durch ein richtig funktionierendes System, das dann aber langfristig 254 00:19:20,550 --> 00:19:26,160 gesellschaftliche Schäden mit sich bringt? Oder entsteht ein Schaden durch ein nicht 255 00:19:26,160 --> 00:19:31,050 gut funktionierendes System oder nicht wie erwartet funktionierendes System? Und 256 00:19:31,050 --> 00:19:35,340 entstehen Schäden eigentlich nur durch Tun oder entstehen Schäden auch durch 257 00:19:35,340 --> 00:19:40,260 Unterlassung? Das heißt bezogen auf diese Entscheidung: Wer entscheidet besser, 258 00:19:40,260 --> 00:19:44,430 Mensch oder Maschine? Müssen all diese Aspekte mit betrachtet werden. Und auch 259 00:19:44,430 --> 00:19:48,360 der Verzicht auf ein maschinelles System, das vielleicht irgendwann nachweislich 260 00:19:48,360 --> 00:19:54,600 einen positiven Effekt hat, kann tatsächlich zu einem Schaden führen. Wenn 261 00:19:54,600 --> 00:19:59,460 wir uns dann dafür entschieden haben, dass wir ein KI System ergänzend einsetzen wollen 262 00:19:59,460 --> 00:20:03,480 in einem bestimmten Anwendungssektor, dann muss als nächstes entschieden werden: Wie 263 00:20:03,480 --> 00:20:06,930 viel Entscheidungsspielraum soll der Mensch dann überhaupt noch haben, wenn es 264 00:20:06,930 --> 00:20:11,220 heißt: Am Schluss trifft der Mensch die letzte Entscheidung? Die Papiere von der 265 00:20:11,220 --> 00:20:15,600 EU-Kommission zum Beispiel gehen im Moment von drei verschiedenen Stufen aus. Human 266 00:20:15,600 --> 00:20:20,760 in Command, Human on Command und Human in the Loop. Aber es gibt schon aus der 267 00:20:20,760 --> 00:20:24,480 Informatik viel ältere Klassifizierungssysteme, die viel 268 00:20:24,480 --> 00:20:29,910 ausgefeilter sind, z.B. vom MIT aus den 1980er Jahren, die bis zu zehn Stufen 269 00:20:29,910 --> 00:20:34,890 unterscheiden, in denen verschiedene Autonomiegrade vom Menschen bis zur 270 00:20:34,890 --> 00:20:38,880 Maschine einmal durchlaufen werden, also von der vollständigen Autonomie für den 271 00:20:38,880 --> 00:20:43,920 Menschen bis hin zur vollständigen Autonomie durch die Maschine. Das heißt, 272 00:20:43,920 --> 00:20:49,140 da ist dieser, diese Aussage, die menschliche, die letzte Entscheidung 273 00:20:49,140 --> 00:20:53,790 trifft der Mensch ist noch so viel wahnsinnig vielen Fragen unterworfen und 274 00:20:53,790 --> 00:20:57,960 vor allem aber, finde halte ich das für die allerwichtigste Frage, genau diese 275 00:20:57,960 --> 00:21:00,930 Abstufungen, welchen Entscheidungsspielraum Mensch überhaupt 276 00:21:00,930 --> 00:21:04,770 hat, weil daraus leitet sich dann letztendlich auch ab, wie ein Mensch 277 00:21:04,770 --> 00:21:08,280 weitergebildet werden muss, mit diesem System überhaupt zu arbeiten und welche 278 00:21:08,280 --> 00:21:11,730 Vereinbarungen er vielleicht in seinem Arbeitsvertrag braucht, also welche Rechte 279 00:21:11,730 --> 00:21:14,700 er überhaupt hat, diesen Entscheidungsspielraum tatsächlich 280 00:21:14,700 --> 00:21:23,720 wahrzunehmen. So, selbst wenn er diesen Entscheidungsspielraum dann für sich 281 00:21:23,720 --> 00:21:27,080 festgelegt hat, dann ist auch noch die Frage: Wie viel Entscheidungsspielraum 282 00:21:27,080 --> 00:21:30,829 lässt das System dann tatsächlich zu? Es gibt in diesem ganzen Bereich Mensch- 283 00:21:30,829 --> 00:21:35,480 Maschine Interaktion derzeit noch sehr, sehr wenig Forschung. Aber die ersten 284 00:21:35,480 --> 00:21:40,460 Forschungen, die es schon gegeben hat, die zeigen zum Beispiel: Selbst wenn Menschen 285 00:21:40,460 --> 00:21:44,630 erkennen, dass das System gerade nicht optimal arbeitet und sie möchten gerne in 286 00:21:44,630 --> 00:21:48,350 das System eingreifen, um einen Fehler zu eliminieren oder eine Korrektur 287 00:21:48,350 --> 00:21:52,550 vorzunehmen und dann dabei feststellen, dass dieser Prozess so wahnsinnig 288 00:21:52,550 --> 00:21:56,180 aufwendig und kompliziert ist, dann neigen Menschen tatsächlich dazu, mit diesem 289 00:21:56,180 --> 00:22:00,590 fehlerhaften System trotz besseren Wissens weiterzuarbeiten. Und das ist halt etwas, 290 00:22:00,590 --> 00:22:06,200 was wir gerade in sozialen Kontexten und gerade in Bereichen, in denen KI-Systeme 291 00:22:06,200 --> 00:22:10,880 über das Leben oder Lebenswege von Menschen entscheiden, einfach ganz genau 292 00:22:10,880 --> 00:22:14,390 hinschauen sollten, was es denn eigentlich bedeutet, wenn der Mensch die letzte 293 00:22:14,390 --> 00:22:18,080 Entscheidung treffen soll. Denn am Ende kann es tatsächlich sein, dass der 294 00:22:18,080 --> 00:22:21,830 Entscheidungsspielraum, der dort angedeutet wird, mit dieser Aussage viel, 295 00:22:21,830 --> 00:22:25,100 viel kleiner ist als angenommen Handlungsspielräume geklärt sind. Und 296 00:22:25,100 --> 00:22:29,210 auch, weil wir von total optimal funktionierenden KI-System ausgehen. Dann 297 00:22:29,210 --> 00:22:32,390 ergeben sich immer noch Probleme auf der strukturellen Ebene, sodass wir auf lange 298 00:22:32,390 --> 00:22:35,930 Sicht einfach schauen müssen: Was macht das dann mit der Lernkultur, mit der 299 00:22:35,930 --> 00:22:40,640 Bildungskultur an Schulen? Das fängt an bei der Erhebung von den Daten, also der 300 00:22:40,640 --> 00:22:44,990 Datafisierung von Lernprozessen. Aber ich werde nicht müde, immer wieder zu 301 00:22:44,990 --> 00:22:48,380 wiederholen, dass wir immer noch mit personenbezogenen Daten von größtenteils 302 00:22:48,380 --> 00:22:52,580 minderjährigen Schüler:innen arbeiten und dass wir Kinder auch schon sehr, sehr früh 303 00:22:52,580 --> 00:22:56,180 daran gewöhnen, sich mit algorithmischen Klassifizierungs- und Bewertungsverfahren 304 00:22:56,180 --> 00:23:00,770 auseinanderzusetzen und sich vielleicht ihnen auch sogar zu unterwerfen, ohne dass 305 00:23:00,770 --> 00:23:05,150 sie sie aufgrund der Black-Box Problematik vielleicht nachvollziehen können. Nächste 306 00:23:05,150 --> 00:23:09,470 Problematik ist das Ding der Standardisierung, Operationalisierung von 307 00:23:09,470 --> 00:23:13,820 Daten. Welche Dinge werden dabei ausgelassen? Wer bestimmt, was der 308 00:23:13,820 --> 00:23:17,600 Standard ist? Wer bestimmt, was das normale ist? Inwieweit können diese 309 00:23:17,600 --> 00:23:21,140 Systeme überhaupt hinterfragt werden? Welche Qualitäts- und Fairness-Maße beim 310 00:23:21,140 --> 00:23:28,190 Training, welche Feedback an diese Systeme gegeben werden? In der Bildung gehört es 311 00:23:28,190 --> 00:23:31,310 letztendlich dazu, auch nicht standardisierte Wege zu gehen. Hetty, 312 00:23:31,310 --> 00:23:34,100 einer der renommiertesten Bildungsforscher, hat in seiner Studie 313 00:23:34,100 --> 00:23:38,780 Visible Learning unter anderem nochmal herausgestellt, dass es zum einen zum 314 00:23:38,780 --> 00:23:43,370 Bildungserfolg gehört und dass es auch mit Bildungserfolg beiträgt, wenn Schüler:innen 315 00:23:43,370 --> 00:23:48,200 befähigt werden, vorgegebene Lösungswege aufzubrechen oder auch ihre eigenen zu 316 00:23:48,200 --> 00:23:52,520 finden. Aber durch diese ganze Vereinzelung und durch die 317 00:23:52,520 --> 00:23:57,500 Standardisierung gehen halt einfach auch bestimmte Möglichkeiten im Lern-Spektrum 318 00:23:57,500 --> 00:24:02,930 verloren, sodass Schüler:innen gar nicht mit alternativen Möglichkeiten vielleicht 319 00:24:02,930 --> 00:24:06,980 mehr konfrontiert werden, um ihren Horizont zu erweitern. Die nächste 320 00:24:06,980 --> 00:24:12,380 Problematik ist das Scheitern. Wenn ich jetzt in einem normalen Klassenverbund 321 00:24:12,380 --> 00:24:15,740 vielleicht selber schon mal merke, ich komme hier an meine Grenzen oder ich komme 322 00:24:15,740 --> 00:24:19,190 mit der Aufgabenstellung nicht zurecht, dann ist das natürlich total frustrierend. 323 00:24:19,190 --> 00:24:22,580 Aber gleichzeitig gehört das auch mit zum Bildungsprozess und zur 324 00:24:22,580 --> 00:24:27,680 Persönlichkeitsentwicklung auch dazu, Grenzen zu erkennen, auch mit Misserfolgen 325 00:24:27,680 --> 00:24:31,520 umzugehen. Und wenn all dies ausbleibt, dann verschieben sich diese Grenzen 326 00:24:31,520 --> 00:24:37,820 einfach viel, viel weiter nach hinten, weil dann immer nur der Inhalt präsentiert 327 00:24:37,820 --> 00:24:44,570 wird, der geradezu meinem vom System errechneten Lernniveau passt und ich aber 328 00:24:44,570 --> 00:24:48,320 vielleicht gar nicht mehr dazu richtig gefordert werde, mich auch aber mit Dingen 329 00:24:48,320 --> 00:24:53,120 auseinanderzusetzen, die ich vielleicht noch gar nicht können kann, die mich aber 330 00:24:53,120 --> 00:24:57,020 vielleicht jetzt aktuell nochmal weiterbringen. Jetzt im Klassenverband 331 00:24:57,020 --> 00:24:59,930 gibt es zwar auch das Thema der Binnendifferenzierung, also dass es 332 00:24:59,930 --> 00:25:03,650 unterschiedliche Inhalte idealerweise für verschiedene Lernniveaus oder für 333 00:25:03,650 --> 00:25:08,390 verschiedene Lerntypen gibt. Aber in einem Klassenverband gibt es immer noch die 334 00:25:08,390 --> 00:25:13,340 Möglichkeit, das in Gruppenarbeiten z.B. zu organisieren, wo etwas schwächere 335 00:25:13,340 --> 00:25:16,580 Schüler mit etwas stärkeren Schülern zusammen an einer Lösung arbeiten können. 336 00:25:16,580 --> 00:25:21,200 Wenn wir auf individualisierte systembasierte Lernpfade gehen, dann 337 00:25:21,200 --> 00:25:25,280 sitzen im Prinzip die Schüler:innen dort alleine und das System entscheidet, was 338 00:25:25,280 --> 00:25:28,040 hier präsentiert wird und was nicht präsentiert wird. Da geht einfach sehr, 339 00:25:28,040 --> 00:25:32,300 sehr viel verloren. Das Spektrum verengt sich. Gleichzeitig kann es aber auch 340 00:25:32,300 --> 00:25:37,130 passieren, dass Lehrkräfte vielleicht noch mehr angegriffen werden, als sie es 341 00:25:37,130 --> 00:25:40,730 vielleicht jetzt schon werden von Eltern einfach in Frage gestellt werden. Ihre 342 00:25:40,730 --> 00:25:44,510 Entscheidungssysteme können mehr in Frage gestellt werden, weil Lehrkräfte 343 00:25:44,510 --> 00:25:49,130 vielleicht verlangen, dass ein System nochmal die Bewertung nachvollzieht, was 344 00:25:49,130 --> 00:25:52,220 letztendlich sehr demotivierend für Lehrkräfte sein kann, was Vertrauen 345 00:25:52,220 --> 00:25:56,000 unterwandern kann und letztendlich auch die Autorität von Lehrkräften wieder 346 00:25:56,000 --> 00:25:59,480 unterwandern kann. Wir haben sowieso schon ein großes Problem mit Lehrkräftemangel 347 00:25:59,480 --> 00:26:05,210 und die Frage ist, ob solche Entwicklungen Lehrkräfte oder angehende Lehrkräfte 348 00:26:05,210 --> 00:26:09,200 motiviert, diesen Beruf dann überhaupt noch zu ergreifen, wenn sie sich dann auch 349 00:26:09,200 --> 00:26:13,370 zukünftig immer mit technischen System messen müssen. Letztendlich aber 350 00:26:13,370 --> 00:26:17,870 wahrscheinlich das größte Problem: Was macht es mit der Ungleichheit? Also alle 351 00:26:17,870 --> 00:26:21,590 Bildungsberichte gehen im Prinzip immer wieder davon aus, dass wir 352 00:26:21,590 --> 00:26:24,740 Bildungsungleichheiten und Ungerechtigkeiten haben. Das ist eines der 353 00:26:24,740 --> 00:26:29,630 größten Probleme im Bildungssektor, das es tatsächlich gibt, und die Frage ist, 354 00:26:29,630 --> 00:26:36,800 inwieweit die der verstärkte Einsatz von KI-Systemen diese Ungleichheiten entweder 355 00:26:36,800 --> 00:26:41,270 aushebelt oder vielleicht sogar verstärken kann. Das kann auf der individuellen Ebene 356 00:26:41,270 --> 00:26:45,230 passieren, dass Schüler:innen, die sich vielleicht sehr gut selbst organisieren 357 00:26:45,230 --> 00:26:48,200 können und vielleicht sehr gut mit Systemen arbeiten können, dieses schneller 358 00:26:48,200 --> 00:26:52,220 verstehen, vielleicht auch schneller wissen, wie sie es umgehen können. Während 359 00:26:52,220 --> 00:26:57,050 vielleicht eher lernschwache Schüler sich dem System eher ausgeliefert fühlen und 360 00:26:57,050 --> 00:27:00,920 vielleicht eher demotiviert werden, sich dann nochmal Hilfe zu suchen oder 361 00:27:00,920 --> 00:27:04,160 vielleicht auch Lehrkräfte das gar nicht unbedingt erkennen können, dass 362 00:27:04,160 --> 00:27:06,980 Schüler:innen vielleicht überhaupt Schwierigkeiten haben, wenn sie diese 363 00:27:06,980 --> 00:27:11,720 Systeme zuhause anwenden oder vielleicht hinter einem Bildschirm verschwinden. Auf 364 00:27:11,720 --> 00:27:16,880 einer größeren Ebene kann der Einsatz von KI Systemen die Ungleichheit verschärfen, 365 00:27:16,880 --> 00:27:21,770 weil einfach die Frage ist: Werden sich dann zukünftig eher gut ausgestattete 366 00:27:21,770 --> 00:27:26,930 Schulen in reichen Bundesländern, in privilegierten Umfeldern KI-Systeme zur 367 00:27:26,930 --> 00:27:32,150 Unterstützung leisten können? Oder werden KI-Systeme eher eingesetzt werden können 368 00:27:32,150 --> 00:27:36,320 in weniger privilegierten Kontexten? Es gibt in den USA gab es jetzt die 369 00:27:36,320 --> 00:27:41,060 Gründungen von Rocketchip Schulen. Ich kann mir den Namen immer sehr schlecht 370 00:27:41,060 --> 00:27:47,510 merken. Rocketchip Public Schools heißen sie und dort sitzt dann im Prinzip nur 371 00:27:47,510 --> 00:27:50,960 noch eine Hilfslehrkraft, die dann bis zu 90 Schüler:innen an ihren 372 00:27:50,960 --> 00:27:58,685 Computerbildschirmen steuert, anleitet, irgendwie unterstützt, um einfach auch 373 00:27:58,685 --> 00:28:02,990 Stellen an gut ausgebildeten Lehrkräften einzusparen. Dort läuft es auf eine Art 374 00:28:02,990 --> 00:28:07,760 Massenabfertigung hin und die Forschung, die es da gegeben hat, hat jetzt zumindest 375 00:28:07,760 --> 00:28:12,650 letztes Jahr schon gezeigt, dass die Ergebnisse, die die Schüler:innen dort erzielen, 376 00:28:12,650 --> 00:28:16,760 bis zu einer Note schlechter sind als Schüler:innen, die in einem herkömmlichen 377 00:28:16,760 --> 00:28:21,170 Klassenverband mit vernünftig ausgebildeten Lehrkräften lernen. Wir 378 00:28:21,170 --> 00:28:25,280 kennen diese Diskussionen auch im Gesundheitsbereich, in der Pflege. Auch da 379 00:28:25,280 --> 00:28:29,660 wird diskutiert, ob Robotics Systeme in der Pflege eher ein System für die 380 00:28:29,660 --> 00:28:35,330 Privilegierten sind. Wer es sich leisten kann, holt sich einen Roboter dazu. Oder 381 00:28:35,330 --> 00:28:40,400 ob es auch da eher um eine Auslagerung an Technik geht, dass wir in weniger 382 00:28:40,400 --> 00:28:44,090 privilegierten Einrichtungen einfach von Maschinen betreut werden anstatt von 383 00:28:44,090 --> 00:28:47,570 Menschen. Also da kann der Bildungssektor sich vielleicht ganz gut am 384 00:28:47,570 --> 00:28:51,920 Gesundheitssektor orientieren und diese Debatte dort mal verfolgen, in welche 385 00:28:51,920 --> 00:28:59,090 Richtung das geht. All diese Schwächen und Risiken zusammengenommen frage ich mich 386 00:28:59,090 --> 00:29:07,490 tatsächlich, ob das Werben für KI-Systeme an Schulen oder auch teilweise der Druck, 387 00:29:07,490 --> 00:29:10,940 der da gemacht wird, dass das eigentlich totale super Sache ist. Ob das nicht 388 00:29:10,940 --> 00:29:15,530 letztendlich einfach nur gemacht wird, um die eigentlichen Probleme im Schulsystem 389 00:29:15,530 --> 00:29:19,700 zu verschleiern. Denn eigentlich haben wir es mit einer großen Mangelfinanzierung zu 390 00:29:19,700 --> 00:29:23,630 tun. Wir haben zu große Klassen, wir haben zu wenig Lehrkräfte, wir haben einen 391 00:29:23,630 --> 00:29:27,990 wahnsinnigen Sanierungsstau. Und wenn gleichzeitig dann aber von Regierungen 392 00:29:27,990 --> 00:29:32,990 mitempfohlen wird, dass wir doch KI- Systeme und Learning Analytics einsetzen, 393 00:29:32,990 --> 00:29:35,930 weil dadurch die Lehrkräfte entlastet werden und sich dann besser um die 394 00:29:35,930 --> 00:29:40,730 Schüler:innen kümmern sollen. Wobei wir eigentlich gar keine Evidenz dafür haben, 395 00:29:40,730 --> 00:29:44,660 dass das tatsächlich so funktioniert und so klappt. Dann habe ich einfach zunehmend 396 00:29:44,660 --> 00:29:48,530 das Gefühl, dass genau diese Mangelwirtschaft einfach aufrechterhalten 397 00:29:48,530 --> 00:29:51,500 werden soll und dadurch verschleiert werden soll, dass wir mal wieder 398 00:29:51,500 --> 00:29:55,850 versuchen, soziale Probleme mit Technik zu lösen. Und das ist etwas, wo wir meiner 399 00:29:55,850 --> 00:30:00,140 Meinung nach genau jetzt an diesem Punkt sind, diese Diskussion zu führen und diese 400 00:30:00,140 --> 00:30:04,220 Entwicklung zu verhindern, weil diejenigen, die letztendlich darunter 401 00:30:04,220 --> 00:30:08,990 leiden, sind neben den Lehrkräften, die am Ende nämlich nur scheinbar entlastet 402 00:30:08,990 --> 00:30:13,460 werden, vor allem die Schülerinnen und Schüler, deren Daten jetzt einfach erhoben 403 00:30:13,460 --> 00:30:16,310 werden und verarbeitet werden sollen und wir gar nicht wissen, was daraus am Ende 404 00:30:16,310 --> 00:30:23,540 wird. So bedeutet das jetzt aber, dass KI- Systeme im Bildungssektor und in der 405 00:30:23,540 --> 00:30:26,630 Schule gar nichts verloren haben. So weit würde ich gar nicht gehen, sondern ich 406 00:30:26,630 --> 00:30:30,410 möchte gerne in Zukunft unterscheiden, auf welchen Ebenen wir KI-Systeme im 407 00:30:30,410 --> 00:30:34,010 Bildungssektor einsetzen. Wir haben jetzt bisher immer so ein bisschen betrachtet, 408 00:30:34,010 --> 00:30:38,630 was auf der Mikroebene passiert, also wo personenbezogene Daten von Schüler:innen 409 00:30:38,630 --> 00:30:42,590 oder von Lehrkräften analysiert und verarbeitet werden. Es gibt aber auch noch 410 00:30:42,590 --> 00:30:47,510 die Meso und Makroebene im Bildungssystem. Auf der Mesoebene reden wir von dem Zugang 411 00:30:47,510 --> 00:30:53,270 zu Lernorten oder auch zu Lerninhalten und die Makroebene betrachtet tatsächlich die 412 00:30:53,270 --> 00:30:57,050 übergreifende Steuerung von Bildungssysteme, wo sich z.B. auch die 413 00:30:57,050 --> 00:31:02,420 Problematik der Ungerechtigkeit lösen lassen müsste. Auf der Meso- und auf der 414 00:31:02,420 --> 00:31:07,340 Makroebene gibt es tatsächlich dann die Möglichkeit mit Open Data zu arbeiten und 415 00:31:07,340 --> 00:31:12,560 nicht mit personenbezogenen Daten, um halt diese bestimmten oder diese konkreten 416 00:31:12,560 --> 00:31:16,280 Probleme mit anzugehen. Und ich möchte jetzt im Folgenden eigentlich mal 417 00:31:16,280 --> 00:31:19,910 vorstellen, welche Beispiele es dafür jetzt schon gibt oder welche es geben 418 00:31:19,910 --> 00:31:29,930 könnte, damit es nicht so als Behauptung im leeren Raum steht. Also nochmal zurück 419 00:31:29,930 --> 00:31:35,510 auf die Mikroebene gegangen, gibt es dort auch durchaus Möglichkeiten, mit Systemen 420 00:31:35,510 --> 00:31:40,850 zu arbeiten, die nicht unbedingt die personenbezogenen Daten von Schülerinnen 421 00:31:40,850 --> 00:31:43,940 und Schülern verarbeiten. Das ist zum einen die Möglichkeit: Es gibt ein System, 422 00:31:43,940 --> 00:31:50,150 dass Lehrkräfte neue Methoden zum Beispiel anhand einer KI trainieren können und 423 00:31:50,150 --> 00:31:55,070 aufgrund des Feedbacks der KI dann sehen können, wo Verständnisschwächen entstehen, 424 00:31:55,070 --> 00:31:59,210 sodass sie dann ihre Methoden und ihre Erklärweisen nochmal anpassen können, 425 00:31:59,210 --> 00:32:02,870 bevor sie damit konkret in die Klasse gehen. Dann gibt es natürlich diesen 426 00:32:02,870 --> 00:32:08,960 ganzen Bereich der Administration, Vertretungspläne, Stundenpläne oder auch 427 00:32:08,960 --> 00:32:13,550 Postverwaltung. Da gibt es ja schon einige Beispiele, auch aus Behörden, wie sowas 428 00:32:13,550 --> 00:32:18,470 eingesetzt werden kann mit ganz, ganz unkritischen Anwendungsbereichen und 429 00:32:18,470 --> 00:32:24,650 keinen großen personenbezogenen Daten, die dafür nötig sind. Was auch total günstig 430 00:32:24,650 --> 00:32:30,200 ist, ist natürlich alles, was dazu beiträgt, das System KI zu verstehen. Also 431 00:32:30,200 --> 00:32:35,060 selbst wenn ich Anwendungen durchaus in gewissen Bereichen hier intensiv in Frage 432 00:32:35,060 --> 00:32:39,410 stellen möchte, ist zu keinem Zeitpunkt in Frage zu stellen, dass natürlich 433 00:32:39,410 --> 00:32:43,970 verstanden und gelernt werden muss, wie algorithmische und KI-Systeme 434 00:32:43,970 --> 00:32:49,136 funktionieren und was man mit ihnen machen kann. Das heißt, als Unterstützung für 435 00:32:49,136 --> 00:32:53,780 Lernmethoden oder auch um Experimente durchzuführen, ist es auch für Schüler 436 00:32:53,780 --> 00:32:58,280 durchaus geeignet. Es gab mal diesen Wettbewerb. Ich weiß nicht, ob der jedes 437 00:32:58,280 --> 00:33:02,330 Jahr stattfindet, zur KI Schule des Jahres. Dort haben jugendliche 438 00:33:02,330 --> 00:33:05,360 Schüler:innen unter anderem ein System entwickelt, um Zugverspätung 439 00:33:05,360 --> 00:33:11,480 vorherzusagen, also sehr anwendungsnah und sehr sinnvoll für viele von uns. Und auch 440 00:33:11,480 --> 00:33:16,610 Methoden der Textanalyse oder Datenbank- Analysen. Auch die können Schülern 441 00:33:16,610 --> 00:33:20,390 durchaus zugutekommen, sodass sie sie als Werkzeuge für das eigene Lernen benutzen 442 00:33:20,390 --> 00:33:24,740 und dabei aber weniger Schüler:innen Werkzeuge für das KI-System darstellen 443 00:33:24,740 --> 00:33:31,100 müssen. Auf der Meso-Ebene habe ich tatsächlich im Moment sehr, sehr wenig 444 00:33:31,100 --> 00:33:35,510 Anwendungsbeispiele gefunden, was da gemacht werden kann. Also eine Sache, die 445 00:33:35,510 --> 00:33:41,060 mich inspiriert hat, ist das Ergebnis eines EDU Hacks. Dort hat eine Gruppe eine 446 00:33:41,060 --> 00:33:46,250 Open Source Bibliothek entwickelt und sowas kann ich mir sehr sehr gut auch 447 00:33:46,250 --> 00:33:51,140 tatsächlich für Deutschland vorstellen, dass wir, wir haben ja diese Problematik, 448 00:33:51,140 --> 00:33:55,520 Lehrkräfte von euch werden das kennen, ich hab das jetzt auch schon oft gehört, dass 449 00:33:55,520 --> 00:34:00,050 Lehrkräfte immer auf der Suche sind. Wo finde ich denn gute OER Materialien? Woher 450 00:34:00,050 --> 00:34:02,630 weiß ich dann, dass die gut sind oder nicht? Woher weiß ich, ob die zu meinem 451 00:34:02,630 --> 00:34:05,690 Unterricht passen? Es ist alles so weit verstreut. Ich weiß gar nicht, wo ich das 452 00:34:05,690 --> 00:34:10,640 ganze gute Zeug finden soll. Sowas alles in eine Datenbank zu packen und dann mit 453 00:34:10,640 --> 00:34:14,360 KI-Systeme durchsuchbar zu machen und vielleicht auch so durchsuchbar zu machen, 454 00:34:14,360 --> 00:34:19,100 dass Lehrkräfte schnell dort auch wissen, wie komme ich dann an genau die 455 00:34:19,100 --> 00:34:22,070 Ergebnisse, die ich gerade für meinen Unterricht gebrauchen kann. Könnte ein 456 00:34:22,070 --> 00:34:27,110 Anwendungsbeispiel sein. Die OER-Strategie der Bundesregierung ist ja jetzt 457 00:34:27,110 --> 00:34:32,990 ausgelaufen. Wird gerade neu entwickelt. Kommt im nächsten Jahr. Und wir wissen 458 00:34:32,990 --> 00:34:36,560 leider noch nicht, was drin steht. Aber es bleibt einfach zu hoffen, dass eine 459 00:34:36,560 --> 00:34:41,420 Zentralisierung oder zumindest eine bessere Auffindbarkeit von OER-Inhalten 460 00:34:41,420 --> 00:34:47,660 dort mitgedacht wird. Das Thema Inklusion- Integration hatten wir schon angesprochen. 461 00:34:47,660 --> 00:34:52,130 Auch da sehe ich bei KI, wenn man diese ganzen Problematiken bei der 462 00:34:52,130 --> 00:34:57,950 Spracherkennung und Übersetzung ausgehebelt sind, wenn die ausgehebelt 463 00:34:57,950 --> 00:35:01,940 sind, dass wir dort auch noch viele Potenziale haben, die es zu heben gilt, um 464 00:35:01,940 --> 00:35:06,860 Inklusion und Integration einfach einfacher zu machen. Und was ich auch sehe 465 00:35:06,860 --> 00:35:14,090 ist im Kontext autonomes Fahren oder auch Verkehrsleitsysteme, das ganze Thema 466 00:35:14,090 --> 00:35:18,200 Schultransporte, sei es jahreszeitenbedingt oder vielleicht auch 467 00:35:18,200 --> 00:35:23,240 im ländlichen Raum und vor allem aber auch mit Blick auf Förderschulen oder inklusive 468 00:35:23,240 --> 00:35:28,280 Schulen. KI-Systeme können sicherlich dabei unterstützen, den Transport gut zu 469 00:35:28,280 --> 00:35:32,480 organisieren und effizient zu organisieren. Und wir werden es ja 470 00:35:32,480 --> 00:35:36,980 mindestens im nächsten Jahr auch noch mit dieser Pandemie zu tun haben. Und gerade 471 00:35:36,980 --> 00:35:41,450 inklusive Schulen oder Förderschulen haben bei diesem ganzen Transport Thema 472 00:35:41,450 --> 00:35:49,010 tatsächlich ein großes Problem, weil dort die Zusammenkunft von Schüler:innen in so 473 00:35:49,010 --> 00:35:54,140 einem Schulbus oder in so einem Transport Bus hin zur Schule für Menschen oder 474 00:35:54,140 --> 00:35:57,770 Schüler:innen mit Behinderung einfach noch ein viel, viel größeres Risiko darstellen, 475 00:35:57,770 --> 00:36:02,870 als es für gesunde Schüler:innen ist. Also Menschen mit Behinderung gehören zur 476 00:36:02,870 --> 00:36:10,500 Risikogruppe Nummer eins. Zu weiteren Potenzialen auf der Makroebene. Dort gibt 477 00:36:10,500 --> 00:36:13,860 es tatsächlich schon konkrete Anwendungsfälle, die uns für Deutschland 478 00:36:13,860 --> 00:36:18,990 auch ein Vorbild sein könnten. Also sowohl die Schweiz als auch Belgien haben zum 479 00:36:18,990 --> 00:36:22,470 Beispiel Systeme entwickelt, um die Durchmischung, die soziale Durchmischung 480 00:36:22,470 --> 00:36:28,050 an Schulen zu optimieren. Dass in etwas wohlhabenderen Stadtvierteln nicht nur 481 00:36:28,050 --> 00:36:31,980 privilegierte Schüleri:nnen sind und die weniger Privilegierten dann halt in 482 00:36:31,980 --> 00:36:36,180 Problemschulen landen, sondern dass dort einfach nochmal neu berechnet wird, wie 483 00:36:36,180 --> 00:36:39,630 eine bessere Durchmischung stattfinden kann. Das wurde in der Schweiz zum 484 00:36:39,630 --> 00:36:45,180 Beispiel so gemacht, dass die die Straßenzüge neu berechnet werden, wie 485 00:36:45,180 --> 00:36:49,650 Wohngebiete bestimmten Schulen zugeteilt werden. Das unter der Maßgabe, dass die 486 00:36:49,650 --> 00:36:53,340 Schulwege sicher sein müssen und dass sie nicht länger sein sollen als bisher 487 00:36:53,340 --> 00:36:57,900 gehabt. Und das hat im ersten Versuch tatsächlich so gut funktioniert, dass 488 00:36:57,900 --> 00:37:02,820 jetzt mehrere Kantone versuchen wollen, dieses System zu übernehmen. In Belgien 489 00:37:02,820 --> 00:37:07,050 hat es ein ähnliches Projekt gegeben. Dort wird jetzt im Moment das System aber 490 00:37:07,050 --> 00:37:12,870 nochmal überarbeitet, weil dort Eltern sich beschwert haben, dass dass sie ihre 491 00:37:12,870 --> 00:37:17,700 Kinder nicht mehr auf Schulen schicken oder gehen lassen können, die zum Beispiel 492 00:37:17,700 --> 00:37:20,760 bestimmte Schwerpunkte haben. Dann gibt es dann eine Schule, die hat eine 493 00:37:20,760 --> 00:37:25,320 Spezialisierung auf den musischen Bereich oder auf den sportlichen Bereich. Und dort 494 00:37:25,320 --> 00:37:28,680 wird das System jetzt so überarbeitet, dass die Schulen dort auch Faktoren 495 00:37:28,680 --> 00:37:32,820 gewichten können, sodass es dort zusätzlich zu der besseren sozialen 496 00:37:32,820 --> 00:37:36,660 Durchmischung auch die Möglichkeit gibt, noch bestimmte Schwerpunkte zu setzen. 497 00:37:36,660 --> 00:37:43,590 Auch wieder in UK gibt es ein System, dass es Behörden erleichtern soll, 498 00:37:43,590 --> 00:37:48,180 Schulinspektionen vorzunehmen. Das heißt, dort wird aufgrund von bestimmten 499 00:37:48,180 --> 00:37:52,620 Indikatoren rechtzeitig prognostiziert, welcher Schule vielleicht nochmal eine 500 00:37:52,620 --> 00:37:56,610 Inspektion oder ein Besuch durch die Behörde bedarf, um bestimmte Entwicklungen 501 00:37:56,610 --> 00:38:01,560 vielleicht rechtzeitig zu stoppen. Und auch in England, das fand ich ganz gut, 502 00:38:01,560 --> 00:38:07,470 gibt es ein, gibt es die NGO Nesta, die einige von euch vielleicht kennen. Und die 503 00:38:07,470 --> 00:38:12,450 haben ein eigenes Papier entwickelt, das genau auf das abzielt, was ich hier auch 504 00:38:12,450 --> 00:38:16,650 vorstellen möchte. Nämlich wenn wir KI im Bildungssektor schon einsetzen wollen, 505 00:38:16,650 --> 00:38:20,490 dann sollten wir uns auf die strukturellen Probleme konzentrieren. Oder wenn wir 506 00:38:20,490 --> 00:38:23,580 schon auf der Mikroebene arbeiten, dann sollten wir uns auf Systeme konzentrieren, 507 00:38:23,580 --> 00:38:28,320 die mit den Daten von Lehrkräften arbeiten und Lehrkräfte bei ihrer Arbeit 508 00:38:28,320 --> 00:38:32,130 unterstützen. Zumindest jetzt in einem ersten Schritt, wenn die KI-Systeme noch 509 00:38:32,130 --> 00:38:37,470 nicht so gut und so weiterentwickelt sind, wie wir sie vielleicht gerne hätten. Diese 510 00:38:37,470 --> 00:38:42,870 Systeme können tatsächlich schon Vorbild sein, auch für Deutschland. Und wovon ich 511 00:38:42,870 --> 00:38:46,470 in Deutschland auch ein bisschen träume und woran wir gerade politisch arbeiten, 512 00:38:46,470 --> 00:38:51,030 ist dieser leidige Königsteiner Schlüssel zum Beispiel. Der Königsteiner Schlüssel 513 00:38:51,030 --> 00:38:55,560 verteilt im Moment Fördergelder nach Bevölkerungsdichte und nach 514 00:38:55,560 --> 00:38:59,280 Steueraufkommen. Da funktioniert das ganz klassisch jetzt im Moment nach dem 515 00:38:59,280 --> 00:39:02,490 Matthäus Prinzip. Wer hat, dem wird gegeben. Reiche Länder bekommen den 516 00:39:02,490 --> 00:39:06,990 höheren Anteil an Fördergeldern und die etwas ärmeren Länder bekommen halt nicht 517 00:39:06,990 --> 00:39:11,550 so viel. Dabei sollte es doch eigentlich genau umgekehrt sein. Und wenn es 518 00:39:11,550 --> 00:39:19,950 tatsächlich möglich wäre, mit einem KI- System auf Basis von noch mehr oder 519 00:39:19,950 --> 00:39:24,630 anderen Daten zu ermitteln, welcher Förderzweck genau welche Förderhöhe 520 00:39:24,630 --> 00:39:29,580 brauch, dann wäre es doch vielleicht sogar möglich, dass wir je nach Förderzweck 521 00:39:29,580 --> 00:39:34,410 jedes Mal diesen Verteilungsschlüssel neu errechnen. Also wenn es dort Möglichkeiten 522 00:39:34,410 --> 00:39:38,160 gibt oder wenn es dort Ansätze gibt sowas zu entwickeln, bitte ich um 523 00:39:38,160 --> 00:39:42,360 Kontaktaufnahme. Das würde mich sehr sehr interessieren. Selbstverständlich würde 524 00:39:42,360 --> 00:39:46,560 das voraussetzen, dass von den Schulen, Schulträgern und auch Schulbehörden 525 00:39:46,560 --> 00:39:51,810 nochmal ganz andere Daten auch erhoben und erfasst werden. Es gibt aber auch bereits 526 00:39:51,810 --> 00:39:56,970 Bildungsdatenbank. Es gibt die Forschungsdatenbank Bildung, wo jetzt im 527 00:39:56,970 --> 00:40:00,720 Moment schon Bildungsstudien eingestellt sind, also die Infrastruktur letztendlich 528 00:40:00,720 --> 00:40:05,220 wäre für sowas vorhanden. Es müsste sich vielleicht nur etwas in der Kultur ändern, 529 00:40:05,220 --> 00:40:12,090 damit Schulen auch bereit sind oder damit überhaupt auch Länder und Behörden dort 530 00:40:12,090 --> 00:40:17,730 anfangen bestimmte Daten zu erheben, um dann halt auch die strukturellen Systeme 531 00:40:17,730 --> 00:40:25,380 auflösen zu können. So, welche Anforderungen brauchen wir letztendlich, 532 00:40:25,380 --> 00:40:30,600 um auf dieser Makroebene an die strukturellen Probleme heranzugehen? Dort 533 00:40:30,600 --> 00:40:33,690 würde ich gerne unterscheiden, ein bisschen was können Menschen auf der 534 00:40:33,690 --> 00:40:37,950 persönlichen Ebene tun? Was muss auf der Organisationsebene passieren und vor 535 00:40:37,950 --> 00:40:41,490 allem was braucht es noch auf der rechtlichen Ebene? Im Moment wird ja ganz, 536 00:40:41,490 --> 00:40:45,360 ganz viel immer davon geredet. Lehrkräfte müssen sich fortbilden, damit sie mit 537 00:40:45,360 --> 00:40:50,700 diesem System arbeiten können. Ja, das ist aber auch nur ein Teil, der getan werden 538 00:40:50,700 --> 00:40:55,020 muss. Und Teil dieser Fortbildung ist natürlich nicht nur, dass es darum geht, 539 00:40:55,020 --> 00:40:59,040 wie diese Systeme angewendet werden, sondern es braucht ein tiefes Verständnis 540 00:40:59,040 --> 00:41:04,410 einfach von KI als soziotechnisches System. Und es braucht das schöne 541 00:41:04,410 --> 00:41:10,680 Stichwort Data Literacy. Das heißt, ein Verständnis dafür zu entwickeln, was Daten 542 00:41:10,680 --> 00:41:16,560 überhaupt aussagen und aber vor allem anderen eigentlich braucht es auf der ganz 543 00:41:16,560 --> 00:41:20,640 individuellen Ebene immer noch ganz viel Fortbildung, was überhaupt das Thema 544 00:41:20,640 --> 00:41:26,220 Digitalisierung betrifft und auch der damit verbundene Kulturwandel. Überhaupt, 545 00:41:26,220 --> 00:41:32,670 sich zu öffnen, um Informationen oder auch Inhalte zu teilen, um eine gewisse 546 00:41:32,670 --> 00:41:37,170 Fehlerkultur zu entwickeln. All das ist ja gerade noch im Umbruch. Und wenn wir jetzt 547 00:41:37,170 --> 00:41:40,680 davon reden, dass wir KI-Systeme an den Schulen wollen oder dass es gefördert 548 00:41:40,680 --> 00:41:44,820 werden soll, dann habe ich manchmal das Gefühl, wir wollen einem Kind, das gerade 549 00:41:44,820 --> 00:41:48,750 das Fahrradfahren gelernt hat, wollen wir jetzt in einen Rennwagen setzen, weil es 550 00:41:48,750 --> 00:41:52,560 damit ja noch sicherer zur Schule kommt. Das passiert alles in einem sehr, sehr 551 00:41:52,560 --> 00:41:57,900 großen Tempo, das nicht damit erledigt werden sollte, dass wir uns einfach nur 552 00:41:57,900 --> 00:42:01,250 darauf zurücklehnen und sagen, Lehrkräfte müssen sich weiterbilden und dann können 553 00:42:01,250 --> 00:42:04,860 sie auch KI-Systeme in der Schule einsetzen. Die Eltern habe ich jetzt 554 00:42:04,860 --> 00:42:07,950 nochmal in Klammern gesetzt. Davon ausgehend, dass wir es vielleicht wirklich 555 00:42:07,950 --> 00:42:11,370 schaffen, unsere Forschungs- und Entwicklungsschwerpunkte mehr auf die 556 00:42:11,370 --> 00:42:15,540 Makro und auf die Meso Ebene zu legen und weniger auf die Schüler basierten Systeme. 557 00:42:15,540 --> 00:42:20,460 auf der Organisationsebene, also dort wo entschieden wird. Letztendlich kommt ein 558 00:42:20,460 --> 00:42:25,290 KI System zum Einsatz - Ja oder nein. Das ist die Schulleitung oder das Schulträger 559 00:42:25,290 --> 00:42:30,150 oder vielleicht auch Bundesländer. Muss natürlich als allererstes mal hinterfragt 560 00:42:30,150 --> 00:42:33,660 werden. Wozu brauche ich das System? Ich habe es eben schon angesprochen. Wenn wir 561 00:42:33,660 --> 00:42:37,150 ein soziales Problem an der Schule feststellen, ist ein technisches System 562 00:42:37,150 --> 00:42:41,500 tatsächlich dafür die Lösung? Oder sollten wir vielleicht eher auf der sozialen Ebene 563 00:42:41,500 --> 00:42:45,640 nochmal schauen, was wir vielleicht an unseren Lernzielen oder an unseren 564 00:42:45,640 --> 00:42:49,210 Methoden oder an unserer Organisationskultur verändern müssen? 565 00:42:49,210 --> 00:42:53,680 Selbst wenn wir uns entscheiden für ein technisches System, dann muss natürlich 566 00:42:53,680 --> 00:42:57,910 entsprechend die Infrastruktur gegeben sein. Das heißt, die Frage ist: Wo werden 567 00:42:57,910 --> 00:43:01,990 Daten, mit denen gearbeitet wird? Wo werden sie gespeichert? Sind sie dort 568 00:43:01,990 --> 00:43:05,920 überhaupt sicher genug? Haben wir überhaupt WLAN an den Schule, damit dort 569 00:43:05,920 --> 00:43:10,240 vor Ort gearbeitet werden kann? All diese Fragen. Natürlich braucht es auch auf der 570 00:43:10,240 --> 00:43:14,440 Entscheidungsebene Kompetenzen. Es braucht den Kulturwandel und überhaupt erst einmal 571 00:43:14,440 --> 00:43:19,750 die Grundlagen der Digitalisierung, bevor wir mit KI die nächsten Stufe gehen. Wir 572 00:43:19,750 --> 00:43:23,950 brauchen die Regelung zur menschlichen Entscheidungsfähigkeit tatsächlich auch in 573 00:43:23,950 --> 00:43:29,980 den Arbeitsverträgen und wie auch in anderen Verwaltungsbereichen auch sollte 574 00:43:29,980 --> 00:43:33,820 es auch im Bildungsbereich einfach ganz klare Beschaffungsrichtlinien geben. Wenn 575 00:43:33,820 --> 00:43:38,920 Systeme angeschafft werden, dann braucht es ganz klare Anforderungskataloge, wie 576 00:43:38,920 --> 00:43:44,860 diese Systeme gestaltet werden sollen. Und natürlich muss sich dann auch der Bund 577 00:43:44,860 --> 00:43:50,410 entscheiden, Förderungen in die richtige Richtung zu schicken und diese Systeme zu 578 00:43:50,410 --> 00:43:54,910 fördern und zu unterstützen, die sich auf die Meso- und Makroebene fokussieren und 579 00:43:54,910 --> 00:44:02,050 nicht die Attack Startups, die versuchen, das Lernerlebnis für Schüler zu 580 00:44:02,050 --> 00:44:06,250 verbessern, obwohl es dafür keine Evidenz gibt, werde ich auch nicht müde, das immer 581 00:44:06,250 --> 00:44:11,200 wieder zu wiederholen. Und dann haben wir natürlich auf der rechtlichen Ebene noch 582 00:44:11,200 --> 00:44:14,800 viele offene Fragen, die KI-Systeme im Allgemeinen betreffen und gar nicht 583 00:44:14,800 --> 00:44:19,360 unbedingt nur auf den Bildungssektor Anwendung finden. Und das ist einmal die 584 00:44:19,360 --> 00:44:24,070 Problematik der Nachvollziehbarkeit. Also solange KI-Systeme an sich selber nicht 585 00:44:24,070 --> 00:44:27,700 nachvollziehbar sind, müssen zumindest Schnittstellen geschaffen werden, dass 586 00:44:27,700 --> 00:44:32,980 Evualator:innen oder Forscher:innen zumindest reingucken können, was das 587 00:44:32,980 --> 00:44:38,020 System überhaupt macht. Wir brauchen eine Nachweisbarkeit, dass diese Systeme 588 00:44:38,020 --> 00:44:42,790 funktionieren, erst recht, wenn wir mit Schüler:innen an Daten arbeiten wollen. Und 589 00:44:42,790 --> 00:44:48,340 wir brauchen eine Kritikalität ex ante. Wir reden hier vom Bildungssektor. Dort 590 00:44:48,340 --> 00:44:52,300 werden Lebenswege vorbestimmt. Das ist nicht der Raum, um Experimente zu machen 591 00:44:52,300 --> 00:44:56,590 und mal Systeme loszulassen, laufen zu lassen und dann mal zu gucken, welche 592 00:44:56,590 --> 00:45:01,000 Probleme sie eventuell entwickeln. Wir haben aus dem Ausland jetzt schon genügend 593 00:45:01,000 --> 00:45:04,870 Beispiele, was nicht gut funktioniert. Ich wäre kein Fan davon, wenn wir das Ganze 594 00:45:04,870 --> 00:45:09,790 hier in Deutschland nochmal wiederholen wollen. Eigentlich nicht nötig, das zu 595 00:45:09,790 --> 00:45:12,190 sagen, aber es braucht letztendlich auch eine rechtlich bindende 596 00:45:12,190 --> 00:45:17,470 Anbieterstabilität. Es gab tatsächlich, ich glaube auch in den USA, das System 597 00:45:17,470 --> 00:45:21,760 inBlue. Das wurde überall ausgerollt und eingesetzt. Und dann irgendwann hat der 598 00:45:21,760 --> 00:45:25,390 Anbieter entschieden, seine Dienste einzustellen. Was aus den Daten geworden 599 00:45:25,390 --> 00:45:31,270 ist bis dahin weiß letztendlich kein Mensch. Das ganze Thema Offenheit sollte 600 00:45:31,270 --> 00:45:35,230 gerade bei KI Entwicklung im Bildungssektor viel, viel stärker auch 601 00:45:35,230 --> 00:45:41,883 eingefordert und verankert werden. Das heißt, auch KI-Systeme sollten wie Open- 602 00:45:41,883 --> 00:45:47,710 Source-Software behandelt werden, als OpenAI z.B. stärker mitgefördert werden. Wir 603 00:45:47,710 --> 00:45:54,400 müssen viel stärker entwickeln im Bereich OER Open Data, um dann diese ganzen Daten, 604 00:45:54,400 --> 00:45:59,740 die wir im Lern-Kontext dann auch sammeln, wiederum als Open Educational Data, also 605 00:45:59,740 --> 00:46:05,380 als OED auch wieder zur Verfügung zu stellen. Ohne offene Datenbasis kommen wir 606 00:46:05,380 --> 00:46:10,810 da nicht hin. Sehr charmant finde ich auch die Idee der öffentlichen Register. Dort 607 00:46:10,810 --> 00:46:14,770 sollten sich auch KI-Systeme im Bildungsbereich eintragen lassen. Und was 608 00:46:14,770 --> 00:46:19,480 auf jeden Fall passieren muss, ist die Überarbeitung des Artikels 22 der DSGVO. 609 00:46:19,480 --> 00:46:24,040 Dort werden im Moment ja nur Entscheidungen geregelt, 610 00:46:25,060 --> 00:46:29,950 vollautomatisierte Entscheidungen sind dort geregelt. Was nicht geregelt ist, 611 00:46:29,950 --> 00:46:34,630 sind teilautomatisierte Systeme und teilautomatisierte Systeme sind ja die, die 612 00:46:34,630 --> 00:46:38,170 jetzt eigentlich weitestgehend im Einsatz sind. Und wenn wir auch da wieder im 613 00:46:38,170 --> 00:46:41,470 Hinterkopf haben, dass ja als Argument immer noch gilt: Der Mensch trifft die 614 00:46:41,470 --> 00:46:45,160 letzte Entscheidung, werden wir es auch zukünftig verstärkt mit teil- 615 00:46:45,160 --> 00:46:49,840 automatisierten System zu tun haben. Und dort müssen Einspruchsrechte und 616 00:46:49,840 --> 00:46:55,370 Widerspruchsrechte einfach noch klarer geregelt werden. Ach nee, bevor ich zu 617 00:46:55,370 --> 00:47:00,380 meinem Fazit komme, möchte ich nochmal auf die lange Kette der Verantwortlichkeit 618 00:47:00,380 --> 00:47:05,540 auch nochmal eingehen. Wenn Systeme tatsächlich ausgewählt werden, müssen 619 00:47:05,540 --> 00:47:11,360 Entscheider in der Lage sein, auch diese Systeme zu beurteilen. Und in ganz, ganz 620 00:47:11,360 --> 00:47:16,100 grober Anlehnung an diese lange Kette der Verantwortlichkeit von Katharina Zweig und 621 00:47:16,100 --> 00:47:21,470 Tobias Kraft sollte es mit in einen Anforderungskatalog und sollte es mit in 622 00:47:21,470 --> 00:47:26,090 den Kompetenzkatalog von all denjenigen, die dazu entscheiden, dass sie in der Lage 623 00:47:26,090 --> 00:47:30,620 sind, zu hinterfragen und zu prüfen. Aufgrund von welcher Datenbasis wurde ein 624 00:47:30,620 --> 00:47:35,000 System trainiert, also welche Qualität, welche Quantität? Wie alt sind die Daten? 625 00:47:35,000 --> 00:47:39,530 Passen sie überhaupt zum Trainingszweck? Dann letztendlich auch nach welchen 626 00:47:39,530 --> 00:47:45,500 Maßgaben wurde das System trainiert? Ganz ganz wichtig ist ja auch ein KI-System, 627 00:47:45,500 --> 00:47:48,950 das einmal für einen bestimmten Zweck trainiert wurde, ist nicht unbedingt 628 00:47:48,950 --> 00:47:52,430 günstig in einem ganz anderen Anwendungskontext. Gerade im 629 00:47:52,430 --> 00:47:55,850 Bildungsbereich, wenn damit geworben wird, dass bei Übersetzungssystemen oder 630 00:47:55,850 --> 00:48:00,080 Spracherkennungssystemen das es ja ganz ganz tolle Software as a Service Systeme 631 00:48:00,080 --> 00:48:04,250 schon gibt, die quasi von der Stange gekauft werden können, muss immer noch 632 00:48:04,250 --> 00:48:08,000 hinterfragt werden: Passt das tatsächlich zu meinem Anwendungskontext? Und 633 00:48:08,000 --> 00:48:12,350 letztendlich passt auch dieses System zu meinem Ethik-System, das ich bei mir an 634 00:48:12,350 --> 00:48:17,930 der Schule habe. Datenverwendung ist ganz, ganz wichtig. Was passiert mit den Daten, 635 00:48:17,930 --> 00:48:22,490 die erhoben werden an einer Schule, auch wenn es nur Daten von Lehrkräften sind? 636 00:48:22,490 --> 00:48:26,390 Gerade in dem Moment, wo es personenbezogene Daten sind, muss einfach 637 00:48:26,390 --> 00:48:31,310 sichergestellt werden, dass nicht nur rechtlich, sondern auch tatsächlich aktiv 638 00:48:31,310 --> 00:48:34,670 in der Anwendung ist, es überhaupt kein Weg gibt, dass diese Daten an Stellen 639 00:48:34,670 --> 00:48:38,900 weitergegeben werden, wo sie nicht hingehören. Es gibt aus den USA, auch mal 640 00:48:38,900 --> 00:48:46,280 wieder dort dieses Beispiel, dass Akteure der Wissenschaftsverlagsbranche Daten von 641 00:48:46,280 --> 00:48:50,540 Wissenschaftlern weitergegeben haben an die Einwanderungsbehörde ICE, was auch 642 00:48:50,540 --> 00:48:53,600 immer sie dort verloren haben. Aber das sind alles Entwicklungen, die müssen 643 00:48:53,600 --> 00:48:58,400 ausgeschlossen sein. Ganz großer Komplex IT-Sicherheit. Das muss sichergestellt 644 00:48:58,400 --> 00:49:03,740 sein. Das ist im Prinzip ein eigener Vortrag. Dort möchte ich hier aber 645 00:49:03,740 --> 00:49:07,840 verweisen auf die Arbeiten der Stiftung Neue Verantwortung, die schon ganz, ganz 646 00:49:07,840 --> 00:49:11,530 viel dazu untersucht und entwickelt und auch Schaubilder gemacht haben, welche 647 00:49:11,530 --> 00:49:16,450 Angriffs-Vektoren es für KI-Systeme überhaupt gibt. Und letztendlich müssen 648 00:49:16,450 --> 00:49:20,830 Entscheider:innen auch sicherstellen, dass es Ressourcen gibt, um dieses Thema, wenn sie 649 00:49:20,830 --> 00:49:23,920 dann einmal im Einsatz sind, auch tatsächlich dauerhaft evaluiert sind, 650 00:49:23,920 --> 00:49:27,550 damit sich diese ganzen Schwächen, die wir ja kennen, nicht erst in der Praxis, dann 651 00:49:27,550 --> 00:49:33,520 auch noch einschleichen. Das heißt, wenn einem bewusst wird, was es alles für 652 00:49:33,520 --> 00:49:37,780 Anforderungen braucht, um KI-Systeme im Bildungssektor egal zu welchem Zweck 653 00:49:37,780 --> 00:49:42,940 einzusetzen, dann wird glaube ich klar, dass das etwas ist, was noch ein sehr 654 00:49:42,940 --> 00:49:47,350 langer Weg ist, was nicht überhastet angegangen werden soll und was noch sehr, 655 00:49:47,350 --> 00:49:51,580 sehr viel Qualifizierung und Weiterentwicklung braucht. Und das 656 00:49:51,580 --> 00:49:55,960 letztendlich bringt mich jetzt zu meinem Fazit. Bisher ist es so, dass bei KI im 657 00:49:55,960 --> 00:49:59,680 Bildungssektor vornehmlich darüber gesprochen wird, dass Learning Analytics 658 00:49:59,680 --> 00:50:03,250 Systeme eingesetzt werden, um halt das Lernverhalten von Schülerinnen und 659 00:50:03,250 --> 00:50:07,840 Schülern zu analysieren und dabei mit personenbezogenen Daten gearbeitet wird. 660 00:50:07,840 --> 00:50:12,580 Letztendlich gibt es zum jetzigen Zeitpunkt noch keine Evidenz dafür, dass 661 00:50:12,580 --> 00:50:15,910 diese Systeme funktionieren und dass diese ganzen Datensammlungen auch tatsächlich 662 00:50:15,910 --> 00:50:19,600 sinnvoll sind. Es ist ganz, ganz viel Marketing und vor allem auch 663 00:50:19,600 --> 00:50:22,990 Wirtschaftsförderung dahinter. Wenn diese Startups jetzt in die Richtung gefördert 664 00:50:22,990 --> 00:50:28,060 werden und das Risiko, das damit entsteht, wenn diese Systeme weiterhin in die 665 00:50:28,060 --> 00:50:31,450 Schulen gedrückt werden, ist dass die wahren strukturellen Probleme einfach 666 00:50:31,450 --> 00:50:35,020 dadurch verschleiert werden und dass diese Mangelwirtschaft einfach fortgesetzt 667 00:50:35,020 --> 00:50:39,040 werden und diese ganzen Potenziale, die KI tatsächlich mit sich bringt, diese 668 00:50:39,040 --> 00:50:45,190 Probleme tatsächlich mit zu lösen, dass die einfach gar nicht gehoben werden. Das 669 00:50:45,190 --> 00:50:51,250 Risiko dabei ist, dass es vornehmlich immer um personenbezogene Daten von 670 00:50:51,250 --> 00:50:55,540 minderjährigen Schüler:innen geht und dass die ganzen Chancen, die wir im OpenData 671 00:50:55,540 --> 00:51:00,670 Bereich haben, dafür einfach weiterhin nicht genutzt werden. Und wir haben jetzt 672 00:51:00,670 --> 00:51:04,900 den Zeitpunkt, wo die Weichen gestellt werden. Ist das genau der Pfad, auf dem 673 00:51:04,900 --> 00:51:08,620 wir jetzt auch weitergehen wollen? Oder wollen wir jetzt anfangen, in diese 674 00:51:08,620 --> 00:51:13,600 Entwicklung einzugreifen und den Fokus mehr auf die Meso- und Makroebene legen? 675 00:51:13,600 --> 00:51:19,510 Die EU-Kommission hat jetzt kürzlich ihren überarbeiteten Digital Education Plan 676 00:51:19,510 --> 00:51:24,070 vorgestellt. Dort ist zu diesem ganzen Thema KI vorgesehen, dass Lehrkräfte 677 00:51:24,070 --> 00:51:29,140 weitergebildet werden müssen. Dass es Ethik-Leitlinien geben müssen und 678 00:51:29,140 --> 00:51:32,140 letztendlich auch, dass Forschung nochmal intensiviert werden muss. Und das ist 679 00:51:32,140 --> 00:51:37,060 jetzt genau der Punkt, um dort reinzugehen und die Fragen zu stellen und darauf hin 680 00:51:37,060 --> 00:51:42,580 zu drängen, dass in die richtige Richtung geforscht wird. Das hat mich letztendlich 681 00:51:42,580 --> 00:51:48,250 in dieser ganzen Vorbereitung zu meiner Empfehlung gebracht. In Anlehnung an diese 682 00:51:48,250 --> 00:51:52,360 Pyramide von der Datenethikkommissionen, die ich eigentlich, wenn das Prinzip der 683 00:51:52,360 --> 00:51:56,800 Risiko-Klassifizierung diskutabel ist, finde ich eigentlich dieses 684 00:51:56,800 --> 00:52:03,100 Pyramidensystem sehr gelungen. Und übertragen auf KI-Systeme im 685 00:52:03,100 --> 00:52:07,900 Bildungsbereich sehe ich einen ganz, ganz großen, grünen, unkritischen Bereich, wenn 686 00:52:07,900 --> 00:52:11,230 es darum geht, die Forschung und Entwicklung auf der Makroebene weiter zu 687 00:52:11,230 --> 00:52:16,210 unterstützen und weiter zu fördern. Alles unter der Nutzung von Open Data, die 688 00:52:16,210 --> 00:52:20,680 entweder schon vorhanden sind oder vielleicht auch noch weiter erhoben und 689 00:52:20,680 --> 00:52:24,580 genutzt werden können. Das fließt größtenteils auch noch mit rein in die 690 00:52:24,580 --> 00:52:29,770 Meso Ebene, die auch auf der Basis von Open Data schon sehr sehr viel Gutes 691 00:52:29,770 --> 00:52:34,690 erreichen kann. Und ganz ganz oben in der Spitze, wo ich den roten Bereich sehe, ist 692 00:52:34,690 --> 00:52:39,880 tatsächlich die Mikroebene, wenn es um die Analyse-Systeme geht für Schüler:innen und 693 00:52:39,880 --> 00:52:44,470 für Lehrkräfte, wo mit personenbezogenen Daten gearbeitet wird. Wenn es dort 694 00:52:44,470 --> 00:52:48,820 weitere Entwicklungen geben sollte, dann würde ich es bevorzugen, wenn es dort ein 695 00:52:48,820 --> 00:52:52,180 Forschungsbereich gibt oder den Anwendungsbereich vielleicht höchstens für 696 00:52:52,180 --> 00:52:57,940 Lehrkräfte. Aber dass wir die ganze Analyse von Schüler:innen vielleicht 697 00:52:57,940 --> 00:53:01,450 erst mal noch außen vorlassen, bis wir vielleicht viel mehr über KI-Systeme 698 00:53:01,450 --> 00:53:05,740 wissen und alles immer unter der Voraussetzung, dass die Daten, die erhoben 699 00:53:05,740 --> 00:53:09,580 werden, dann auch weiter zur Verfügung gestellt werden für die Generierung von 700 00:53:09,580 --> 00:53:16,840 Open Educational Data. Das war's. Vielen Dank für eure Aufmerksamkeit. Alle 701 00:53:16,840 --> 00:53:20,590 Anregungen, um die ich gebeten habe, alle Lücken, die ich vielleicht noch gelassen 702 00:53:20,590 --> 00:53:24,440 habe, oder alle Interessenten, die Lust haben, an diesem Thema auch noch mit 703 00:53:24,440 --> 00:53:28,670 weiterzuarbeiten, freue ich mich total über Kontaktaufnahme und Feedback und 704 00:53:28,670 --> 00:53:33,470 weitere Informationen. Ich habe hier auch noch einen großen Anhang mit Quellen, die 705 00:53:33,470 --> 00:53:38,480 ich verarbeitet habe. Wenn es dazu auch noch Rückfragen gibt, kommt jederzeit 706 00:53:38,480 --> 00:53:42,770 - nicht jederzeit, nich nachts um drei. Also per E-Mail schon, aber vielleicht nicht per Telefon. 707 00:53:42,770 --> 00:53:46,550 Aber die habt ihr ja auch gar nicht die Nummer - egal, kommt einfach auf mich zu. 708 00:53:46,550 --> 00:53:50,450 Und dann würde es mich freuen, wenn wir im Gespräch bleiben. Vielen Dank. 709 00:53:50,450 --> 00:53:56,270 Herald: Hallo Nina, schön, dass du da 710 00:53:56,270 --> 00:54:02,270 warst. Danke für den spannenden Vortrag grade. Wir hatten so ein bisschen 711 00:54:02,270 --> 00:54:05,660 technische Probleme im Hintergrund. Ich hoffe deswegen, dass alle im Live-Stream 712 00:54:05,660 --> 00:54:14,450 den Talk auch gut sehen konnten. Nina, du hast viel erzählt über KI und die Grenzen 713 00:54:14,450 --> 00:54:19,880 und Vorteile. Was sind denn so aus deiner Sicht vielleicht die klugen nächsten 714 00:54:19,880 --> 00:54:23,540 Schritte, die man so gehen müsste? Was künstliche Intelligenz und Klassenzimmer 715 00:54:23,540 --> 00:54:29,330 betrifft? Nina: Hallo Nina, ja genau. Was sind die, 716 00:54:29,330 --> 00:54:33,470 was sind die nächsten Schritte? Also ich glaube wir sind im Moment an so einer 717 00:54:33,470 --> 00:54:37,760 Entwicklungsphase, wo KI in der Schule und im Bildungsbereich einfach noch nicht so 718 00:54:37,760 --> 00:54:40,790 wahnsinnig weit verbreitet ist. Und ich hab das ja auch gemerkt bei meiner 719 00:54:40,790 --> 00:54:45,380 Recherche und auch z.B. hier, was diese Meso-Ebene angeht. Es gibt noch nicht so 720 00:54:45,380 --> 00:54:50,450 extrem viele Anwendungen, wo man konkret jetzt schon reingehen und eingreifen kann 721 00:54:50,450 --> 00:54:52,910 und sagen wir wollen hier eine andere Entwicklung oder das und das muss so 722 00:54:52,910 --> 00:54:59,270 konkret weitergehen. Was allerdings gut an dieser Entwicklung ist, ist eben, dass wir 723 00:54:59,270 --> 00:55:04,670 noch an diesem frühen Punkt sind und auch die Möglichkeiten haben, Einfluss nehmen 724 00:55:04,670 --> 00:55:09,040 zu können. Habe ich da ein äh im Hintergrund gehört? Ja okay, ich rede 725 00:55:09,040 --> 00:55:14,260 einfach weiter. Das heißt, nach allem, was ich jetzt mitbekommen habe, wie sich das 726 00:55:14,260 --> 00:55:20,050 Thema KI in der Bildung gerade ansetzt zu entwickeln, möchte ich eigentlich gerne so 727 00:55:20,050 --> 00:55:24,250 eine Art Break machen. Einen kleinen Schnitt und nochmal hinterfragen ist der 728 00:55:24,250 --> 00:55:28,300 Weg, der jetzt eingeschlagen wird von den Attack-Startups und auch von den 729 00:55:28,300 --> 00:55:32,200 Regierungen, ist das überhaupt der Richtige, dass wir KI-Systeme einsetzen, 730 00:55:32,200 --> 00:55:38,650 um das Verhalten und Lernverhalten von Lernenden zu analysieren? Oder wollen wir 731 00:55:38,650 --> 00:55:42,160 nicht nochmal überlegen, ob wir nicht die KI-Systeme, die wir jetzt haben, dazu 732 00:55:42,160 --> 00:55:45,490 nutzen können, die strukturellen Probleme im Bildungssektor anzugehen? Davon gibt es 733 00:55:45,490 --> 00:55:49,510 genug. Dort haben wir eine ganz andere Datenbasis und es kann vor allem weniger 734 00:55:49,510 --> 00:55:54,370 Schaden angerichtet werden für die einzelnen Personen, die analysiert werden 735 00:55:54,370 --> 00:55:57,940 oder dann halt auch im besten Fall gar nicht mehr analysiert werden, weil alles, 736 00:55:57,940 --> 00:56:02,500 was wir aus der KI Geschichte wissen, dass es sehr, sehr viel Schwierigkeiten gibt, 737 00:56:02,500 --> 00:56:06,970 sobald KI in sozialen Kontexten eingesetzt werden. Also wenn KI-Systeme benutzt 738 00:56:06,970 --> 00:56:10,570 werden, um Menschen zu analysieren, jetzt kurz auf den Punkt gebracht, dann führt 739 00:56:10,570 --> 00:56:14,380 das meistens zu größeren Problemen und wir sollten in der Bildung nicht diese Fehler 740 00:56:14,380 --> 00:56:18,760 wiederholen. Herald: Ja, das sind auf jeden Fall 741 00:56:18,760 --> 00:56:23,530 ziemlich gute Gedankenanstöße. Wir haben leider gar nicht so richtig, richtig viel 742 00:56:23,530 --> 00:56:26,440 Zeit, um jetzt hier noch Fragen zu beantworten. Ich sehe gerade im Chat auch 743 00:56:26,440 --> 00:56:31,330 tatsächlich keine. Ich bin aber sicher, dass es da noch viel Gesprächsbedarf gibt. 744 00:56:31,330 --> 00:56:36,790 Deswegen würde ich vorschlagen, dass wir jetzt mit dir in einen Big Blue Button 745 00:56:36,790 --> 00:56:38,022 umziehen. 746 00:56:38,022 --> 00:56:40,750 Outro Musik 747 00:56:40,750 --> 00:56:48,000 Untertitel erstellt von c3subtitles.de im Jahr 2021. Mach mit und hilf uns!