WEBVTT 00:00:00.000 --> 00:00:14.820 Intro Musik 00:00:14.820 --> 00:00:19.740 Hallo und herzlich willkommen zu meinem Vortrag "KI im Klassenzimmer - yay oder 00:00:19.740 --> 00:00:24.030 nay?" Ich bin Nina, ich bin derzeit wissenschaftliche Mitarbeiterin im Büro 00:00:24.030 --> 00:00:26.880 von Birke Bull-Bischoff. Sie ist die bildungspolitische Sprecherin der 00:00:26.880 --> 00:00:30.990 Linksfraktion im Bundestag. Die letzten zwei Jahre habe ich auch die Enquete- 00:00:30.990 --> 00:00:35.310 Kommission KI im Bundestag für die Linke mitbegleitet. Und davor habe ich auch 00:00:35.310 --> 00:00:38.760 schon mal im Bildungssektor gearbeitet, sodass ich diesen Vortrag jetzt hier 00:00:38.760 --> 00:00:42.990 nutzen möchte, um mal alle meine Beobachtungen zum Thema KI in der Schule 00:00:42.990 --> 00:00:49.230 zusammenzutragen und vor allem auch einen Blick auf die dabei verarbeiteten Daten zu 00:00:49.230 --> 00:00:53.190 werfen und einen Ausblick darauf zu schaffen, wie KI vielleicht sogar dafür 00:00:53.190 --> 00:00:57.420 benutzt werden kann, um strukturelle Probleme im Bildungssektor anzugehen. 00:00:57.420 --> 00:01:03.150 Vorausschicken möchte ich, dass wenn ich hier von KI rede, ich jeweils sogenannte 00:01:03.150 --> 00:01:07.820 schwache KI meine und mich auf Machine Learning in als seinen Ausprägung beziehe. 00:01:07.820 --> 00:01:13.890 Ich möchte euch zuerst einen kleinen Überblick geben, wie KI im Schulbereich im Moment schon 00:01:13.890 --> 00:01:17.700 eingesetzt werden kann. Was dabei auch tatsächlich noch nicht so wahnsinnig gut 00:01:17.700 --> 00:01:21.690 läuft. Dann natürlich zeigen, was meiner Meinung nach besser laufen könnte, welche 00:01:21.690 --> 00:01:25.260 Anforderungen es braucht, damit es besser laufen kann und dann auch am Ende mit 00:01:25.260 --> 00:01:30.240 einer konkreten Empfehlung schließen. Als ich mich vor ungefähr einem Jahr 00:01:30.240 --> 00:01:35.220 angefangen habe, mit diesem Thema vertieft zu beschäftigen, sind mir zwei Dinge 00:01:35.220 --> 00:01:39.870 aufgefallen. Zum einen ist der Begriff KI eigentlich noch nicht wirklich konkret und 00:01:39.870 --> 00:01:44.520 allgemein definiert und all diese KI Anwendungen im Bildungsbereich auch noch 00:01:44.520 --> 00:01:49.710 nicht. Da wird also viel experimentiert und herumgeworfen mit Learning Analytics, 00:01:49.710 --> 00:01:53.970 mit Tutor Systemen, intelligenten Tutor Systemen. Das ganze unter die Oberbegriffe 00:01:53.970 --> 00:01:59.850 von Educational Data Mining gestellt. Das ist wiederum teilweise die Voraussetzung 00:01:59.850 --> 00:02:04.710 oder steht neben dem anderen Begriff von AIED, also Artificial Intelligence in 00:02:04.710 --> 00:02:11.940 Education. Also da kann man je nach Autor und je nach Anwendungsbereich baut das 00:02:11.940 --> 00:02:16.080 eine auf dem anderen auf oder steht nebeneinander oder ist eine Folge davon. 00:02:16.080 --> 00:02:20.250 All das ist ein Signal dafür, dass wir in diesem Bereich tatsächlich noch sehr am 00:02:20.250 --> 00:02:24.200 Anfang stehen, dass das alles sehr unstrukturiert ist. Und letztendlich ist 00:02:24.200 --> 00:02:28.700 auch der ganze Anbietermarkt von diesem System noch sehr am Anfang und 00:02:28.700 --> 00:02:34.040 unstrukturiert. Derzeit sind es vor allem oder eigentlich ausschließlich proprietäre 00:02:34.040 --> 00:02:37.550 Systeme, sodass auch teilweise Forscher manchmal gar nicht so richtig wissen: 00:02:37.550 --> 00:02:42.800 Arbeitet ein System, das mit KI wirbt, eigentlich wirklich mit KI im Sinne von 00:02:42.800 --> 00:02:46.560 Machine Learning oder ist es nur ein einfacher Algorithmus ohne Lernverfahren? 00:02:46.560 --> 00:02:51.470 Oder wie viel Werbung und wie viel Marketing steckt eigentlich in diesem 00:02:51.470 --> 00:02:56.540 Anbietersystem eigentlich wirklich dahinter? Dann gibt es aber neben dem 00:02:56.540 --> 00:03:01.880 ganzen Learning Analytics Bereich, der sich sehr konkret auf die Erhebung und 00:03:01.880 --> 00:03:08.480 Analyse von lernenden Daten, also zur Verbesserung von Lernerlebnissen und 00:03:08.480 --> 00:03:12.680 Lernenergebnissen beschäftigt, gibt es noch weitere Anwendungsbereiche, in denen 00:03:12.680 --> 00:03:17.270 KI eingesetzt wird. In den USA gibt es zum Beispiel ein Verfahren, dass das 00:03:17.270 --> 00:03:23.180 Surfverhalten analysiert. Auf dieser Keyword Liste der Risikofaktoren stehen 00:03:23.180 --> 00:03:28.370 dann allerdings auch Begriffe wie schwul, queer oder Gedichtsammlung. Also selbst 00:03:28.370 --> 00:03:31.400 wenn wir jetzt auch von sehr intoleranten Gesellschaften ausgehen, ist es natürlich 00:03:31.400 --> 00:03:34.820 überhaupt nicht zu unterstützen, dass diese Begriffe überhaupt irgendwie 00:03:34.820 --> 00:03:38.450 Personen zugeordnet und im Sinne einer Risikoprävention verwendet werden. 00:03:38.450 --> 00:03:43.820 Gesichtserkennung auf dem Schulgelände gab es neben den USA auch in Europa schon. Das 00:03:43.820 --> 00:03:46.880 hat Schweden mal an einer Schule probiert und die wurden dann aber nach sehr, sehr 00:03:46.880 --> 00:03:51.410 kurzer Zeit auf Basis der DSGVO auch schon mit einer hohen Strafe versehen. Also 00:03:51.410 --> 00:03:55.670 nicht unbedingt nachahmenswert. In China ist man da schon ein bisschen weiter und 00:03:55.670 --> 00:03:59.150 auch ein bisschen toleranter. Dort gibt es Gesichtserkennung auch in der Mensa und in 00:03:59.150 --> 00:04:03.770 Bibliotheken, sodass dann ganz nebenbei auch noch Ernährungsverhalten und 00:04:03.770 --> 00:04:09.020 Leseverhalten noch mit erfasst und analysiert werden. Ganz besonders charmant 00:04:09.020 --> 00:04:13.340 ist natürlich, dass Eltern sich in Klassenzimmerkameras auch mit einloggen 00:04:13.340 --> 00:04:18.620 können, um ihre Kinder dort direkt im Unterricht damit zu beobachten. Es gibt 00:04:18.620 --> 00:04:21.800 zwar hier und da sogar in China Widerstände dagegen und das finden nicht 00:04:21.800 --> 00:04:24.830 alle Eltern toll. Aber so wie ich das mitbekommen habe in den letzten Monaten, 00:04:24.830 --> 00:04:28.820 ist die Entwicklung da wahrscheinlich eher noch schwer aufzuhalten. Hier in 00:04:28.820 --> 00:04:33.230 Deutschland gibt es Forschungsprojekte, um zum Beispiel mit einem Stift direkt beim 00:04:33.230 --> 00:04:38.000 Schreiben, Üben, Schreibfehler oder Schreibschwächen rechtzeitig zu erkennen. 00:04:38.000 --> 00:04:42.800 Eher aus dem Hochschulbereich ist dieses Beispiel entnommen vom KIT, wo die 00:04:42.800 --> 00:04:46.460 Studienabbruchswahrscheinlichkeit berechnet wird. Je nachdem was man mit den 00:04:46.460 --> 00:04:49.910 Ergebnissen macht, kann das vielleicht sogar sinnvoll sein, weil dann rechtzeitig 00:04:49.910 --> 00:04:54.590 Hilfestellung gegeben werden kann. Aber wie dann einzelne Entscheider:innen mit 00:04:54.590 --> 00:04:57.080 solchen Ergebnissen umgehen, das steht natürlich nochmal auf einem ganz anderen 00:04:57.080 --> 00:05:03.560 Blatt. Und dann wird am DFKI und auch in der Universität von Tübingen an 00:05:03.560 --> 00:05:10.190 intelligenten Schulbüchern geforscht, die auch mit Daten arbeiten aus iTrackern, EEG 00:05:10.190 --> 00:05:13.910 Messung und sogar aus der Nasentemperaturmessung. Dabei wird davon 00:05:13.910 --> 00:05:19.040 ausgegangen, dass wenn die Nasentemperatur fällt, davon auszugehen ist, dass einem 00:05:19.040 --> 00:05:25.400 Lernenden bei seinem Lernstoff gerade Schwierigkeiten begegnen und das würde 00:05:25.400 --> 00:05:29.480 dann letztendlich in einer perfekten intelligenten Schulbuchversion dazu 00:05:29.480 --> 00:05:33.650 führen, dass ihnen noch ergänzende andere Inhalte angezeigt werden oder vielleicht 00:05:33.650 --> 00:05:38.000 irgendwie der ganze Lernpfad dann in Zukunft anders aufgebaut wird. Ich bin 00:05:38.000 --> 00:05:45.470 sehr gespannt, ob diese System Entwicklung jetzt auch im Pandemiewinter Daten erhebt, 00:05:45.470 --> 00:05:50.450 wo wahrscheinlich jeder Schüler zu jeder Zeit einfach kalte Nasen hat und was das 00:05:50.450 --> 00:05:54.800 letztendlich für die Lernpfadentwicklung bedeutet. Aber das ist ein anderes Thema. 00:05:54.800 --> 00:06:00.680 Kann KI denn überhaupt im Bildungssystem etwas Positives beitragen? Und wenn wir 00:06:00.680 --> 00:06:03.920 uns die Stärken von KI angucken, dann sieht es auf den ersten Blick tatsächlich 00:06:03.920 --> 00:06:08.150 so aus, als wäre das eigentlich gar keine so schlechte Idee. Gerade im Bereich der 00:06:08.150 --> 00:06:12.170 Spracherkennung oder Übersetzungssysteme mit allen Schwächen, die damit 00:06:12.170 --> 00:06:17.600 einhergehen, kann es tatsächlich dazu beitragen, dass Integration oder auch 00:06:17.600 --> 00:06:23.870 Inklusion an Schulen einfach erleichtert werden im Sinne von ergänzt werden. Wenn 00:06:23.870 --> 00:06:28.550 Systeme gut gemacht sind, können sie zumindest kurzfristig immerhin auch die 00:06:28.550 --> 00:06:33.470 Motivation von Schüler:innen steigern und können im Idealfall Lehrkräfte auch 00:06:33.470 --> 00:06:38.570 tatsächlich entlasten. Das wäre alles total wunderschön, wenn es nicht auch 00:06:38.570 --> 00:06:44.360 Schwächen im KI-System gibt, die euch alle sicherlich total vertraut sind. Die 00:06:44.360 --> 00:06:48.410 Qualität eines KI-Systems bemisst sich vor allem nach der Datenbasis. Garbage in 00:06:48.410 --> 00:06:53.480 garbage out, wie man so schön sagt. Und viele Daten im Bildungsprozess, der ja ein 00:06:53.480 --> 00:06:57.020 sozialer Prozess ist, der ist vielleicht gar nicht unbedingt optimal 00:06:57.020 --> 00:07:00.890 operationalisierbar, d.h. da stellt sich immer noch die große Frage: Welche Daten 00:07:00.890 --> 00:07:05.630 können überhaupt erfasst werden und wie können sie überhaupt sinnvoll analysiert 00:07:05.630 --> 00:07:11.450 werden? Lerndaten betreffend MINT-Fächer, die auf Logik basiert sind, eignen sich 00:07:11.450 --> 00:07:16.190 dafür sicherlich besser als zum Beispiel die sogenannten 4K Kompetenzen, also 00:07:16.190 --> 00:07:20.510 Kollaboration, Kreativität zum Beispiel. Wie will man sowas messen und wie will man 00:07:20.510 --> 00:07:27.320 sowas in Operationalisierbarkeit pressen? Das steht noch im Raum. Dann haben wir 00:07:27.320 --> 00:07:30.680 natürlich auch im Bildungsbereich die üblichen Probleme mit der 00:07:30.680 --> 00:07:35.600 Nachvollziehbarkeit und mit der Erklärbarkeit und die Risiken von 00:07:35.600 --> 00:07:40.940 Verzerrungen. Auch nicht ganz unwichtig ist die Problematik, dass eine Korrelation 00:07:40.940 --> 00:07:45.290 noch keine Kausalität mit sich bringt. Also hier nochmal das Beispiel mit der 00:07:45.290 --> 00:07:49.400 Nase und Temperatur. Es kann ganz viele verschiedene Gründe haben, warum 00:07:49.400 --> 00:07:55.130 Gehirnströme gerade einen bestimmten Weg nehmen, warum Körpertemperatur sich 00:07:55.130 --> 00:08:00.650 verändern oder warum sich Augenbewegungen entweder direkt bei einem Lerninhalten 00:08:00.650 --> 00:08:04.430 oder auch im Raum bewegen. Das hat alles nicht zwangsläufig was mit dem 00:08:04.430 --> 00:08:09.350 Lerninhalten oder mit der Lernatmosphäre zu tun. Bei all meinen Recherchen für 00:08:09.350 --> 00:08:12.710 diesen Vortrag habe ich immer ganz explizit gefragt: Gibt es denn Beweise 00:08:12.710 --> 00:08:16.550 dafür überhaupt, dass diese KI-Systeme vielleicht auch gut funktionieren und den 00:08:16.550 --> 00:08:20.930 Lernenden tatsächlich was bringen? Aber diese Evidenz gibt es bislang nicht. Ich 00:08:20.930 --> 00:08:24.800 habe interessanterweise, als kleine Anekdote am Rande, auf der Webseite von 00:08:24.800 --> 00:08:29.670 bettermarks eine Bewertung gefunden für das System bettermarks von dem 00:08:29.670 --> 00:08:32.850 neurowissenschaftlichen Institut, das unter der Leitung von Manfred Spitzer 00:08:32.850 --> 00:08:37.380 steht, der ist den Freunden der digitalen Bildung vor allem dadurch bekannt, dass er 00:08:37.380 --> 00:08:41.310 viele Elemente der digitalen Bildung eigentlich eher verteufelt. Aber dort wird 00:08:41.310 --> 00:08:44.790 auf der Website natürlich dem System bettermarks bescheinigt, dass es einen total 00:08:44.790 --> 00:08:49.500 guten Lerneffekt hat. Wie gesagt, Forscher konnten das bisher noch nicht bestätigen. 00:08:49.500 --> 00:08:56.400 Wenn wir nun diese KI-Systeme mit all ihren Schwächen auf die Schulen ungebremst 00:08:56.400 --> 00:09:01.290 loslassen, dann kann das dazu führen, dass wir eigentlich anstatt dieser Entlastung 00:09:01.290 --> 00:09:06.450 eher Überforderung produzieren, dass wir Normierungen und Standardisierungen in 00:09:06.450 --> 00:09:10.020 Bereichen einführen, die vielleicht gar nicht ohne weiteres standardisierbar sind. 00:09:10.020 --> 00:09:15.240 Wir können Lehrkräfte in unangenehme Situationen bringen, wenn sie z.B. in 00:09:15.240 --> 00:09:18.750 einer Elternsprechstunde mit Eltern konfrontiert sind, die nicht nur die 00:09:18.750 --> 00:09:21.630 Methoden des Lehrers hinterfragen. Das machen sie ja jetzt schon häufig genug. 00:09:21.630 --> 00:09:25.020 Sondern dann vielleicht auch Bewertungssysteme hinterfragen und dann 00:09:25.020 --> 00:09:29.760 von Lehrkräften wissen wollen: Wie kommt denn dieses System zu dem Ergebnis oder zu 00:09:29.760 --> 00:09:33.120 dieser Bewertung meines Kindes? Und Lehrkräfte so was nicht einfach erklären 00:09:33.120 --> 00:09:40.260 können. Größtes Problem ist natürlich, dass alle Systeme, über die im Moment im 00:09:40.260 --> 00:09:43.680 Bildungssektor gesprochen wird, diese Learning Analytics Systeme und Tutor 00:09:43.680 --> 00:09:48.120 Systeme, dass die mit personenbezogenen Daten von ja größtenteils minderjährigen 00:09:48.120 --> 00:09:52.740 Schüler:innen arbeiten. D.h. da werden Datensammlungen angefertigt, es werden 00:09:52.740 --> 00:09:57.600 Datenprofile angefertigt und das alles unterwandert die informationelle 00:09:57.600 --> 00:10:03.990 Selbstbestimmung der Kinder. Selbst wenn Eltern dieser Verwendung natürlich 00:10:03.990 --> 00:10:07.770 zustimmen müssen, stellt sich ja auch noch die Frage: Wie gut sind die Eltern denn 00:10:07.770 --> 00:10:12.240 überhaupt informiert über all die Konsequenzen und die Folgen, die das hat? 00:10:12.240 --> 00:10:16.500 Inwieweit gibt es vielleicht auch einen gewissen sozialen Gruppenzwang in einem 00:10:16.500 --> 00:10:19.290 Klassenverband oder einer Schule sich anzuschließen, auch wenn man vielleicht 00:10:19.290 --> 00:10:22.950 als Eltern selber gar nicht genau weiß, was das dann eigentlich bedeutet? All das 00:10:22.950 --> 00:10:28.170 ist im Moment noch ein bisschen unklar. Und das sind genau diese Punkte, über die 00:10:28.170 --> 00:10:32.460 meiner Meinung nach im Moment noch viel zu wenig tatsächlich offen gesprochen wird. 00:10:32.460 --> 00:10:37.830 Was diese Schwäche tatsächlich in der Praxis für Probleme mit sich bringen 00:10:37.830 --> 00:10:43.250 können, sehen wir auch schon in ausländischen Anwendungen. Zum Glück muss 00:10:43.250 --> 00:10:47.240 man fast sagen, im Moment. Ich weiß ich, ob ihr das mitbekommen habt. Im Sommer gab 00:10:47.240 --> 00:10:52.520 es diese Problematik mit dem britischen System Ofqual. Genauso wie bei uns auch 00:10:52.520 --> 00:10:56.510 haben die Schulen unter der Pandemie gelitten und es konnten bestimmte 00:10:56.510 --> 00:11:02.420 Prüfungen zu Abschlüssen nicht richtig gut oder überhaupt nicht durchgeführt werden. 00:11:02.420 --> 00:11:05.840 D.h. Lehrkräfte wurden gebeten, doch aufgrund von ihren persönlichen 00:11:05.840 --> 00:11:10.640 Einschätzung dann die Schüler mit einer Abschlussnote zu versehen. Diese 00:11:10.640 --> 00:11:14.120 Abschlussnoten waren dann aber den Behörden offensichtlich zu gut, sodass sie 00:11:14.120 --> 00:11:17.330 nochmal einen Algorithmus eingesetzt haben, der das Ganze nachrechnen sollte. 00:11:17.330 --> 00:11:21.410 Das wiederum führte dazu, dass viele Noten wieder abgewertet worden und die Schüler 00:11:21.410 --> 00:11:24.560 sich verschlechtert haben. Dagegen sind dann natürlich die Schüler:innen wiederum auf 00:11:24.560 --> 00:11:28.520 die Straße gegangen und haben sich gewehrt, sodass am Ende doch wieder die 00:11:28.520 --> 00:11:32.990 Beurteilung der Lehrkräfte eingesetzt wurde. Zum Glück. Ein anderes Beispiel, 00:11:32.990 --> 00:11:36.590 von dem ich gelesen habe, ist das System Edgenuity. Ich weiß jetzt nicht wie das 00:11:36.590 --> 00:11:40.730 richtig betont ist. Dort hat eine Mutter festgestellt, dass die 00:11:40.730 --> 00:11:47.300 Textverarbeitungssysteme, die die Aufsätze ihres Kindes bewerten sollen, viel, viel 00:11:47.300 --> 00:11:51.740 schlechter bewerten als frühe die Aufsätze, die das Kind einfach ganz normal 00:11:51.740 --> 00:11:54.740 mit der Hand in der Schule geschrieben hat. Und dann ist in diesem System auf den 00:11:54.740 --> 00:12:00.110 Grund gegangen und hat festgestellt, dass das System vor allem bewertet anhand der 00:12:00.110 --> 00:12:04.400 Häufigkeit von bestimmten Stichwörtern. Und dann hat sie versucht, einfach mal so 00:12:04.400 --> 00:12:08.330 als Beispiel einfach nur mit Stichwortwolken so eine Aufsatzaufgabe zu 00:12:08.330 --> 00:12:14.090 erfüllen. Und tatsächlich wurden dieses Stichwortwolken besser bewertet als ein 00:12:14.090 --> 00:12:18.680 komplett zusammenhängender Text. Was natürlich, wenn man das System so weit 00:12:18.680 --> 00:12:22.820 einmal verstanden und geknackt hat, relativ leicht ist, solche Aufgaben zu 00:12:22.820 --> 00:12:26.510 bestehen, aber natürlich überhaupt gar keinen Bildungseffekt mehr mit sich 00:12:26.510 --> 00:12:32.660 bringt. Auch eher aus dem Hochschulbereich sind diese Testverfahren Proctorio und 00:12:32.660 --> 00:12:37.730 ExamSoft bekannt, sollen hier an dieser Stelle aber trotzdem angesprochen werden. 00:12:37.730 --> 00:12:41.300 Einfach um schon mal aufzuzeigen, welche Probleme damit einhergehen, bevor wir auf 00:12:41.300 --> 00:12:45.500 die Idee kommen, sie vielleicht auch an den Schulen einzusetzen. Diese Systeme 00:12:45.500 --> 00:12:51.730 arbeiten vor allem mit Kameraüberwachung, aber auch mit Geräuschanalysen und mit 00:12:51.730 --> 00:12:56.740 Bewegungsanalysen, um daraus Rückschlüsse zu ziehen, ob ein Prüfling gerade versucht 00:12:56.740 --> 00:13:02.440 zu täuschen. Und diese Systeme haben jetzt schon in der Praxis verschiedene Probleme 00:13:02.440 --> 00:13:06.490 aufgezeigt. Also das ganz typische Problem, was wir ja schon in anderen 00:13:06.490 --> 00:13:10.810 Kamerakontexten kennen bei People of Color. Sie werden dann von der Kamera 00:13:10.810 --> 00:13:16.000 nicht erkannt, werden dann gebeten noch zusätzliche Lichtquellen einzusetzen. Dann 00:13:16.000 --> 00:13:19.450 kann das tatsächlich dazu führen, dass Menschen diskriminiert werden, die in 00:13:19.450 --> 00:13:23.620 beengten Verhältnissen in einer WG wohnen oder vielleicht noch Kinder um sich haben, 00:13:23.620 --> 00:13:27.850 weil dann unbekannte Geräusche Quellen auftauchen, die ein System vielleicht als 00:13:27.850 --> 00:13:31.510 Täuschungsversuch oder als Unterstützerperson klassifizieren kann. 00:13:31.510 --> 00:13:37.600 Aber auch gesundheitlich beeinträchtigte Menschen sind zusätzlich belastet, einfach 00:13:37.600 --> 00:13:41.530 weil sie angeben müssen, dass sie vielleicht häufiger mal ins Bad müssen 00:13:41.530 --> 00:13:46.180 oder dass sie eine Insulinpumpe tragen, einfach damit das System von bestimmten 00:13:46.180 --> 00:13:50.560 Signalen also z.B. nicht irritiert ist. Also all das führt dazu, dass Menschen 00:13:50.560 --> 00:13:56.320 gezwungen werden, Dinge offenzulegen und vor allem diese Daten auch in Datenbanken 00:13:56.320 --> 00:13:59.290 mit erfasst werden, die eigentlich sehr persönlich und sehr privat sind und mit 00:13:59.290 --> 00:14:03.610 einem Prüfergebnisse überhaupt gar nichts zu tun haben. Hier in Deutschland kennen 00:14:03.610 --> 00:14:06.850 wir alle oder die meisten von euch wahrscheinlich diese Anwendung Duolingo 00:14:06.850 --> 00:14:12.010 zum Vokabel- oder zum Sprachtraining. Duolingo hat auch ein Englisch Test 00:14:12.010 --> 00:14:16.300 aufgelegt, der auch online absolviert werden kann und auch dort wird mit 00:14:16.300 --> 00:14:23.800 Kamerasystem gearbeitet und ich habe bei einer Forschung nachgelesen, dass 00:14:23.800 --> 00:14:27.400 Forschenden dann versucht haben, da auch mal auf den Grund zu gehen, ob Duolingo 00:14:27.400 --> 00:14:30.910 denn ausschließen kann, dass diese bekannten Systeme bei Duolingo nicht 00:14:30.910 --> 00:14:35.050 auftauchen. Also diese Diskriminierungen nicht passieren können oder auch z.B. 00:14:35.050 --> 00:14:39.760 Diskriminierung aufgrund von Akzenten nicht automatisch als fehlerhaft 00:14:39.760 --> 00:14:43.690 eingestuft werden. Und leider konnte zumindest zu dem Zeitpunkt der Befragung 00:14:43.690 --> 00:14:48.910 Duolingo diese Diskriminierung nicht ausschließen. Ein System, über das ich 00:14:48.910 --> 00:14:53.650 gestolpert bin bei meiner Recherche ist DyRiAS. Ich habe leider noch nicht 00:14:53.650 --> 00:14:58.480 herausgefunden, ob Schulen überhaupt damit arbeiten. Und wenn ja, wie viele. Wenn ihr 00:14:58.480 --> 00:15:01.900 was über dieses System und seine Anwendung wisst, bin ich für sachdienliche Hinweise 00:15:01.900 --> 00:15:06.580 total dankbar. Was ich darüber gelesen habe ist, dass DyRiAS ist ein 00:15:06.580 --> 00:15:12.970 Risikoanalysesystem, was unter anderem auch genutzt werden kann, um ein Risiko 00:15:12.970 --> 00:15:17.530 für häusliche Gewalt zu identifizieren. Es wird auch in der Schule angewendet, sodass 00:15:17.530 --> 00:15:22.840 Lehrkräfte nach einer Schulung und wenn sie eine Lizenz erworben haben, mit diesem 00:15:22.840 --> 00:15:28.450 System erkennen können, ob Schüler:innen demnächst vielleicht mal Amok laufen. Und 00:15:28.450 --> 00:15:35.050 dazu werden Kommunikationsverhalten und Verhaltensweisen analysiert. Wie genau das 00:15:35.050 --> 00:15:37.660 System funktioniert, wie gesagt, weiß ich im Detail nicht. Da werde ich aber 00:15:37.660 --> 00:15:42.130 sicherlich nochmal in Zukunft etwas tiefer einsteigen, um das zu verstehen. Weil mich 00:15:42.130 --> 00:15:47.440 das sehr irritiert. Im Ergebnis bekommen Lehrkräfte dann so einen farblichen 00:15:47.440 --> 00:15:52.780 Balken. Das ist also ein original Screenshot aus der Broschüre. Und 00:15:52.780 --> 00:15:56.860 vollkommen unklar ist für mich tatsächlich auch, was genau passiert oder wer Zugang 00:15:56.860 --> 00:16:00.700 zu diesen Daten hat. Wenn dann ein Kind tatsächlich immer weiter in diesen roten 00:16:00.700 --> 00:16:05.110 Bereich rutscht. Was heißt überhaupt roter Bereich und bedeutet das höchste Warnstufe 00:16:05.110 --> 00:16:11.470 oder bedeutet Stufe 5 schon, hier musst du eigentlich sofort die Polizei rufen. Dazu 00:16:11.470 --> 00:16:15.250 kommt noch, dass die Daten, die für dieses System erfasst werden, dass die 00:16:15.250 --> 00:16:21.910 browserbasiert, verarbeitet werden. Immerhin verschlüsselt. Weiteres halbwegs 00:16:21.910 --> 00:16:25.150 beruhigendes Signal ist, das DyRiAS in seiner Broschüre zumindest darauf 00:16:25.150 --> 00:16:29.800 hinweist, dass die Nutzung von gewaltorientierten Computerspielen oder 00:16:29.800 --> 00:16:33.520 auch das Tragen eines Irokesenschnitt zum Beispiel keine Indikatoren seien für eine 00:16:33.520 --> 00:16:37.030 erhöhte Gewaltbereitschaft. Aber wie gesagt, da werde ich mich auf jeden Fall 00:16:37.030 --> 00:16:40.930 nochmal weiter informieren wollen, wie dieses System genau in der Praxis 00:16:40.930 --> 00:16:46.450 arbeitet. Und letztendlich ist es auch mal sehr interessant zu wissen, was passiert 00:16:46.450 --> 00:16:50.440 dann eigentlich mit diesem Farbskalasystem. In der ganzen 00:16:50.440 --> 00:16:55.210 Beschäftigung mit KI in den letzten zwei Jahren hat sich bei uns im Fraktionsteam 00:16:55.210 --> 00:16:59.500 irgendwann mal diese Frage aufgedrängt, was es denn überhaupt mit den Menschen 00:16:59.500 --> 00:17:04.140 macht, die mit solchen KI-Systeme arbeiten. Und es wird immer so ein 00:17:04.140 --> 00:17:08.610 bisschen als beruhigendes, ja sozusagen als so eine Art Feigenblatt ganz oft 00:17:08.610 --> 00:17:13.320 erwähnt. Naja, am Ende die letzte Entscheidung trifft ja der Mensch. Aber 00:17:13.320 --> 00:17:16.800 was bedeutet das eigentlich? Weil für uns hat dann tatsächlich an der Stelle diese 00:17:16.800 --> 00:17:20.910 Debatte nicht aufgehört, sondern erst angefangen. Weil die Frage ist dann: 00:17:20.910 --> 00:17:25.740 Welche Verantwortung kann ein Mensch dann überhaupt für seine Entscheidung 00:17:25.740 --> 00:17:30.000 übernehmen und wenn er tatsächlich diese Entscheidung treffen soll, ist er 00:17:30.000 --> 00:17:32.610 überhaupt dazu befähigt, diese Entscheidung zu treffen? Einmal 00:17:32.610 --> 00:17:37.710 tatsächlich kognitiv - weiß er überhaupt, wie das System funktioniert? Kann er 00:17:37.710 --> 00:17:41.760 einschätzen, wenn eine Klassifizierung oder eine Entscheidungsvorbereitung 00:17:41.760 --> 00:17:45.780 vorgenommen oder vielleicht sogar eine Entscheidung getroffen wird? Kann er 00:17:45.780 --> 00:17:51.450 überhaupt erkennen, ob diese Entscheidung des Systems richtig ist in seinem Sinne 00:17:51.450 --> 00:17:55.620 oder ob er vielleicht sich dagegen entscheiden sollte? Und selbst wenn er 00:17:55.620 --> 00:17:59.910 sich entscheidet, sich dagegen zu entscheiden, ist er überhaupt dazu 00:17:59.910 --> 00:18:03.570 berechtigt aufgrund von seiner Rolle in der Organisation? Es gibt Organisationen, 00:18:03.570 --> 00:18:07.200 da wird es ja vielleicht durchaus erwartet, dass er eigenmächtig entscheidet 00:18:07.200 --> 00:18:10.260 und dann gibt es andere Organisationsformen, wo es genau von ihm 00:18:10.260 --> 00:18:14.340 erwartet wird, sich nicht eigenmächtig zu entscheiden. Das betrifft jetzt alles 00:18:14.340 --> 00:18:22.590 nicht nur den Bereich Bildung, sondern insgesamt soziale Kontexte im Einsatz von 00:18:22.590 --> 00:18:27.210 KI-Systemne. Eine grundsätzliche Frage, die wir uns stellen müssen in allen 00:18:27.210 --> 00:18:30.450 Anwendungssektoren ist: Wer entscheidet denn überhaupt besser der Mensch oder die 00:18:30.450 --> 00:18:34.770 Maschine? Und nach welchen Gütekriterien wird das entschieden? Im Bildungsbereich 00:18:34.770 --> 00:18:39.450 gibt es ja durchaus die Meinung, dass es heißt, lieber sollen Schüler von scheinbar 00:18:39.450 --> 00:18:44.370 neutralen Systemen bewertet werden als von vorurteilsbelasteten Menschen. Aber auch 00:18:44.370 --> 00:18:49.080 ein System ist natürlich niemals neutral. Und auch selbst wenn ein Mensch mit 00:18:49.080 --> 00:18:54.090 Vorurteilen belastet ist, hat er trotzdem nur einen relativ kleinen 00:18:54.090 --> 00:18:58.560 Entscheidungsspielraum. Wenn hingegen für Bewertungsverfahren Systeme eingesetzt 00:18:58.560 --> 00:19:02.010 werden, dann wirken sie direkt auf die ganze Schule oder im schlechtesten Fall 00:19:02.010 --> 00:19:07.350 vielleicht sogar für das ganze Land. Und auch wenn wir uns dafür entscheiden, dass 00:19:07.350 --> 00:19:12.630 Entscheidungen an Maschinen ausgelagert werden soll, um Schaden zu vermeiden, ist 00:19:12.630 --> 00:19:15.270 auch die Frage: Wodurch entsteht denn überhaupt ein Schaden? Entsteht ein 00:19:15.270 --> 00:19:20.550 Schaden durch ein richtig funktionierendes System, das dann aber langfristig 00:19:20.550 --> 00:19:26.160 gesellschaftliche Schäden mit sich bringt? Oder entsteht ein Schaden durch ein nicht 00:19:26.160 --> 00:19:31.050 gut funktionierendes System oder nicht wie erwartet funktionierendes System? Und 00:19:31.050 --> 00:19:35.340 entstehen Schäden eigentlich nur durch Tun oder entstehen Schäden auch durch 00:19:35.340 --> 00:19:40.260 Unterlassung? Das heißt bezogen auf diese Entscheidung: Wer entscheidet besser, 00:19:40.260 --> 00:19:44.430 Mensch oder Maschine? Müssen all diese Aspekte mit betrachtet werden. Und auch 00:19:44.430 --> 00:19:48.360 der Verzicht auf ein maschinelles System, das vielleicht irgendwann nachweislich 00:19:48.360 --> 00:19:54.600 einen positiven Effekt hat, kann tatsächlich zu einem Schaden führen. Wenn 00:19:54.600 --> 00:19:59.460 wir uns dann dafür entschieden haben, dass wir ein KI System ergänzend einsetzen wollen 00:19:59.460 --> 00:20:03.480 in einem bestimmten Anwendungssektor, dann muss als nächstes entschieden werden: Wie 00:20:03.480 --> 00:20:06.930 viel Entscheidungsspielraum soll der Mensch dann überhaupt noch haben, wenn es 00:20:06.930 --> 00:20:11.220 heißt: Am Schluss trifft der Mensch die letzte Entscheidung? Die Papiere von der 00:20:11.220 --> 00:20:15.600 EU-Kommission zum Beispiel gehen im Moment von drei verschiedenen Stufen aus. Human 00:20:15.600 --> 00:20:20.760 in Command, Human on Command und Human in the Loop. Aber es gibt schon aus der 00:20:20.760 --> 00:20:24.480 Informatik viel ältere Klassifizierungssysteme, die viel 00:20:24.480 --> 00:20:29.910 ausgefeilter sind, z.B. vom MIT aus den 1980er Jahren, die bis zu zehn Stufen 00:20:29.910 --> 00:20:34.890 unterscheiden, in denen verschiedene Autonomiegrade vom Menschen bis zur 00:20:34.890 --> 00:20:38.880 Maschine einmal durchlaufen werden, also von der vollständigen Autonomie für den 00:20:38.880 --> 00:20:43.920 Menschen bis hin zur vollständigen Autonomie durch die Maschine. Das heißt, 00:20:43.920 --> 00:20:49.140 da ist dieser, diese Aussage, die menschliche, die letzte Entscheidung 00:20:49.140 --> 00:20:53.790 trifft der Mensch ist noch so viel wahnsinnig vielen Fragen unterworfen und 00:20:53.790 --> 00:20:57.960 vor allem aber, finde halte ich das für die allerwichtigste Frage, genau diese 00:20:57.960 --> 00:21:00.930 Abstufungen, welchen Entscheidungsspielraum Mensch überhaupt 00:21:00.930 --> 00:21:04.770 hat, weil daraus leitet sich dann letztendlich auch ab, wie ein Mensch 00:21:04.770 --> 00:21:08.280 weitergebildet werden muss, mit diesem System überhaupt zu arbeiten und welche 00:21:08.280 --> 00:21:11.730 Vereinbarungen er vielleicht in seinem Arbeitsvertrag braucht, also welche Rechte 00:21:11.730 --> 00:21:14.700 er überhaupt hat, diesen Entscheidungsspielraum tatsächlich 00:21:14.700 --> 00:21:23.720 wahrzunehmen. So, selbst wenn er diesen Entscheidungsspielraum dann für sich 00:21:23.720 --> 00:21:27.080 festgelegt hat, dann ist auch noch die Frage: Wie viel Entscheidungsspielraum 00:21:27.080 --> 00:21:30.829 lässt das System dann tatsächlich zu? Es gibt in diesem ganzen Bereich Mensch- 00:21:30.829 --> 00:21:35.480 Maschine Interaktion derzeit noch sehr, sehr wenig Forschung. Aber die ersten 00:21:35.480 --> 00:21:40.460 Forschungen, die es schon gegeben hat, die zeigen zum Beispiel: Selbst wenn Menschen 00:21:40.460 --> 00:21:44.630 erkennen, dass das System gerade nicht optimal arbeitet und sie möchten gerne in 00:21:44.630 --> 00:21:48.350 das System eingreifen, um einen Fehler zu eliminieren oder eine Korrektur 00:21:48.350 --> 00:21:52.550 vorzunehmen und dann dabei feststellen, dass dieser Prozess so wahnsinnig 00:21:52.550 --> 00:21:56.180 aufwendig und kompliziert ist, dann neigen Menschen tatsächlich dazu, mit diesem 00:21:56.180 --> 00:22:00.590 fehlerhaften System trotz besseren Wissens weiterzuarbeiten. Und das ist halt etwas, 00:22:00.590 --> 00:22:06.200 was wir gerade in sozialen Kontexten und gerade in Bereichen, in denen KI-Systeme 00:22:06.200 --> 00:22:10.880 über das Leben oder Lebenswege von Menschen entscheiden, einfach ganz genau 00:22:10.880 --> 00:22:14.390 hinschauen sollten, was es denn eigentlich bedeutet, wenn der Mensch die letzte 00:22:14.390 --> 00:22:18.080 Entscheidung treffen soll. Denn am Ende kann es tatsächlich sein, dass der 00:22:18.080 --> 00:22:21.830 Entscheidungsspielraum, der dort angedeutet wird, mit dieser Aussage viel, 00:22:21.830 --> 00:22:25.100 viel kleiner ist als angenommen Handlungsspielräume geklärt sind. Und 00:22:25.100 --> 00:22:29.210 auch, weil wir von total optimal funktionierenden KI-System ausgehen. Dann 00:22:29.210 --> 00:22:32.390 ergeben sich immer noch Probleme auf der strukturellen Ebene, sodass wir auf lange 00:22:32.390 --> 00:22:35.930 Sicht einfach schauen müssen: Was macht das dann mit der Lernkultur, mit der 00:22:35.930 --> 00:22:40.640 Bildungskultur an Schulen? Das fängt an bei der Erhebung von den Daten, also der 00:22:40.640 --> 00:22:44.990 Datafisierung von Lernprozessen. Aber ich werde nicht müde, immer wieder zu 00:22:44.990 --> 00:22:48.380 wiederholen, dass wir immer noch mit personenbezogenen Daten von größtenteils 00:22:48.380 --> 00:22:52.580 minderjährigen Schüler:innen arbeiten und dass wir Kinder auch schon sehr, sehr früh 00:22:52.580 --> 00:22:56.180 daran gewöhnen, sich mit algorithmischen Klassifizierungs- und Bewertungsverfahren 00:22:56.180 --> 00:23:00.770 auseinanderzusetzen und sich vielleicht ihnen auch sogar zu unterwerfen, ohne dass 00:23:00.770 --> 00:23:05.150 sie sie aufgrund der Black-Box Problematik vielleicht nachvollziehen können. Nächste 00:23:05.150 --> 00:23:09.470 Problematik ist das Ding der Standardisierung, Operationalisierung von 00:23:09.470 --> 00:23:13.820 Daten. Welche Dinge werden dabei ausgelassen? Wer bestimmt, was der 00:23:13.820 --> 00:23:17.600 Standard ist? Wer bestimmt, was das normale ist? Inwieweit können diese 00:23:17.600 --> 00:23:21.140 Systeme überhaupt hinterfragt werden? Welche Qualitäts- und Fairness-Maße beim 00:23:21.140 --> 00:23:28.190 Training, welche Feedback an diese Systeme gegeben werden? In der Bildung gehört es 00:23:28.190 --> 00:23:31.310 letztendlich dazu, auch nicht standardisierte Wege zu gehen. Hetty, 00:23:31.310 --> 00:23:34.100 einer der renommiertesten Bildungsforscher, hat in seiner Studie 00:23:34.100 --> 00:23:38.780 Visible Learning unter anderem nochmal herausgestellt, dass es zum einen zum 00:23:38.780 --> 00:23:43.370 Bildungserfolg gehört und dass es auch mit Bildungserfolg beiträgt, wenn Schüler:innen 00:23:43.370 --> 00:23:48.200 befähigt werden, vorgegebene Lösungswege aufzubrechen oder auch ihre eigenen zu 00:23:48.200 --> 00:23:52.520 finden. Aber durch diese ganze Vereinzelung und durch die 00:23:52.520 --> 00:23:57.500 Standardisierung gehen halt einfach auch bestimmte Möglichkeiten im Lern-Spektrum 00:23:57.500 --> 00:24:02.930 verloren, sodass Schüler:innen gar nicht mit alternativen Möglichkeiten vielleicht 00:24:02.930 --> 00:24:06.980 mehr konfrontiert werden, um ihren Horizont zu erweitern. Die nächste 00:24:06.980 --> 00:24:12.380 Problematik ist das Scheitern. Wenn ich jetzt in einem normalen Klassenverbund 00:24:12.380 --> 00:24:15.740 vielleicht selber schon mal merke, ich komme hier an meine Grenzen oder ich komme 00:24:15.740 --> 00:24:19.190 mit der Aufgabenstellung nicht zurecht, dann ist das natürlich total frustrierend. 00:24:19.190 --> 00:24:22.580 Aber gleichzeitig gehört das auch mit zum Bildungsprozess und zur 00:24:22.580 --> 00:24:27.680 Persönlichkeitsentwicklung auch dazu, Grenzen zu erkennen, auch mit Misserfolgen 00:24:27.680 --> 00:24:31.520 umzugehen. Und wenn all dies ausbleibt, dann verschieben sich diese Grenzen 00:24:31.520 --> 00:24:37.820 einfach viel, viel weiter nach hinten, weil dann immer nur der Inhalt präsentiert 00:24:37.820 --> 00:24:44.570 wird, der geradezu meinem vom System errechneten Lernniveau passt und ich aber 00:24:44.570 --> 00:24:48.320 vielleicht gar nicht mehr dazu richtig gefordert werde, mich auch aber mit Dingen 00:24:48.320 --> 00:24:53.120 auseinanderzusetzen, die ich vielleicht noch gar nicht können kann, die mich aber 00:24:53.120 --> 00:24:57.020 vielleicht jetzt aktuell nochmal weiterbringen. Jetzt im Klassenverband 00:24:57.020 --> 00:24:59.930 gibt es zwar auch das Thema der Binnendifferenzierung, also dass es 00:24:59.930 --> 00:25:03.650 unterschiedliche Inhalte idealerweise für verschiedene Lernniveaus oder für 00:25:03.650 --> 00:25:08.390 verschiedene Lerntypen gibt. Aber in einem Klassenverband gibt es immer noch die 00:25:08.390 --> 00:25:13.340 Möglichkeit, das in Gruppenarbeiten z.B. zu organisieren, wo etwas schwächere 00:25:13.340 --> 00:25:16.580 Schüler mit etwas stärkeren Schülern zusammen an einer Lösung arbeiten können. 00:25:16.580 --> 00:25:21.200 Wenn wir auf individualisierte systembasierte Lernpfade gehen, dann 00:25:21.200 --> 00:25:25.280 sitzen im Prinzip die Schüler:innen dort alleine und das System entscheidet, was 00:25:25.280 --> 00:25:28.040 hier präsentiert wird und was nicht präsentiert wird. Da geht einfach sehr, 00:25:28.040 --> 00:25:32.300 sehr viel verloren. Das Spektrum verengt sich. Gleichzeitig kann es aber auch 00:25:32.300 --> 00:25:37.130 passieren, dass Lehrkräfte vielleicht noch mehr angegriffen werden, als sie es 00:25:37.130 --> 00:25:40.730 vielleicht jetzt schon werden von Eltern einfach in Frage gestellt werden. Ihre 00:25:40.730 --> 00:25:44.510 Entscheidungssysteme können mehr in Frage gestellt werden, weil Lehrkräfte 00:25:44.510 --> 00:25:49.130 vielleicht verlangen, dass ein System nochmal die Bewertung nachvollzieht, was 00:25:49.130 --> 00:25:52.220 letztendlich sehr demotivierend für Lehrkräfte sein kann, was Vertrauen 00:25:52.220 --> 00:25:56.000 unterwandern kann und letztendlich auch die Autorität von Lehrkräften wieder 00:25:56.000 --> 00:25:59.480 unterwandern kann. Wir haben sowieso schon ein großes Problem mit Lehrkräftemangel 00:25:59.480 --> 00:26:05.210 und die Frage ist, ob solche Entwicklungen Lehrkräfte oder angehende Lehrkräfte 00:26:05.210 --> 00:26:09.200 motiviert, diesen Beruf dann überhaupt noch zu ergreifen, wenn sie sich dann auch 00:26:09.200 --> 00:26:13.370 zukünftig immer mit technischen System messen müssen. Letztendlich aber 00:26:13.370 --> 00:26:17.870 wahrscheinlich das größte Problem: Was macht es mit der Ungleichheit? Also alle 00:26:17.870 --> 00:26:21.590 Bildungsberichte gehen im Prinzip immer wieder davon aus, dass wir 00:26:21.590 --> 00:26:24.740 Bildungsungleichheiten und Ungerechtigkeiten haben. Das ist eines der 00:26:24.740 --> 00:26:29.630 größten Probleme im Bildungssektor, das es tatsächlich gibt, und die Frage ist, 00:26:29.630 --> 00:26:36.800 inwieweit die der verstärkte Einsatz von KI-Systemen diese Ungleichheiten entweder 00:26:36.800 --> 00:26:41.270 aushebelt oder vielleicht sogar verstärken kann. Das kann auf der individuellen Ebene 00:26:41.270 --> 00:26:45.230 passieren, dass Schüler:innen, die sich vielleicht sehr gut selbst organisieren 00:26:45.230 --> 00:26:48.200 können und vielleicht sehr gut mit Systemen arbeiten können, dieses schneller 00:26:48.200 --> 00:26:52.220 verstehen, vielleicht auch schneller wissen, wie sie es umgehen können. Während 00:26:52.220 --> 00:26:57.050 vielleicht eher lernschwache Schüler sich dem System eher ausgeliefert fühlen und 00:26:57.050 --> 00:27:00.920 vielleicht eher demotiviert werden, sich dann nochmal Hilfe zu suchen oder 00:27:00.920 --> 00:27:04.160 vielleicht auch Lehrkräfte das gar nicht unbedingt erkennen können, dass 00:27:04.160 --> 00:27:06.980 Schüler:innen vielleicht überhaupt Schwierigkeiten haben, wenn sie diese 00:27:06.980 --> 00:27:11.720 Systeme zuhause anwenden oder vielleicht hinter einem Bildschirm verschwinden. Auf 00:27:11.720 --> 00:27:16.880 einer größeren Ebene kann der Einsatz von KI Systemen die Ungleichheit verschärfen, 00:27:16.880 --> 00:27:21.770 weil einfach die Frage ist: Werden sich dann zukünftig eher gut ausgestattete 00:27:21.770 --> 00:27:26.930 Schulen in reichen Bundesländern, in privilegierten Umfeldern KI-Systeme zur 00:27:26.930 --> 00:27:32.150 Unterstützung leisten können? Oder werden KI-Systeme eher eingesetzt werden können 00:27:32.150 --> 00:27:36.320 in weniger privilegierten Kontexten? Es gibt in den USA gab es jetzt die 00:27:36.320 --> 00:27:41.060 Gründungen von Rocketchip Schulen. Ich kann mir den Namen immer sehr schlecht 00:27:41.060 --> 00:27:47.510 merken. Rocketchip Public Schools heißen sie und dort sitzt dann im Prinzip nur 00:27:47.510 --> 00:27:50.960 noch eine Hilfslehrkraft, die dann bis zu 90 Schüler:innen an ihren 00:27:50.960 --> 00:27:58.685 Computerbildschirmen steuert, anleitet, irgendwie unterstützt, um einfach auch 00:27:58.685 --> 00:28:02.990 Stellen an gut ausgebildeten Lehrkräften einzusparen. Dort läuft es auf eine Art 00:28:02.990 --> 00:28:07.760 Massenabfertigung hin und die Forschung, die es da gegeben hat, hat jetzt zumindest 00:28:07.760 --> 00:28:12.650 letztes Jahr schon gezeigt, dass die Ergebnisse, die die Schüler:innen dort erzielen, 00:28:12.650 --> 00:28:16.760 bis zu einer Note schlechter sind als Schüler:innen, die in einem herkömmlichen 00:28:16.760 --> 00:28:21.170 Klassenverband mit vernünftig ausgebildeten Lehrkräften lernen. Wir 00:28:21.170 --> 00:28:25.280 kennen diese Diskussionen auch im Gesundheitsbereich, in der Pflege. Auch da 00:28:25.280 --> 00:28:29.660 wird diskutiert, ob Robotics Systeme in der Pflege eher ein System für die 00:28:29.660 --> 00:28:35.330 Privilegierten sind. Wer es sich leisten kann, holt sich einen Roboter dazu. Oder 00:28:35.330 --> 00:28:40.400 ob es auch da eher um eine Auslagerung an Technik geht, dass wir in weniger 00:28:40.400 --> 00:28:44.090 privilegierten Einrichtungen einfach von Maschinen betreut werden anstatt von 00:28:44.090 --> 00:28:47.570 Menschen. Also da kann der Bildungssektor sich vielleicht ganz gut am 00:28:47.570 --> 00:28:51.920 Gesundheitssektor orientieren und diese Debatte dort mal verfolgen, in welche 00:28:51.920 --> 00:28:59.090 Richtung das geht. All diese Schwächen und Risiken zusammengenommen frage ich mich 00:28:59.090 --> 00:29:07.490 tatsächlich, ob das Werben für KI-Systeme an Schulen oder auch teilweise der Druck, 00:29:07.490 --> 00:29:10.940 der da gemacht wird, dass das eigentlich totale super Sache ist. Ob das nicht 00:29:10.940 --> 00:29:15.530 letztendlich einfach nur gemacht wird, um die eigentlichen Probleme im Schulsystem 00:29:15.530 --> 00:29:19.700 zu verschleiern. Denn eigentlich haben wir es mit einer großen Mangelfinanzierung zu 00:29:19.700 --> 00:29:23.630 tun. Wir haben zu große Klassen, wir haben zu wenig Lehrkräfte, wir haben einen 00:29:23.630 --> 00:29:27.990 wahnsinnigen Sanierungsstau. Und wenn gleichzeitig dann aber von Regierungen 00:29:27.990 --> 00:29:32.990 mitempfohlen wird, dass wir doch KI- Systeme und Learning Analytics einsetzen, 00:29:32.990 --> 00:29:35.930 weil dadurch die Lehrkräfte entlastet werden und sich dann besser um die 00:29:35.930 --> 00:29:40.730 Schüler:innen kümmern sollen. Wobei wir eigentlich gar keine Evidenz dafür haben, 00:29:40.730 --> 00:29:44.660 dass das tatsächlich so funktioniert und so klappt. Dann habe ich einfach zunehmend 00:29:44.660 --> 00:29:48.530 das Gefühl, dass genau diese Mangelwirtschaft einfach aufrechterhalten 00:29:48.530 --> 00:29:51.500 werden soll und dadurch verschleiert werden soll, dass wir mal wieder 00:29:51.500 --> 00:29:55.850 versuchen, soziale Probleme mit Technik zu lösen. Und das ist etwas, wo wir meiner 00:29:55.850 --> 00:30:00.140 Meinung nach genau jetzt an diesem Punkt sind, diese Diskussion zu führen und diese 00:30:00.140 --> 00:30:04.220 Entwicklung zu verhindern, weil diejenigen, die letztendlich darunter 00:30:04.220 --> 00:30:08.990 leiden, sind neben den Lehrkräften, die am Ende nämlich nur scheinbar entlastet 00:30:08.990 --> 00:30:13.460 werden, vor allem die Schülerinnen und Schüler, deren Daten jetzt einfach erhoben 00:30:13.460 --> 00:30:16.310 werden und verarbeitet werden sollen und wir gar nicht wissen, was daraus am Ende 00:30:16.310 --> 00:30:23.540 wird. So bedeutet das jetzt aber, dass KI- Systeme im Bildungssektor und in der 00:30:23.540 --> 00:30:26.630 Schule gar nichts verloren haben. So weit würde ich gar nicht gehen, sondern ich 00:30:26.630 --> 00:30:30.410 möchte gerne in Zukunft unterscheiden, auf welchen Ebenen wir KI-Systeme im 00:30:30.410 --> 00:30:34.010 Bildungssektor einsetzen. Wir haben jetzt bisher immer so ein bisschen betrachtet, 00:30:34.010 --> 00:30:38.630 was auf der Mikroebene passiert, also wo personenbezogene Daten von Schüler:innen 00:30:38.630 --> 00:30:42.590 oder von Lehrkräften analysiert und verarbeitet werden. Es gibt aber auch noch 00:30:42.590 --> 00:30:47.510 die Meso und Makroebene im Bildungssystem. Auf der Mesoebene reden wir von dem Zugang 00:30:47.510 --> 00:30:53.270 zu Lernorten oder auch zu Lerninhalten und die Makroebene betrachtet tatsächlich die 00:30:53.270 --> 00:30:57.050 übergreifende Steuerung von Bildungssysteme, wo sich z.B. auch die 00:30:57.050 --> 00:31:02.420 Problematik der Ungerechtigkeit lösen lassen müsste. Auf der Meso- und auf der 00:31:02.420 --> 00:31:07.340 Makroebene gibt es tatsächlich dann die Möglichkeit mit Open Data zu arbeiten und 00:31:07.340 --> 00:31:12.560 nicht mit personenbezogenen Daten, um halt diese bestimmten oder diese konkreten 00:31:12.560 --> 00:31:16.280 Probleme mit anzugehen. Und ich möchte jetzt im Folgenden eigentlich mal 00:31:16.280 --> 00:31:19.910 vorstellen, welche Beispiele es dafür jetzt schon gibt oder welche es geben 00:31:19.910 --> 00:31:29.930 könnte, damit es nicht so als Behauptung im leeren Raum steht. Also nochmal zurück 00:31:29.930 --> 00:31:35.510 auf die Mikroebene gegangen, gibt es dort auch durchaus Möglichkeiten, mit Systemen 00:31:35.510 --> 00:31:40.850 zu arbeiten, die nicht unbedingt die personenbezogenen Daten von Schülerinnen 00:31:40.850 --> 00:31:43.940 und Schülern verarbeiten. Das ist zum einen die Möglichkeit: Es gibt ein System, 00:31:43.940 --> 00:31:50.150 dass Lehrkräfte neue Methoden zum Beispiel anhand einer KI trainieren können und 00:31:50.150 --> 00:31:55.070 aufgrund des Feedbacks der KI dann sehen können, wo Verständnisschwächen entstehen, 00:31:55.070 --> 00:31:59.210 sodass sie dann ihre Methoden und ihre Erklärweisen nochmal anpassen können, 00:31:59.210 --> 00:32:02.870 bevor sie damit konkret in die Klasse gehen. Dann gibt es natürlich diesen 00:32:02.870 --> 00:32:08.960 ganzen Bereich der Administration, Vertretungspläne, Stundenpläne oder auch 00:32:08.960 --> 00:32:13.550 Postverwaltung. Da gibt es ja schon einige Beispiele, auch aus Behörden, wie sowas 00:32:13.550 --> 00:32:18.470 eingesetzt werden kann mit ganz, ganz unkritischen Anwendungsbereichen und 00:32:18.470 --> 00:32:24.650 keinen großen personenbezogenen Daten, die dafür nötig sind. Was auch total günstig 00:32:24.650 --> 00:32:30.200 ist, ist natürlich alles, was dazu beiträgt, das System KI zu verstehen. Also 00:32:30.200 --> 00:32:35.060 selbst wenn ich Anwendungen durchaus in gewissen Bereichen hier intensiv in Frage 00:32:35.060 --> 00:32:39.410 stellen möchte, ist zu keinem Zeitpunkt in Frage zu stellen, dass natürlich 00:32:39.410 --> 00:32:43.970 verstanden und gelernt werden muss, wie algorithmische und KI-Systeme 00:32:43.970 --> 00:32:49.136 funktionieren und was man mit ihnen machen kann. Das heißt, als Unterstützung für 00:32:49.136 --> 00:32:53.780 Lernmethoden oder auch um Experimente durchzuführen, ist es auch für Schüler 00:32:53.780 --> 00:32:58.280 durchaus geeignet. Es gab mal diesen Wettbewerb. Ich weiß nicht, ob der jedes 00:32:58.280 --> 00:33:02.330 Jahr stattfindet, zur KI Schule des Jahres. Dort haben jugendliche 00:33:02.330 --> 00:33:05.360 Schüler:innen unter anderem ein System entwickelt, um Zugverspätung 00:33:05.360 --> 00:33:11.480 vorherzusagen, also sehr anwendungsnah und sehr sinnvoll für viele von uns. Und auch 00:33:11.480 --> 00:33:16.610 Methoden der Textanalyse oder Datenbank- Analysen. Auch die können Schülern 00:33:16.610 --> 00:33:20.390 durchaus zugutekommen, sodass sie sie als Werkzeuge für das eigene Lernen benutzen 00:33:20.390 --> 00:33:24.740 und dabei aber weniger Schüler:innen Werkzeuge für das KI-System darstellen 00:33:24.740 --> 00:33:31.100 müssen. Auf der Meso-Ebene habe ich tatsächlich im Moment sehr, sehr wenig 00:33:31.100 --> 00:33:35.510 Anwendungsbeispiele gefunden, was da gemacht werden kann. Also eine Sache, die 00:33:35.510 --> 00:33:41.060 mich inspiriert hat, ist das Ergebnis eines EDU Hacks. Dort hat eine Gruppe eine 00:33:41.060 --> 00:33:46.250 Open Source Bibliothek entwickelt und sowas kann ich mir sehr sehr gut auch 00:33:46.250 --> 00:33:51.140 tatsächlich für Deutschland vorstellen, dass wir, wir haben ja diese Problematik, 00:33:51.140 --> 00:33:55.520 Lehrkräfte von euch werden das kennen, ich hab das jetzt auch schon oft gehört, dass 00:33:55.520 --> 00:34:00.050 Lehrkräfte immer auf der Suche sind. Wo finde ich denn gute OER Materialien? Woher 00:34:00.050 --> 00:34:02.630 weiß ich dann, dass die gut sind oder nicht? Woher weiß ich, ob die zu meinem 00:34:02.630 --> 00:34:05.690 Unterricht passen? Es ist alles so weit verstreut. Ich weiß gar nicht, wo ich das 00:34:05.690 --> 00:34:10.640 ganze gute Zeug finden soll. Sowas alles in eine Datenbank zu packen und dann mit 00:34:10.640 --> 00:34:14.360 KI-Systeme durchsuchbar zu machen und vielleicht auch so durchsuchbar zu machen, 00:34:14.360 --> 00:34:19.100 dass Lehrkräfte schnell dort auch wissen, wie komme ich dann an genau die 00:34:19.100 --> 00:34:22.070 Ergebnisse, die ich gerade für meinen Unterricht gebrauchen kann. Könnte ein 00:34:22.070 --> 00:34:27.110 Anwendungsbeispiel sein. Die OER-Strategie der Bundesregierung ist ja jetzt 00:34:27.110 --> 00:34:32.990 ausgelaufen. Wird gerade neu entwickelt. Kommt im nächsten Jahr. Und wir wissen 00:34:32.990 --> 00:34:36.560 leider noch nicht, was drin steht. Aber es bleibt einfach zu hoffen, dass eine 00:34:36.560 --> 00:34:41.420 Zentralisierung oder zumindest eine bessere Auffindbarkeit von OER-Inhalten 00:34:41.420 --> 00:34:47.660 dort mitgedacht wird. Das Thema Inklusion- Integration hatten wir schon angesprochen. 00:34:47.660 --> 00:34:52.130 Auch da sehe ich bei KI, wenn man diese ganzen Problematiken bei der 00:34:52.130 --> 00:34:57.950 Spracherkennung und Übersetzung ausgehebelt sind, wenn die ausgehebelt 00:34:57.950 --> 00:35:01.940 sind, dass wir dort auch noch viele Potenziale haben, die es zu heben gilt, um 00:35:01.940 --> 00:35:06.860 Inklusion und Integration einfach einfacher zu machen. Und was ich auch sehe 00:35:06.860 --> 00:35:14.090 ist im Kontext autonomes Fahren oder auch Verkehrsleitsysteme, das ganze Thema 00:35:14.090 --> 00:35:18.200 Schultransporte, sei es jahreszeitenbedingt oder vielleicht auch 00:35:18.200 --> 00:35:23.240 im ländlichen Raum und vor allem aber auch mit Blick auf Förderschulen oder inklusive 00:35:23.240 --> 00:35:28.280 Schulen. KI-Systeme können sicherlich dabei unterstützen, den Transport gut zu 00:35:28.280 --> 00:35:32.480 organisieren und effizient zu organisieren. Und wir werden es ja 00:35:32.480 --> 00:35:36.980 mindestens im nächsten Jahr auch noch mit dieser Pandemie zu tun haben. Und gerade 00:35:36.980 --> 00:35:41.450 inklusive Schulen oder Förderschulen haben bei diesem ganzen Transport Thema 00:35:41.450 --> 00:35:49.010 tatsächlich ein großes Problem, weil dort die Zusammenkunft von Schüler:innen in so 00:35:49.010 --> 00:35:54.140 einem Schulbus oder in so einem Transport Bus hin zur Schule für Menschen oder 00:35:54.140 --> 00:35:57.770 Schüler:innen mit Behinderung einfach noch ein viel, viel größeres Risiko darstellen, 00:35:57.770 --> 00:36:02.870 als es für gesunde Schüler:innen ist. Also Menschen mit Behinderung gehören zur 00:36:02.870 --> 00:36:10.500 Risikogruppe Nummer eins. Zu weiteren Potenzialen auf der Makroebene. Dort gibt 00:36:10.500 --> 00:36:13.860 es tatsächlich schon konkrete Anwendungsfälle, die uns für Deutschland 00:36:13.860 --> 00:36:18.990 auch ein Vorbild sein könnten. Also sowohl die Schweiz als auch Belgien haben zum 00:36:18.990 --> 00:36:22.470 Beispiel Systeme entwickelt, um die Durchmischung, die soziale Durchmischung 00:36:22.470 --> 00:36:28.050 an Schulen zu optimieren. Dass in etwas wohlhabenderen Stadtvierteln nicht nur 00:36:28.050 --> 00:36:31.980 privilegierte Schüleri:nnen sind und die weniger Privilegierten dann halt in 00:36:31.980 --> 00:36:36.180 Problemschulen landen, sondern dass dort einfach nochmal neu berechnet wird, wie 00:36:36.180 --> 00:36:39.630 eine bessere Durchmischung stattfinden kann. Das wurde in der Schweiz zum 00:36:39.630 --> 00:36:45.180 Beispiel so gemacht, dass die die Straßenzüge neu berechnet werden, wie 00:36:45.180 --> 00:36:49.650 Wohngebiete bestimmten Schulen zugeteilt werden. Das unter der Maßgabe, dass die 00:36:49.650 --> 00:36:53.340 Schulwege sicher sein müssen und dass sie nicht länger sein sollen als bisher 00:36:53.340 --> 00:36:57.900 gehabt. Und das hat im ersten Versuch tatsächlich so gut funktioniert, dass 00:36:57.900 --> 00:37:02.820 jetzt mehrere Kantone versuchen wollen, dieses System zu übernehmen. In Belgien 00:37:02.820 --> 00:37:07.050 hat es ein ähnliches Projekt gegeben. Dort wird jetzt im Moment das System aber 00:37:07.050 --> 00:37:12.870 nochmal überarbeitet, weil dort Eltern sich beschwert haben, dass dass sie ihre 00:37:12.870 --> 00:37:17.700 Kinder nicht mehr auf Schulen schicken oder gehen lassen können, die zum Beispiel 00:37:17.700 --> 00:37:20.760 bestimmte Schwerpunkte haben. Dann gibt es dann eine Schule, die hat eine 00:37:20.760 --> 00:37:25.320 Spezialisierung auf den musischen Bereich oder auf den sportlichen Bereich. Und dort 00:37:25.320 --> 00:37:28.680 wird das System jetzt so überarbeitet, dass die Schulen dort auch Faktoren 00:37:28.680 --> 00:37:32.820 gewichten können, sodass es dort zusätzlich zu der besseren sozialen 00:37:32.820 --> 00:37:36.660 Durchmischung auch die Möglichkeit gibt, noch bestimmte Schwerpunkte zu setzen. 00:37:36.660 --> 00:37:43.590 Auch wieder in UK gibt es ein System, dass es Behörden erleichtern soll, 00:37:43.590 --> 00:37:48.180 Schulinspektionen vorzunehmen. Das heißt, dort wird aufgrund von bestimmten 00:37:48.180 --> 00:37:52.620 Indikatoren rechtzeitig prognostiziert, welcher Schule vielleicht nochmal eine 00:37:52.620 --> 00:37:56.610 Inspektion oder ein Besuch durch die Behörde bedarf, um bestimmte Entwicklungen 00:37:56.610 --> 00:38:01.560 vielleicht rechtzeitig zu stoppen. Und auch in England, das fand ich ganz gut, 00:38:01.560 --> 00:38:07.470 gibt es ein, gibt es die NGO Nesta, die einige von euch vielleicht kennen. Und die 00:38:07.470 --> 00:38:12.450 haben ein eigenes Papier entwickelt, das genau auf das abzielt, was ich hier auch 00:38:12.450 --> 00:38:16.650 vorstellen möchte. Nämlich wenn wir KI im Bildungssektor schon einsetzen wollen, 00:38:16.650 --> 00:38:20.490 dann sollten wir uns auf die strukturellen Probleme konzentrieren. Oder wenn wir 00:38:20.490 --> 00:38:23.580 schon auf der Mikroebene arbeiten, dann sollten wir uns auf Systeme konzentrieren, 00:38:23.580 --> 00:38:28.320 die mit den Daten von Lehrkräften arbeiten und Lehrkräfte bei ihrer Arbeit 00:38:28.320 --> 00:38:32.130 unterstützen. Zumindest jetzt in einem ersten Schritt, wenn die KI-Systeme noch 00:38:32.130 --> 00:38:37.470 nicht so gut und so weiterentwickelt sind, wie wir sie vielleicht gerne hätten. Diese 00:38:37.470 --> 00:38:42.870 Systeme können tatsächlich schon Vorbild sein, auch für Deutschland. Und wovon ich 00:38:42.870 --> 00:38:46.470 in Deutschland auch ein bisschen träume und woran wir gerade politisch arbeiten, 00:38:46.470 --> 00:38:51.030 ist dieser leidige Königsteiner Schlüssel zum Beispiel. Der Königsteiner Schlüssel 00:38:51.030 --> 00:38:55.560 verteilt im Moment Fördergelder nach Bevölkerungsdichte und nach 00:38:55.560 --> 00:38:59.280 Steueraufkommen. Da funktioniert das ganz klassisch jetzt im Moment nach dem 00:38:59.280 --> 00:39:02.490 Matthäus Prinzip. Wer hat, dem wird gegeben. Reiche Länder bekommen den 00:39:02.490 --> 00:39:06.990 höheren Anteil an Fördergeldern und die etwas ärmeren Länder bekommen halt nicht 00:39:06.990 --> 00:39:11.550 so viel. Dabei sollte es doch eigentlich genau umgekehrt sein. Und wenn es 00:39:11.550 --> 00:39:19.950 tatsächlich möglich wäre, mit einem KI- System auf Basis von noch mehr oder 00:39:19.950 --> 00:39:24.630 anderen Daten zu ermitteln, welcher Förderzweck genau welche Förderhöhe 00:39:24.630 --> 00:39:29.580 brauch, dann wäre es doch vielleicht sogar möglich, dass wir je nach Förderzweck 00:39:29.580 --> 00:39:34.410 jedes Mal diesen Verteilungsschlüssel neu errechnen. Also wenn es dort Möglichkeiten 00:39:34.410 --> 00:39:38.160 gibt oder wenn es dort Ansätze gibt sowas zu entwickeln, bitte ich um 00:39:38.160 --> 00:39:42.360 Kontaktaufnahme. Das würde mich sehr sehr interessieren. Selbstverständlich würde 00:39:42.360 --> 00:39:46.560 das voraussetzen, dass von den Schulen, Schulträgern und auch Schulbehörden 00:39:46.560 --> 00:39:51.810 nochmal ganz andere Daten auch erhoben und erfasst werden. Es gibt aber auch bereits 00:39:51.810 --> 00:39:56.970 Bildungsdatenbank. Es gibt die Forschungsdatenbank Bildung, wo jetzt im 00:39:56.970 --> 00:40:00.720 Moment schon Bildungsstudien eingestellt sind, also die Infrastruktur letztendlich 00:40:00.720 --> 00:40:05.220 wäre für sowas vorhanden. Es müsste sich vielleicht nur etwas in der Kultur ändern, 00:40:05.220 --> 00:40:12.090 damit Schulen auch bereit sind oder damit überhaupt auch Länder und Behörden dort 00:40:12.090 --> 00:40:17.730 anfangen bestimmte Daten zu erheben, um dann halt auch die strukturellen Systeme 00:40:17.730 --> 00:40:25.380 auflösen zu können. So, welche Anforderungen brauchen wir letztendlich, 00:40:25.380 --> 00:40:30.600 um auf dieser Makroebene an die strukturellen Probleme heranzugehen? Dort 00:40:30.600 --> 00:40:33.690 würde ich gerne unterscheiden, ein bisschen was können Menschen auf der 00:40:33.690 --> 00:40:37.950 persönlichen Ebene tun? Was muss auf der Organisationsebene passieren und vor 00:40:37.950 --> 00:40:41.490 allem was braucht es noch auf der rechtlichen Ebene? Im Moment wird ja ganz, 00:40:41.490 --> 00:40:45.360 ganz viel immer davon geredet. Lehrkräfte müssen sich fortbilden, damit sie mit 00:40:45.360 --> 00:40:50.700 diesem System arbeiten können. Ja, das ist aber auch nur ein Teil, der getan werden 00:40:50.700 --> 00:40:55.020 muss. Und Teil dieser Fortbildung ist natürlich nicht nur, dass es darum geht, 00:40:55.020 --> 00:40:59.040 wie diese Systeme angewendet werden, sondern es braucht ein tiefes Verständnis 00:40:59.040 --> 00:41:04.410 einfach von KI als soziotechnisches System. Und es braucht das schöne 00:41:04.410 --> 00:41:10.680 Stichwort Data Literacy. Das heißt, ein Verständnis dafür zu entwickeln, was Daten 00:41:10.680 --> 00:41:16.560 überhaupt aussagen und aber vor allem anderen eigentlich braucht es auf der ganz 00:41:16.560 --> 00:41:20.640 individuellen Ebene immer noch ganz viel Fortbildung, was überhaupt das Thema 00:41:20.640 --> 00:41:26.220 Digitalisierung betrifft und auch der damit verbundene Kulturwandel. Überhaupt, 00:41:26.220 --> 00:41:32.670 sich zu öffnen, um Informationen oder auch Inhalte zu teilen, um eine gewisse 00:41:32.670 --> 00:41:37.170 Fehlerkultur zu entwickeln. All das ist ja gerade noch im Umbruch. Und wenn wir jetzt 00:41:37.170 --> 00:41:40.680 davon reden, dass wir KI-Systeme an den Schulen wollen oder dass es gefördert 00:41:40.680 --> 00:41:44.820 werden soll, dann habe ich manchmal das Gefühl, wir wollen einem Kind, das gerade 00:41:44.820 --> 00:41:48.750 das Fahrradfahren gelernt hat, wollen wir jetzt in einen Rennwagen setzen, weil es 00:41:48.750 --> 00:41:52.560 damit ja noch sicherer zur Schule kommt. Das passiert alles in einem sehr, sehr 00:41:52.560 --> 00:41:57.900 großen Tempo, das nicht damit erledigt werden sollte, dass wir uns einfach nur 00:41:57.900 --> 00:42:01.250 darauf zurücklehnen und sagen, Lehrkräfte müssen sich weiterbilden und dann können 00:42:01.250 --> 00:42:04.860 sie auch KI-Systeme in der Schule einsetzen. Die Eltern habe ich jetzt 00:42:04.860 --> 00:42:07.950 nochmal in Klammern gesetzt. Davon ausgehend, dass wir es vielleicht wirklich 00:42:07.950 --> 00:42:11.370 schaffen, unsere Forschungs- und Entwicklungsschwerpunkte mehr auf die 00:42:11.370 --> 00:42:15.540 Makro und auf die Meso Ebene zu legen und weniger auf die Schüler basierten Systeme. 00:42:15.540 --> 00:42:20.460 auf der Organisationsebene, also dort wo entschieden wird. Letztendlich kommt ein 00:42:20.460 --> 00:42:25.290 KI System zum Einsatz - Ja oder nein. Das ist die Schulleitung oder das Schulträger 00:42:25.290 --> 00:42:30.150 oder vielleicht auch Bundesländer. Muss natürlich als allererstes mal hinterfragt 00:42:30.150 --> 00:42:33.660 werden. Wozu brauche ich das System? Ich habe es eben schon angesprochen. Wenn wir 00:42:33.660 --> 00:42:37.150 ein soziales Problem an der Schule feststellen, ist ein technisches System 00:42:37.150 --> 00:42:41.500 tatsächlich dafür die Lösung? Oder sollten wir vielleicht eher auf der sozialen Ebene 00:42:41.500 --> 00:42:45.640 nochmal schauen, was wir vielleicht an unseren Lernzielen oder an unseren 00:42:45.640 --> 00:42:49.210 Methoden oder an unserer Organisationskultur verändern müssen? 00:42:49.210 --> 00:42:53.680 Selbst wenn wir uns entscheiden für ein technisches System, dann muss natürlich 00:42:53.680 --> 00:42:57.910 entsprechend die Infrastruktur gegeben sein. Das heißt, die Frage ist: Wo werden 00:42:57.910 --> 00:43:01.990 Daten, mit denen gearbeitet wird? Wo werden sie gespeichert? Sind sie dort 00:43:01.990 --> 00:43:05.920 überhaupt sicher genug? Haben wir überhaupt WLAN an den Schule, damit dort 00:43:05.920 --> 00:43:10.240 vor Ort gearbeitet werden kann? All diese Fragen. Natürlich braucht es auch auf der 00:43:10.240 --> 00:43:14.440 Entscheidungsebene Kompetenzen. Es braucht den Kulturwandel und überhaupt erst einmal 00:43:14.440 --> 00:43:19.750 die Grundlagen der Digitalisierung, bevor wir mit KI die nächsten Stufe gehen. Wir 00:43:19.750 --> 00:43:23.950 brauchen die Regelung zur menschlichen Entscheidungsfähigkeit tatsächlich auch in 00:43:23.950 --> 00:43:29.980 den Arbeitsverträgen und wie auch in anderen Verwaltungsbereichen auch sollte 00:43:29.980 --> 00:43:33.820 es auch im Bildungsbereich einfach ganz klare Beschaffungsrichtlinien geben. Wenn 00:43:33.820 --> 00:43:38.920 Systeme angeschafft werden, dann braucht es ganz klare Anforderungskataloge, wie 00:43:38.920 --> 00:43:44.860 diese Systeme gestaltet werden sollen. Und natürlich muss sich dann auch der Bund 00:43:44.860 --> 00:43:50.410 entscheiden, Förderungen in die richtige Richtung zu schicken und diese Systeme zu 00:43:50.410 --> 00:43:54.910 fördern und zu unterstützen, die sich auf die Meso- und Makroebene fokussieren und 00:43:54.910 --> 00:44:02.050 nicht die Attack Startups, die versuchen, das Lernerlebnis für Schüler zu 00:44:02.050 --> 00:44:06.250 verbessern, obwohl es dafür keine Evidenz gibt, werde ich auch nicht müde, das immer 00:44:06.250 --> 00:44:11.200 wieder zu wiederholen. Und dann haben wir natürlich auf der rechtlichen Ebene noch 00:44:11.200 --> 00:44:14.800 viele offene Fragen, die KI-Systeme im Allgemeinen betreffen und gar nicht 00:44:14.800 --> 00:44:19.360 unbedingt nur auf den Bildungssektor Anwendung finden. Und das ist einmal die 00:44:19.360 --> 00:44:24.070 Problematik der Nachvollziehbarkeit. Also solange KI-Systeme an sich selber nicht 00:44:24.070 --> 00:44:27.700 nachvollziehbar sind, müssen zumindest Schnittstellen geschaffen werden, dass 00:44:27.700 --> 00:44:32.980 Evualator:innen oder Forscher:innen zumindest reingucken können, was das 00:44:32.980 --> 00:44:38.020 System überhaupt macht. Wir brauchen eine Nachweisbarkeit, dass diese Systeme 00:44:38.020 --> 00:44:42.790 funktionieren, erst recht, wenn wir mit Schüler:innen an Daten arbeiten wollen. Und 00:44:42.790 --> 00:44:48.340 wir brauchen eine Kritikalität ex ante. Wir reden hier vom Bildungssektor. Dort 00:44:48.340 --> 00:44:52.300 werden Lebenswege vorbestimmt. Das ist nicht der Raum, um Experimente zu machen 00:44:52.300 --> 00:44:56.590 und mal Systeme loszulassen, laufen zu lassen und dann mal zu gucken, welche 00:44:56.590 --> 00:45:01.000 Probleme sie eventuell entwickeln. Wir haben aus dem Ausland jetzt schon genügend 00:45:01.000 --> 00:45:04.870 Beispiele, was nicht gut funktioniert. Ich wäre kein Fan davon, wenn wir das Ganze 00:45:04.870 --> 00:45:09.790 hier in Deutschland nochmal wiederholen wollen. Eigentlich nicht nötig, das zu 00:45:09.790 --> 00:45:12.190 sagen, aber es braucht letztendlich auch eine rechtlich bindende 00:45:12.190 --> 00:45:17.470 Anbieterstabilität. Es gab tatsächlich, ich glaube auch in den USA, das System 00:45:17.470 --> 00:45:21.760 inBlue. Das wurde überall ausgerollt und eingesetzt. Und dann irgendwann hat der 00:45:21.760 --> 00:45:25.390 Anbieter entschieden, seine Dienste einzustellen. Was aus den Daten geworden 00:45:25.390 --> 00:45:31.270 ist bis dahin weiß letztendlich kein Mensch. Das ganze Thema Offenheit sollte 00:45:31.270 --> 00:45:35.230 gerade bei KI Entwicklung im Bildungssektor viel, viel stärker auch 00:45:35.230 --> 00:45:41.883 eingefordert und verankert werden. Das heißt, auch KI-Systeme sollten wie Open- 00:45:41.883 --> 00:45:47.710 Source-Software behandelt werden, als OpenAI z.B. stärker mitgefördert werden. Wir 00:45:47.710 --> 00:45:54.400 müssen viel stärker entwickeln im Bereich OER Open Data, um dann diese ganzen Daten, 00:45:54.400 --> 00:45:59.740 die wir im Lern-Kontext dann auch sammeln, wiederum als Open Educational Data, also 00:45:59.740 --> 00:46:05.380 als OED auch wieder zur Verfügung zu stellen. Ohne offene Datenbasis kommen wir 00:46:05.380 --> 00:46:10.810 da nicht hin. Sehr charmant finde ich auch die Idee der öffentlichen Register. Dort 00:46:10.810 --> 00:46:14.770 sollten sich auch KI-Systeme im Bildungsbereich eintragen lassen. Und was 00:46:14.770 --> 00:46:19.480 auf jeden Fall passieren muss, ist die Überarbeitung des Artikels 22 der DSGVO. 00:46:19.480 --> 00:46:24.040 Dort werden im Moment ja nur Entscheidungen geregelt, 00:46:25.060 --> 00:46:29.950 vollautomatisierte Entscheidungen sind dort geregelt. Was nicht geregelt ist, 00:46:29.950 --> 00:46:34.630 sind teilautomatisierte Systeme und teilautomatisierte Systeme sind ja die, die 00:46:34.630 --> 00:46:38.170 jetzt eigentlich weitestgehend im Einsatz sind. Und wenn wir auch da wieder im 00:46:38.170 --> 00:46:41.470 Hinterkopf haben, dass ja als Argument immer noch gilt: Der Mensch trifft die 00:46:41.470 --> 00:46:45.160 letzte Entscheidung, werden wir es auch zukünftig verstärkt mit teil- 00:46:45.160 --> 00:46:49.840 automatisierten System zu tun haben. Und dort müssen Einspruchsrechte und 00:46:49.840 --> 00:46:55.370 Widerspruchsrechte einfach noch klarer geregelt werden. Ach nee, bevor ich zu 00:46:55.370 --> 00:47:00.380 meinem Fazit komme, möchte ich nochmal auf die lange Kette der Verantwortlichkeit 00:47:00.380 --> 00:47:05.540 auch nochmal eingehen. Wenn Systeme tatsächlich ausgewählt werden, müssen 00:47:05.540 --> 00:47:11.360 Entscheider in der Lage sein, auch diese Systeme zu beurteilen. Und in ganz, ganz 00:47:11.360 --> 00:47:16.100 grober Anlehnung an diese lange Kette der Verantwortlichkeit von Katharina Zweig und 00:47:16.100 --> 00:47:21.470 Tobias Kraft sollte es mit in einen Anforderungskatalog und sollte es mit in 00:47:21.470 --> 00:47:26.090 den Kompetenzkatalog von all denjenigen, die dazu entscheiden, dass sie in der Lage 00:47:26.090 --> 00:47:30.620 sind, zu hinterfragen und zu prüfen. Aufgrund von welcher Datenbasis wurde ein 00:47:30.620 --> 00:47:35.000 System trainiert, also welche Qualität, welche Quantität? Wie alt sind die Daten? 00:47:35.000 --> 00:47:39.530 Passen sie überhaupt zum Trainingszweck? Dann letztendlich auch nach welchen 00:47:39.530 --> 00:47:45.500 Maßgaben wurde das System trainiert? Ganz ganz wichtig ist ja auch ein KI-System, 00:47:45.500 --> 00:47:48.950 das einmal für einen bestimmten Zweck trainiert wurde, ist nicht unbedingt 00:47:48.950 --> 00:47:52.430 günstig in einem ganz anderen Anwendungskontext. Gerade im 00:47:52.430 --> 00:47:55.850 Bildungsbereich, wenn damit geworben wird, dass bei Übersetzungssystemen oder 00:47:55.850 --> 00:48:00.080 Spracherkennungssystemen das es ja ganz ganz tolle Software as a Service Systeme 00:48:00.080 --> 00:48:04.250 schon gibt, die quasi von der Stange gekauft werden können, muss immer noch 00:48:04.250 --> 00:48:08.000 hinterfragt werden: Passt das tatsächlich zu meinem Anwendungskontext? Und 00:48:08.000 --> 00:48:12.350 letztendlich passt auch dieses System zu meinem Ethik-System, das ich bei mir an 00:48:12.350 --> 00:48:17.930 der Schule habe. Datenverwendung ist ganz, ganz wichtig. Was passiert mit den Daten, 00:48:17.930 --> 00:48:22.490 die erhoben werden an einer Schule, auch wenn es nur Daten von Lehrkräften sind? 00:48:22.490 --> 00:48:26.390 Gerade in dem Moment, wo es personenbezogene Daten sind, muss einfach 00:48:26.390 --> 00:48:31.310 sichergestellt werden, dass nicht nur rechtlich, sondern auch tatsächlich aktiv 00:48:31.310 --> 00:48:34.670 in der Anwendung ist, es überhaupt kein Weg gibt, dass diese Daten an Stellen 00:48:34.670 --> 00:48:38.900 weitergegeben werden, wo sie nicht hingehören. Es gibt aus den USA, auch mal 00:48:38.900 --> 00:48:46.280 wieder dort dieses Beispiel, dass Akteure der Wissenschaftsverlagsbranche Daten von 00:48:46.280 --> 00:48:50.540 Wissenschaftlern weitergegeben haben an die Einwanderungsbehörde ICE, was auch 00:48:50.540 --> 00:48:53.600 immer sie dort verloren haben. Aber das sind alles Entwicklungen, die müssen 00:48:53.600 --> 00:48:58.400 ausgeschlossen sein. Ganz großer Komplex IT-Sicherheit. Das muss sichergestellt 00:48:58.400 --> 00:49:03.740 sein. Das ist im Prinzip ein eigener Vortrag. Dort möchte ich hier aber 00:49:03.740 --> 00:49:07.840 verweisen auf die Arbeiten der Stiftung Neue Verantwortung, die schon ganz, ganz 00:49:07.840 --> 00:49:11.530 viel dazu untersucht und entwickelt und auch Schaubilder gemacht haben, welche 00:49:11.530 --> 00:49:16.450 Angriffs-Vektoren es für KI-Systeme überhaupt gibt. Und letztendlich müssen 00:49:16.450 --> 00:49:20.830 Entscheider:innen auch sicherstellen, dass es Ressourcen gibt, um dieses Thema, wenn sie 00:49:20.830 --> 00:49:23.920 dann einmal im Einsatz sind, auch tatsächlich dauerhaft evaluiert sind, 00:49:23.920 --> 00:49:27.550 damit sich diese ganzen Schwächen, die wir ja kennen, nicht erst in der Praxis, dann 00:49:27.550 --> 00:49:33.520 auch noch einschleichen. Das heißt, wenn einem bewusst wird, was es alles für 00:49:33.520 --> 00:49:37.780 Anforderungen braucht, um KI-Systeme im Bildungssektor egal zu welchem Zweck 00:49:37.780 --> 00:49:42.940 einzusetzen, dann wird glaube ich klar, dass das etwas ist, was noch ein sehr 00:49:42.940 --> 00:49:47.350 langer Weg ist, was nicht überhastet angegangen werden soll und was noch sehr, 00:49:47.350 --> 00:49:51.580 sehr viel Qualifizierung und Weiterentwicklung braucht. Und das 00:49:51.580 --> 00:49:55.960 letztendlich bringt mich jetzt zu meinem Fazit. Bisher ist es so, dass bei KI im 00:49:55.960 --> 00:49:59.680 Bildungssektor vornehmlich darüber gesprochen wird, dass Learning Analytics 00:49:59.680 --> 00:50:03.250 Systeme eingesetzt werden, um halt das Lernverhalten von Schülerinnen und 00:50:03.250 --> 00:50:07.840 Schülern zu analysieren und dabei mit personenbezogenen Daten gearbeitet wird. 00:50:07.840 --> 00:50:12.580 Letztendlich gibt es zum jetzigen Zeitpunkt noch keine Evidenz dafür, dass 00:50:12.580 --> 00:50:15.910 diese Systeme funktionieren und dass diese ganzen Datensammlungen auch tatsächlich 00:50:15.910 --> 00:50:19.600 sinnvoll sind. Es ist ganz, ganz viel Marketing und vor allem auch 00:50:19.600 --> 00:50:22.990 Wirtschaftsförderung dahinter. Wenn diese Startups jetzt in die Richtung gefördert 00:50:22.990 --> 00:50:28.060 werden und das Risiko, das damit entsteht, wenn diese Systeme weiterhin in die 00:50:28.060 --> 00:50:31.450 Schulen gedrückt werden, ist dass die wahren strukturellen Probleme einfach 00:50:31.450 --> 00:50:35.020 dadurch verschleiert werden und dass diese Mangelwirtschaft einfach fortgesetzt 00:50:35.020 --> 00:50:39.040 werden und diese ganzen Potenziale, die KI tatsächlich mit sich bringt, diese 00:50:39.040 --> 00:50:45.190 Probleme tatsächlich mit zu lösen, dass die einfach gar nicht gehoben werden. Das 00:50:45.190 --> 00:50:51.250 Risiko dabei ist, dass es vornehmlich immer um personenbezogene Daten von 00:50:51.250 --> 00:50:55.540 minderjährigen Schüler:innen geht und dass die ganzen Chancen, die wir im OpenData 00:50:55.540 --> 00:51:00.670 Bereich haben, dafür einfach weiterhin nicht genutzt werden. Und wir haben jetzt 00:51:00.670 --> 00:51:04.900 den Zeitpunkt, wo die Weichen gestellt werden. Ist das genau der Pfad, auf dem 00:51:04.900 --> 00:51:08.620 wir jetzt auch weitergehen wollen? Oder wollen wir jetzt anfangen, in diese 00:51:08.620 --> 00:51:13.600 Entwicklung einzugreifen und den Fokus mehr auf die Meso- und Makroebene legen? 00:51:13.600 --> 00:51:19.510 Die EU-Kommission hat jetzt kürzlich ihren überarbeiteten Digital Education Plan 00:51:19.510 --> 00:51:24.070 vorgestellt. Dort ist zu diesem ganzen Thema KI vorgesehen, dass Lehrkräfte 00:51:24.070 --> 00:51:29.140 weitergebildet werden müssen. Dass es Ethik-Leitlinien geben müssen und 00:51:29.140 --> 00:51:32.140 letztendlich auch, dass Forschung nochmal intensiviert werden muss. Und das ist 00:51:32.140 --> 00:51:37.060 jetzt genau der Punkt, um dort reinzugehen und die Fragen zu stellen und darauf hin 00:51:37.060 --> 00:51:42.580 zu drängen, dass in die richtige Richtung geforscht wird. Das hat mich letztendlich 00:51:42.580 --> 00:51:48.250 in dieser ganzen Vorbereitung zu meiner Empfehlung gebracht. In Anlehnung an diese 00:51:48.250 --> 00:51:52.360 Pyramide von der Datenethikkommissionen, die ich eigentlich, wenn das Prinzip der 00:51:52.360 --> 00:51:56.800 Risiko-Klassifizierung diskutabel ist, finde ich eigentlich dieses 00:51:56.800 --> 00:52:03.100 Pyramidensystem sehr gelungen. Und übertragen auf KI-Systeme im 00:52:03.100 --> 00:52:07.900 Bildungsbereich sehe ich einen ganz, ganz großen, grünen, unkritischen Bereich, wenn 00:52:07.900 --> 00:52:11.230 es darum geht, die Forschung und Entwicklung auf der Makroebene weiter zu 00:52:11.230 --> 00:52:16.210 unterstützen und weiter zu fördern. Alles unter der Nutzung von Open Data, die 00:52:16.210 --> 00:52:20.680 entweder schon vorhanden sind oder vielleicht auch noch weiter erhoben und 00:52:20.680 --> 00:52:24.580 genutzt werden können. Das fließt größtenteils auch noch mit rein in die 00:52:24.580 --> 00:52:29.770 Meso Ebene, die auch auf der Basis von Open Data schon sehr sehr viel Gutes 00:52:29.770 --> 00:52:34.690 erreichen kann. Und ganz ganz oben in der Spitze, wo ich den roten Bereich sehe, ist 00:52:34.690 --> 00:52:39.880 tatsächlich die Mikroebene, wenn es um die Analyse-Systeme geht für Schüler:innen und 00:52:39.880 --> 00:52:44.470 für Lehrkräfte, wo mit personenbezogenen Daten gearbeitet wird. Wenn es dort 00:52:44.470 --> 00:52:48.820 weitere Entwicklungen geben sollte, dann würde ich es bevorzugen, wenn es dort ein 00:52:48.820 --> 00:52:52.180 Forschungsbereich gibt oder den Anwendungsbereich vielleicht höchstens für 00:52:52.180 --> 00:52:57.940 Lehrkräfte. Aber dass wir die ganze Analyse von Schüler:innen vielleicht 00:52:57.940 --> 00:53:01.450 erst mal noch außen vorlassen, bis wir vielleicht viel mehr über KI-Systeme 00:53:01.450 --> 00:53:05.740 wissen und alles immer unter der Voraussetzung, dass die Daten, die erhoben 00:53:05.740 --> 00:53:09.580 werden, dann auch weiter zur Verfügung gestellt werden für die Generierung von 00:53:09.580 --> 00:53:16.840 Open Educational Data. Das war's. Vielen Dank für eure Aufmerksamkeit. Alle 00:53:16.840 --> 00:53:20.590 Anregungen, um die ich gebeten habe, alle Lücken, die ich vielleicht noch gelassen 00:53:20.590 --> 00:53:24.440 habe, oder alle Interessenten, die Lust haben, an diesem Thema auch noch mit 00:53:24.440 --> 00:53:28.670 weiterzuarbeiten, freue ich mich total über Kontaktaufnahme und Feedback und 00:53:28.670 --> 00:53:33.470 weitere Informationen. Ich habe hier auch noch einen großen Anhang mit Quellen, die 00:53:33.470 --> 00:53:38.480 ich verarbeitet habe. Wenn es dazu auch noch Rückfragen gibt, kommt jederzeit 00:53:38.480 --> 00:53:42.770 - nicht jederzeit, nich nachts um drei. Also per E-Mail schon, aber vielleicht nicht per Telefon. 00:53:42.770 --> 00:53:46.550 Aber die habt ihr ja auch gar nicht die Nummer - egal, kommt einfach auf mich zu. 00:53:46.550 --> 00:53:50.450 Und dann würde es mich freuen, wenn wir im Gespräch bleiben. Vielen Dank. 00:53:50.450 --> 00:53:56.270 Herald: Hallo Nina, schön, dass du da 00:53:56.270 --> 00:54:02.270 warst. Danke für den spannenden Vortrag grade. Wir hatten so ein bisschen 00:54:02.270 --> 00:54:05.660 technische Probleme im Hintergrund. Ich hoffe deswegen, dass alle im Live-Stream 00:54:05.660 --> 00:54:14.450 den Talk auch gut sehen konnten. Nina, du hast viel erzählt über KI und die Grenzen 00:54:14.450 --> 00:54:19.880 und Vorteile. Was sind denn so aus deiner Sicht vielleicht die klugen nächsten 00:54:19.880 --> 00:54:23.540 Schritte, die man so gehen müsste? Was künstliche Intelligenz und Klassenzimmer 00:54:23.540 --> 00:54:29.330 betrifft? Nina: Hallo Nina, ja genau. Was sind die, 00:54:29.330 --> 00:54:33.470 was sind die nächsten Schritte? Also ich glaube wir sind im Moment an so einer 00:54:33.470 --> 00:54:37.760 Entwicklungsphase, wo KI in der Schule und im Bildungsbereich einfach noch nicht so 00:54:37.760 --> 00:54:40.790 wahnsinnig weit verbreitet ist. Und ich hab das ja auch gemerkt bei meiner 00:54:40.790 --> 00:54:45.380 Recherche und auch z.B. hier, was diese Meso-Ebene angeht. Es gibt noch nicht so 00:54:45.380 --> 00:54:50.450 extrem viele Anwendungen, wo man konkret jetzt schon reingehen und eingreifen kann 00:54:50.450 --> 00:54:52.910 und sagen wir wollen hier eine andere Entwicklung oder das und das muss so 00:54:52.910 --> 00:54:59.270 konkret weitergehen. Was allerdings gut an dieser Entwicklung ist, ist eben, dass wir 00:54:59.270 --> 00:55:04.670 noch an diesem frühen Punkt sind und auch die Möglichkeiten haben, Einfluss nehmen 00:55:04.670 --> 00:55:09.040 zu können. Habe ich da ein äh im Hintergrund gehört? Ja okay, ich rede 00:55:09.040 --> 00:55:14.260 einfach weiter. Das heißt, nach allem, was ich jetzt mitbekommen habe, wie sich das 00:55:14.260 --> 00:55:20.050 Thema KI in der Bildung gerade ansetzt zu entwickeln, möchte ich eigentlich gerne so 00:55:20.050 --> 00:55:24.250 eine Art Break machen. Einen kleinen Schnitt und nochmal hinterfragen ist der 00:55:24.250 --> 00:55:28.300 Weg, der jetzt eingeschlagen wird von den Attack-Startups und auch von den 00:55:28.300 --> 00:55:32.200 Regierungen, ist das überhaupt der Richtige, dass wir KI-Systeme einsetzen, 00:55:32.200 --> 00:55:38.650 um das Verhalten und Lernverhalten von Lernenden zu analysieren? Oder wollen wir 00:55:38.650 --> 00:55:42.160 nicht nochmal überlegen, ob wir nicht die KI-Systeme, die wir jetzt haben, dazu 00:55:42.160 --> 00:55:45.490 nutzen können, die strukturellen Probleme im Bildungssektor anzugehen? Davon gibt es 00:55:45.490 --> 00:55:49.510 genug. Dort haben wir eine ganz andere Datenbasis und es kann vor allem weniger 00:55:49.510 --> 00:55:54.370 Schaden angerichtet werden für die einzelnen Personen, die analysiert werden 00:55:54.370 --> 00:55:57.940 oder dann halt auch im besten Fall gar nicht mehr analysiert werden, weil alles, 00:55:57.940 --> 00:56:02.500 was wir aus der KI Geschichte wissen, dass es sehr, sehr viel Schwierigkeiten gibt, 00:56:02.500 --> 00:56:06.970 sobald KI in sozialen Kontexten eingesetzt werden. Also wenn KI-Systeme benutzt 00:56:06.970 --> 00:56:10.570 werden, um Menschen zu analysieren, jetzt kurz auf den Punkt gebracht, dann führt 00:56:10.570 --> 00:56:14.380 das meistens zu größeren Problemen und wir sollten in der Bildung nicht diese Fehler 00:56:14.380 --> 00:56:18.760 wiederholen. Herald: Ja, das sind auf jeden Fall 00:56:18.760 --> 00:56:23.530 ziemlich gute Gedankenanstöße. Wir haben leider gar nicht so richtig, richtig viel 00:56:23.530 --> 00:56:26.440 Zeit, um jetzt hier noch Fragen zu beantworten. Ich sehe gerade im Chat auch 00:56:26.440 --> 00:56:31.330 tatsächlich keine. Ich bin aber sicher, dass es da noch viel Gesprächsbedarf gibt. 00:56:31.330 --> 00:56:36.790 Deswegen würde ich vorschlagen, dass wir jetzt mit dir in einen Big Blue Button 00:56:36.790 --> 00:56:38.022 umziehen. 00:56:38.022 --> 00:56:40.750 Outro Musik 00:56:40.750 --> 00:56:48.000 Untertitel erstellt von c3subtitles.de im Jahr 2021. Mach mit und hilf uns!