36c3 Vorspannmusik Herald: Alles muss digitalisiert werden, alles muss effizienter und schneller werden. Aber ist es am Ende dann auch noch gerecht und rechtens und gut? Und ist es wirklich das, was wir am Ende haben wollten? Oder haben wir dann einfach nur noch eine Maschine, die über uns entscheidet? Darüber werden unsere nächsten zwei Vortragenden berichten. Anna Biselli ist Informatikerin und Journalistin und Lea Beckmann ist bei der Gesellschaft für Freiheitsrechte Juristinnen und beschäftigt sich mit dem Thema. Also ich kann mir kein besseres Team vorstellen als Anna und Lea für dieses Topic. Eine dicke runde Applaus bitte. Applaus Lea Beckmann: Hallo, ich freue mich, dass ihr so zahlreich gekommen seid. In der Vorstellungsrunde möchte ich jetzt vielleicht einmal kurz doch noch, das war jetzt nicht geplant ist, Anna, aber dich vorstellen. Anna Biselli ist Informatikerin und Journalistin und recherchiert seit einigen Jahren zur Digitalisierung in der Migrationskontrolle. Und wenn wir über das Thema in Deutschland etwas wissen, wenn wir vor allem auch mehr wissen als in anderen Ländern, dann ist das sicherlich in maßgeblicher Weise auch dir zu verdanken. Die Frage ist also ein bisschen, was ich eigentlich hier auf der Bühne mache. Das will ich vielleicht kurz erklären. Ich arbeite bei der Gesellschaft für Freiheitsrechte und wir sind eine Berliner NGO. Wir setzen uns ein für den Schutz von Menschenrechten. Und zwar machen wir das durch strategische Prozessführung in aller Regel durch Gerichtsverfahren. Und zwar wollen wir dort, also wir sehen, dass in bestimmten Themenbereichen einfach nicht geklagt wird, rechtswidrige Behörden, Praktiken oder auch verfassungswidrige Gesetze nicht angegriffen werden und deswegen sich Rechtsschutz Lücken in der Praxis stellen. Und wir wollen helfen, das zu mit schließen und also in diesen Themenbereichen genauer rein zu schauen. Und bei der Digitalisierung in der Migrationskontrolle kommen quasi zwei Themenbereiche zusammen, in denen das der Fall ist, nämlich der Migrationsbereich, also insbesondere Asylsuchende, die einfach faktisch Schwierigkeiten im Zugang zu Recht haben, die in Deutschland neu ankommen, die Sprache nicht sprechen, traumatisierende Erfahrung möglicherweise in der Vergangenheit haben mit ganz anderen Problemen im Alltag zu kämpfen haben, also mit großen Rechtsschutzlücken. Und andererseits geht es um Digitalisierungsthemen, und da ist für viele Menschen einfach auch schon technisch nicht zu verstehen, worum es geht. Und die Eingriffe in informationelle Selbstbestimmung sind nicht so spürbar. Deswegen ist es also ein Thema, in dem es wichtig ist, dass auch mehr gerichtliche Kontrolle herbeigeführt wird. Deswegen haben Anna und ich quasie zu diesem Thema zusammengefunden, weil Anna seit Jahren zu diesem Thema recherchiert und wir eben aus juristischer Sicht prüfen wollen bei einem besonderen Thema, wie wir vorgehen, können und dazu werden wir gleich noch genauer kommen. Vielleicht so viel zur Einleitung. Anna Biselli: Genau. Und bevor wir mit dem anfangen, was Behörden machen, wollen wir eigentlich mal gucken, wie wirkt sich denn Digitalisierung auf Flucht überhaupt aus? Weil an sich ist der Zugang zu digitalen Technologien erst einmal ein ziemlich wichtiges Werkzeug auch für gerade Flüchtende und Geflüchtete. Weil es wird eben benutzt, um zum Beispiel Übersetzungshilfe zu leisten wie auf diesem Bild bei einer Aktion in Linz. Es wird auch benutzt, um Menschen Informationen darüber zu geben, wie es gerade vielleicht auf dem Mittelmeer aussieht und wo sie sich wenden können, wenn sie Probleme bekommen. Und Menschen benutzen eben Smartphones und Facebook- Gruppen, um sich auszutauschen, zum Beispiel zu möglichen Fluchtrouten, zu Gesetzen in den Ländern, in denen sie sich gerade befinden oder in die sie wollen, als Kommunikationsmittel nach Hause, gerade auch wenn die Menschen in dem Land angekommen sind, aber auch eben als quasi letztes Bewahren von Erinnerungen, die man noch hat, von Fotos, von allen möglichen Sachen. Und eine Menge geflüchtete und flüchtende Menschen haben eben Smartphones dabei. Das heißt, eine Befragung der FU Berlin von 2016, die haben in Berlin rumgefragt, in Aufnahmelagern, haben ergeben, dass zum Beispiel 78 Prozent der Menschen, die aus Syrien nach Berlin gekommen sind, während ihrer Flucht ein Smartphone dabei hatten und genutzt haben und 88 Prozent nach ihrer Flucht ein Smartphone hatten und das auch genutzt haben, um primär eben Dinge zu tun, die ihnen den Alltag möglich machen und sie dazu recherchieren. So, das ist eben die eine Seite. Das heißt, wir haben irgendwie eine Technologie, die Menschen hilft, anzukommen, die Menschen hilft, sich zurechtzufinden. Aber das produziert eben jede Menge Daten. Und wir kennen den Spruch vielleicht: Wo ein Trog ist, da sammeln sich die Schweine. Der kommt aus einem relativ passenden Kontext. War nämlich während der Vorratsdatenspeicherungs-Verhandlung 2009. Da, wo die ganzen Daten anfallen und produziert werden, da interessieren sich plötzlich auch Behörden für diese Daten. Heißt, man kann aus diesem Smartphone Daten vor allem gucken, na ja, was ist denn während der Flucht passiert? Wie sind so die Fluchtbewegungen der Person? Mit wem kommuniziert die Person? Was ist das für eine Person? Wie verhält sie sich? Und da geht es sowohl um das Individuum. Das heißt die einzelne Person und ihr Verhalten, aber auch um quasi Flucht als Allgemeines. Das heißt, alles, was auf Social Media passiert, unabhängig von der einen Person, ist für Behörden interessant. Und wir finden, Deutschland ist ein ganz gutes Beispiel dafür, was passiert, wenn gerade Behörden, die für Migration zuständig sind, solche Möglichkeiten entdecken und dann immer wieder weiter digitalisieren, digitalisieren, digitalisieren. Und deshalb wollen wir zur Einleitung erst einmal ein kleines Video zeigen, das das BAMF zu sich selbst gemacht hat. Zu ihren Digitalisierungsbemühungen, weil das, glaube ich, ziemlich gut zeigt, mit was für einem Digitalisierungsenthusiasmus, wie es zu tun haben. Video des BAMF: Vorspannmusik Das ist alles dabei. weitere Vorspannmusik René Böcker: Herzlich willkommen im IT- Labor des BAMF! weitere Vorspannmusik Rene: Das hier ist der Ort, an dem wir unsere Digitalisierungsagenda 2020 umsetzen. Mit dieser haben wir uns nicht nur aus technischer Sicht eine ganze Menge Herausforderungen gestellt, sondern auch aus organisatorischer Sicht. Hier findet agile Software-Entwicklung statt. Folgen Sie mir. Musik Rene: Hier sind Sie im wichtigsten Raum des IT-Labors. Hier arbeiten unsere Entwickler. Lachen aus dem Publikum des 36c3 Rene: Es gibt hier die entsprechenden Arbeitsplätze. Dort gibt es das Product Backlog entsprechend der agilen Softwareentwicklungs-Methode Scrum. Lachen aus dem Publikum des 36c3 Rene: Und hier sehen Sie bereits ein erstes Resultat des Datenbankschema. Musik Rene: Hier befinden wir uns in unserem multimedialen Präsentationsraum. Neben einigen Entwicklungsergebnissen werden hier die herausragenden Kernprojekte unserer Digitalisierungsagenda vorgestellt. Ein ganz wesentlicher Erfolgsfaktor beim agilen Projektmanagement nach Scrum-Methode ist es nicht nur, dass das Entwicklungsteam eng zusammenarbeitet, seine Ergebnisse direkt der Fachseite präsentieren kann, sondern auch, dass es einen Ort gibt zur kreativen Lösungsfindung und manchmal auch zur Konfliktlösung. Das IT-Labor mit seinen drei Räumlichkeiten ist ein wesentlicher Beitrag dazu, dass wir unsere Digitalisierungsagenda 2020 Kickgeräusch mit anschließendem Auftreffgeräusch des Balls im Tor Rene: zum Erfolg führen. Abspannmusik Applaus und teilweise Lachen aus dem Publikum des 36c3 Anna: So, also wir sehen, die Motivation ist definitiv da. Aber die nächsten Themen werden nicht mehr ganz so witzig, weil wir gehen jetzt so ein bisschen in die Inhalte, die wir untersucht haben. Und zwar fangen wir an mit nicht nochmal dem Video, sondern der Handydatenauswertung. Lea: Das Thema, was wir uns eben zusammen genauer angeschaut haben, sind die Handydatenauswertungen, die das Bundesamt für Migration und Flüchtlinge, das BAMF, vornimmt. Und zwar ist das im Kontext zu verstehen, dass 2015 eben mehr auch Geflüchtete nach Deutschland kamen und in der Folge etliche Gesetzesänderungen im Asylbereich, Asylrecht erschwert haben und insbesondere eben auch Gesetze, die Ausreisepflicht verschärft haben. 2017 wurde das Gesetz zur besseren Durchsetzung der Ausreisepflicht verabschiedet. In dem Zusammenhang wurde auch eine Rechtsgrundlage eingeführt, die es dem BAMF ermöglicht, Handydaten Geflüchteter auszulesen, und zwar über folgenden Passus. Und zwar sind Asylsuchende verpflichtet, bei der Aufklärung des Sachverhalts mitzuwirken, und da wurde 2017 einfach die Nummer 6 eingeführt. Und das heißt dann, das bedeutet, wenn man keinen Pass oder Passersatz vorlegen kann, dann kann das BAMF die Datenträger auslesen. In der Praxis sind das Handys, größtenteils Smartphones und zum Teil auch einfache Feature Phones. Es kommen tatsächlich eben auch viele Geflüchtete in Deutschland ohne Pass an. Das ist über die Hälfte der Geflüchteten in den vergangenen Jahren. Das hat damit zu tun, das kann ganz unterschiedliche Gründe haben. Aber es hat zum Teil damit zu tun, dass es in manchen Ländern nicht so üblich ist, überhaupt einen Pass zu haben. Manche Pässe werden auch nicht anerkannt. Also das gibt Einschätzungen des Innenministeriums gemeinsam mit dem BAMF, das hat auch mit der politischen Situation in den Ländern zu tun, dass Pässe nicht anerkannt werden. Zum Beispiel betrifft das Somalia, wo fast ausnahmslos Pässe nicht anerkannt werden oder auch viele Pässe, die aus Nigeria stammen. Das BAMF liegt diese Rechtsgrundlage zudem weit aus. Jeder, der im Moment, indem er beim BAMF vorsteht, keinen Pass hat, der in dem Moment auf seine Echtheit überprüft werden kann, bei dem glaubt es, eben die Datenträger auslesen zu können. Es kann also sein, dass der Pass aktuell bei einer anderen Behörde liegt, in einer anderen Angelegenheit. Es kann auch sein, dass ... da fehlen mir gerade die anderen Beispiele. Aber jedenfalls gibt es unterschiedliche Gründe, warum eine Person, die eigentlich einen Pass hat, also der Pass wird nicht anerkannt. Kann ich vor Ort direkt computergestützt überprüft werden, dann kann das Handy ausgelesen werden. Wir haben das Thema auch bei der Gesellschaft für Freiheitsrechte eigentlich seit den Ursprüngen verfolgt. Denn bereits im Gesetzgebungsverfahren war die Verfassungswidrigkeit dieser rechtlichen Grundlage ganz scharf kritisiert worden von der damaligen Bundesdatenschutzbeauftragten, vom Deutschen Anwaltverein, von diversen anderen Organisationen. Es lag eigentlich klar auf dem Tisch. Das Gesetz ist dann trotzdem verabschiedet worden, ist unserer Ansicht nach verfassungswidrig. Aber wir kommen hier an die bereits beschriebenen Rechtsschutzlücken. Denn ein verfassungswidriges Gesetz anzugehen heißt, man muss es im Normalfall durch die gerichtliche Kontrolle, durch die Instanzen bringen, dann zum Bundesverfassungsgericht und kann dann etliche Jahre warten in der Hoffnung, dass das Bundesverfassungsgericht dann die rechtliche Grundlage für nichtig erklärt. Es ist für die individuell betroffenen Personen also in ihrer Biografie eine Hilfe, die viel zu spät kommt. Deswegen haben wir eben beschlossen, dass es strategischer Prozessführung bedarf und dass wir diese Rechtsgrundlage vor Gericht bringen wollen. Und dafür haben wir uns gemeinsam der Aufgabe gewidmet, einmal den Sachverhalt sehr, sehr klar aufzuzäumen, um eben diese Rechtswidrigkeit und vor allem auch die Unverhältnismäßigkeit der Grundrechtseingriffe darlegen zu können. Applaus Also einmal kurz zudem, wie das eigentlich passiert, wenn man also beim BAMF vorstellig wird. Im Normalfall ist das direkt bei der Registrierung. Also wenn man ganz am Anfang im Asylverfahren keinen Pass vorlegen kann, dann wird ein Rohdatensatz vom Handy ausgelesen, kopiert durch eine speziell dafür eingeworbene Software, analysiert nach bestimmten Indikatoren, die eben vermeintlich Auskunft geben sollen über Herkunft und Identität. Denn nur darum geht es hier. Und dann wird also ein Ergebnisprotokoll, ein Digitales, kreiert, das dann in einem digitalen Datentresors abgespeichert wird. Und im nächsten Schritt dann aus diesen Datentresor nur abgerufen werden kann nach vorheriger Freigabe durch einen Juristen oder eine Juristin innerhalb des BAMF. Die Indikatoren, die dabei untersucht werden, sind die folgenden: Einmal Ländervorwahlen in Kontaktdaten, in einem und ausgehenden Anrufen und in Nachrichten, dann Länderendungen aufgerufener Webseiten, die im Internetbrowser aufgerufen worden sind, Lokalisationdaten in Apps und Fotos, die Sprache in Nachrichten, und zwar im Arabischen, sogar der Dialekt, und Benutzernamen und E-Mail-Adressen, die genutzt werden, um sich in Apps damit an zumelden. Zum Beispiel der Name, den man verwendet, um sich bei Facebook anzumelden, oder auch in einer Dating-App. Das Ergebnisprotokoll, wird zunächst abgespeichert und kann nur nach interner Freigabe verwendet werden, was die entscheidende Person im BAMF dann sieht, sieht also so aus. Das sind so Tortendiagramme und Länderkarten, die eingezeichnet werden, die also darstellen, in welchem Prozentsatz die eingehenden Nachrichten zum Beispiel in welcher Sprache oder mit welchen Vorwahlen gewesen sind. Aus rechtlicher Hinsicht muss man dazu vielleicht einleitend direkt sagen, das migrationspolitische Ziel das hier verfolgt wird, reicht eigentlich nicht aus, um in informationstechnische Systeme, also hier in Handys, einzugreifen. Und zwar das Bundesverfassungsgericht 2008 das sogenannte Comuter-Grundrecht erkannt, dass die Integrität und Vertraulichkeit informationstechnischer Systeme heißt das. Und dabei hat es anerkannt, dass auf informationstechnischen Systemen, also Handys und Computern eine Vielzahl von Daten zusammentrifft, die ganz unterschiedliche Lebensbereiche betreffen und das deswegen besonders gefährlich ist und einen besonderen grundrechtlichen Schutz bedarf, und dass also ein staatlicher Zugriff nur unter sehr hohen Voraussetzungen zulässig ist. Und zwar sagt es zu gewichtigen Verfassungshüter. Da sind zum Beispiel Leib oder Leben. Da kann man sich vorstellen, dass bei konkreten Anhaltspunkten da schwere Straftaten bevorstehen, also ein Zugriff gerechtfertigt ist. Aber zu so rein abstrakten migrationspolitischen Zielen, nämlich Asylmissbrauch verhindern und Abschiebungen erleichtern, ist das an sich nicht zulässig. Denn die dahinterstehende Logik bei der Einführung war ja, dass man glaubt, also es gibt viele Menschen, die in Deutschland ankommen, die einen Pass nicht vorlegen können und die werden vermutlich ein anderes Land angeben als das, aus dem sie kommen. Jedenfalls in Teilen, um so fälschlicherweise Asyl zu bekommen. Oder aber man weiß, dass sie kein Asyl haben, und will sie abschieben, kann sie aber nicht abschieben, wenn sie eben einen Pass nicht vorlegen. Das Interessante ist, dass diese Handy- Datenauswertung des BAMF eigentlich das Gegenteil belegt, also Geflüchteten in Deutschland ein sehr gutes Zeugnis ausstellen. Dazu kommen wir gleich noch. Also im Grunde genommen ist bereits der Eingriff in Handys zu diesem Ziel unzulässig, meiner Meinung nach. Wenn man aber das Ziel einmal grundsätzlich anerkennt, dann kommt man zur Verhältnismäßigkeit-Prüfung. Dann würde man sagen, dann muss es zu dem erstrebten Ziel verhältnismäßig sein, was hier eigentlich an Eingriffen passiert. Und diese Verhältnismäßigkeitsprüfung ist eigentlich nichts anderes als eine Tradition von Fragestellungen, die sich Juristen stellen, um möglichst alle Aspekte zu bedenken, die irgendwie sagen, wie gut oder sinnvoll oder wie verdammt schwachsinnig was ist wie jetzt hier im Folgenden eigentlich. Das erste Argument, dass man rechtlich sagen muss, es handelt sich um eine anlasslose und flächendeckende Maßnahme. Hier wird nicht anhand konkreter Verdachtsmomente bei der individuellen Person entschieden, sondern ohne konkrete Anhaltspunkte und flächendeckend bei allen Personen, die sich ohne Pass oder Passersatz melden, eingegangen. Das ist, sagt das Bundesverfassungsgericht, besonders gefährlich, weil wir dann in die Gefahr laufen, dass wir eben große Bevölkerungsteile ausleuchten. Und deswegen ist das nur unter hohen Voraussetzungen möglich. Dann der nächste Punkt ist, und das werde ich jetzt auf zwei Beispiele beschränken, ist, dass die Indikatoren, die hier ausgewertet sind, auch einfach ziemlich unsinnig sind. Also wenn man sich überlegt, es geht um die Frage: Woher kommt jemand, also Nationalität und Identität? Da kann man sich plausiblerweise die genannten Indikatoren mal durchdenken und fragen: Kann man damit eigentlich beweisen, wo jemand herkommt? Und jetzt mal ein Beispiel, Ländervorwahlen. Bei einer Person, die möglicherweise vor Jahren geflohen ist, aus einem Land, in dem Krieg herrscht, die jetzt in Deutschland ankommt. Mit wem steht die Person also im Kontakt in der Lebenszeit ihres Handys? Welche Ländervorwahlen werden dabei sein? Vermutlich Ländervorwahlen des Gastlandes. Vermutlich werden Vorwahlen von den Orten, an denen sich Angehörige und Familien inzwischen aufhalten. Und das wird vermutlich nicht unbedingt das Herkunftsland sein. Das heißt, es ist einfach vom Aussagewert des Indikators schlecht, um das überhaupt darzulegen. Ein weiteres Beispiel - weil es eben auch besonders interessant ist - ist die Aussagekraft, die das BAMF meint, sagen zu können über die verwendete Sprache in den Nachrichten. Und zwar gibt es eben vor, dass es bestimmen kann, welche Sprache verwendet wird und im Arabischen sogar welcher Dialekt verwendet wird. Und ganz unabhängig davon, dass das sowieso sehr schwer ist, Sprache zu erkennen, haben wir es hier mit der Besonderheit zu tun, dass wir schriftliche Sprache in Textnachrichten haben. Und wenn man sich das aus dem Arabischen überlegt, dann bedeutet das, dass arabische Schriftzeichen in diesen Textnachrichten übersetzt werden, mit lateinischen Buchstaben geschrieben werden. Und es gibt Laute im Arabischen, die so im Englischen oder auch im Französischen nicht auftauchen und die man unterschiedlich phonetisch schreibt. Da gibt es also eine sehr große Vielfalt an Schreibweisen, die zum Teil damit zu tun hat, ob die Länder, in denen es verwendet wird, eher englische oder französische Kolonialzeiten erlebt haben, also sich eher an einer englischen oder französischen Phonetik orientieren, aber auch einfach individuelle Unterschiede haben. Nur mal ein Beispiel für das Wort Befreiung. Das wären jetzt Möglichkeiten, das als lateinische Schriftzeichen in einer Nachricht darzustellen. Ich denke, das macht so ein bisschen klar, wie schwierig das eigentlich ist, plausibel darzulegen, welcher Dialekt verwendet wird. Hinzu kommt, dass Dialekte nicht an Ländergrenzen enden, dass also zum Beispiel der gleiche arabische Dialekt gesprochen wird in Israel, Palästina, Jordanien, Libanon und in Syrien. Anna: Ich glaube, wir hatten auch ein paar ganz gute Beispiele von Auswertungsprotokollen, die wir gesehen haben und die wir einsehen konnten. Da waren eben auch Sprachauswahlen, die waren total abstrus. Das heißt, da stand dann zum Beispiel eine Person hat primär Nachrichten auf Neugriechisch empfangen, aber dann Nachrichten auf Finnisch und Esperanto geschrieben. So das heißt, da steht halt auch irgendwie ziemlicher Bullshit drin. Das heißt, das ist nicht eine These von uns, dass das irgendwie nicht so einfach ist und alles schiefgehen kann. Das zeigt eben auch, dass es in der Praxis eben schwierig ist. Zumindest das Kommunikationsverhalten dieser Person müsste schon sehr, sehr ausgefallen sein. Zeigt dann noch ein anderes Problem, nämlich zumindest meine persönliche These, warum diese Personen offenbar primär auf Neugriechisch irgendwelche Nachrichten bekommen hat, ist, dass es zum Beispiel diese Providernachrichten sind. Das heißt, die Person ist durch Griechenland geflohen und dann kommt dann der Provider und sagt hier Roaming und "Hallo, willkommen in unserem Roaming". Das heißt, wir haben einfach eine ganze Anzahl von Faktoren, die es eben schwierig machen, überhaupt einzuschätzen, wie verlässlich das ist. Und spätestens der Entscheider oder die Entscheiderin müsste das dann einschätzen können, um das eben richtig in einer Asyl- Entscheidung mit einbeziehen zu können. Und dann dachte ich mir, weil ich regelmäßig bei dem BAMF Anfragen stelle, ich frag mal, wie das denn so mit der Fehlerquote bei dieser Sprachnachrichten Auswertung aussieht. Das ist nicht die einzige Frage, die ich gestellt habe, aber auf jeden Fall hat mir dann das BAMF gesagt, na ja, das können sie mir leider nicht sagen, weil das irgendwie so speziell, das würde dann den Einsatz der Technik erschweren. Und ich finde das einfach ein erstaunliches Maß an Intransparenz und Dreistigkeit zu sagen, dass selbst eine Fehlerquote von einem System, das Auswirkungen auf eine Asyl- Entscheidungen von Menschen hat, dass die Fehlerquote geheim gehalten werden muss und dass man die nicht rausgeben kann. Ich habe in der gleichen Anfrage eben auch gefragt: Leute, was verwendet ihr denn für Verfahren, um das überhaupt zu bestimmen? Was ist denn eure Datenbasis? Welche Messenger könnt ihr denn überhaupt erkennen? Und wie tut ihr das eigentlich? Und nichts davon wird gesagt, weil alles ist so geheim, dass es dann irgendwie die Gefährdung dieses ganzen Systems nach sich ziehen würde. Und ich finde, das ist ein riesiges Problem, weil wir wissen eben auch, dass diese Software nicht alle Messenger mit einbeziehen kann. Das heißt, es kann ja sein, dass eine Person primär SMS von dem Provider bekommt, selber aber über Messenger kommuniziert, die von dem System nicht ausgewertet werden können. Allein dadurch, dass die Person so ein Kommunikationsverhalten hat, fällt sie dann komplett aus diesem System raus. Und selbst wenn das System die Sprache erkennen könnte, werden dann falsche Ergebnisse bei rauskommen. Und das ist eben nicht bekannt. Und ich bin mir fast sicher, dass die meisten der Mitarbeiter, die diese Zettel dann vorliegen haben, eben auch nicht wissen werden, welche Messenger das Ding genau erkennen können wird und das ist ein ziemliches Problem. Zufälligerweise gab es dann dieses Jahr so eine Datenethik-Kommission, die die Bundesregierung eingesetzt hat, um mal arbeiten zu lassen, was denn passieren muss, wenn der Staat algorithmische Systeme und sogenannte künstliche Intelligenz einsetzt. Und diese Datenethik-Kommission hat dann eben gesagt: Okay, staatliche Stellen müssen ganz besonders transparent sein und die Entscheidungen müssen transparent und begründbar bleiben. Und dazu sollen eben, auch wenn es möglich ist, die Datenkategorien der Ein- und Ausgabedaten irgendwie rausgegeben werden. Da sollen die Berechnungsformel herausgegeben werden und eben die Entscheidungen daraufhin eingeschätzt werden. Und all das passiert hier nicht, obwohl es um wirklich krasse Eingriffe geht, und obwohl es um wirklich krasse Folgen eben für das Leben von Menschen und für das Schicksal von Menschen hat. Und das ist eben nicht das Einzige, was beim BAMF so läuft. Das bezieht sich auch auf viele andere Systeme. Eines der Systeme, über das ich letztes Jahr ein bisschen mehr geredet habe, war die Dialektanalyse, die zusammen mit anderen IT-Tools eingeführt wurde 2017, wo es darum geht, dass eine Person in einen Hörer spricht, 2 Minuten lang, und dann wird eine Sprachaufnahme gemacht und dann fällt ein Zettel raus, und auf dem Zettel steht dann drauf, aus welchem Land die Person vermutlich kommt. Das ist in Deutschland ziemlich einzigartig. Die meisten anderen Länder, in denen sogenannte Sprachanalysen zur Herkunftsbestimmung gemacht werden, machen das immer noch händisch, sei es durch Behörden, interne Sprachexperten, sei es durch externe Gutachter oder private Unternehmen. Aber das BAMF tut eben auch das immer mehr automatisiert. Und da wissen wir zumindest: Okay, es gibt eine Fehlerquote von 15 Prozent. Wir wissen aber auch, dass die Fehlerquote je nach Sprache unterschiedlich ist. Das heißt, sie haben herausgelassen in einer Antwort auf eine Kleine Anfrage, dass die Erkennung für levantinischen Arabisch, also der Dialekt, der unter anderem in Syrien gesprochen wird, besser ist als für andere Dialekte im Arabischen. Und allein das zeigt schon, dass es ein riesiges Problem ist. Das liegt unter anderem daran, dass die Datenbasis ungleich verteilt ist. Das heißt, sie haben wesentlich mehr Sprachproben, mit denen sie ihr System trainiert haben für levantinisches Arabisch. Aber sie sagen eben nicht, wie viele das sind. Sie sagen dann: Okay, das ist eine Antwort, die geheim. Die wird dann irgendwie als Verschlusssache nur für den Dienstgebrauch rausgegeben und die erfährt dann niemand, außer vielleicht den Leuten, die genauer nachfragen und versuchen, das herauszufinden. Und dann könnte man sich fragen, okay, wenn man so Systeme einsetzt, die relativ einzigartig sind, dann müsste man ja irgendwie mal dafür sorgen, dass jemand da drauf guckt und einschätzt, unabhängig, am besten noch, ob das alles so funktioniert und sinnvoll ist. Und da wurde schon im Dezember 2017 aus dem Bundestag mal gefragt: Wollte das nicht mal irgendwie mit Wissenschaftlern und Wissenschaftlerinnen begleiten? Und dann wurde gesagt: Okay, Planung für das Jahr 2018. Wir schreiben aktuell das Jahr 2019. Ich habe dann nochmal nachgefragt, weil ich mache das öfter mal. Und dann hat dann das BAMF gesagt: Das findet aktuell noch nicht statt, das ist aber künftig geplant. Und das ist ein Zeitraum von, sage ich mal, zwei Jahren. Und in den zwei Jahren hat es Tausende von Menschen betroffen, und ich finde es einfach krass, wie man derartig mauern kann als Behörde, wenn man irgendwie eine relativ große Verantwortung trägt, sowieso schon die ganze Zeit schlechte Presse bekommt, weil man eben auch relativ viel Mist baut und dann immer noch weiter jegliche, sage ich mal, Einsicht und jegliche Aufarbeitung dessen, was man eigentlich tut, verweigert. Das Gleiche ist irgendwie passiert mit Datenschutzfolgeabschätzungen. Ich wollte wissen, eine Datenschutzfolgeabschätzung, das muss gemacht werden bei Systemen, die Daten verarbeiten, die zu einem großen Maß sensibel sind oder große Mengen an Daten verarbeiten oder automatisiert Entscheidungen aus diesen Daten ableiten. Und nun wollte ich wissen: Was ist denn die Datenschutzfolgeabschätzung zu zum Beispiel dieser Handyauswertung? Oder auch zu anderen Systemen, die ihr benutzt? Und da wurde dann gesagt: Okay, die können wir nicht rausgeben. Das hat dann irgendwie fast ein Jahr lang gedauert, bis ich eine Absage darauf bekommen habe, weil dadurch könnten ja mögliche Sicherheitslücken identifiziert werden. Und dann ist wieder die Sicherheit der Bundesrepublik in Gefahr. Das heißt, wir stehen hier vor einer riesigen Mauer aus Schweigen und bekommen, wenn dann überhaupt, nur tröpfchenweise Informationen. Und das ist eben ein rechtsstaatliches Problem neben anderen. Lea: Ja, genau, das ist nicht nur bizarr, das ist eben auch ein rechtsstaatliches Problem. Wenn das BAMF sagt, das wäre ein Sicherheitsrisiko, diese Fehlerquotienten offenzulegen, würde ich entgegnen: Es ist ein Sicherheitsrisiko, dass wir das nicht wissen und dass wir das nicht einschätzen können. Das betrifft einmal die fehlende Aussagekraft der untersuchten Indikatoren. Und es betrifft eben darüber hinaus auch die Frage, wie fehleranfällig die Systeme funktionieren. Hinzu kommt also, dass es technische Probleme gibt. In einem Viertel der Fälle können Geräte bereits nicht ausgelesen werden. Oder mal vorweg angefangen: Es kommt hinzu, dass unter den Geflüchteten in Deutschland, die ohne Pass angefragt werden, etwa eine Hälfte gar keine Datenträger haben oder das zumindest angeben, was relativ verständlich ist. Aber das heißt, es ist relativ leicht, sich dieser Maßnahme zu entziehen. Es ist uns nicht bekannt, dass das BAMF das soweit verfolgt. Bei der Hälfte der Fälle kommt das BAMF nicht weiter, weil die Personen also keinen Datenträger haben. Dann ist an einem Viertel der Fälle scheitert die Auslesung bereits technisch. Es kommt überhaupt gar nicht zu einem Ergebnisbericht. Das hat vermutlich damit zu tun, dass es sich um besonders alte oder um besonders neue Geräte handelt. Anna: Oder das Kabel nicht da ist. Also proprietäre Anschlüsse sind auch ein Problem. Lachen aus dem Pubilkum Anna: Das haben Sie gesagt, wirklich, also, denke ich mir nicht aus. Lachen von Anna und Lea Lea: Das ist also ein Viertel der Fälle. Dann in den Fällen, in denen es wenigstens zu einer Auswertung kommt, sind die überwiegend unbrauchbar. Das sind mal die Zahlen für 2018, also 64 Prozent der ausgelesenen Geräte, wo es zum Ergebnisprotokoll kam, waren unbrauchbar. Unbrauchbar heißt, da kam also irgendwas raus, wie das, was Anna eben beschrieben hatte mit Finnisch, Japanisch, Chinesisch. Das ist dann unbrauchbar. Das sind also die Fälle, in denen BAMF-Mitarbeitende das so erkannt haben, als unbrauchbar. Das waren jetzt im ersten Quartal 2019 55 Prozent, ein bisschen weniger. Aber dafür haben wir dann in der Folge also das versprochene gute Zeugnis für die Geflüchteten. In den verbleibenden Prozent sind dann 34 Prozent, bestätigen die Angaben. Und nur in 2 Prozent kam es 2018 überhaupt zu einem Widerspruch. Das heißt, nur da war überhaupt ein Indiz dafür gegeben, dass die gemachten Angaben möglicherweise nicht richtig waren. Das sagt überhaupt nichts darüber aus, ob das dann auch so war. Aber im ersten Quartal 2019 waren es 44 Prozent, die bestätigt haben, die Angaben, also noch mehr. Und nur ein Prozent, in dem Widerspruch stand. Interessant ist auch, dass auch die BAMF- Mitarbeiter zum Teil nicht davon auszugehen zu scheinen, dass sie das brauchen. In 2018 sind 11400 Geräte ausgelesen worden im Verlauf des Jahres. Und nur in 5400 Fällen hat dann der Entscheider, die Entscheiderin überhaupt einen Antrag auf Freigabe gestellt. Die ganzen Restlichen wurden nicht mal mehr angefragt. Das heißt, da ist einfach mal das Handy ausgelesen worden, ohne dass man nachher irgendwie das Gefühl hatte, dass es irgendwie im Asylverfahren auch wichtig war. Dem gegenüber stehen Kosten, und zwar hat das bereits in der Anschaffung 2017 6,9 Millionen gekostet für die Anschaffung von Hard- und Software und kostet seither jährlich 2,1 Millionen auch an Support Kosten. Das sind jetzt vielleicht für ein behördliches Digitalisierungsprojekt nicht die Riesensummen. Aber wenn man sich überlegt, worum es hier eigentlich geht, dann finde ich ja schon ziemlich große Summen. Denn worum es hier geht, ist, dass die Vermutung besteht, dass unter den Leuten, die hier Asyl suchen, in Deutschland ein paar sind, die nicht kommen, weil sie vor Krieg fliehen, sondern weil sie vor Armut fliehen. Das ist nämlich dann Asylmissbrauch, und die könnte man natürlich irgendwie kostenmäßig einkalkulieren. Oder man verwaltet seine Kosten lieber für so ein Digitalisierungsprojekt, das zu unsinnigen Aussagen kommt. Hinzu kommt, dass Rechtsschutz faktisch ziemlich ausgehebelt ist, weil man kann nicht im Vorhinein was dagegen machen. Als geflüchtete Person, die kommt, kann man nicht vorher Rechtsschutz suchen, sitzt dann in der Situation einem BAMF-Mitarbeiter gegenüber, und man kann dann widersprechen und sagen: Ich gebe mein Handy nicht raus. Aber das kann echt krasse Folgen haben, weil man dann seine Mitwirkungspflicht verletzt. Im schlimmsten Fall kann das dazu führen, dass der Asylantrag als zurückgenommen angesehen wird. Jedenfalls kann eben es zu Misstrauen führen. Natürlich macht man das nicht. Und nachträglicher Rechtsschutz, das habe ich eben schon dargestellt, ist schwer, weil es die gesetzliche Grundlage es erst mal hergibt. Da kann man sich auf einen langen, teuren und schwierigen Prozess einstellen. Es gibt praktisch keinen Rechtsschutz. Was wären dann die Alternativen? Ich glaube, Alternative ist eigentlich gar nicht das richtige Wort, wenn ich ehrlich bin. Denn de facto können diese Ergebnisse nur Indizwirkung erzeugen und man muss ohnehin bei den altvertrauten Methoden bleiben, wenn es darum geht, Herkunft und Identität herzustellen und das sind spezifische Nachfragen in der Anhörung. Wenn eine Person angibt, aus einer bestimmten Region, aus einer bestimmten Stadt zu kommen, muss man Regionalwissen abfragen und genau nachfragen: Wie heißt denn die Kirche, die dein Onkel besucht? Und wenn du vom Flughafen dich in die Stadt rein bewegst, was für Gebäude sind da auf der Strecke? So macht man das bisher, und das ist eine verlässliche Methode. Und das ist eine viel verlässlichere Methode als das, was das BAMF mit den Handyauswertungen macht. Es ist nach wie vor die Methode, auf die es ankommt, weil diese Handyauswertungen keine Beweiskraft haben, sondern allenfalls eine Indizwirkung. Zwischenfazit also: Massiver Grundrechtseingriff, zu geringe Eingriffsvoraussetzungen, nämlich quasi keine, außer dass man keinen Pass hat. Es ist extrem fehleranfällig, wenig aussagekräftig. Rechtsschutz gibt es faktisch nicht, und zudem ist das mit hohen Kosten verbunden. Anna: Okay, so, jetzt könnte man sagen: Wir haben ja nicht so viele gute Worte dafür übrig. Ist Deutschland alleine so doof? Aber nee, Datenträger von geflüchteten und ankommende Menschen werden auch in anderen Ländern Europas ausgelesen, und zwar teilweise schon länger als in Deutschland und teilweise auch von anderen Behörden. In vielen Ländern ist es tatsächlich, also in den rot markierten Ländern, in denen es zumindest gesetzliche Befugnisse dafür gibt. Es ist tatsächlich die Polizei, die dafür zuständig ist, den Menschen die Datenträger abzunehmen und auszulesen, die die dann teilweise an die Migrationsbehörde weiterleiten. Und es gibt aber auch jede Menge Länder, in denen diese Möglichkeit rechtlich eingeführt ist, aber wohl nicht so wirklich viel darüber bekannt ist, was da eigentlich passiert. Wir haben selber gemerkt, dass es extrem schwer ist, an Informationen zu kommen, weil das Thema kaum Aufmerksamkeit erfährt. Ich habe z.B. mit geflüchteten Organisationen in den Niederlanden geredet, wo dann gesagt wurde: Ja, das wird gemacht und ja, das passiert häufig. Aber Genaueres dazu wissen wir auch nicht. Wir wissen, dass es zum Beispiel in Belgien und Österreich die gesetzliche Möglichkeit dafür gibt, die relativ frisch eingeführt wurde, die Maßnahme aber noch nicht ausgeführt werden. Das heißt, in Österreich liegt es unter anderem an Datenschutzbedenken und Beschaffungsproblemen. Das heißt, da scheint man sich nochmal Gedanken darüber zu machen, ob das überhaupt so in Ordnung ist. In Großbritannien ist es sicherlich ein bisschen ein Sonderfall, weil Großbritannien gerade bei der Auswertung von Handydaten in Europa ganz, ganz weit vorne mit dabei ist. Vielleicht haben einige schon so ein bisschen gehört, dass z.B. auch die Handys von Opfern von Gewaltverbrechen oder von sexualisierter Gewalt ausgelesen werden, um dann eben Informationen zu bekommen. Das heißt, da ist die Schwelle generell sehr, sehr niedrig, ein Handy auszulesen und abzunehmen. Aber über die konkrete Praxis dessen, wie das bei Geflüchteten passiert, weiß man eben nicht viel. Was aber auffällt, wenn man sich das so ein bisschen anschaut und wenn man sich die ganzen Gesetze mal anschaut, die in den einzelnen Ländern so da sind, ist, dass gerade die Bestimmungen oder Anhaltspunkte auf Herkunft und Identität überall ein Thema sind, das aber teilweise noch weitergeht, und zwar in Dänemark z.B., wo das schon seit 2015 oder 2016, glaube ich, gemacht wird, wo dann dann aber eben 2017 Gesetze erweitert wurden. Das heißt, es geht dann nicht mehr darum, Identität- und Herkunftshinweise zu bekommen, sondern da steht jetzt einfach im Gesetz: Na ja, wir können das für alles machen, was für das Asylverfahren von Bedeutung sein könnte. Und das ist natürlich eine relativ breite Definition. Das heißt, im Endeffekt hat einer der Beamten in Dänemark auch einer Zeitung gesagt zum Beispiel: Na ja, wenn wir da so einen Zufallsfund finden, dann werden wir natürlich nicht liegen lassen. In Belgien geht die Dimension rechtlich auch noch ein bisschen weiter. Da wird es aber auch noch nicht durchgeführt. Und es gibt gerade auch eine Beschwerde beim belgischen Verfassungsgericht dagegen. Aber da dürften quasi alle digitalen Dinge einer Person durchsucht werden. Das heißt auch, dass die Person im Zweifelsfall gefragt werden kann: Was ist denn das Passwort zu deinem Mail-Account? Das heißt, da geht es weiter. Da geht es, sag ich mal, über einen physischen Datenträger hinaus, wobei es eh ein bisschen schwierig ist, von nur einem physischen Datenträger zu reden, wenn sich da eh Zugangsdaten für alle möglichen Dinge drauf befinden. Und gerade diese Social Media Analyse, wie sie in Belgien vorgesehen ist und in Norwegen und Dänemark schon gemacht wird, ist eine relativ krasse Sache, weil eben dadurch sowohl durch die, sage ich mal, Open Source Intelligence nehme ich auf irgendwelchen Facebook Profilen von Menschen, die ich vor mir habe, irgendwie surfe, als auch dadurch, dass ich mir die Passwörter von den Leuten hole und mir das angucke, irgendwie jede Menge Informationen bekomme über die Person. Und das an einem Zeitpunkt, wo ich noch gar keinen Verdacht habe, dass die Person mir überhaupt etwas Falsches erzählt haben könnte. Das heißt, im Endeffekt stelle ich diese Person mit einem krassen Straftäter gleich. Und das Einzige, was diese Person getan hat, ist, aus ihrem Zuhause zu flüchten und vielleicht keinen Pass dabei zu haben. Und vielleicht kann man sich das so ein bisschen überlegen, in Deutschland gabs ja vor ein paar Jahren relativ großen Aufschrei, als die Jobcenter die Facebook- Profile oder die eBay-Kleinanzeigen- Profile von eben Klientinnen am Jobcenter durchsucht haben. Und da gab einen riesengroßen medialen Aufschrei. Aber der riesengroße mediale Aufschrei, wenn sowas gemacht wird bei Geflüchteten, der fehlt so ein bisschen. Wir haben einen solchen Fall tatsächlich auch in Deutschland gefunden, wo bei einer Person durch die Handyauswertung ein Facebook-Profil-Name gefunden wurde. Das heißt, da stehen dann noch so Identitätsinformationen, und dann wurde anhand dieses Facebook-Profil weiter geschaut. Das heißt, der/die Entscheider/in hat dann eben geguckt: Was finde ich auf diesem Facebook-Profil? Und hat dann auch in dem Bericht geschrieben: Naja, ich sehe, die Person hat den Fussballclub von XY gelikt und hat den lokalen Laden da irgendwie gut gefunden. Und deshalb beziehe ich das in ihre Asylentscheidung mit ein. Soweit wir wissen, ist das keine gängige Praxis. Falls ihr andere Informationen habt, sind wir daran bestimmt interessiert. Aber das zeigt eben, wie schnell es weitergehen kann. Das heißt, es geht dann nicht mehr nur darum: in dieser Handydatenauswertung sind dann eben eh nur statistische Informationen drin, sondern da geht es eben darum, dass irgendwie das auch weiter genutzt werden kann. Und Social Media Monitoring ist eben noch auf einer kollektiven Ebene interessant, nämlich um Migrationsbewegungen zu erfassen. Und da gibt es diverse, vor allem europäische Behörden, die daran Interesse haben. Das wären so drei davon: die erste, die damit angefangen hat, ist EASO, die EU- Unterstützungs-Agentur für Asyl. Mein Kollege Alexander Fanta hat dazu ein bisschen recherchiert. Und zwar haben die seit Januar 2017 Social Media Auswertungen gemacht und haben sich Facebook-Gruppen angeguckt oder auch andere, sag ich mal, Kanäle, auf denen Menschen Informationen z.B. zu Fluchtrouten teilen oder in denen Menschen sich über Flucht austauschen, und haben dann wöchentlich einen Monitoring Report an Asylbehörden in den EU- Mitgliedstaaten geschickt, ans UNHCR, auch an Europol, und haben das nach Stichworten durchsucht. Das Ganze basierte auf einem Bericht von dem UN-Flüchtlingskommissariat aus 2017, wo untersucht wurde, wie gerade so Angebote von, sag ich mal, Dokumentenfälschern und von Schmugglern, die Leuten irgendwie für viel Geld irgendwie eine bessere Welt versprechen, so auf Social Media funktionieren. Und dann hat EASO eben angefangen, das selber zu übernehmen und da eben Lagebilder zu erstellen. Und dann fragt man sich: Was passiert dann mit diesen Lagebildern? Die gehen dann in die Behörden in den Mitgliedsstaaten. Und dann hat der Kollege von mir mal nachgefragt: Naja, warum denn eigentlich? Und dann wurde als einer der großen Erfolge genannt, dass man den sogenannten Konvoi der Hoffnung relativ früh entdeckt hat. Das war im März und April. Da gab es Gerüchte in sozialen Medien, dass die Grenze zwischen Griechenland und Mazedonien offen sein soll. Und viele Menschen haben sich eben auf den Weg gemacht und dann hat man das früh entdeckt und mit Polizeigewalt und Tränengas die Leute wieder zurückgedrängt. Das ist dann einer der Erfolge. So, der Europäische Datenschutzbeauftragte hat sich das Ding mal angeschaut und nachgefragt: Was macht ihr da eigentlich und auf welcher Rechtsgrundlage tut ihr das? Und eine Datenschutzfolgeabschätzung, die das BAMF uns zum Beispiel nicht geben will, hatten sie erstmal gar nicht. Das heißt es gab dann später eine. Und da stand dann unter anderem drin: Naja, wir haben da gar keine personenbezogenen Informationen drin. Da hat der Europäische Datenschutzbeauftragte gesagt: Na gut, aber warum steht denn da eine Telefonnummer von jemandem? Das ist alles ein bisschen inplausibel und eure allgemeine Aufgabe, da Informationen zu sammeln, wenn es eben gerade zu einem sogenannten Massezustrom kommt, lässt sich auch nicht damit vereinbaren, dass ihr das einfach jede Woche seit Jahren macht. Und ihr sagt auch nicht, wie er das tut und generell seid ihr ziemlich intransparent und hat dann vor Kurzem erfreulicherweise gesagt: Ihr hört jetzt mal damit auf. Das heißt, es zeigt auch ... Applaus Anna: ... wie wichtig es ist, dass Menschen, seien es jetzt Behörden, seien es Aktivistinnen seien es Journalisten, sich diese Praktiken mal anschauen, weil das Ding lief einfach zwei Jahre lang, ohne dass jemand irgendwas gemerkt hat, mehr oder weniger, und dadurch, dass sich das eben jemand mal angeschaut hat und gesagt hat: Okay, ihr spinnt ja, ihr habt ja überhaupt keine Rechtsgrundlage dafür und was macht ihr hier eigentlich? Hört mal damit auf! Wurde das eben erst entdeckt. Eine andere Behörde, die an Social Media Informationen interessiert ist, ist Europol. Von Europol kennt man vielleicht so diese ganzen Take-Down- Aktionen, wo sie Posts in sozialen Medien von terroristischen oder sogenannten terroristischen Inhalten oder mutmaßlich terroristischen Inhalten runternehmen. Das Ganze machen sie auch mit sogenannten schmuggelrelevanten Inhalten. Das heißt, 2018 hat Europol 800 Posts oder 800 Informationen gemeldet bekommen und die dann an die sogenannte Internet Referral Unit weitergeleitet, die dann bei den Providern oder bei den Betreibern angefragt haben könnte die mal bitte runterzunehmen. Und das ist dann auch in 99 Prozent der angefragten Fälle passiert. Jetzt fragt man sich halt, was verstehen die unter schmuggelrelevante Inhalte? Sind das wirklich nur Posts, die dann zum Beispiel sagen: Zahl mir jetzt irgendwie 15 000 Euro und dafür kriegst du von mir einen Pass und ein schönes Leben. Oder sind das eben auch Seenotrettungsorganisationen, die illegalisiert werden? Und das wissen wir eben nicht, weil wir nicht wissen, was genau da passiert. Aber ich würde sagen, wir haben - also ich habe zumindest eine Vermutung. Und damit kommen wir auch zur dritten Behörde auf EU-Ebene. Die interessiert nämlich Frontex. Frontex wollte im September fast eine halbe Millionen dafür rausgeben, dass Ihnen jemand so ein Monitoring-Ding mal baut. Wahrscheinlich so ähnlich wie EASO. Das Ganze ist dann aber ein bisschen schief gelaufen. Das lief ungefähr zeitgleich mit der Prüfung von dem Datenschutzbeauftragten und Privacy International und andere haben darüber so ein bisschen berichtet und mal nachgefragt, gesagt: So, Leute, hier Frontex. What the fuck? Was macht ihr da eigentlich und warum? Und dann hat Frontex die Ausschreibung wieder zurückgezogen. Dafür macht Frontex andere Sachen, nämlich mit Drohnen und sogenannter künstlicher Intelligenz und mit Drohnenschwärmen die Grenzen überwachen. Das seit einer relativ langen Zeit. Das erproben sie und versuchen da eben auch zu gucken: Na was ist da an der Grenze? Ist das jetzt ein Auto, ist das jetzt gerade ein Schiff? Sind da Personen drauf und im Zweifelsfall eben auch, wie verhalten diese Menschen sich auch. Das heißt, man geht vielleicht irgendwo lang. Dann kommt so ein kleiner Schwarm von Drohnen, guckt eine Weile an, analysiert das, schickt dann etwas an eine Einsatzzentrale, die ganz weit weg ist. Mensch guckt auf den Bildschirm, und im besten Fall hauen die Drohnen dann wieder ab. Oder eben auch nicht. Heißt, da haben wir eine relativ große Bandbreite an Digitalisierung, die wir noch bringen können. Ich will aber gerade gar nicht mehr so viel darüber reden, weil a) haben wir keine Zeit mehr und b) gibt's da morgen einen extra Vortrag, wo es ganz viel um eben diese europäischen Überwachungsprogramme gehen wird. Genau, ich überspringe tatsächlich noch ein paar mehr europäische Sachen, weil die Zeit rennt. Wir fragen uns nämlich jetzt ganz kurz: Wer profitiert denn davon? Das heißt, wir sagen: Okay, also unsere These ist ja, das ist eine ziemlich Dreistigkeit gegenüber Geflüchteten. Und es klappt auch nicht so richtig. Wer hat denn ein Interesse daran, dass das weitergeht, außer irgendwelchen Sicherheitspolitiker, die eben immer wieder sagen: Ja, wir brauchen Sicherheit, und dafür brauchen wir das, egal, was es kostet, sind nämlich die Firmen. Das ist eine große Menge an IT-Firmen. Das ist auch eine große Menge an Unternehmensberatungen. Das sind so Firmen wie Cellebrite, die vom BAMF auch getestet wurden, aber nicht produktiv eingesetzt werden gerade, die eben sowohl in Deutschland als auch auf EU-Ebene immer wieder auftauchen, wenn man sich mit solchen Dingen beschäftigt. Und zum Schluss wollen wir nochmal kurz zwei weitere Digitalisierungsprojekte des BAMF, das auf dem Weg zur digitalen Behörde ist, vorstellen. Haben wir noch Zeit, dieses Video zu zeigen? Können wir das? Wie lang dauert das? Nee, ich glaube nicht. Lea: Ja, eher nicht. Anna und Lea: Wollt ihr noch ein Video sehen? Bestätigende Ja-Rufe aus dem Publikum Anna: Gut. Sprecherin im Video: Also heute ist der große Tag. Nach langer Bauzeit und ein wenig Planungszeit haben wir das CIC heute eröffnet. Das steht für Creative Information Technology Center. Und das soll dazu dienen, hier unsere allerneuesten IT-Ideen, IT-Projekte und Zukunftsprojekte darzustellen. Im Augenblick ist es unser Cloud-Projekt. Deswegen ist auch das ganze Design so ein bisschen an der Cloud ausgerichtet. Also viele wellenförmige Design-Punkte finden sich hier weiter. Die Lampen sind so ein bisschen cloudmäßig angeordnet soll es sein, und das ist eigentlich eines unserer größten Zukunftsprojekte, die wir gerade laufen haben. Also heute... Anna: Reicht, okay? lacht Lachen und darauffolgender Applaus aus Publikum Anna: Wir sprachen mit einer Abteilungsleiterin für Informationstechnik, die wahrscheinlich ein bisschen überrascht wurde von diesem Interview. Wir wollen gar nicht so viel über Cloud reden, sondern wir wollen kurz über KI reden, weil alle über KI reden und das ist irgendwie cool, das BAMF setzt auch ganz viel KI ein. Und zwar setzt das BAMF irgendwie KI zum Postsortieren ein. Da gibt es so ein schönes Zitat auf dem Digital Gipfel von dem IT-Chef Markus Richter, der meinte: "Wir bekommen jeden Tag 6000 Dokumente, und da ist auch mal so ein Anwaltsschreiben dabei. Das ist ironisch formuliert, und da muss man dann eben mit der KI erkennen, ob das eine Unterlassungsklage ist oder eben nicht oder nur freundlich. Na ja, aber nicht ganz so lustig ist tatsächlich, KI wird auch in einem Pilotprojekt eingesetzt, um zu gucken, ob es Auffälligkeiten in Anhörungsprotokollen gibt. Das heißt, über dieses Projekt war relativ wenig bekannt bis mal die KI-Enquete-Kommission im Bundestag nachgefragt hat, was das BAMF so an KI-Zeug macht. Und da geht es darum, dass das BAMF laut Aussage des Innenministeriums seinen gesetzlichen Meldepflichten an die Sicherheitsbehörden leichter nachkommen kann. Da würde es dann darum gehen, dass eben relevante Stellen in Anhörungen, Protokollen markiert werden und dann gesagt wird: Okay, vielleicht ist die Person ein Sicherheitsrisiko. Vielleicht hatte die Person, Kontakt zu Personen, die sicherheitsrelevant sind, interessante Informationen für Behörden abgeben könnten. Dass das BAMF jede Menge Informationen an Behörden weitergibt, ist bekannt. Das heißt, 2015 waren es noch 500 Fälle, wo zum Beispiel an den Verfassungsschutz Menschen gemeldet wurden. Zwei Jahre später waren es schon über 10000 Fälle. Das heißt, das dürfte sich dadurch noch ein bisschen weiter erhöhen. Das BAMF hat aber auch erkannt, dass es ein Problem ist, wenn sie KI- Assistenzsysteme einsetzen. Aber Sie versuchen, die Mitarbeitenden die Entscheidungshoheit besitzen werden, was sicherlich von der Arbeitsbelastung und eben der Professionalität der Mitarbeiter abhängen wird. Ein anderes Projekt, das ich gerne mehr reden würde, wenn wir mehr Zeit hätten, ist das Blockchain-Projekt. Vielleicht können wir das einfach ganz kurz zusammenfassen. Das BAMF wollte was mit Blockchain machen, macht ja gerade so eine Konzeptphase in Dresden im Ankerzentrum. Und diese Konzeptphase soll Anfang 2020 abgeschlossen sein, das heißt die Konzeptionierung, um dann in einen Piloten zu gehen. Und die Motivation hat eine der BAMF-Mitarbeiterinnen auf einer Präsentation im November 2018 gesagt, ist: "Wir kennen das aus der Presse, irgendwo ist ein Fax liegengeblieben und dann sitzt jemand fälschlicherweise im Flugzeug." Nicht mein Zitat. Das heißt, man will versuchen, irgendwie diese ganzen Kommunikationsvorgänge zwischen den Behörden ein bisschen zu verbessern. Das heißt, dass die Ausländerbehörde dann auch weiß, was die Person für einen Status hat und so weiter und so fort. Jetzt kennen wir vielleicht so ein bisschen Blockchain. Blockchain hat so eine Eigenschaft, die ist besonders ungeeignet für sowas macht, nämlich Blockchain ist eigentlich dafür da, dass man die Daten nicht mehr so wirklich löschen kann und auch nicht manipulieren kann. Aber eigentlich müssen ja die Daten gelöscht werden, zumindest irgendwie zehn Jahre nach Abschluss des Asylverfahrens. Das heißt, das BAMF hat sich irgendwie ein rechtliches Gutachten machen lassen, und es gibt mittlerweile zwei White Paper dazu. Und man kann vielleicht zusammenfassen, dass so ziemlich alles aus einer Blockchain raus kastriert wurde, was man da so rein packen kann. Die Empfehlung war dann, es sollen keine personenbezogenen Daten auf der Blockchain gespeichert werden und letztlich ist es dann einfach nur noch so eine Zustandsbeschreibung mit einer Kennnummer. Und alle Daten, die dazugehören, stehen dann in irgendwelchen herkömmlichen Datenbanken. Könnte man sich fragen warum. Aber es gab einen Preis dafür. Lachen aus dem Publikum Anna: Auch gut. So, genau, wir dürfen nie vergessen Geflüchtete sind eh schon ganz krass, auch ohne diese ganzen neuen, fancy Sachen und ohne KI und ohne Blockchain und ohne diesen ganzen anderen Kram, von Datenspeicherung ganz, ganz, ganz extrem betroffen und sehr viel mehr als Menschen, die einen deutschen Pass haben. Und für die das glaube ich ziemlich krass wäre, wenn man mal versucht, sich vorzustellen, was es für einen selber bedeuten würde. Das Ausländer-Zentralregister, das sogenannte, ist eine Datensammlungen mit 26 Millionen personenbezogenen Datensätzen. Und das betrifft eben nur nicht-deutsch Pass-Menschen. Und das Ausländer-Zentralregister, sagt das Bundesverwaltungsamt, hat 14 000 Partnerbehörden und 100 000 Nutzerinnen und wird immer weiter ausgeweitet. Das heißt, man kann da jetzt biometrische Daten reinwerfen. Da sollen jetzt bald auch Fingerabdrücke von Menschen mit 6 Jahren und nicht nur erst ab 14 rein. Es gibt immer mehr zugriffsberechtigte Stellen. Da kann der Bundesnachrichtendienst genauso drauf zugreifen wie irgendwelche Jobcenter. Die Abrufe werden automatisiert. Und jetzt gibts auch noch die schöne Idee, man kann ja irgendwie den Zugriff auf die Daten mit einer Kennziffer gestalten. Man hat eigentlich mal gemerkt in Deutschland, dass das eine beschissene Idee ist, aber die Erinnerung hat nicht lange gehalten. So, das heißt unser Fazit zu dieser ganzen Geschichte ist, das Anliegen bei diesen Digitalisierungsvorhaben ist meistens, dass alles besser und schneller geht in den Asylverfahren und auch sicherer. Und es gibt weniger Fehler. Wir stehen vor dem Problem dieses Übereifers, das heißt, wir versuchen, alles Mögliche zu digitalisieren, und die Digitalisierung wird zu einem Zweck an sich. Ich glaube, diese Videos zeigen so ein bisschen, worauf man da hinaus will. Das ist aber erstmal nur ein Problem von Sinnlosigkeit und vielleicht ein bisschen Geld, das man rausgeschmissen hat. Das zweite Problem daran ist viel, viel krasser, nämlich dass Dinge entmenschlicht werden, dass wir hier massive und unverhältnismäßige Grundrechtseingriffe haben und die einfach in Kauf nehmen und überhaupt nicht mehr darüber nachdenken, was das für eine Bedeutung hat. Das heißt, wenn ich jetzt sagen würde: Okay, ich nehme jetzt einfach mal allen irgendwie die Handys ab und guck da mal drauf, nur weil man könnte ja dann irgendwie noch etwas rausfinden. Aber vielleicht brauche ich das gar nicht, wäre das eigentlich eine ziemlich krasse Nummer. Genauso würden wir uns darüber aufregen, dass irgendwie die Schufa mit irgendwelchen komischen Algorithmen irgendwelche Entscheidungen darüber trifft, ob man einen Handyvertrag bekommt oder nicht. Wenn das Gleiche für Menschen gilt, deren Asylantrag davon abhält, ist nochmal eine ganz andere Nummer. Und ein anderes Problem ist auch noch, Geflüchtete werden mit Straftätern gleichgesetzt, implizit. Das heißt, wir wenden Maßnahmen an, die sonst wirklich nur passieren, wenn es eben um Verbrechen geht bei Menschen, denen nichts vorgeworfen wird erstmal, bei denen kein Anfangsverdacht ist. Und zuletzt, wenn die Technologie erstmal da ist, wird sie zum einen auch anderweitig genutzt und zum anderen auch ausgeweitet. Das heißt, haben wir in den anderen Ländern gesehen, dass plötzlich die Einsatzzwecke ausgeweitet werden, dass man das dann nicht nur für Identität und Herkunft benutzt, sondern auch, um eben mal zu gucken, ob jemand vielleicht ein Sicherheitsrisiko sein könnte oder welchen Fluchtweg jemand genommen hat, man ihn nicht vielleicht dann doch nach Dublin und abschieben könnte und eben auch auf andere Bevölkerungsgruppen. Lea: Wir haben irgendwie den Fall, dass Geflüchtete sich als Versuchskaninchen einfach eignen, um hier Überwachungstechnologien auszutesten, und dann mal schauen, was wir noch damit machen. Anna: Genau. So, aber jetzt sind wir wirklich mal fertig. Wir haben noch fünf Minuten. Und ihr könnt uns jederzeit gerne kontaktieren. Danke schön. Applaus aus dem Publikum Herald: Vielen lieben Dank, Anna und Lea, für diesen augenöffnenden Vortrag! Wir haben noch ganz, ganz kurz Zeit für einige wenige Fragen. Wir haben hier sechs Saalmikrofone verteilt. Haben wir Fragen von unserem Signal Angel aus dem Internet? Den Signal Angel bitte. Signal Angel: Genau, die erste Frage ist auf Hotspots bezogen, und zwar ist da die Frage: Gibt es Hotspots in Unterkünften oder Apps, die von den Behörden angeboten werden und dementsprechend daran angeschlossen, gibt es irgendwas, was die geflüchteten Menschen beachten sollten, um dem Ganzen vielleicht aus dem Weg zu gehen? Anna: Die Frage kommt aus dem Internet, nee? Lea: Das kenne ich so ein bisschen aus den USA. Da gab es glaube ich dieses Thema in New York. Ich weiß nicht, ob ich sowas in Deutschland gibt. Anna: Ich wüsste es irgendwie auch nicht. Ich weiß nur, dass es irgendwie teilweise Informationen über Schlüsselkarten in Unterkünften an Behörden weitergeleitet werden, um zu gucken, ob die Person sich da aufhält, wo sie sich aufhalten soll. Aber von Hotspots weiß ich tatsächlich nichts. Herald: Mikrofon Nummer 4, bitte! Frage an Mikrofon 4: Inwieweit ist dieses ganze Verfahren entsprechend durch die DSGVO zum Beispiel abgebildet? Es gibt ja so verschiedene Pflichten, die auch die Behörden in ihrer Dokumentation haben. Also welche Daten entsprechend dann von den Geflüchteten Gespeichert werden, das müssen die ja eigentlich auch alles mit angeben. Und wie verhält sich das dann auch beispielsweise im Rahmen, dann mit dem Rückgriff auf andere Unternehmen, die dann auf irgendwelche Dinge in der Cloud Dinge tun? Das muss ja dann eigentlich auch alles aufgezeichnet werden. Anna: Okay, ich habe ja eben gesagt, wir haben versucht, so eine Datenschutzfolgeabschätzung mal zu bekommen. Das ist ja genau das, was mit der Datenschutzgrundverordnung eingeführt wurde, diese Pflicht zu sagen, was wir da verarbeitet und wie schätze ich eben ein, ob dieser Eingriff gerechtfertigt und rechtmäßig ist. Und da wir das nicht bekommen und das, wenn dann klagen müssen, weil sie uns das nicht geben, wissen wir dazu gerade einfach nicht viel. Lea: Hinzu kommt, also vieles dessen, was ich jetzt gesagt habe, auf verfassungsrechtlicher Ebene findet sich auch wieder auf DSGVO-Ebene. Also, auch da gibt es eine Art Verhältnismäßigkeitsprüfung. Und eigentlich gilt insofern also ähnliches. Meiner Meinung nach würde das auch gegen die DSGVO verstoßen. Und die DSGVO ist auch anwendbar. Die ist nicht anwendbar, wenn zur Gefahrenabwehr oder Strafverfolgung nämlich tätig wird. Das ist ja hier vielleicht so ein Fall, wo das zukünftig noch anders sein könnte, aber in diesem Fall vom Gesetzgeber ist sie jedenfalls ganz klar eigentlich anwendbar. Herald: Wir haben noch ganz knapp Zeit für eine Frage von unserem Signal Angel aus dem Internet. Signal Angel: Genau, da ist die Frage, wie weit oder ob wir beschreiben können, wie weit diese Mitwirkungspflicht der geflüchteten Menschen reichen. Also, ob das immer dazu ist, Handys offen zu legen, zu entsperren, ähnliches oder mehr? Anna: Kannst du den letzten Teil der Frage nochmal wiederholen? Den habe ich nicht verstanden. Signal Angel: Die Frage ist, ob ihr beschreiben könnt, wie weit die Mitwirkungspflichten der geflüchteten Menschen reichen, was da alles dazugehört. Lea: Also die müssen also auch zum Beispiel relevante Dokumente offenlegen, wenn es um die Frage geht, die Herkunft zu klären, also ob es irgendwelche Geburtsurkunden oder ähnliches gibt. Anna: Man muss eben schauen, im Zweifelsfall Papiere zu beschaffen, wenn es dir zumutbar ist. Das heißt, im Endeffekt musst du an deinem Asylverfahren mitwirken und die notwendigen Informationen zur Verfügung stellen, und die werden dann eben aufgelistet und dokumentiert, um was es sich da genau handelt. Herald: So, wir sind jetzt leider mit der Zeit zu Ende. Vielen, vielen lieben Dank an Lea Beckmann und Anna Biselli. Applaus 36c3 Abspannmusik Untertitel erstellt von c3subtitles.de im Jahr 20??. Mach mit und hilf uns!