36c3 Vorspannmusik
Herald: Alles muss digitalisiert werden,
alles muss effizienter und schneller
werden. Aber ist es am Ende dann auch noch
gerecht und rechtens und gut? Und ist es
wirklich das, was wir am Ende haben
wollten? Oder haben wir dann einfach nur
noch eine Maschine, die über uns
entscheidet? Darüber werden unsere
nächsten zwei Vortragenden berichten. Anna
Biselli ist Informatikerin und
Journalistin und Lea Beckmann ist bei der
Gesellschaft für Freiheitsrechte
Juristinnen und beschäftigt sich mit dem
Thema. Also ich kann mir kein besseres
Team vorstellen als Anna und Lea für
dieses Topic. Eine dicke runde Applaus
bitte.
Applaus
Lea Beckmann: Hallo, ich freue mich, dass
ihr so zahlreich gekommen seid. In der
Vorstellungsrunde möchte ich jetzt
vielleicht einmal kurz doch noch, das war
jetzt nicht geplant ist, Anna, aber dich
vorstellen. Anna Biselli ist
Informatikerin und Journalistin und
recherchiert seit einigen Jahren zur
Digitalisierung in der
Migrationskontrolle. Und wenn wir über das
Thema in Deutschland etwas wissen, wenn
wir vor allem auch mehr wissen als in
anderen Ländern, dann ist das sicherlich
in maßgeblicher Weise auch dir zu
verdanken. Die Frage ist also ein
bisschen, was ich eigentlich hier auf der
Bühne mache. Das will ich vielleicht kurz
erklären. Ich arbeite bei der Gesellschaft
für Freiheitsrechte und wir sind eine
Berliner NGO. Wir setzen uns ein für den
Schutz von Menschenrechten. Und zwar
machen wir das durch strategische
Prozessführung in aller Regel durch
Gerichtsverfahren. Und zwar wollen wir
dort, also wir sehen, dass in bestimmten
Themenbereichen einfach nicht geklagt
wird, rechtswidrige Behörden, Praktiken
oder auch verfassungswidrige Gesetze nicht
angegriffen werden und deswegen sich
Rechtsschutz Lücken in der Praxis stellen.
Und wir wollen helfen, das zu mit
schließen und also in diesen
Themenbereichen genauer rein zu schauen.
Und bei der Digitalisierung in der
Migrationskontrolle kommen quasi zwei
Themenbereiche zusammen, in denen das der
Fall ist, nämlich der Migrationsbereich,
also insbesondere Asylsuchende, die
einfach faktisch Schwierigkeiten im Zugang
zu Recht haben, die in Deutschland neu
ankommen, die Sprache nicht sprechen,
traumatisierende Erfahrung möglicherweise
in der Vergangenheit haben mit ganz
anderen Problemen im Alltag zu kämpfen
haben, also mit großen Rechtsschutzlücken.
Und andererseits geht es um
Digitalisierungsthemen, und da ist für
viele Menschen einfach auch schon
technisch nicht zu verstehen, worum es
geht. Und die Eingriffe in informationelle
Selbstbestimmung sind nicht so spürbar.
Deswegen ist es also ein Thema, in dem es
wichtig ist, dass auch mehr gerichtliche
Kontrolle herbeigeführt wird. Deswegen
haben Anna und ich quasie zu diesem Thema
zusammengefunden, weil Anna seit Jahren zu
diesem Thema recherchiert und wir eben aus
juristischer Sicht prüfen wollen bei einem
besonderen Thema, wie wir vorgehen, können
und dazu werden wir gleich noch genauer
kommen. Vielleicht so viel zur Einleitung.
Anna Biselli: Genau. Und bevor wir mit dem
anfangen, was Behörden machen, wollen wir
eigentlich mal gucken, wie wirkt sich denn
Digitalisierung auf Flucht überhaupt aus?
Weil an sich ist der Zugang zu digitalen
Technologien erst einmal ein ziemlich
wichtiges Werkzeug auch für gerade
Flüchtende und Geflüchtete. Weil es wird
eben benutzt, um zum Beispiel
Übersetzungshilfe zu leisten wie auf
diesem Bild bei einer Aktion in Linz. Es
wird auch benutzt, um Menschen
Informationen darüber zu geben, wie es
gerade vielleicht auf dem Mittelmeer
aussieht und wo sie sich wenden können,
wenn sie Probleme bekommen. Und Menschen
benutzen eben Smartphones und Facebook-
Gruppen, um sich auszutauschen, zum
Beispiel zu möglichen Fluchtrouten, zu
Gesetzen in den Ländern, in denen sie sich
gerade befinden oder in die sie wollen,
als Kommunikationsmittel nach Hause,
gerade auch wenn die Menschen in dem Land
angekommen sind, aber auch eben als quasi
letztes Bewahren von Erinnerungen, die man
noch hat, von Fotos, von allen möglichen
Sachen. Und eine Menge geflüchtete und
flüchtende Menschen haben eben Smartphones
dabei. Das heißt, eine Befragung der FU
Berlin von 2016, die haben in Berlin
rumgefragt, in Aufnahmelagern, haben
ergeben, dass zum Beispiel 78 Prozent der
Menschen, die aus Syrien nach Berlin
gekommen sind, während ihrer Flucht ein
Smartphone dabei hatten und genutzt haben
und 88 Prozent nach ihrer Flucht ein
Smartphone hatten und das auch genutzt
haben, um primär eben Dinge zu tun, die
ihnen den Alltag möglich machen und sie
dazu recherchieren. So, das ist eben die
eine Seite. Das heißt, wir haben irgendwie
eine Technologie, die Menschen hilft,
anzukommen, die Menschen hilft, sich
zurechtzufinden. Aber das produziert eben
jede Menge Daten. Und wir kennen den
Spruch vielleicht: Wo ein Trog ist, da
sammeln sich die Schweine. Der kommt aus
einem relativ passenden Kontext. War
nämlich während der
Vorratsdatenspeicherungs-Verhandlung 2009.
Da, wo die ganzen Daten anfallen und
produziert werden, da interessieren sich
plötzlich auch Behörden für diese Daten.
Heißt, man kann aus diesem Smartphone
Daten vor allem gucken, na ja, was ist
denn während der Flucht passiert? Wie sind
so die Fluchtbewegungen der Person? Mit
wem kommuniziert die Person? Was ist das
für eine Person? Wie verhält sie sich? Und
da geht es sowohl um das Individuum. Das
heißt die einzelne Person und ihr
Verhalten, aber auch um quasi Flucht als
Allgemeines. Das heißt, alles, was auf
Social Media passiert, unabhängig von der
einen Person, ist für Behörden
interessant. Und wir finden, Deutschland
ist ein ganz gutes Beispiel dafür, was
passiert, wenn gerade Behörden, die für
Migration zuständig sind, solche
Möglichkeiten entdecken und dann immer
wieder weiter digitalisieren,
digitalisieren, digitalisieren. Und
deshalb wollen wir zur Einleitung erst
einmal ein kleines Video zeigen, das das
BAMF zu sich selbst gemacht hat. Zu ihren
Digitalisierungsbemühungen, weil das,
glaube ich, ziemlich gut zeigt, mit was
für einem Digitalisierungsenthusiasmus,
wie es zu tun haben.
Video des BAMF:
Vorspannmusik
Das ist alles dabei.
weitere Vorspannmusik
René Böcker: Herzlich willkommen im IT-
Labor des BAMF!
weitere Vorspannmusik
Rene: Das hier ist der Ort, an dem wir
unsere Digitalisierungsagenda 2020
umsetzen. Mit dieser haben wir uns nicht
nur aus technischer Sicht eine ganze Menge
Herausforderungen gestellt, sondern auch
aus organisatorischer Sicht. Hier findet
agile Software-Entwicklung statt. Folgen
Sie mir.
Musik
Rene: Hier sind Sie im wichtigsten Raum
des IT-Labors. Hier arbeiten unsere
Entwickler.
Lachen aus dem Publikum des 36c3
Rene: Es gibt hier die entsprechenden
Arbeitsplätze. Dort gibt es das Product
Backlog entsprechend der agilen
Softwareentwicklungs-Methode Scrum.
Lachen aus dem Publikum des 36c3
Rene: Und hier sehen Sie bereits ein
erstes Resultat des Datenbankschema.
Musik
Rene: Hier befinden wir uns in unserem
multimedialen Präsentationsraum. Neben
einigen Entwicklungsergebnissen werden
hier die herausragenden Kernprojekte
unserer Digitalisierungsagenda
vorgestellt. Ein ganz wesentlicher
Erfolgsfaktor beim agilen
Projektmanagement nach Scrum-Methode ist
es nicht nur, dass das Entwicklungsteam
eng zusammenarbeitet, seine Ergebnisse
direkt der Fachseite präsentieren kann,
sondern auch, dass es einen Ort gibt zur
kreativen Lösungsfindung und manchmal auch
zur Konfliktlösung. Das IT-Labor mit
seinen drei Räumlichkeiten ist ein
wesentlicher Beitrag dazu, dass wir unsere
Digitalisierungsagenda 2020
Kickgeräusch mit anschließendem Auftreffgeräusch des Balls im Tor
Rene: zum Erfolg führen.
Abspannmusik
Applaus und teilweise Lachen aus dem Publikum des 36c3
Anna: So, also wir sehen, die Motivation
ist definitiv da. Aber die nächsten Themen
werden nicht mehr ganz so witzig, weil wir
gehen jetzt so ein bisschen in die
Inhalte, die wir untersucht haben. Und
zwar fangen wir an mit nicht nochmal dem
Video, sondern der Handydatenauswertung.
Lea: Das Thema, was wir uns eben zusammen
genauer angeschaut haben, sind die
Handydatenauswertungen, die das Bundesamt
für Migration und Flüchtlinge, das BAMF,
vornimmt. Und zwar ist das im Kontext zu
verstehen, dass 2015 eben mehr auch
Geflüchtete nach Deutschland kamen und in
der Folge etliche Gesetzesänderungen im
Asylbereich, Asylrecht erschwert haben und
insbesondere eben auch Gesetze, die
Ausreisepflicht verschärft haben. 2017
wurde das Gesetz zur besseren Durchsetzung
der Ausreisepflicht verabschiedet. In dem
Zusammenhang wurde auch eine
Rechtsgrundlage eingeführt, die es dem
BAMF ermöglicht, Handydaten Geflüchteter
auszulesen, und zwar über folgenden
Passus. Und zwar sind Asylsuchende
verpflichtet, bei der Aufklärung des
Sachverhalts mitzuwirken, und da wurde
2017 einfach die Nummer 6 eingeführt. Und
das heißt dann, das bedeutet, wenn man
keinen Pass oder Passersatz vorlegen kann,
dann kann das BAMF die Datenträger
auslesen. In der Praxis sind das Handys,
größtenteils Smartphones und zum Teil auch
einfache Feature Phones. Es kommen
tatsächlich eben auch viele Geflüchtete in
Deutschland ohne Pass an. Das ist über die
Hälfte der Geflüchteten in den vergangenen
Jahren. Das hat damit zu tun, das kann
ganz unterschiedliche Gründe haben. Aber
es hat zum Teil damit zu tun, dass es in
manchen Ländern nicht so üblich ist,
überhaupt einen Pass zu haben. Manche
Pässe werden auch nicht anerkannt. Also
das gibt Einschätzungen des
Innenministeriums gemeinsam mit dem BAMF,
das hat auch mit der politischen Situation
in den Ländern zu tun, dass Pässe nicht
anerkannt werden. Zum Beispiel betrifft
das Somalia, wo fast ausnahmslos Pässe
nicht anerkannt werden oder auch viele
Pässe, die aus Nigeria stammen. Das BAMF
liegt diese Rechtsgrundlage zudem weit
aus. Jeder, der im Moment, indem er beim
BAMF vorsteht, keinen Pass hat, der in dem
Moment auf seine Echtheit überprüft werden
kann, bei dem glaubt es, eben die
Datenträger auslesen zu können. Es kann
also sein, dass der Pass aktuell bei einer
anderen Behörde liegt, in einer anderen
Angelegenheit. Es kann auch sein, dass ...
da fehlen mir gerade die anderen
Beispiele. Aber jedenfalls gibt es
unterschiedliche Gründe, warum eine
Person, die eigentlich einen Pass hat,
also der Pass wird nicht anerkannt. Kann
ich vor Ort direkt computergestützt
überprüft werden, dann kann das Handy
ausgelesen werden. Wir haben das Thema
auch bei der Gesellschaft für
Freiheitsrechte eigentlich seit den
Ursprüngen verfolgt. Denn bereits im
Gesetzgebungsverfahren war die
Verfassungswidrigkeit dieser rechtlichen
Grundlage ganz scharf kritisiert worden
von der damaligen
Bundesdatenschutzbeauftragten, vom
Deutschen Anwaltverein, von diversen
anderen Organisationen. Es lag eigentlich
klar auf dem Tisch. Das Gesetz ist dann
trotzdem verabschiedet worden, ist unserer
Ansicht nach verfassungswidrig. Aber wir
kommen hier an die bereits beschriebenen
Rechtsschutzlücken. Denn ein
verfassungswidriges Gesetz anzugehen
heißt, man muss es im Normalfall durch die
gerichtliche Kontrolle, durch die
Instanzen bringen, dann zum
Bundesverfassungsgericht und kann dann
etliche Jahre warten in der Hoffnung, dass
das Bundesverfassungsgericht dann die
rechtliche Grundlage für nichtig erklärt.
Es ist für die individuell betroffenen
Personen also in ihrer Biografie eine
Hilfe, die viel zu spät kommt. Deswegen
haben wir eben beschlossen, dass es
strategischer Prozessführung bedarf und
dass wir diese Rechtsgrundlage vor Gericht
bringen wollen. Und dafür haben wir uns
gemeinsam der Aufgabe gewidmet, einmal den
Sachverhalt sehr, sehr klar aufzuzäumen,
um eben diese Rechtswidrigkeit und vor
allem auch die Unverhältnismäßigkeit der
Grundrechtseingriffe darlegen zu können.
Applaus
Also einmal kurz zudem, wie das eigentlich
passiert, wenn man also beim BAMF
vorstellig wird. Im Normalfall ist das
direkt bei der Registrierung. Also wenn
man ganz am Anfang im Asylverfahren keinen
Pass vorlegen kann, dann wird ein
Rohdatensatz vom Handy ausgelesen, kopiert
durch eine speziell dafür eingeworbene
Software, analysiert nach bestimmten
Indikatoren, die eben vermeintlich
Auskunft geben sollen über Herkunft und
Identität. Denn nur darum geht es hier.
Und dann wird also ein Ergebnisprotokoll,
ein Digitales, kreiert, das dann in einem
digitalen Datentresors abgespeichert wird.
Und im nächsten Schritt dann aus diesen
Datentresor nur abgerufen werden kann nach
vorheriger Freigabe durch einen Juristen
oder eine Juristin innerhalb des BAMF. Die
Indikatoren, die dabei untersucht werden,
sind die folgenden: Einmal Ländervorwahlen
in Kontaktdaten, in einem und ausgehenden
Anrufen und in Nachrichten, dann
Länderendungen aufgerufener Webseiten, die
im Internetbrowser aufgerufen worden sind,
Lokalisationdaten in Apps und Fotos, die
Sprache in Nachrichten, und zwar im
Arabischen, sogar der Dialekt, und
Benutzernamen und E-Mail-Adressen, die
genutzt werden, um sich in Apps damit an
zumelden. Zum Beispiel der Name, den man
verwendet, um sich bei Facebook
anzumelden, oder auch in einer Dating-App.
Das Ergebnisprotokoll, wird zunächst
abgespeichert und kann nur nach interner
Freigabe verwendet werden, was die
entscheidende Person im BAMF dann sieht,
sieht also so aus. Das sind so
Tortendiagramme und Länderkarten, die
eingezeichnet werden, die also darstellen,
in welchem Prozentsatz die eingehenden
Nachrichten zum Beispiel in welcher
Sprache oder mit welchen Vorwahlen gewesen
sind. Aus rechtlicher Hinsicht muss man
dazu vielleicht einleitend direkt sagen,
das migrationspolitische Ziel das hier
verfolgt wird, reicht eigentlich nicht
aus, um in informationstechnische Systeme,
also hier in Handys, einzugreifen. Und
zwar das Bundesverfassungsgericht 2008 das
sogenannte Comuter-Grundrecht erkannt,
dass die Integrität und Vertraulichkeit
informationstechnischer Systeme heißt das.
Und dabei hat es anerkannt, dass auf
informationstechnischen Systemen, also
Handys und Computern eine Vielzahl von
Daten zusammentrifft, die ganz
unterschiedliche Lebensbereiche betreffen
und das deswegen besonders gefährlich ist
und einen besonderen grundrechtlichen
Schutz bedarf, und dass also ein
staatlicher Zugriff nur unter sehr hohen
Voraussetzungen zulässig ist. Und zwar
sagt es zu gewichtigen Verfassungshüter.
Da sind zum Beispiel Leib oder Leben. Da
kann man sich vorstellen, dass bei
konkreten Anhaltspunkten da schwere
Straftaten bevorstehen, also ein Zugriff
gerechtfertigt ist. Aber zu so rein
abstrakten migrationspolitischen Zielen,
nämlich Asylmissbrauch verhindern und
Abschiebungen erleichtern, ist das an sich
nicht zulässig. Denn die dahinterstehende
Logik bei der Einführung war ja, dass man
glaubt, also es gibt viele Menschen, die
in Deutschland ankommen, die einen Pass
nicht vorlegen können und die werden
vermutlich ein anderes Land angeben als
das, aus dem sie kommen. Jedenfalls in
Teilen, um so fälschlicherweise Asyl zu
bekommen. Oder aber man weiß, dass sie
kein Asyl haben, und will sie abschieben,
kann sie aber nicht abschieben, wenn sie
eben einen Pass nicht vorlegen. Das
Interessante ist, dass diese Handy-
Datenauswertung des BAMF eigentlich das
Gegenteil belegt, also Geflüchteten in
Deutschland ein sehr gutes Zeugnis
ausstellen. Dazu kommen wir gleich noch.
Also im Grunde genommen ist bereits der
Eingriff in Handys zu diesem Ziel
unzulässig, meiner Meinung nach. Wenn man
aber das Ziel einmal grundsätzlich
anerkennt, dann kommt man zur
Verhältnismäßigkeit-Prüfung. Dann würde
man sagen, dann muss es zu dem erstrebten
Ziel verhältnismäßig sein, was hier
eigentlich an Eingriffen passiert. Und
diese Verhältnismäßigkeitsprüfung ist
eigentlich nichts anderes als eine
Tradition von Fragestellungen, die sich
Juristen stellen, um möglichst alle
Aspekte zu bedenken, die irgendwie sagen,
wie gut oder sinnvoll oder wie verdammt
schwachsinnig was ist wie jetzt hier im
Folgenden eigentlich. Das erste Argument,
dass man rechtlich sagen muss, es handelt
sich um eine anlasslose und
flächendeckende Maßnahme. Hier wird nicht
anhand konkreter Verdachtsmomente bei der
individuellen Person entschieden, sondern
ohne konkrete Anhaltspunkte und
flächendeckend bei allen Personen, die
sich ohne Pass oder Passersatz melden,
eingegangen. Das ist, sagt das
Bundesverfassungsgericht, besonders
gefährlich, weil wir dann in die Gefahr
laufen, dass wir eben große
Bevölkerungsteile ausleuchten. Und
deswegen ist das nur unter hohen
Voraussetzungen möglich. Dann der nächste
Punkt ist, und das werde ich jetzt auf
zwei Beispiele beschränken, ist, dass die
Indikatoren, die hier ausgewertet sind,
auch einfach ziemlich unsinnig sind. Also
wenn man sich überlegt, es geht um die
Frage: Woher kommt jemand, also
Nationalität und Identität? Da kann man
sich plausiblerweise die genannten
Indikatoren mal durchdenken und fragen:
Kann man damit eigentlich beweisen, wo
jemand herkommt? Und jetzt mal ein
Beispiel, Ländervorwahlen. Bei einer
Person, die möglicherweise vor Jahren
geflohen ist, aus einem Land, in dem Krieg
herrscht, die jetzt in Deutschland
ankommt. Mit wem steht die Person also im
Kontakt in der Lebenszeit ihres Handys?
Welche Ländervorwahlen werden dabei sein?
Vermutlich Ländervorwahlen des Gastlandes.
Vermutlich werden Vorwahlen von den Orten,
an denen sich Angehörige und Familien
inzwischen aufhalten. Und das wird
vermutlich nicht unbedingt das
Herkunftsland sein. Das heißt, es ist
einfach vom Aussagewert des Indikators
schlecht, um das überhaupt darzulegen. Ein
weiteres Beispiel - weil es eben auch
besonders interessant ist - ist die
Aussagekraft, die das BAMF meint, sagen zu
können über die verwendete Sprache in den
Nachrichten. Und zwar gibt es eben vor,
dass es bestimmen kann, welche Sprache
verwendet wird und im Arabischen sogar
welcher Dialekt verwendet wird. Und ganz
unabhängig davon, dass das sowieso sehr
schwer ist, Sprache zu erkennen, haben wir
es hier mit der Besonderheit zu tun, dass
wir schriftliche Sprache in
Textnachrichten haben. Und wenn man sich
das aus dem Arabischen überlegt, dann
bedeutet das, dass arabische
Schriftzeichen in diesen Textnachrichten
übersetzt werden, mit lateinischen
Buchstaben geschrieben werden. Und es gibt
Laute im Arabischen, die so im Englischen
oder auch im Französischen nicht
auftauchen und die man unterschiedlich
phonetisch schreibt. Da gibt es also eine
sehr große Vielfalt an Schreibweisen, die
zum Teil damit zu tun hat, ob die Länder,
in denen es verwendet wird, eher englische
oder französische Kolonialzeiten erlebt
haben, also sich eher an einer englischen
oder französischen Phonetik orientieren,
aber auch einfach individuelle
Unterschiede haben. Nur mal ein Beispiel
für das Wort Befreiung. Das wären jetzt
Möglichkeiten, das als lateinische
Schriftzeichen in einer Nachricht
darzustellen. Ich denke, das macht so ein
bisschen klar, wie schwierig das
eigentlich ist, plausibel darzulegen,
welcher Dialekt verwendet wird. Hinzu
kommt, dass Dialekte nicht an
Ländergrenzen enden, dass also zum
Beispiel der gleiche arabische Dialekt
gesprochen wird in Israel, Palästina,
Jordanien, Libanon und in Syrien.
Anna: Ich glaube, wir hatten auch ein paar
ganz gute Beispiele von
Auswertungsprotokollen, die wir gesehen
haben und die wir einsehen konnten. Da
waren eben auch Sprachauswahlen, die waren
total abstrus. Das heißt, da stand dann
zum Beispiel eine Person hat primär
Nachrichten auf Neugriechisch empfangen,
aber dann Nachrichten auf Finnisch und
Esperanto geschrieben. So das heißt, da
steht halt auch irgendwie ziemlicher
Bullshit drin. Das heißt, das ist nicht
eine These von uns, dass das irgendwie
nicht so einfach ist und alles schiefgehen
kann. Das zeigt eben auch, dass es in der
Praxis eben schwierig ist. Zumindest das
Kommunikationsverhalten dieser Person
müsste schon sehr, sehr ausgefallen sein.
Zeigt dann noch ein anderes Problem,
nämlich zumindest meine persönliche These,
warum diese Personen offenbar primär auf
Neugriechisch irgendwelche Nachrichten
bekommen hat, ist, dass es zum Beispiel
diese Providernachrichten sind. Das heißt,
die Person ist durch Griechenland geflohen
und dann kommt dann der Provider und sagt
hier Roaming und "Hallo, willkommen in
unserem Roaming". Das heißt, wir haben
einfach eine ganze Anzahl von Faktoren,
die es eben schwierig machen, überhaupt
einzuschätzen, wie verlässlich das ist.
Und spätestens der Entscheider oder die
Entscheiderin müsste das dann einschätzen
können, um das eben richtig in einer Asyl-
Entscheidung mit einbeziehen zu können.
Und dann dachte ich mir, weil ich
regelmäßig bei dem BAMF Anfragen stelle,
ich frag mal, wie das denn so mit der
Fehlerquote bei dieser Sprachnachrichten
Auswertung aussieht. Das ist nicht die
einzige Frage, die ich gestellt habe, aber
auf jeden Fall hat mir dann das BAMF
gesagt, na ja, das können sie mir leider
nicht sagen, weil das irgendwie so
speziell, das würde dann den Einsatz der
Technik erschweren. Und ich finde das
einfach ein erstaunliches Maß an
Intransparenz und Dreistigkeit zu sagen,
dass selbst eine Fehlerquote von einem
System, das Auswirkungen auf eine Asyl-
Entscheidungen von Menschen hat, dass die
Fehlerquote geheim gehalten werden muss
und dass man die nicht rausgeben kann. Ich
habe in der gleichen Anfrage eben auch
gefragt: Leute, was verwendet ihr denn für
Verfahren, um das überhaupt zu bestimmen?
Was ist denn eure Datenbasis? Welche
Messenger könnt ihr denn überhaupt
erkennen? Und wie tut ihr das eigentlich?
Und nichts davon wird gesagt, weil alles
ist so geheim, dass es dann irgendwie die
Gefährdung dieses ganzen Systems nach sich
ziehen würde. Und ich finde, das ist ein
riesiges Problem, weil wir wissen eben
auch, dass diese Software nicht alle
Messenger mit einbeziehen kann. Das heißt,
es kann ja sein, dass eine Person primär
SMS von dem Provider bekommt, selber aber
über Messenger kommuniziert, die von dem
System nicht ausgewertet werden können.
Allein dadurch, dass die Person so ein
Kommunikationsverhalten hat, fällt sie
dann komplett aus diesem System raus. Und
selbst wenn das System die Sprache
erkennen könnte, werden dann falsche
Ergebnisse bei rauskommen. Und das ist
eben nicht bekannt. Und ich bin mir fast
sicher, dass die meisten der Mitarbeiter,
die diese Zettel dann vorliegen haben,
eben auch nicht wissen werden, welche
Messenger das Ding genau erkennen können
wird und das ist ein ziemliches Problem.
Zufälligerweise gab es dann dieses Jahr so
eine Datenethik-Kommission, die die
Bundesregierung eingesetzt hat, um mal
arbeiten zu lassen, was denn passieren
muss, wenn der Staat algorithmische
Systeme und sogenannte künstliche
Intelligenz einsetzt. Und diese
Datenethik-Kommission hat dann eben
gesagt: Okay, staatliche Stellen müssen
ganz besonders transparent sein und die
Entscheidungen müssen transparent und
begründbar bleiben. Und dazu sollen eben,
auch wenn es möglich ist, die
Datenkategorien der Ein- und Ausgabedaten
irgendwie rausgegeben werden. Da sollen
die Berechnungsformel herausgegeben werden
und eben die Entscheidungen daraufhin
eingeschätzt werden. Und all das passiert
hier nicht, obwohl es um wirklich krasse
Eingriffe geht, und obwohl es um wirklich
krasse Folgen eben für das Leben von
Menschen und für das Schicksal von
Menschen hat. Und das ist eben nicht das
Einzige, was beim BAMF so läuft. Das
bezieht sich auch auf viele andere
Systeme. Eines der Systeme, über das ich
letztes Jahr ein bisschen mehr geredet
habe, war die Dialektanalyse, die zusammen
mit anderen IT-Tools eingeführt wurde
2017, wo es darum geht, dass eine Person
in einen Hörer spricht, 2 Minuten lang,
und dann wird eine Sprachaufnahme gemacht
und dann fällt ein Zettel raus, und auf
dem Zettel steht dann drauf, aus welchem
Land die Person vermutlich kommt. Das ist
in Deutschland ziemlich einzigartig. Die
meisten anderen Länder, in denen
sogenannte Sprachanalysen zur
Herkunftsbestimmung gemacht werden, machen
das immer noch händisch, sei es durch
Behörden, interne Sprachexperten, sei es
durch externe Gutachter oder private
Unternehmen. Aber das BAMF tut eben auch
das immer mehr automatisiert. Und da
wissen wir zumindest: Okay, es gibt eine
Fehlerquote von 15 Prozent. Wir wissen
aber auch, dass die Fehlerquote je nach
Sprache unterschiedlich ist. Das heißt,
sie haben herausgelassen in einer Antwort
auf eine Kleine Anfrage, dass die
Erkennung für levantinischen Arabisch,
also der Dialekt, der unter anderem in
Syrien gesprochen wird, besser ist als für
andere Dialekte im Arabischen. Und allein
das zeigt schon, dass es ein riesiges
Problem ist. Das liegt unter anderem
daran, dass die Datenbasis ungleich
verteilt ist. Das heißt, sie haben
wesentlich mehr Sprachproben, mit denen
sie ihr System trainiert haben für
levantinisches Arabisch. Aber sie sagen
eben nicht, wie viele das sind. Sie sagen
dann: Okay, das ist eine Antwort, die
geheim. Die wird dann irgendwie als
Verschlusssache nur für den Dienstgebrauch
rausgegeben und die erfährt dann niemand,
außer vielleicht den Leuten, die genauer
nachfragen und versuchen, das
herauszufinden. Und dann könnte man sich
fragen, okay, wenn man so Systeme
einsetzt, die relativ einzigartig sind,
dann müsste man ja irgendwie mal dafür
sorgen, dass jemand da drauf guckt und
einschätzt, unabhängig, am besten noch, ob
das alles so funktioniert und sinnvoll
ist. Und da wurde schon im Dezember 2017
aus dem Bundestag mal gefragt: Wollte das
nicht mal irgendwie mit Wissenschaftlern
und Wissenschaftlerinnen begleiten? Und
dann wurde gesagt: Okay, Planung für das
Jahr 2018. Wir schreiben aktuell das Jahr
2019. Ich habe dann nochmal nachgefragt,
weil ich mache das öfter mal. Und dann hat
dann das BAMF gesagt: Das findet aktuell
noch nicht statt, das ist aber künftig
geplant. Und das ist ein Zeitraum von,
sage ich mal, zwei Jahren. Und in den zwei
Jahren hat es Tausende von Menschen
betroffen, und ich finde es einfach krass,
wie man derartig mauern kann als Behörde,
wenn man irgendwie eine relativ große
Verantwortung trägt, sowieso schon die
ganze Zeit schlechte Presse bekommt, weil
man eben auch relativ viel Mist baut und
dann immer noch weiter jegliche, sage ich
mal, Einsicht und jegliche Aufarbeitung
dessen, was man eigentlich tut,
verweigert. Das Gleiche ist irgendwie
passiert mit
Datenschutzfolgeabschätzungen. Ich wollte
wissen, eine Datenschutzfolgeabschätzung,
das muss gemacht werden bei Systemen, die
Daten verarbeiten, die zu einem großen Maß
sensibel sind oder große Mengen an Daten
verarbeiten oder automatisiert
Entscheidungen aus diesen Daten ableiten.
Und nun wollte ich wissen: Was ist denn
die Datenschutzfolgeabschätzung zu zum
Beispiel dieser Handyauswertung? Oder auch
zu anderen Systemen, die ihr benutzt? Und
da wurde dann gesagt: Okay, die können wir
nicht rausgeben. Das hat dann irgendwie
fast ein Jahr lang gedauert, bis ich eine
Absage darauf bekommen habe, weil dadurch
könnten ja mögliche Sicherheitslücken
identifiziert werden. Und dann ist wieder
die Sicherheit der Bundesrepublik in
Gefahr. Das heißt, wir stehen hier vor
einer riesigen Mauer aus Schweigen und
bekommen, wenn dann überhaupt, nur
tröpfchenweise Informationen. Und das ist
eben ein rechtsstaatliches Problem neben
anderen.
Lea: Ja, genau, das ist nicht nur bizarr,
das ist eben auch ein rechtsstaatliches
Problem. Wenn das BAMF sagt, das wäre ein
Sicherheitsrisiko, diese Fehlerquotienten
offenzulegen, würde ich entgegnen: Es ist
ein Sicherheitsrisiko, dass wir das nicht
wissen und dass wir das nicht einschätzen
können. Das betrifft einmal die fehlende
Aussagekraft der untersuchten Indikatoren.
Und es betrifft eben darüber hinaus auch
die Frage, wie fehleranfällig die Systeme
funktionieren. Hinzu kommt also, dass es
technische Probleme gibt. In einem Viertel
der Fälle können Geräte bereits nicht
ausgelesen werden. Oder mal vorweg
angefangen: Es kommt hinzu, dass unter den
Geflüchteten in Deutschland, die ohne Pass
angefragt werden, etwa eine Hälfte gar
keine Datenträger haben oder das zumindest
angeben, was relativ verständlich ist.
Aber das heißt, es ist relativ leicht,
sich dieser Maßnahme zu entziehen. Es ist
uns nicht bekannt, dass das BAMF das
soweit verfolgt. Bei der Hälfte der Fälle
kommt das BAMF nicht weiter, weil die
Personen also keinen Datenträger haben.
Dann ist an einem Viertel der Fälle
scheitert die Auslesung bereits technisch.
Es kommt überhaupt gar nicht zu einem
Ergebnisbericht. Das hat vermutlich damit
zu tun, dass es sich um besonders alte
oder um besonders neue Geräte handelt.
Anna: Oder das Kabel nicht da ist. Also
proprietäre Anschlüsse sind auch ein
Problem.
Lachen aus dem Pubilkum
Anna: Das haben Sie gesagt, wirklich,
also, denke ich mir nicht aus.
Lachen von Anna und Lea
Lea: Das ist also ein Viertel der Fälle.
Dann in den Fällen, in denen es wenigstens
zu einer Auswertung kommt, sind die
überwiegend unbrauchbar. Das sind mal die
Zahlen für 2018, also 64 Prozent der
ausgelesenen Geräte, wo es zum
Ergebnisprotokoll kam, waren unbrauchbar.
Unbrauchbar heißt, da kam also irgendwas
raus, wie das, was Anna eben beschrieben
hatte mit Finnisch, Japanisch, Chinesisch.
Das ist dann unbrauchbar. Das sind also
die Fälle, in denen BAMF-Mitarbeitende das
so erkannt haben, als unbrauchbar. Das
waren jetzt im ersten Quartal 2019 55
Prozent, ein bisschen weniger. Aber dafür
haben wir dann in der Folge also das
versprochene gute Zeugnis für die
Geflüchteten. In den verbleibenden Prozent
sind dann 34 Prozent, bestätigen die
Angaben. Und nur in 2 Prozent kam es 2018
überhaupt zu einem Widerspruch. Das heißt,
nur da war überhaupt ein Indiz dafür
gegeben, dass die gemachten Angaben
möglicherweise nicht richtig waren. Das
sagt überhaupt nichts darüber aus, ob das
dann auch so war. Aber im ersten Quartal
2019 waren es 44 Prozent, die bestätigt
haben, die Angaben, also noch mehr. Und
nur ein Prozent, in dem Widerspruch stand.
Interessant ist auch, dass auch die BAMF-
Mitarbeiter zum Teil nicht davon
auszugehen zu scheinen, dass sie das
brauchen. In 2018 sind 11400 Geräte
ausgelesen worden im Verlauf des Jahres.
Und nur in 5400 Fällen hat dann der
Entscheider, die Entscheiderin überhaupt
einen Antrag auf Freigabe gestellt. Die
ganzen Restlichen wurden nicht mal mehr
angefragt. Das heißt, da ist einfach mal
das Handy ausgelesen worden, ohne dass man
nachher irgendwie das Gefühl hatte, dass
es irgendwie im Asylverfahren auch wichtig
war. Dem gegenüber stehen Kosten, und zwar
hat das bereits in der Anschaffung 2017
6,9 Millionen gekostet für die Anschaffung
von Hard- und Software und kostet seither
jährlich 2,1 Millionen auch an Support
Kosten. Das sind jetzt vielleicht für ein
behördliches Digitalisierungsprojekt nicht
die Riesensummen. Aber wenn man sich
überlegt, worum es hier eigentlich geht,
dann finde ich ja schon ziemlich große
Summen. Denn worum es hier geht, ist, dass
die Vermutung besteht, dass unter den
Leuten, die hier Asyl suchen, in
Deutschland ein paar sind, die nicht
kommen, weil sie vor Krieg fliehen,
sondern weil sie vor Armut fliehen. Das
ist nämlich dann Asylmissbrauch, und die
könnte man natürlich irgendwie kostenmäßig
einkalkulieren. Oder man verwaltet seine
Kosten lieber für so ein
Digitalisierungsprojekt, das zu unsinnigen
Aussagen kommt. Hinzu kommt, dass
Rechtsschutz faktisch ziemlich ausgehebelt
ist, weil man kann nicht im Vorhinein was
dagegen machen. Als geflüchtete Person,
die kommt, kann man nicht vorher
Rechtsschutz suchen, sitzt dann in der
Situation einem BAMF-Mitarbeiter
gegenüber, und man kann dann widersprechen
und sagen: Ich gebe mein Handy nicht raus.
Aber das kann echt krasse Folgen haben,
weil man dann seine Mitwirkungspflicht
verletzt. Im schlimmsten Fall kann das
dazu führen, dass der Asylantrag als
zurückgenommen angesehen wird. Jedenfalls
kann eben es zu Misstrauen führen.
Natürlich macht man das nicht. Und
nachträglicher Rechtsschutz, das habe ich
eben schon dargestellt, ist schwer, weil
es die gesetzliche Grundlage es erst mal
hergibt. Da kann man sich auf einen
langen, teuren und schwierigen Prozess
einstellen. Es gibt praktisch keinen
Rechtsschutz. Was wären dann die
Alternativen? Ich glaube, Alternative ist
eigentlich gar nicht das richtige Wort,
wenn ich ehrlich bin. Denn de facto können
diese Ergebnisse nur Indizwirkung erzeugen
und man muss ohnehin bei den altvertrauten
Methoden bleiben, wenn es darum geht,
Herkunft und Identität herzustellen und
das sind spezifische Nachfragen in der
Anhörung. Wenn eine Person angibt, aus
einer bestimmten Region, aus einer
bestimmten Stadt zu kommen, muss man
Regionalwissen abfragen und genau
nachfragen: Wie heißt denn die Kirche, die
dein Onkel besucht? Und wenn du vom
Flughafen dich in die Stadt rein bewegst,
was für Gebäude sind da auf der Strecke?
So macht man das bisher, und das ist eine
verlässliche Methode. Und das ist eine
viel verlässlichere Methode als das, was
das BAMF mit den Handyauswertungen macht.
Es ist nach wie vor die Methode, auf die
es ankommt, weil diese Handyauswertungen
keine Beweiskraft haben, sondern
allenfalls eine Indizwirkung.
Zwischenfazit also: Massiver
Grundrechtseingriff, zu geringe
Eingriffsvoraussetzungen, nämlich quasi
keine, außer dass man keinen Pass hat. Es
ist extrem fehleranfällig, wenig aussagekräftig.
Rechtsschutz gibt es faktisch nicht, und
zudem ist das mit hohen Kosten verbunden.
Anna: Okay, so, jetzt könnte man sagen:
Wir haben ja nicht so viele gute Worte
dafür übrig. Ist Deutschland alleine so
doof? Aber nee, Datenträger von
geflüchteten und ankommende Menschen
werden auch in anderen Ländern Europas
ausgelesen, und zwar teilweise schon
länger als in Deutschland und teilweise
auch von anderen Behörden. In vielen
Ländern ist es tatsächlich, also in den
rot markierten Ländern, in denen es
zumindest gesetzliche Befugnisse dafür
gibt. Es ist tatsächlich die Polizei, die
dafür zuständig ist, den Menschen die
Datenträger abzunehmen und auszulesen, die
die dann teilweise an die
Migrationsbehörde weiterleiten. Und es
gibt aber auch jede Menge Länder, in denen
diese Möglichkeit rechtlich eingeführt
ist, aber wohl nicht so wirklich viel
darüber bekannt ist, was da eigentlich
passiert. Wir haben selber gemerkt, dass
es extrem schwer ist, an Informationen zu
kommen, weil das Thema kaum Aufmerksamkeit
erfährt. Ich habe z.B. mit geflüchteten
Organisationen in den Niederlanden
geredet, wo dann gesagt wurde: Ja, das
wird gemacht und ja, das passiert häufig.
Aber Genaueres dazu wissen wir auch nicht.
Wir wissen, dass es zum Beispiel in
Belgien und Österreich die gesetzliche
Möglichkeit dafür gibt, die relativ frisch
eingeführt wurde, die Maßnahme aber noch
nicht ausgeführt werden. Das heißt, in
Österreich liegt es unter anderem an
Datenschutzbedenken und
Beschaffungsproblemen. Das heißt, da
scheint man sich nochmal Gedanken darüber
zu machen, ob das überhaupt so in Ordnung
ist. In Großbritannien ist es sicherlich
ein bisschen ein Sonderfall, weil
Großbritannien gerade bei der Auswertung
von Handydaten in Europa ganz, ganz weit
vorne mit dabei ist. Vielleicht haben
einige schon so ein bisschen gehört, dass
z.B. auch die Handys von Opfern von
Gewaltverbrechen oder von sexualisierter
Gewalt ausgelesen werden, um dann eben
Informationen zu bekommen. Das heißt, da
ist die Schwelle generell sehr, sehr
niedrig, ein Handy auszulesen und
abzunehmen. Aber über die konkrete Praxis
dessen, wie das bei Geflüchteten passiert,
weiß man eben nicht viel. Was aber
auffällt, wenn man sich das so ein
bisschen anschaut und wenn man sich die
ganzen Gesetze mal anschaut, die in den
einzelnen Ländern so da sind, ist, dass
gerade die Bestimmungen oder Anhaltspunkte
auf Herkunft und Identität überall ein
Thema sind, das aber teilweise noch
weitergeht, und zwar in Dänemark z.B., wo
das schon seit 2015 oder 2016, glaube ich,
gemacht wird, wo dann dann aber eben 2017
Gesetze erweitert wurden. Das heißt, es
geht dann nicht mehr darum, Identität- und
Herkunftshinweise zu bekommen, sondern da
steht jetzt einfach im Gesetz: Na ja, wir
können das für alles machen, was für das
Asylverfahren von Bedeutung sein könnte.
Und das ist natürlich eine relativ breite
Definition. Das heißt, im Endeffekt hat
einer der Beamten in Dänemark auch einer
Zeitung gesagt zum Beispiel: Na ja, wenn
wir da so einen Zufallsfund finden, dann
werden wir natürlich nicht liegen lassen.
In Belgien geht die Dimension rechtlich
auch noch ein bisschen weiter. Da wird es
aber auch noch nicht durchgeführt. Und es
gibt gerade auch eine Beschwerde beim
belgischen Verfassungsgericht dagegen.
Aber da dürften quasi alle digitalen Dinge
einer Person durchsucht werden. Das heißt
auch, dass die Person im Zweifelsfall
gefragt werden kann: Was ist denn das
Passwort zu deinem Mail-Account? Das
heißt, da geht es weiter. Da geht es, sag
ich mal, über einen physischen Datenträger
hinaus, wobei es eh ein bisschen schwierig
ist, von nur einem physischen Datenträger
zu reden, wenn sich da eh Zugangsdaten für
alle möglichen Dinge drauf befinden. Und
gerade diese Social Media Analyse, wie sie
in Belgien vorgesehen ist und in Norwegen
und Dänemark schon gemacht wird, ist eine
relativ krasse Sache, weil eben dadurch
sowohl durch die, sage ich mal, Open
Source Intelligence nehme ich auf
irgendwelchen Facebook Profilen von
Menschen, die ich vor mir habe, irgendwie
surfe, als auch dadurch, dass ich mir die
Passwörter von den Leuten hole und mir das
angucke, irgendwie jede Menge
Informationen bekomme über die Person. Und
das an einem Zeitpunkt, wo ich noch gar
keinen Verdacht habe, dass die Person mir
überhaupt etwas Falsches erzählt haben
könnte. Das heißt, im Endeffekt stelle ich
diese Person mit einem krassen Straftäter
gleich. Und das Einzige, was diese Person
getan hat, ist, aus ihrem Zuhause zu
flüchten und vielleicht keinen Pass dabei
zu haben. Und vielleicht kann man sich das
so ein bisschen überlegen, in Deutschland
gabs ja vor ein paar Jahren relativ großen
Aufschrei, als die Jobcenter die Facebook-
Profile oder die eBay-Kleinanzeigen-
Profile von eben Klientinnen am Jobcenter
durchsucht haben. Und da gab einen
riesengroßen medialen Aufschrei. Aber der
riesengroße mediale Aufschrei, wenn sowas
gemacht wird bei Geflüchteten, der fehlt
so ein bisschen. Wir haben einen solchen
Fall tatsächlich auch in Deutschland
gefunden, wo bei einer Person durch die
Handyauswertung ein Facebook-Profil-Name
gefunden wurde. Das heißt, da stehen dann
noch so Identitätsinformationen, und dann
wurde anhand dieses Facebook-Profil weiter
geschaut. Das heißt, der/die
Entscheider/in hat dann eben geguckt: Was
finde ich auf diesem Facebook-Profil? Und
hat dann auch in dem Bericht geschrieben:
Naja, ich sehe, die Person hat den
Fussballclub von XY gelikt und hat den
lokalen Laden da irgendwie gut gefunden.
Und deshalb beziehe ich das in ihre
Asylentscheidung mit ein. Soweit wir
wissen, ist das keine gängige Praxis.
Falls ihr andere Informationen habt, sind
wir daran bestimmt interessiert. Aber das
zeigt eben, wie schnell es weitergehen
kann. Das heißt, es geht dann nicht mehr
nur darum: in dieser Handydatenauswertung
sind dann eben eh nur statistische
Informationen drin, sondern da geht es
eben darum, dass irgendwie das auch weiter
genutzt werden kann. Und Social Media
Monitoring ist eben noch auf einer
kollektiven Ebene interessant, nämlich um
Migrationsbewegungen zu erfassen. Und da
gibt es diverse, vor allem europäische
Behörden, die daran Interesse haben. Das
wären so drei davon: die erste, die damit
angefangen hat, ist EASO, die EU-
Unterstützungs-Agentur für Asyl. Mein
Kollege Alexander Fanta hat dazu ein
bisschen recherchiert. Und zwar haben die
seit Januar 2017 Social Media Auswertungen
gemacht und haben sich Facebook-Gruppen
angeguckt oder auch andere, sag ich mal,
Kanäle, auf denen Menschen Informationen
z.B. zu Fluchtrouten teilen oder in denen
Menschen sich über Flucht austauschen, und
haben dann wöchentlich einen Monitoring
Report an Asylbehörden in den EU-
Mitgliedstaaten geschickt, ans UNHCR, auch
an Europol, und haben das nach Stichworten
durchsucht. Das Ganze basierte auf einem
Bericht von dem UN-Flüchtlingskommissariat
aus 2017, wo untersucht wurde, wie gerade
so Angebote von, sag ich mal,
Dokumentenfälschern und von Schmugglern,
die Leuten irgendwie für viel Geld
irgendwie eine bessere Welt versprechen,
so auf Social Media funktionieren. Und
dann hat EASO eben angefangen, das selber
zu übernehmen und da eben Lagebilder zu
erstellen. Und dann fragt man sich: Was
passiert dann mit diesen Lagebildern? Die
gehen dann in die Behörden in den
Mitgliedsstaaten. Und dann hat der Kollege
von mir mal nachgefragt: Naja, warum denn
eigentlich? Und dann wurde als einer der
großen Erfolge genannt, dass man den
sogenannten Konvoi der Hoffnung relativ
früh entdeckt hat. Das war im März und
April. Da gab es Gerüchte in sozialen
Medien, dass die Grenze zwischen
Griechenland und Mazedonien offen sein
soll. Und viele Menschen haben sich eben
auf den Weg gemacht und dann hat man das
früh entdeckt und mit Polizeigewalt und
Tränengas die Leute wieder zurückgedrängt.
Das ist dann einer der Erfolge. So, der
Europäische Datenschutzbeauftragte hat
sich das Ding mal angeschaut und
nachgefragt: Was macht ihr da eigentlich
und auf welcher Rechtsgrundlage tut ihr
das? Und eine Datenschutzfolgeabschätzung,
die das BAMF uns zum Beispiel nicht geben
will, hatten sie erstmal gar nicht. Das
heißt es gab dann später eine. Und da
stand dann unter anderem drin: Naja, wir
haben da gar keine personenbezogenen
Informationen drin. Da hat der Europäische
Datenschutzbeauftragte gesagt: Na gut,
aber warum steht denn da eine
Telefonnummer von jemandem? Das ist alles
ein bisschen inplausibel und eure
allgemeine Aufgabe, da Informationen zu
sammeln, wenn es eben gerade zu einem
sogenannten Massezustrom kommt, lässt sich
auch nicht damit vereinbaren, dass ihr das
einfach jede Woche seit Jahren macht. Und
ihr sagt auch nicht, wie er das tut und
generell seid ihr ziemlich intransparent
und hat dann vor Kurzem erfreulicherweise
gesagt: Ihr hört jetzt mal damit auf. Das
heißt, es zeigt auch ...
Applaus
Anna: ... wie wichtig es ist, dass
Menschen, seien es jetzt Behörden, seien
es Aktivistinnen seien es Journalisten,
sich diese Praktiken mal anschauen, weil
das Ding lief einfach zwei Jahre lang,
ohne dass jemand irgendwas gemerkt hat,
mehr oder weniger, und dadurch, dass sich
das eben jemand mal angeschaut hat und
gesagt hat: Okay, ihr spinnt ja, ihr habt
ja überhaupt keine Rechtsgrundlage dafür
und was macht ihr hier eigentlich? Hört
mal damit auf! Wurde das eben erst
entdeckt. Eine andere Behörde, die an
Social Media Informationen interessiert
ist, ist Europol. Von Europol kennt man
vielleicht so diese ganzen Take-Down-
Aktionen, wo sie Posts in sozialen Medien
von terroristischen oder sogenannten
terroristischen Inhalten oder mutmaßlich
terroristischen Inhalten runternehmen. Das
Ganze machen sie auch mit sogenannten
schmuggelrelevanten Inhalten. Das heißt,
2018 hat Europol 800 Posts oder 800
Informationen gemeldet bekommen und die
dann an die sogenannte Internet Referral
Unit weitergeleitet, die dann bei den
Providern oder bei den Betreibern
angefragt haben könnte die mal bitte
runterzunehmen. Und das ist dann auch in
99 Prozent der angefragten Fälle passiert.
Jetzt fragt man sich halt, was verstehen
die unter schmuggelrelevante Inhalte? Sind
das wirklich nur Posts, die dann zum
Beispiel sagen: Zahl mir jetzt irgendwie
15 000 Euro und dafür kriegst du von mir
einen Pass und ein schönes Leben. Oder
sind das eben auch
Seenotrettungsorganisationen, die
illegalisiert werden? Und das wissen wir
eben nicht, weil wir nicht wissen, was
genau da passiert. Aber ich würde sagen,
wir haben - also ich habe zumindest eine
Vermutung. Und damit kommen wir auch zur
dritten Behörde auf EU-Ebene. Die
interessiert nämlich Frontex. Frontex
wollte im September fast eine halbe
Millionen dafür rausgeben, dass Ihnen
jemand so ein Monitoring-Ding mal baut.
Wahrscheinlich so ähnlich wie EASO. Das
Ganze ist dann aber ein bisschen schief
gelaufen. Das lief ungefähr zeitgleich mit
der Prüfung von dem
Datenschutzbeauftragten und Privacy
International und andere haben darüber so
ein bisschen berichtet und mal
nachgefragt, gesagt: So, Leute, hier
Frontex. What the fuck? Was macht ihr da
eigentlich und warum? Und dann hat Frontex
die Ausschreibung wieder zurückgezogen.
Dafür macht Frontex andere Sachen, nämlich
mit Drohnen und sogenannter künstlicher
Intelligenz und mit Drohnenschwärmen die
Grenzen überwachen. Das seit einer relativ
langen Zeit. Das erproben sie und
versuchen da eben auch zu gucken: Na was
ist da an der Grenze? Ist das jetzt ein
Auto, ist das jetzt gerade ein Schiff?
Sind da Personen drauf und im Zweifelsfall
eben auch, wie verhalten diese Menschen
sich auch. Das heißt, man geht vielleicht
irgendwo lang. Dann kommt so ein kleiner
Schwarm von Drohnen, guckt eine Weile an,
analysiert das, schickt dann etwas an eine
Einsatzzentrale, die ganz weit weg ist.
Mensch guckt auf den Bildschirm, und im
besten Fall hauen die Drohnen dann wieder
ab. Oder eben auch nicht. Heißt, da haben
wir eine relativ große Bandbreite an
Digitalisierung, die wir noch bringen
können. Ich will aber gerade gar nicht
mehr so viel darüber reden, weil a) haben
wir keine Zeit mehr und b) gibt's da
morgen einen extra Vortrag, wo es ganz
viel um eben diese europäischen
Überwachungsprogramme gehen wird. Genau,
ich überspringe tatsächlich noch ein paar
mehr europäische Sachen, weil die Zeit
rennt. Wir fragen uns nämlich jetzt ganz
kurz: Wer profitiert denn davon? Das
heißt, wir sagen: Okay, also unsere These
ist ja, das ist eine ziemlich Dreistigkeit
gegenüber Geflüchteten. Und es klappt auch
nicht so richtig. Wer hat denn ein
Interesse daran, dass das weitergeht,
außer irgendwelchen Sicherheitspolitiker,
die eben immer wieder sagen: Ja, wir
brauchen Sicherheit, und dafür brauchen
wir das, egal, was es kostet, sind nämlich
die Firmen. Das ist eine große Menge an
IT-Firmen. Das ist auch eine große Menge
an Unternehmensberatungen. Das sind so
Firmen wie Cellebrite, die vom BAMF auch
getestet wurden, aber nicht produktiv
eingesetzt werden gerade, die eben sowohl
in Deutschland als auch auf EU-Ebene immer
wieder auftauchen, wenn man sich mit
solchen Dingen beschäftigt. Und zum
Schluss wollen wir nochmal kurz zwei
weitere Digitalisierungsprojekte des BAMF,
das auf dem Weg zur digitalen Behörde ist,
vorstellen. Haben wir noch Zeit, dieses
Video zu zeigen? Können wir das? Wie lang
dauert das? Nee, ich glaube nicht.
Lea: Ja, eher nicht.
Anna und Lea: Wollt ihr noch ein Video
sehen?
Bestätigende Ja-Rufe aus dem Publikum
Anna: Gut.
Sprecherin im Video: Also heute ist der
große Tag. Nach langer Bauzeit und ein
wenig Planungszeit haben wir das CIC heute
eröffnet. Das steht für Creative
Information Technology Center. Und das
soll dazu dienen, hier unsere
allerneuesten IT-Ideen, IT-Projekte und
Zukunftsprojekte darzustellen. Im
Augenblick ist es unser Cloud-Projekt.
Deswegen ist auch das ganze Design so ein
bisschen an der Cloud ausgerichtet. Also
viele wellenförmige Design-Punkte finden
sich hier weiter. Die Lampen sind so ein
bisschen cloudmäßig angeordnet soll es
sein, und das ist eigentlich eines unserer
größten Zukunftsprojekte, die wir gerade
laufen haben. Also heute...
Anna: Reicht, okay? lacht
Lachen und darauffolgender Applaus aus Publikum
Anna: Wir sprachen mit einer
Abteilungsleiterin für
Informationstechnik, die wahrscheinlich
ein bisschen überrascht wurde von diesem
Interview. Wir wollen gar nicht so viel
über Cloud reden, sondern wir wollen kurz
über KI reden, weil alle über KI reden und
das ist irgendwie cool, das BAMF setzt
auch ganz viel KI ein. Und zwar setzt das
BAMF irgendwie KI zum Postsortieren ein.
Da gibt es so ein schönes Zitat auf dem
Digital Gipfel von dem IT-Chef Markus
Richter, der meinte: "Wir bekommen jeden
Tag 6000 Dokumente, und da ist auch mal so
ein Anwaltsschreiben dabei. Das ist
ironisch formuliert, und da muss man dann
eben mit der KI erkennen, ob das eine
Unterlassungsklage ist oder eben nicht
oder nur freundlich. Na ja, aber nicht
ganz so lustig ist tatsächlich, KI wird
auch in einem Pilotprojekt eingesetzt, um
zu gucken, ob es Auffälligkeiten in
Anhörungsprotokollen gibt. Das heißt, über
dieses Projekt war relativ wenig bekannt
bis mal die KI-Enquete-Kommission im
Bundestag nachgefragt hat, was das BAMF so
an KI-Zeug macht. Und da geht es darum,
dass das BAMF laut Aussage des
Innenministeriums seinen gesetzlichen
Meldepflichten an die Sicherheitsbehörden
leichter nachkommen kann. Da würde es dann
darum gehen, dass eben relevante Stellen
in Anhörungen, Protokollen markiert werden
und dann gesagt wird: Okay, vielleicht ist
die Person ein Sicherheitsrisiko.
Vielleicht hatte die Person, Kontakt zu
Personen, die sicherheitsrelevant sind,
interessante Informationen für Behörden
abgeben könnten. Dass das BAMF jede Menge
Informationen an Behörden weitergibt, ist
bekannt. Das heißt, 2015 waren es noch 500
Fälle, wo zum Beispiel an den
Verfassungsschutz Menschen gemeldet
wurden. Zwei Jahre später waren es schon
über 10000 Fälle. Das heißt, das dürfte
sich dadurch noch ein bisschen weiter
erhöhen. Das BAMF hat aber auch erkannt,
dass es ein Problem ist, wenn sie KI-
Assistenzsysteme einsetzen. Aber Sie
versuchen, die Mitarbeitenden die
Entscheidungshoheit besitzen werden, was
sicherlich von der Arbeitsbelastung und
eben der Professionalität der Mitarbeiter
abhängen wird. Ein anderes Projekt, das
ich gerne mehr reden würde, wenn wir mehr
Zeit hätten, ist das Blockchain-Projekt.
Vielleicht können wir das einfach ganz
kurz zusammenfassen. Das BAMF wollte was
mit Blockchain machen, macht ja gerade so
eine Konzeptphase in Dresden im
Ankerzentrum. Und diese Konzeptphase soll
Anfang 2020 abgeschlossen sein, das heißt
die Konzeptionierung, um dann in einen
Piloten zu gehen. Und die Motivation hat
eine der BAMF-Mitarbeiterinnen auf einer
Präsentation im November 2018 gesagt, ist:
"Wir kennen das aus der Presse, irgendwo
ist ein Fax liegengeblieben und dann sitzt
jemand fälschlicherweise im Flugzeug."
Nicht mein Zitat. Das heißt, man will
versuchen, irgendwie diese ganzen
Kommunikationsvorgänge zwischen den
Behörden ein bisschen zu verbessern. Das
heißt, dass die Ausländerbehörde dann auch
weiß, was die Person für einen Status hat
und so weiter und so fort. Jetzt kennen
wir vielleicht so ein bisschen Blockchain.
Blockchain hat so eine Eigenschaft, die
ist besonders ungeeignet für sowas macht,
nämlich Blockchain ist eigentlich dafür
da, dass man die Daten nicht mehr so
wirklich löschen kann und auch nicht
manipulieren kann. Aber eigentlich müssen
ja die Daten gelöscht werden, zumindest
irgendwie zehn Jahre nach Abschluss des
Asylverfahrens. Das heißt, das BAMF hat
sich irgendwie ein rechtliches Gutachten
machen lassen, und es gibt mittlerweile
zwei White Paper dazu. Und man kann
vielleicht zusammenfassen, dass so
ziemlich alles aus einer Blockchain raus
kastriert wurde, was man da so rein packen
kann. Die Empfehlung war dann, es sollen
keine personenbezogenen Daten auf der
Blockchain gespeichert werden und
letztlich ist es dann einfach nur noch so
eine Zustandsbeschreibung mit einer
Kennnummer. Und alle Daten, die
dazugehören, stehen dann in irgendwelchen
herkömmlichen Datenbanken. Könnte man sich
fragen warum. Aber es gab einen Preis
dafür.
Lachen aus dem Publikum
Anna: Auch gut. So, genau, wir dürfen nie
vergessen Geflüchtete sind eh schon ganz
krass, auch ohne diese ganzen neuen, fancy
Sachen und ohne KI und ohne Blockchain und
ohne diesen ganzen anderen Kram, von
Datenspeicherung ganz, ganz, ganz extrem
betroffen und sehr viel mehr als Menschen,
die einen deutschen Pass haben. Und für
die das glaube ich ziemlich krass wäre,
wenn man mal versucht, sich vorzustellen,
was es für einen selber bedeuten würde.
Das Ausländer-Zentralregister, das
sogenannte, ist eine Datensammlungen mit
26 Millionen personenbezogenen
Datensätzen. Und das betrifft eben nur
nicht-deutsch Pass-Menschen. Und das
Ausländer-Zentralregister, sagt das
Bundesverwaltungsamt, hat 14 000
Partnerbehörden und 100 000 Nutzerinnen
und wird immer weiter ausgeweitet. Das
heißt, man kann da jetzt biometrische
Daten reinwerfen. Da sollen jetzt bald
auch Fingerabdrücke von Menschen mit 6
Jahren und nicht nur erst ab 14 rein. Es
gibt immer mehr zugriffsberechtigte
Stellen. Da kann der
Bundesnachrichtendienst genauso drauf
zugreifen wie irgendwelche Jobcenter. Die
Abrufe werden automatisiert. Und jetzt
gibts auch noch die schöne Idee, man kann
ja irgendwie den Zugriff auf die Daten mit
einer Kennziffer gestalten. Man hat
eigentlich mal gemerkt in Deutschland,
dass das eine beschissene Idee ist, aber
die Erinnerung hat nicht lange gehalten.
So, das heißt unser Fazit zu dieser ganzen
Geschichte ist, das Anliegen bei diesen
Digitalisierungsvorhaben ist meistens,
dass alles besser und schneller geht in
den Asylverfahren und auch sicherer. Und
es gibt weniger Fehler. Wir stehen vor dem
Problem dieses Übereifers, das heißt, wir
versuchen, alles Mögliche zu
digitalisieren, und die Digitalisierung
wird zu einem Zweck an sich. Ich glaube,
diese Videos zeigen so ein bisschen,
worauf man da hinaus will. Das ist aber
erstmal nur ein Problem von Sinnlosigkeit
und vielleicht ein bisschen Geld, das man
rausgeschmissen hat. Das zweite Problem
daran ist viel, viel krasser, nämlich dass
Dinge entmenschlicht werden, dass wir hier
massive und unverhältnismäßige
Grundrechtseingriffe haben und die einfach
in Kauf nehmen und überhaupt nicht mehr
darüber nachdenken, was das für eine
Bedeutung hat. Das heißt, wenn ich jetzt
sagen würde: Okay, ich nehme jetzt einfach
mal allen irgendwie die Handys ab und guck
da mal drauf, nur weil man könnte ja dann
irgendwie noch etwas rausfinden. Aber
vielleicht brauche ich das gar nicht, wäre
das eigentlich eine ziemlich krasse
Nummer. Genauso würden wir uns darüber
aufregen, dass irgendwie die Schufa mit
irgendwelchen komischen Algorithmen
irgendwelche Entscheidungen darüber
trifft, ob man einen Handyvertrag bekommt
oder nicht. Wenn das Gleiche für Menschen
gilt, deren Asylantrag davon abhält, ist
nochmal eine ganz andere Nummer. Und ein
anderes Problem ist auch noch, Geflüchtete
werden mit Straftätern gleichgesetzt,
implizit. Das heißt, wir wenden Maßnahmen
an, die sonst wirklich nur passieren, wenn
es eben um Verbrechen geht bei Menschen,
denen nichts vorgeworfen wird erstmal, bei
denen kein Anfangsverdacht ist. Und
zuletzt, wenn die Technologie erstmal da
ist, wird sie zum einen auch anderweitig
genutzt und zum anderen auch ausgeweitet.
Das heißt, haben wir in den anderen
Ländern gesehen, dass plötzlich die
Einsatzzwecke ausgeweitet werden, dass man
das dann nicht nur für Identität und
Herkunft benutzt, sondern auch, um eben
mal zu gucken, ob jemand vielleicht ein
Sicherheitsrisiko sein könnte oder welchen
Fluchtweg jemand genommen hat,
man ihn nicht vielleicht dann doch
nach Dublin und abschieben könnte und
eben auch auf andere Bevölkerungsgruppen.
Lea: Wir haben irgendwie den Fall, dass
Geflüchtete sich als Versuchskaninchen
einfach eignen, um hier
Überwachungstechnologien auszutesten,
und dann mal schauen, was
wir noch damit machen.
Anna: Genau. So, aber jetzt sind wir
wirklich mal fertig.
Wir haben noch fünf Minuten.
Und ihr könnt uns jederzeit
gerne kontaktieren. Danke schön.
Applaus aus dem Publikum
Herald: Vielen lieben Dank, Anna und Lea,
für diesen augenöffnenden Vortrag! Wir
haben noch ganz, ganz kurz Zeit für einige
wenige Fragen. Wir haben hier sechs
Saalmikrofone verteilt. Haben wir Fragen
von unserem Signal Angel aus dem Internet?
Den Signal Angel bitte.
Signal Angel: Genau, die erste Frage ist
auf Hotspots bezogen, und zwar ist da die
Frage: Gibt es Hotspots in Unterkünften
oder Apps, die von den Behörden angeboten
werden und dementsprechend daran
angeschlossen, gibt es irgendwas, was die
geflüchteten Menschen beachten sollten, um
dem Ganzen vielleicht aus dem Weg zu
gehen?
Anna: Die Frage kommt aus dem
Internet, nee?
Lea: Das kenne ich so ein bisschen aus den
USA. Da gab es glaube ich dieses Thema in
New York. Ich weiß nicht, ob ich sowas in
Deutschland gibt.
Anna: Ich wüsste es irgendwie auch nicht.
Ich weiß nur, dass es irgendwie teilweise
Informationen über Schlüsselkarten in
Unterkünften an Behörden weitergeleitet
werden, um zu gucken, ob die Person sich
da aufhält, wo sie sich aufhalten soll.
Aber von Hotspots weiß ich tatsächlich
nichts.
Herald: Mikrofon Nummer 4, bitte!
Frage an Mikrofon 4: Inwieweit ist dieses
ganze Verfahren entsprechend durch die
DSGVO zum Beispiel abgebildet? Es gibt ja
so verschiedene Pflichten, die auch die
Behörden in ihrer Dokumentation haben.
Also welche Daten entsprechend dann von
den Geflüchteten Gespeichert werden, das
müssen die ja eigentlich auch alles mit
angeben. Und wie verhält sich das dann
auch beispielsweise im Rahmen, dann mit
dem Rückgriff auf andere Unternehmen, die
dann auf irgendwelche Dinge in der Cloud
Dinge tun? Das muss ja dann eigentlich
auch alles aufgezeichnet werden.
Anna: Okay, ich habe ja eben gesagt, wir
haben versucht, so eine
Datenschutzfolgeabschätzung mal zu
bekommen. Das ist ja genau das, was mit
der Datenschutzgrundverordnung eingeführt
wurde, diese Pflicht zu sagen, was wir da
verarbeitet und wie schätze ich eben ein,
ob dieser Eingriff gerechtfertigt und
rechtmäßig ist. Und da wir das nicht
bekommen und das, wenn dann klagen müssen,
weil sie uns das nicht geben, wissen wir
dazu gerade einfach nicht viel.
Lea: Hinzu kommt, also vieles dessen, was
ich jetzt gesagt habe, auf
verfassungsrechtlicher Ebene findet sich
auch wieder auf DSGVO-Ebene. Also, auch da
gibt es eine Art
Verhältnismäßigkeitsprüfung. Und
eigentlich gilt insofern also ähnliches.
Meiner Meinung nach würde das auch gegen
die DSGVO verstoßen. Und die DSGVO ist
auch anwendbar. Die ist nicht anwendbar,
wenn zur Gefahrenabwehr oder
Strafverfolgung nämlich tätig wird. Das
ist ja hier vielleicht so ein Fall, wo das
zukünftig noch anders sein könnte, aber in
diesem Fall vom Gesetzgeber ist sie
jedenfalls ganz klar eigentlich anwendbar.
Herald: Wir haben noch ganz knapp Zeit für
eine Frage von unserem Signal Angel aus
dem Internet.
Signal Angel: Genau, da ist die Frage, wie
weit oder ob wir beschreiben können, wie
weit diese Mitwirkungspflicht der
geflüchteten Menschen reichen. Also, ob
das immer dazu ist, Handys offen zu legen,
zu entsperren, ähnliches oder mehr?
Anna: Kannst du den letzten Teil der Frage
nochmal wiederholen? Den
habe ich nicht verstanden.
Signal Angel: Die Frage ist, ob ihr
beschreiben könnt, wie weit die
Mitwirkungspflichten der geflüchteten
Menschen reichen, was da alles dazugehört.
Lea: Also die müssen also auch zum
Beispiel relevante Dokumente offenlegen,
wenn es um die Frage geht, die Herkunft zu
klären, also ob es irgendwelche
Geburtsurkunden oder ähnliches gibt.
Anna: Man muss eben schauen, im
Zweifelsfall Papiere zu beschaffen, wenn
es dir zumutbar ist. Das heißt, im
Endeffekt musst du an deinem Asylverfahren
mitwirken und die notwendigen
Informationen zur Verfügung stellen, und
die werden dann eben aufgelistet und
dokumentiert, um was
es sich da genau handelt.
Herald: So, wir sind jetzt leider mit der
Zeit zu Ende. Vielen, vielen lieben Dank
an Lea Beckmann und Anna Biselli.
Applaus
36c3 Abspannmusik
Untertitel erstellt von c3subtitles.de
im Jahr 20??. Mach mit und hilf uns!