< Return to Video

36C3 - Weichenstellung

  • 0:00 - 0:19
    36c3 Vorspannmusik
  • 0:19 - 0:23
    Herald Engel: Unser nächster Vortrag hat
    den Titel „Weichenstellung“. In welcher
  • 0:23 - 0:30
    digitalen Welt werden wir leben? Der Herr
    Kelber wird darin aufzeigen, welche Folgen
  • 0:30 - 0:34
    die aktuellen politischen Entscheidungen
    oder deren Ausbleiben auf unsere Zukunft
  • 0:34 - 0:38
    als Gesellschaft haben. Insbesondere bei
    den Themen digitale überwachung durch
  • 0:38 - 0:44
    private und öffentliche Stellen. Ulrich
    Kelber ist seit Januar diesen Jahres der
  • 0:44 - 0:48
    Bundesdatenschutzbeauftragte, ist
    studierter Diplominformatiker, hat 20
  • 0:48 - 0:55
    Jahre im Bundestag als Bundestagsabgeordneter
    gearbeitet und war vorher Staatssekretär
  • 0:55 - 0:58
    im Justizministerium. Bitte begrüßt ihn
    mit einem kräftigen Applaus.
  • 0:58 - 1:08
    Applaus
  • 1:08 - 1:11
    Ulrich Kelber: Ja, schönen guten Tag, auch
    von meiner Seite, hab mich sehr über die
  • 1:11 - 1:16
    Einladung gefreut. Ich bin natürlich etwas
    beschämt, dass ich das erste Mal dabei bin,
  • 1:16 - 1:21
    nämlich in den 20 Jahren, wo ich
    tatsächlich Abgeordneter war, hat meine
  • 1:21 - 1:26
    Familie gestreikt: neben den Wochenenden,
    die immer dazugehören zur Arbeit, mir dann
  • 1:26 - 1:33
    auch noch die Tage über Weihnachten für
    digitale Themen frei zu geben. Aber
  • 1:33 - 1:36
    nachdem ich ja im Januar in den Job
    wechseln konnte, wo ich noch schön an
  • 1:36 - 1:41
    einem Thema tief arbeiten kann, aber die
    Wochenenden jetzt freier zur Verfügung
  • 1:41 - 1:46
    habe, durfte ich mir zumindest mal einen
    Tag dafür nehmen. Und ich hoffe, im
  • 1:46 - 1:49
    nächsten Jahr vielleicht auch mal mit
    Übernachtung ein bisschen mehr
  • 1:49 - 2:00
    reinschnuppern auch in das, was andere zu
    sagen und zu zeigen haben. — Applaus
  • 2:00 - 2:06
    Ich habe in der Tat jetzt knapp ein Jahr in
    der neuen Funktion zubringen können,
  • 2:06 - 2:12
    versuchen, das Thema in der Breite
    aufzunehmen, Schwerpunkte zu setzen,
  • 2:12 - 2:17
    insbesondere bei den Aufgaben, die wir in
    den letzten Jahren auch hinzubekommen
  • 2:17 - 2:21
    haben: die Durchsetzung der europäischen
    Datenschutzgrundverordnung, die
  • 2:21 - 2:25
    Durchsetzung der ja erst noch in
    nationales Recht umzusetzenden Joint
  • 2:25 - 2:30
    Implementation Richtlinie, die Regulierung
    von Scoring und Profiling, bereich-
  • 2:30 - 2:36
    spezifische Gesetzgebung, die ja fast im
    Wochenrhythmus erfolgt, insbesondere im
  • 2:36 - 2:42
    Sicherheitsbereich und natürlich jetzt
    auch drei Jahre oder dreieinhalb Jahre
  • 2:42 - 2:48
    nach Inkrafttreten, anderthalb Jahre nach
    der vollen Wirksamkeit. Auch die
  • 2:48 - 2:53
    Überlegungen zur Weiterentwicklung
    europäischen Datenschutzrechts. Und alles
  • 2:53 - 2:58
    vor dem Hintergrund einer Entwicklung, wo
    im Augenblick Weichenstellungen in der
  • 2:58 - 3:04
    Frage von Regulierung, Nichtregulierung,
    technische Entwicklung, Einführung von IT-
  • 3:04 - 3:09
    Systemen gesetzt werden, die massive
    Auswirkungen auch auf unsere
  • 3:09 - 3:13
    Gesellschaftsordnung haben. Mich
    interessieren die Debatten um digitale
  • 3:13 - 3:19
    Überwachung, sei es durch private oder
    staatliche Stellen und insbesondere
  • 3:19 - 3:23
    natürlich auch der regelrechte hysterische
    Wettlauf um immer neue
  • 3:23 - 3:30
    Eingriffesbefugnisse von
    Sicherheitsbehörden. — Applaus
  • 3:30 - 3:34
    Ich bin überzeugt, dass wir
    schon die Weichenstellungen so vornehmen
  • 3:34 - 3:39
    können, dass auch die digitale
    Gesellschaft eine freiheitliche, liberale
  • 3:39 - 3:46
    und diverse Gesellschaft bleibt. Aber
    ausgemacht ist das noch keineswegs. Wir
  • 3:46 - 3:50
    sehen immer wieder, dass die technischen
    und ökonomischen Aspekte dieser Debatte in
  • 3:50 - 3:55
    den Vordergrund gestellt werden und dass
    es schwierig ist, durchzudringen mit
  • 3:55 - 3:59
    gesellschaftspolitischen und
    datenschutzrechtlichen Fragestellungen.
  • 3:59 - 4:05
    Und wenn es eine Debatte gibt über diese
    Weichenstellung in einer digitalpolitischen
  • 4:05 - 4:10
    europäischen Debatte, dann werden eben vor
    allem diese technischen und okönomischen
  • 4:10 - 4:15
    Aspekte herangezogen. Es wird verwiesen
    auf den Stand von ja durchaus
  • 4:15 - 4:21
    durchaus weiterentwickelten Digital-
    Ökonomien in den USA und China, deren
  • 4:21 - 4:26
    Vorsprung im Bereich von dem, was immer
    unscharf als „künstliche Intelligenz“
  • 4:26 - 4:32
    bezeichnet wird. Dass dieser Vorsprung
    uneinholbar geworden sei und wohlstands-
  • 4:32 - 4:36
    gefährdend ist. Das wird durchaus als
    Druckmittel verwendet, um dann bei
  • 4:36 - 4:43
    einzelnen Debatten festzulegen, in welcher
    Form darf es zu Datenverwertung mittels
  • 4:43 - 4:48
    künstlicher Intelligenz, algorithmischer
    Systeme oder auch der Nutzung von
  • 4:48 - 4:53
    Datenbanken an der Stelle kommen? Und wenn
    man etwas genauer hinschaut, dann ist es
  • 4:53 - 4:59
    in der Tat natürlich so, dass in den USA
    und China in manchen Sektoren bereits eine
  • 4:59 - 5:04
    andere Phase der technologischen
    Entwicklung eingetreten ist. Dort wird
  • 5:04 - 5:08
    über deutlich höhere private und
    staatliche Mittel in dem Bereich
  • 5:08 - 5:17
    investiert. Aber man merkt auch, dass
    beide Wirtschaftssysteme einen bestimmten
  • 5:17 - 5:22
    Weg eingeschlagen haben für die Nutzung
    von IT-System. In China entsteht ein
  • 5:22 - 5:28
    Überwachungssystem, das den Polizeistaat
    erst zur vollen Blüte bringen kann. Wer
  • 5:28 - 5:32
    sich jetzt in den letzten Monaten ist das
    mal zum Thema geworden mit dem, was im
  • 5:32 - 5:36
    Westen des Landes bei den Uiguren
    passiert. Aber ein System, wo das
  • 5:36 - 5:41
    Verhalten aller Bürger digital überprüft
    wird, was manche ja – außerhalb dieser
  • 5:41 - 5:47
    Halle natürlich – nicht verstehen, ist, wie
    analoges und digitales Leben heute so
  • 5:47 - 5:51
    verschränkt sind, dass sie einander
    beeinflussen. Dass deswegen eben auch auf
  • 5:51 - 5:58
    das Verhalten außerhalb der unmittelbaren
    digitalen Welt ein Verhaltensdruck
  • 5:58 - 6:04
    ausgeübt wird. Wer sich im Sinne des
    Systems verhält, dem winken Prämien,
  • 6:04 - 6:10
    Belohnungen, Vorteile. Wer das nicht tut,
    riskiert für sich und Angehörige
  • 6:10 - 6:18
    Lebensmöglichkeiten vom Bildungssystem bis
    hin zur Mobilität. Und es ist spannend,
  • 6:18 - 6:24
    wer diese Standards setzt. Es ist
    spannend, wie diese Standards sich ändern
  • 6:24 - 6:30
    und vor allem, dass ein Gefühl entsteht,
    dass ich gar nicht mehr abschätzen kann:
  • 6:30 - 6:35
    Wann werde ich eigentlich beobachtet, mein
    Verhalten interpretiert, gespeichert,
  • 6:35 - 6:42
    bewertet von anderen. Und dies ist ein
    Gefühl, dass es keine Bereiche mehr der
  • 6:42 - 6:46
    Möglichkeit gibt, sich ins Private
    zurückzuziehen, etwas zu tun, was
  • 6:46 - 6:52
    vielleicht noch nicht von allen anderen so
    vorgelebt wurde, verändert auch das eigene
  • 6:52 - 6:56
    Verhalten. Das ist eine Entwicklung, die
    sicherlich in Europa nur eine absolute
  • 6:56 - 7:01
    Minderheit will, auch unter all denen,
    die politische Positionen haben oder in
  • 7:01 - 7:04
    der Wirtschaft an entscheidenden
    Stellen kommt. Es gibt allerdings
  • 7:04 - 7:10
    interessanterweise Studien, die unter
    jüngeren Menschen schon eine größere
  • 7:10 - 7:17
    Zustimmung zu einem solchen System zum
    Ausdruck bringt, wo bestimmte
  • 7:17 - 7:23
    Verhaltensweisen, die als durchaus … man
    fängt ja an, mit welchen, die tatsächlich
  • 7:23 - 7:26
    vielleicht gesellschaftspolitisch von der
    großen Mehrheit nicht gewünscht sind,
  • 7:26 - 7:30
    sanktionieren kann. Aber wie gesagt, die
    große Mehrheit will das nicht, und zwar
  • 7:30 - 7:34
    weder vom Staat noch von privaten Konzernen.
    Also weder das chinesische Modell, noch
  • 7:34 - 7:40
    das US-amerikanische Modell, die sich
    ja durchaus auch beide teilweise mit
  • 7:40 - 7:47
    Aspekten des anderen – die USA im
    Sicherheitsbereich, die chinesische Seite
  • 7:47 - 7:52
    mit dem Zusammenwirken zwischen Staat und
    privaten Konzernen – beginnt. Und auch wenn
  • 7:52 - 7:57
    das keiner in Europa will, glaube ich,
    dass dieses Überwachungsgift durchaus in
  • 7:57 - 8:03
    unser System träufelt von Tag zu Tag. Und
    zwar, dass man Überwachung durchführen
  • 8:03 - 8:08
    will, weil man sie durchführen kann. Dass
    man Datensammlungen betreibt, wenn man
  • 8:08 - 8:13
    diese Daten sammeln kann, weil Sensoren,
    Speicher und Verarbeitungsmöglichkeiten
  • 8:13 - 8:18
    immer kleiner, schneller, besser und
    billiger werden. Und dass Dinge, die man
  • 8:18 - 8:22
    vorher nicht gemacht hat, weil einfach der
    Aufwand zu groß war, jetzt praktisch im
  • 8:22 - 8:29
    Vorbeigehen mitlaufen lässt. Und wo kann
    man dieses Gift schon spüren? Das spürt
  • 8:29 - 8:34
    man, wenn die Geschäftsmodelle von
    Verlagen in den politischen Debatten
  • 8:34 - 8:40
    Vorrang bekommen sollen vor der
    Unverletzlichkeit der Privatsphäre von
  • 8:40 - 8:45
    Bürgerin und Bürger, wenn die Komfort
    gegen Daten getauscht wird, auch im
  • 8:45 - 8:51
    Individualverhalten. Und wenn Sicherheit
    vor Freiheit gesetzt wird bei der Debatte:
  • 8:51 - 8:56
    Was kann ich mit einem zusätzlichen
    Durchgriffsrecht, Eingriffsrecht von
  • 8:56 - 9:02
    Sicherheitsbehörden erreichen? Dann
    erleben wir, dass die Bewertung von
  • 9:02 - 9:08
    Verhalten und das Bewerten von Gesinnung,
    wenn sie in die Auswertung mancher Daten
  • 9:08 - 9:12
    schauen und auch in die ein oder anderen
    Gesetzentwurf, wo jetzt auf einmal wieder
  • 9:12 - 9:18
    aufgebracht wird, wer etwas unterstützt
    oder befürwortet, dass das ebenfalls
  • 9:18 - 9:23
    Einfluss nimmt, damit Normmodelle setzt,
    die dann in der Verarbeitung von Daten
  • 9:23 - 9:28
    überprüft werden durch Staat und durch
    private Stellen auch in der Europäischen
  • 9:28 - 9:34
    Union. Und wie wir das ausgestalten, wie
    wir zum Beispiel über eine E-Privacy
  • 9:34 - 9:37
    Verordnung in der Frage von Tracking
    sprechen, das ist eine dieser
  • 9:37 - 9:42
    Weichenstellungen, die ich meinte mit dem
    Titel des Vortrags. Im Zentrum dieser
  • 9:42 - 9:46
    Debatten steht tatsächlich das, was immer
    mit dem großen Schlagwort „Künstliche
  • 9:46 - 9:51
    Intelligenz“ genommen wird. Sind genügend
    im Saal, mit denen man sich 2 Stunden darüber
  • 9:51 - 9:55
    unterhalten könnte, was dieses Schlagwort
    wirklich meint und wo es nicht meint. Aber
  • 9:55 - 9:59
    das lasse ich mal außen vor. Ich spreche
    über KI und algorithmische Systeme, mal
  • 9:59 - 10:07
    als Bandbreite. Wir Datenschutzbeauftragten
    haben für uns erkannt, dass es unsere
  • 10:07 - 10:11
    Arbeit verändert. Dass es aber eben
    auch eine große Auswirkung auf
  • 10:11 - 10:17
    die Frage von Regulierung haben. Haben
    deswegen in diesem Jahr, im Frühjahr und
  • 10:17 - 10:22
    dann ausgearbeitet noch bis in den Herbst
    bei der Tagung in Trier im Frühjahr die
  • 10:22 - 10:26
    Hambacher Erklärung herausgegeben, auf
    Schloss Hambach. Wir haben dieses Symbol
  • 10:26 - 10:33
    tatsächlich gewählt. Das Hambacher
    Freiheitsfest von 1832, wo die
  • 10:33 - 10:37
    Grundrechte, die Bürgerrechte, auch in den
    Vordergrund gestellt wurden. Übrigens ein
  • 10:37 - 10:41
    internationales Fest, weil es immer manche
    Deutschtümeler versuchen, für sich zu
  • 10:41 - 10:47
    gewinnen. Es waren Franzosen und Polen und
    andere Delegierte dort. Und haben
  • 10:47 - 10:52
    versucht, Grundprinzipien bei diesem
    Einsatz zu definieren. Menschen nicht zum
  • 10:52 - 10:56
    bloßen Objekt einer solchen
    Datenverarbeitung zu machen, das
  • 10:56 - 11:01
    Zweckbindungsgebot nicht fallen zu
    lassen. Nicht so einfach auch in der
  • 11:01 - 11:05
    Entwicklung solcher Systeme. Die
    Transparenz, die Nachvollziehbarkeit und
  • 11:05 - 11:11
    die Erklärbarkeit von KI-Systemen, die
    Verhinderung von Diskriminierung und den
  • 11:11 - 11:14
    Grundsatz der Datenminimierung. Die
    letzten drei sind übrigens sehr
  • 11:14 - 11:19
    interessant in der gesamten Debatte mit
    Techis, weil mir das selbst bei Leuten, die
  • 11:19 - 11:25
    absolut liberal in ihren Grundsätzen sind,
    immer wieder auffällt, dass sie ablehnen
  • 11:25 - 11:31
    diese Verantwortung in der Entwicklung von
    Systemen mit zu übernehmen. Uns wird dann
  • 11:31 - 11:35
    entgegen geschleudert, das wäre ein
    Generalverdacht. Wir würden zusätzlichen
  • 11:35 - 11:39
    Aufwand berücksichtigen. Aber ich glaube,
    wer solche Macht ausübt mit solchen
  • 11:39 - 11:44
    Systemen in der Öffentlichkeit, der muss
    zumindest selber überlegen: Kann der
  • 11:44 - 11:49
    Bereich, in dem ich gerade arbeite,
    Auswirkungen auf Menschen und Ihre Rechte
  • 11:49 - 11:53
    haben? Und was muss ich dann
    berücksichtigen in der Entwicklung dieser
  • 11:53 - 11:57
    Technologie? Wir haben natürlich auch über
    Verantwortlichkeit gesprochen. Jedes
  • 11:57 - 12:02
    System muss auch jemand haben, den ich.
    Ansprechen kann auf Fehlverhalten, auf
  • 12:02 - 12:07
    Diskriminierungspotenziale und ähnliches.
    Das kann nicht verwischen in einem
  • 12:07 - 12:19
    komplexen Netzwerk unterschiedlicher
    Systeme. Und wenn man … — Applaus Und wenn
  • 12:19 - 12:23
    man dann wirtschaftspolitisch an das Ganze
    herangeht, ist es regelrecht absurd, dass
  • 12:23 - 12:29
    hier in Deutschland und in Europa, wo wir
    eigentlich Erfahrung mit Datenschutz und
  • 12:29 - 12:34
    ich hoffe auch mit IT-Sicherheit haben, wo
    wir Gesetze haben, die uns dazu
  • 12:34 - 12:39
    verpflichten, in diesem Bereich höhere
    Qualität anzubieten als in anderen
  • 12:39 - 12:43
    Weltregionen. Dass in dieser Weltregion
    die Wirtschaftsverbände und die
  • 12:43 - 12:49
    Unternehmen unterwegs sind, über diese
    Regulierungen jammern und in anderen
  • 12:49 - 12:54
    Weltregionen mehr oder minder glaubhaft
    wie z. B. in den USA die ersten Unternehmen
  • 12:54 - 12:58
    unterwegs sind und sagen: Wir wollen darüber
    werben für unsere Produkte, für unsere
  • 12:58 - 13:03
    Dienstleistungen, dass wir über die
    gesetzlichen Vorgaben hinausgehen. Dass
  • 13:03 - 13:08
    wir das von Anfang an mit rein nehmen.
    Hätten wir das auch bei Autos, Maschinen
  • 13:08 - 13:12
    und anderen Produkten gemacht, wäre
    Deutschland ein armseliger Standort. Ich
  • 13:12 - 13:16
    verstehe nicht, warum wir in der Digital-
    Ökonomie auf den niedrigsten Standard einen
  • 13:16 - 13:20
    Wettlauf nach unten machen wollen, nach
    Meinung der Wirtschaftsverbände, anstatt
  • 13:20 - 13:24
    mit Qualität und Unique Selling Points
    auch weltweit zu punkten. Das wäre im
  • 13:24 - 13:27
    Datenschutz, in der IT-Security,
    wirklich möglich.
  • 13:27 - 13:35
    Applaus
    Wir begegnen natürlich immer einem
  • 13:35 - 13:40
    logischen Wunsch. Das ist wirklich bei
    Wirtschaft, Techies und großen Teilen der
  • 13:40 - 13:47
    Politik gleich: Wir brauchen für die
    Optimierung von Prozesssteuerung, so die
  • 13:47 - 13:51
    Argumentation, die deutliche Erhöhung der
    Menge an nutzbaren, qualitativ
  • 13:51 - 13:57
    hochwertigen Daten. Ich will mich dem
    übrigens keineswegs verschließen, weil ich
  • 13:57 - 14:01
    durchaus der Meinung bin, selber eine
    ganze Reihe von Prozessen zu sehen, wo ich
  • 14:01 - 14:06
    mit dem richtigen Zugriff auf
    verantwortlich zur Verfügung stellbare
  • 14:06 - 14:11
    Daten, deutliche Verbesserungs-,
    Optimierungs- und Fortschritts-Potenziale
  • 14:11 - 14:15
    sehe. Aber es geht doch darum,
    den Prozess so zu organisieren, dass
  • 14:15 - 14:21
    Persönlichkeitsrechte, das Recht auf
    informationelle Selbstbestimmung und
  • 14:21 - 14:26
    andere Grundrechte nicht eingeschränkt
    werden, nicht verletzt werden, sondern
  • 14:26 - 14:30
    dass wir die neuen technischen
    Möglichkeiten sogar nutzen, um
  • 14:30 - 14:34
    informationelle Selbstbestimmung an
    Stellen zu schaffen, wo ich sie in der
  • 14:34 - 14:38
    Vergangenheit gar nicht hatte, weil sie
    mir nicht zur Verfügung gestanden hat. Und
  • 14:38 - 14:43
    diese Debatte zu führen und anders auf den
    Markt zu treten, das ist der Vorschlag,
  • 14:43 - 14:47
    den die deutschen Datenschutzbehörden mit
    der Hambacher Erklärung und anderen
  • 14:47 - 14:52
    Beschlüssen gefasst haben. Und auch der
    Europäische Datenschutz-Ausschuss ist uns
  • 14:52 - 14:57
    dort vor kurzem gefolgt. Ich glaube, dass
    die Regulierung von künstlicher
  • 14:57 - 15:01
    Intelligenz, von algorithmischen Systemen,
    da eintreten muss, wo Gefahr für diese
  • 15:01 - 15:06
    Rechtsgüter besteht – des Einzelnen oder
    der Allgemeinheit. Sie haben vielleicht
  • 15:06 - 15:11
    zum Teil mitverfolgt, dass es manche gibt:
    Der Datenschutz übernähme sich, sagen die,
  • 15:11 - 15:15
    wenn er nicht nur den Schutz des Einzelnen,
    sondern einen gesellschaftspolitischen
  • 15:15 - 15:20
    Zweck verfolgt. Aber natürlich habe ich
    viele Stellen, wo die Frage des Schutz des
  • 15:20 - 15:25
    Einzelnen ohne eine Beantwortung der
    Rechte in der Gemeinschaft gar nicht zu
  • 15:25 - 15:30
    leisten ist. Vom simpelsten Beispiel an:
    wenn ich zulasse, dass bestimmte Daten
  • 15:30 - 15:34
    erhoben werden können, freiwillig, dann
    ist derjenige, der nicht bereit ist,
  • 15:34 - 15:38
    freiwillig sie zur Verfügung zu stellen,
    natürlich am Ende der*die Gekniffene, wenn
  • 15:38 - 15:42
    die anderen diese Daten zur Verfügung gestellt
    haben. Deswegen ist es richtig, an einem
  • 15:42 - 15:46
    solchen Beispiel, wo es um besonders
    sensible Daten geht, natürlich ein
  • 15:46 - 15:50
    Erhebungs- und Verwertungsverbot allgemein
    auszusprechen und es nicht mehr auf die
  • 15:50 - 15:59
    Freiwilligkeit zurückfallen zu lassen.
    Applaus — Und diese Idee, auch
  • 15:59 - 16:04
    technologische Entwicklungen und deren
    Einsatz regulieren zu wollen, ist aber
  • 16:04 - 16:09
    auch gar nichts Neues. Das haben wir doch
    immer so gemacht. In den letzten zwei,
  • 16:09 - 16:14
    dreihundert Jahren, seit wir eine
    einigermaßen entwickelte Zivilgesellschaft
  • 16:14 - 16:19
    und politische Debatte haben. Wir haben es
    bei Dampfkesseln gemacht, wir haben es bei
  • 16:19 - 16:23
    medizinischen Geräten, Autos und Handys
    gemacht. Was sollte uns davon abhalten,
  • 16:23 - 16:30
    diese Debatte zielgerichtet und
    praktikabel auch im Bereich von Software
  • 16:30 - 16:36
    und von Hybrid-Systemen einzuführen? Ein
    Beispiel dafür; das war ja etwas, was die
  • 16:36 - 16:40
    Datenethikkommissionen genannt hatte, als
    sie gesagt hat, es muss auch die
  • 16:40 - 16:45
    Möglichkeit des Verbots – um jetzt mal die
    weitestgehende Möglichkeit zu benennen –
  • 16:45 - 16:51
    von Algorithmen mit unvertretbarem
    Schädigungspotenzial geben. Schon diese –
  • 16:51 - 16:57
    eigentlich selbstverständliche – Forderung
    „unvertretbares Schädigungspotenzial“ hat
  • 16:57 - 17:01
    zu Widerspruch bei einigen
    Wirtschaftsverbänden geführt. Also was das
  • 17:01 - 17:05
    für ein Verständnis der Rolle von Staat
    als Zusammenschluss der Gesellschaft gibt:
  • 17:05 - 17:09
    „Es gibt bestimmte Dinge, die ich nicht
    zulasse. Bestimmte medizinische Geräte
  • 17:09 - 17:15
    sind nicht zugelassen. Der Verkauf von
    Organen ist nicht zugelassen. Kinderarbeit
  • 17:15 - 17:19
    ist nicht zugelassen.“ Und warum soll ich
    nicht die Erlaubnis haben, bestimmte
  • 17:19 - 17:24
    Software-Einsätze zu regulieren bis hin zu
    einem Verbot? Wir unterhalten uns ja über
  • 17:24 - 17:31
    eine kleine Spitze in einem unglaublich
    innovativen Markt, wo 99,99% aller
  • 17:31 - 17:35
    algorithmischen Systeme, die in Umlauf
    kommen, nie mit einer Aufsicht oder einer
  • 17:35 - 17:39
    Kontrolle zu tun haben werden. Aber um
    diese Spitze müssen wir uns kümmern. Ich
  • 17:39 - 17:44
    will jetzt nicht das ohnehin gestresste
    Beispiel von automatischen Waffensystemen
  • 17:44 - 17:50
    oder Hochfrequenzhandel heranbringen. Aber
    schon im Bereich der Bildung, von
  • 17:50 - 17:53
    persönlichen Profilen und der Frage, wem
    sie zur Verfügung gestellt werden dürfen
  • 17:53 - 17:58
    oder nicht, kann es solche unvertretbaren
    Schädigungspotenziale geben und damit
  • 17:58 - 18:08
    die Möglichkeit auch des Verbots in der
    Regulierung. — Applaus — Und in der Tat
  • 18:08 - 18:14
    kämpfen wir darum, dass das Prinzip der
    Datenminimierung – so heißt es jetzt in der
  • 18:14 - 18:18
    deutschen Version des europäischen
    Datenschutzgrundverordnung. Früher hieß es
  • 18:18 - 18:22
    mal Datensparsamkeit –, dass dieses Prinzip
    nicht über den Haufen geworfen wird. Es
  • 18:22 - 18:29
    wird angegriffen von allen Ecken: aus
    dem technischen Umfeld, aus den
  • 18:29 - 18:34
    Wirtschaftsverbänden, aus der Politik bis
    hoch zu den Reden von Wirtschaftsministern
  • 18:34 - 18:39
    und Bundeskanzlerin. Ich glaube teilweise
    auch aus dem Unverständnis heraus, was
  • 18:39 - 18:43
    der Begriff eigentlich bedeutet. Er heißt
    ja nicht „Schmeiße alle Daten weg, die du
  • 18:43 - 18:48
    hast“, also Datenarmut. Sondern er sagt
    „Ja, du hast nicht das Recht, Daten zu
  • 18:48 - 18:52
    erheben, die du nicht benötigst für die
    Erbringung der Dienstleistung oder des
  • 18:52 - 18:58
    Produkts. Weil diese Daten dich nichts
    angehen von einer Bürgerin oder einem
  • 18:58 - 19:03
    Bürger. Und an bestimmter Stelle darfst du
    Daten auch nur weiterverwenden – und bitte
  • 19:03 - 19:07
    jetzt kein Aufheulen, weil ich jetzt auch
    hier einen holzschnittartigen Pulk mache –
  • 19:07 - 19:11
    wenn du Anonymisierung oder Pseudonymisierung
    verwendet hast. Ich weiß auch, dass es
  • 19:11 - 19:15
    keine absolute Anonymisierung gibt. Den
    Einschub mache ich mal kurz. Aber es gibt
  • 19:15 - 19:19
    natürlich situationsgerechte
    Anonymisierung. Wenn ich für einen
  • 19:19 - 19:24
    Bruchteil der Sekunde für eine Steuerung
    Daten brauche, dann ist das natürlich eine
  • 19:24 - 19:28
    andere Form des Aufwands, um in dem
    Augenblick an Daten zu kommen, wenn sie
  • 19:28 - 19:33
    danach gelöscht werden, als wenn ich z. B.
    biologische Daten für 30 Jahre ablege und
  • 19:33 - 19:37
    überhaupt nicht weiß, mit welchen
    Technologien oder anderen Datenbanken, die
  • 19:37 - 19:41
    in Zukunft begegnet werden können, zu
    einer Repersonalisierung. Wir glauben aber
  • 19:41 - 19:45
    auch, dass technologische Entwicklungen
    wie dezentrales Lernen oder datenschutz-
  • 19:45 - 19:49
    konforme Data Spaces die Möglichkeit
    geben, mit vielen Daten im Bereich der
  • 19:49 - 19:54
    künstlichen Intelligenz die
    Prozesssteuerung zu optimieren. Aber wir
  • 19:54 - 19:58
    wollen eben auch eine solche
    Herangehensweise haben und nicht die Idee,
  • 19:58 - 20:03
    große Data Lakes zu bilden, mit denen ich
    dann später mal reinschaue: Was ist
  • 20:03 - 20:07
    möglich? Und dann, allerhöchstens wenn es
    schon einen Missbrauch von Daten gegeben
  • 20:07 - 20:12
    hat, zu gucken: Entdecke ich diesen
    Missbrauch, kann ich ihn ahnden? Und finde
  • 20:12 - 20:16
    ich dann als Aufsichtsbehörde auch noch
    ein Gericht, das am Ende, wenn ich gesagt
  • 20:16 - 20:20
    habe „Das will ich bestrafen“, mir dann auch
    noch Recht gibt. Denn ich muss ja jedes
  • 20:20 - 20:24
    Mal, wenn ich eine Entscheidung treffe,
    eine Behörde oder ein Unternehmen mit
  • 20:24 - 20:28
    einer Sanktion zu belegen – beim
    Unternehmen das Bußgeld durchaus, bei
  • 20:28 - 20:32
    einer Behörde vielleicht die Untersagung –
    damit rechnen, dass ich vor Gericht so
  • 20:32 - 20:37
    etwas auch verlieren kann. Dementsprechend
    kann es länger dauern. Und es liegt ja
  • 20:37 - 20:41
    nicht nur in meiner Hand, wie am Ende die
    Praxis aussehen wird. Deswegen brauchen
  • 20:41 - 20:46
    wir eine ganz klare Regelung zu diesem
    Bereich. Das ist eben kein Bremsschuh
  • 20:46 - 20:51
    für Innovationen, wenn man es von Anfang
    an mitdenkt. Und wenn ich bei
  • 20:51 - 20:56
    Wirtschaftsverbänden spreche, stelle ich
    einfach immer frech die Frage: Glauben Sie
  • 20:56 - 21:02
    denn, dass Sie als Silicon Valley-2 oder
    als China-2 wirtschaftlichen Erfolg haben
  • 21:02 - 21:06
    werden? Oder sind Sie dann der billige
    Abklatsch? Wäre es nicht besser, unsere
  • 21:06 - 21:13
    eigenen Werte einer IT-, einem KI-Verständnis
    mit europäischen Werten abzubilden und
  • 21:13 - 21:19
    dafür im Wettbewerb nach Unterstützung zu
    suchen? Und zwar in Europa, aber auch bei
  • 21:19 - 21:24
    den Menschen in der Welt, die gerne andere
    Werte in ihren Sicherheitssystemen in
  • 21:24 - 21:27
    ihrem privaten Datennutzung verankert
    hätten, als sie das in ihren Ländern
  • 21:27 - 21:32
    haben. Das war die Idee hinter der
    Datenschutzgrundverordnung ohne Rücksicht
  • 21:32 - 21:37
    auf den Standort eines Unternehmens
    Europäerinnen und Europäer zu schützen und
  • 21:37 - 21:40
    auch die Idee, dieses Recht zu
    exportieren. Und im Augenblick sehen wir
  • 21:40 - 21:44
    die ersten Erfolge, dass andere Länder
    Datenschutzrechte auf Grundlage der
  • 21:44 - 21:48
    Datenschutzgrundverordnung entwickeln. Wir
    sind also hier an einer Stelle in einen
  • 21:48 - 21:53
    Wettbewerb eingetreten, mit amerikanischem
    Recht, mit den Überlegungen in China. Ich
  • 21:53 - 22:04
    glaube, Europa sollte selbstbewusst sein,
    diesen Wettbewerb anzunehmen. — Applaus
  • 22:04 - 22:10
    Wir erleben, dass nach wie vor die großen
    Internetkonzerne – und ich bedauere jeden
  • 22:10 - 22:17
    Tag, dass wir zu keinem der großen
    Entscheidungen schon eine entsprechend …
  • 22:17 - 22:22
    oder der großen offensichtlichen Datenschutz-
    Verstöße durch große Internetkonzerne
  • 22:22 - 22:26
    schon eine Entscheidung auf europäischer
    Ebene getroffen haben. Ich dringe bei
  • 22:26 - 22:30
    jedem Treffen des Europäischen
    Datenschutzausschuss darauf, dass von den
  • 22:30 - 22:34
    vor allem federführenden Behörden in
    Irland und Luxemburg diese Entscheidungen
  • 22:34 - 22:37
    jetzt vorgelegt werden. Sie werden
    übrigens nachher mit Mehrheit im
  • 22:37 - 22:41
    Europäischen Datenschutzausschuss
    beschlossen. Also man kann sich nicht
  • 22:41 - 22:45
    hinter einer nationalen Behörde
    verstecken, weil nach wie vor unter den
  • 22:45 - 22:52
    Standardeinstellungen der großen Anbieter
    – sei es die aus den USA, aber auch die
  • 22:52 - 22:55
    zunehmend in den Markt dringenden, vor
    allem auch aus China und aus Russland;
  • 22:55 - 23:02
    andere werden kommen –, dass schon unter den
    Standardeinstellungen weiterhin ungehemmt
  • 23:02 - 23:07
    persönliche Daten abgegriffen werden. Man
    ist formal datenschutzkonform, aber
  • 23:07 - 23:13
    sammelt diese Daten ein und es bräuchte in
    der Tat technische Kenntnisse, die hier im
  • 23:13 - 23:17
    Saal vorhanden sein werden, aber nicht im
    ganzen Land vorhanden sind, nie vorhanden
  • 23:17 - 23:21
    sein werden und nicht auch nicht vorhanden
    sein müssen, weil man auch durchs Leben
  • 23:21 - 23:27
    gehen muss, ohne Expertin oder Experte zu
    sein. Wenn man diese Kerneinstellungen
  • 23:27 - 23:32
    nicht kennt, verliert man bei diesen
    Anwendungen, bei diesen Systemen Daten.
  • 23:32 - 23:40
    Und selbst die, die versuchen, diese Daten-
    Sammler zu meiden, gehen dort auf den
  • 23:40 - 23:47
    Leim, verlieren dort ihre Daten, wenn über
    Tracking Tools, über Plug-Ins und Source
  • 23:47 - 23:54
    Code Development Kits diese Daten auch bei
    Dritten gesammelt werden. Und auch in
  • 23:54 - 23:57
    diesen Fragen ist bisher leider außer
    einem Versuch des Bundeskartellamts, das
  • 23:57 - 24:02
    nicht an die gleichen Regeln gebunden ist
    wie ich als Bundesdatenschutzbeauftragter,
  • 24:02 - 24:09
    kein Versuch unternommen worden, das zu
    stoppen. Ich habe bis heute die
  • 24:09 - 24:13
    Entscheidung des Düsseldorfer Gerichts –
    soviel darf ich ja, wo ich jetzt kein
  • 24:13 - 24:18
    Staatssekretär im Justizministerium bin,
    ja mal sagen – nicht nachvollziehen können.
  • 24:18 - 24:21
    Ich glaube, da war etwas zu wenig
    Berücksichtigung von
  • 24:21 - 24:26
    Datenschutzgrundverordnung und verändertem
    Wettbewerbsrecht seit 2016 in der
  • 24:26 - 24:31
    Betrachtung enthalten. Also wir brauchen
    die Durchsetzung des bestehenden Rechts.
  • 24:31 - 24:34
    Wir brauchen Zertifizierung und
    Labeling, damit man bestimmte Produkte
  • 24:34 - 24:38
    nehmen kann, sicher weiß, das Produkt für
    sich hält die Regeln ein. Jetzt kann ich
  • 24:38 - 24:42
    darauf meine nächste Dienstleistung
    optimieren. Und natürlich brauchen wir
  • 24:42 - 24:46
    auch Digital Literacy in der Bevölkerung
    bis zu einem bestimmten Grad. Ich muss
  • 24:46 - 24:50
    wenigstens ungefähr verstehen, auf was ich
    mich in einer digitalen Gesellschaft
  • 24:50 - 24:54
    einlasse. Ich persönlich würde mir
    wünschen, dass wir die Möglichkeiten des
  • 24:54 - 25:01
    Schutz der Privatsphäre durch Technik
    stärker ausarbeiten, also PIMs und PMTs fände
  • 25:01 - 25:06
    ich wichtig, in einer Form einzuführen,
    auf die man sich verlassen kann. Eins
  • 25:06 - 25:11
    gilt: wenn große Konzerne Standards, die
    mal eingeführt wurden, um sich zu schützen
  • 25:11 - 25:15
    wie den Do-not-Track-Standard, einfach
    ignorieren, dann ist das nichts anderes
  • 25:15 - 25:20
    als ein Betteln um staatliche Regulierung.
    Wer sich nicht an Standards hält, der
  • 25:20 - 25:26
    möchte Regulierung vom Staat bekommen. Und
    aus meiner Sicht sollten sie die mit der
  • 25:26 - 25:34
    E-Privacy Verordnung auch bekommen.
    Applaus — Normalerweise müsste ich als
  • 25:34 - 25:41
    Leiter einer Datenschutzbehörde aufschreien
    bei Ideen wie Interoperabilität, weil
  • 25:41 - 25:47
    Interoperabilität Datenaustausch auch
    bedeutet. Aber ich sehe heute einen Markt,
  • 25:47 - 25:51
    der sich oligopolisert. Und wenn ich die
    Markteintrittsbarrieren für neue
  • 25:51 - 25:55
    Anbieterinnen/Anbieter senken will, dann
    muss ich eine datenschutzfreundliche
  • 25:55 - 26:00
    Interoperabilität für die Anwendungen, die
    so wichtig geworden sind auf dem Markt,
  • 26:00 - 26:04
    dass sie andere Dienste ersetzen, in denen
    die Interoperabilität seit Jahren und
  • 26:04 - 26:09
    Jahrzehnten gilt, auch vorschreiben. Ich
    meine zum Beispiel im Bereich von Social
  • 26:09 - 26:18
    Media und von Messenger Systemen. Dort
    könnte man mit solchen Schritten durchaus
  • 26:18 - 26:22
    auch europäische Alternativen, am besten
    natürlich auf Open-Source Basis
  • 26:22 - 26:26
    vorstellen. Ich würde mich freuen, wenn es
    die deutsche Verwaltung der französischen
  • 26:26 - 26:30
    nachtun würde, vielleicht sogar mit den
    Franzosen gemeinsam ein System entwickeln,
  • 26:30 - 26:33
    das dann schon mal 10 Millionen
    Grundnutzerinnen und Grundnutzer in
  • 26:33 - 26:38
    Zentraleuropa hätte. Das wäre ein Anfang,
    mit dem man mit ganz anderer Schlagkraft
  • 26:38 - 26:43
    eine solche Open-Source Messenger
    Plattform in Europa etablieren könnte.
  • 26:43 - 26:50
    Applaus — Wir wollen für alle Formen von
    Datenverwertung die gleichen Regeln haben.
  • 26:50 - 26:55
    Das gilt auch für die Sicherheitsbehörden,
    die ja, wenn es Bundessicherheitsbehörden
  • 26:55 - 27:02
    sind, auch meiner Aufsicht unterliegen.
    Seit 2001, seit dem 11. September, sind in
  • 27:02 - 27:05
    einer Geschwindigkeit neue
    Sicherheitsgesetze in Deutschland
  • 27:05 - 27:11
    dazugekommen, die es schwierig machen,
    noch nachzuvollziehen, was tatsächlich der
  • 27:11 - 27:15
    Stand des Datensammelns ist. Es hat nie
    eine Evaluierung der Gesetze gegeben, ob
  • 27:15 - 27:21
    sie erfolgreich waren oder nicht. Wir
    erleben dass teilweise neue Datenschutz-
  • 27:21 - 27:24
    Befugnisse gar nicht in der Breite
    verwendet werden. Die Daten werden
  • 27:24 - 27:28
    gesammelt, aber nicht ausgewertet, weil
    natürlich längst das Personal fehlt. Wir
  • 27:28 - 27:34
    haben problematische Datensammlungen, die
    selbst von den Praktikerinnen und Praktikern
  • 27:34 - 27:39
    in den Sicherheitsbehörden als überflüssig
    eingestuft werden. Gleichzeitig gibt es
  • 27:39 - 27:44
    aber natürlich auch immer wieder unbefugte
    Zugriffe auf solche Daten. Wenn Sie den
  • 27:44 - 27:48
    Tagen zum Beispiel nochmal von der
    Berliner Polizei das gelesen haben, wo die
  • 27:48 - 27:54
    Löschmoratorien dazu führen, dass seit
    2013 keine Daten mehr aus den
  • 27:54 - 27:58
    polizeilichen Informationssystem genommen
    werden, selbst wenn sie nur Opfer oder
  • 27:58 - 28:04
    Zeuge einer Straftat waren. Und die Daten
    aber nicht etwa eine Zugriffsbefugnis zum
  • 28:04 - 28:08
    Beispiel für einen Untersuchungsausschuss
    bekommen – Anis Amri oder NSU –, sondern
  • 28:08 - 28:14
    weiterhin für alle Polizistinnen und
    Polizisten zugreifbar bleiben. Zu einem
  • 28:14 - 28:18
    Protokollierung stattfindet, man aber
    nicht einmal begründen muss, warum man
  • 28:18 - 28:22
    darauf zugegriffen hat, und man sich dann
    wundert, dass auf die Daten bestimmter
  • 28:22 - 28:26
    Prominenter besonders häufig zugegriffen
    wird, auf die Daten von Kolleginnen und
  • 28:26 - 28:33
    Kollegen oder auch auf Nachbarn von
    Menschen, die Zugriffsbefugnisse haben.
  • 28:33 - 28:37
    Und solange das der Stand ist, wäre das
    natürlich nicht wichtig, Löschmoratorien
  • 28:37 - 28:42
    zu haben, sondern ein Sicherheitsgesetz-
    Moratorium in diesem Land einzulegen und
  • 28:42 - 28:46
    erst mal zu prüfen: Wo sind wir eigentlich
    übers Ziel hinausgeschossen? Wo gibt es
  • 28:46 - 28:51
    andere Mängel zu beseitigen, als laufend
    Bürgerrechte einzuschränken? Mit der
  • 28:51 - 28:54
    Sammlung zusätzlicher Daten über die
    Bürgerinnen und Bürgern. Das täte
  • 28:54 - 29:05
    Bürgerrechten und Sicherheit besser als
    das nächste Gesetz. — Applaus —Stattdessen
  • 29:05 - 29:09
    sollten wir beim Datenschutz nachschärfen
    Die Datenschutzgrundverordnung ist ein
  • 29:09 - 29:13
    großer Wurf, sie hat auch international
    Strahlkraft, aber sie hat natürlich auch
  • 29:13 - 29:17
    ihre Grenzen, wo wir heute schon merken,
    dass sie technologischen Entwicklungen
  • 29:17 - 29:22
    nicht ausreichend gefolgt ist, wo es
    damals keinen Kompromiss gab und sie immer
  • 29:22 - 29:27
    noch auf dem Stand von 1995 ist. Wenn ich
    jetzt fragen würde, wer 1995 noch gar
  • 29:27 - 29:31
    nicht geboren war, würden wahrscheinlich
    einige Finger hochgehen. Sie können sich
  • 29:31 - 29:35
    aber überlegen, was das für ein Stein-
    zeitalter aus technologischer Sicht ist.
  • 29:35 - 29:39
    Wir müssen es auch deswegen machen, weil
    wir auch Vertrauen in Digitalisierung
  • 29:39 - 29:44
    gewinnen müssen. Ich glaube nämlich nicht,
    dass Daten der Rohstoff des 21.
  • 29:44 - 29:49
    Jahrhunderts ist, sondern Vertrauen! In
    einer so komplexen Welt, wo ich gar nicht
  • 29:49 - 29:54
    mehr weiß – Wo werden Daten erhoben, wer
    verwendet sie und ähnliches mehr? – kann ich
  • 29:54 - 29:57
    nicht mir jedes einzelne Produkt, jede
    einzelne Verbindung überprüfen, sondern
  • 29:57 - 30:03
    ich muss ein System haben, in dem ich der
    Anbieterin oder Anbieter, sei es staatlich
  • 30:03 - 30:07
    oder privat, ein Grundvertrauen
    entgegenbringen kann, weil sie bewiesen
  • 30:07 - 30:11
    haben, dass sie bestimmte Standards jedes
    Mal einhalten, wenn sie hereingehen, weil
  • 30:11 - 30:17
    sie unabhängig überprüft werden können und
    weil sie schwer bestraft werden, wenn sie
  • 30:17 - 30:21
    sich an diese Standards dann bei einem
    Produkt nicht gehalten haben. Wenn wir
  • 30:21 - 30:26
    dies nicht machen, wenn wir das nicht
    machen, hat es zwei Folgen. Es wird sich
  • 30:26 - 30:32
    gewehrt werden gegen Digitalisierung, da,
    wo es möglich ist. Andere werden gar nicht
  • 30:32 - 30:36
    hineingehen. Wir wollen weder einen
    Fatalismus nach dem Motto „Da kannst du
  • 30:36 - 30:40
    nichts machen, ich stimme allen zu“. Und
    auch keine digitale Askese haben. Wir
  • 30:40 - 30:44
    möchten, dass Digitalisierung
    gesellschaftliche Innovation und nicht nur
  • 30:44 - 30:53
    technologische Innovation ist. — Applaus
    Deswegen sind wir unterwegs und möchten in
  • 30:53 - 30:57
    den Bereichen von Scoring und Profiling –
    das sind ja die Schwestern des Trackings;
  • 30:57 - 31:02
    Ich versuche, Leute einzuordnen, zu
    kategorisieren, statistisch in Gruppen
  • 31:02 - 31:08
    einzuteilen –; Da brauchen wir klare
    Nachschärfungen. Und wir wollen natürlich
  • 31:08 - 31:13
    gerade den kleinen Unternehmern und den
    Start-Ups und den Einzel-EntwicklerInnen
  • 31:13 - 31:17
    und -Entwicklern Erleichterungen im
    Bereich der Informations- und
  • 31:17 - 31:21
    Dokumentationspflichten verschaffen. Da
    glaube ich durchaus, kann man an einigen
  • 31:21 - 31:26
    Stellen zurückdrehen, wenn man dafür an
    anderen Stellen das Datenschutzniveau
  • 31:26 - 31:33
    durchaus höher wertet. Wir versuchen zu
    helfen, über Guidelines und Auslegungs-
  • 31:33 - 31:38
    Papiere, die wir heranziehen. Wir würden
    aber gerne eins machen. Derzeit ist immer
  • 31:38 - 31:43
    Verantwortlicher im Sinne des
    Datenschutzrechts die Person, die ein
  • 31:43 - 31:48
    System gegenüber Bürgerinnen und Bürgern,
    Kundinnen und Kunden zum Einsatz bringt.
  • 31:48 - 31:54
    Ich glaube, dass wir die Herstellerinnen
    und Hersteller von Systemen stärker in die
  • 31:54 - 31:57
    Verantwortung nehmen müssen und nicht nur
    wegen Debatten, die Sie hier auf ihrem
  • 31:57 - 32:02
    Kongress selber in den letzten Tagen ja
    geführt haben, und interessanten
  • 32:02 - 32:07
    investigativen Dokumenten, die Sie
    veröffentlicht haben, sondern nur dann ist
  • 32:07 - 32:11
    das möglich. Ich habe hier nur kurz
    gestanden und bin wieder auf die üblichen
  • 32:11 - 32:16
    Probleme angesprochen worden. Wie ist es
    mit dem Einsatz von Windows 10 in meiner
  • 32:16 - 32:21
    Rechtsanwaltskanzlei, in meiner Behörde in
    ähnlichem mehr? Und dann immer zu sagen,
  • 32:21 - 32:24
    „Ja derjenige der es einsetzt ist der
    Verantwortliche im Sinne des
  • 32:24 - 32:27
    Datenschutzrechts“ ist, glaube ich bei
    immer komplexer werdenden Systemen, bei
  • 32:27 - 32:33
    der Verabschiedung von der On-Premise-World
    einfach zu kurz gesprungen und muss sich
  • 32:33 - 32:36
    technisch an der Stelle durchaus weiter
    bewegen. Es gibt also eine ganze Menge zu
  • 32:36 - 32:42
    tun. Der Deutsche Bundestag hat uns
    freundlicherweise eine deutliche
  • 32:42 - 32:46
    Aufstockung an Stellen gegeben. Vielen
    Dank an die anwesenden
  • 32:46 - 32:50
    Bundestagsabgeordneten, damit wir ein
    Stück noch mehr machen können. Sehr viel
  • 32:50 - 32:55
    werden wir in der Tat in den
    Sicherheitsbereich investieren. Wir
  • 32:55 - 33:00
    stellen übrigens auch ein und deswegen an
    alle, die im Saal sind: Wir brauchen Sie
  • 33:00 - 33:05
    als Unterstützerin und Unterstützer in der
    Sache. Wir brauchen Sie als konstruktive
  • 33:05 - 33:11
    KritikerInnen und Kritiker. Wir brauchen
    Sie als Beispielgeber und Beispielgeberinnen
  • 33:11 - 33:17
    für datenschutzfreundliche, innovative
    Technologien. Und wir würden auch gerne
  • 33:17 - 33:21
    viele von Ihnen als Mitarbeiterinnen und
    Mitarbeiter gewinnen. Es ist schön auf der
  • 33:21 - 33:26
    hellen Seite der Macht – kommen Sie zum
    BfDI! Vielen Dank für das Interesse bis zu
  • 33:26 - 33:29
    dem Zeitpunkt. Ich freue mich
    noch auf die Diskussion.
  • 33:29 - 33:39
    Applaus
  • 33:39 - 33:52
    Herald: So, wenn ihr Fragen habt, dann
    stellt euch bitte an die Mikrofone hier im
  • 33:52 - 33:56
    Saal und versucht eure Fragen kurz zu
    formulieren. Frage Nummer 1 geht an den
  • 33:56 - 34:00
    Signalangel.
    Signalengel: Hier eine Frage von
  • 34:00 - 34:05
    Mastodon: Nach dir hält auch Arne
    Semsrott von Frag den Staat seinen Talk.
  • 34:05 - 34:10
    Du bist ja auch
    Informationsfreiheitbeauftragter. Hast du
  • 34:10 - 34:15
    eine Erklärung, warum Ministerien und
    Behörden, die selber immer mehr Befugnisse
  • 34:15 - 34:21
    fordern, so unwillig sind, selber diese
    öffentliche Daten auch preiszugeben?
  • 34:21 - 34:28
    Kelber : Nein. — Lachen, vereinzelt Applaus
    Und selbst dann, wenn sie gute Beispiele
  • 34:28 - 34:32
    haben. Als wir damals im Justizministerium
    2013 als neue Mannschaft angefangen
  • 34:32 - 34:37
    hatten, haben wir uns nach ein paar Wochen
    entschieden, dass wir alle Stellungnahmen,
  • 34:37 - 34:41
    die im Rahmen zu Gesetzentwürfen ans
    Ministerium geschickt werden – ist ja Teil
  • 34:41 - 34:45
    der Gesetzgebung, dass man dann sagt,
    jetzt hätten wir gerne Kommentierungen von
  • 34:45 - 34:51
    Verbänden, Organisationen und anderen –
    dass die alle öffentlich gemacht werden.
  • 34:51 - 34:58
    Es ist keine einzige weniger reingekommen,
    aber jeder kann nachprüfen: Von wem sind
  • 34:58 - 35:03
    welche Anregungen zwischen Gesetzentwurf
    und endgültigem Gesetz eingeflossen oder
  • 35:03 - 35:06
    nicht. Das ist das, was ich als
    Vertrauensbildung meine. Es haben
  • 35:06 - 35:10
    teilweise einige übernommen, nachdem sie
    vor Gericht dazu gezwungen wurden, haben
  • 35:10 - 35:14
    das wieder eingestellt. Jetzt machen Sie
    es wieder. In der Tat kann
  • 35:14 - 35:18
    Informationsfreiheit für eine
    Behördenleitung auch extrem ätzend sein.
  • 35:18 - 35:22
    Und zwar nicht, weil irgendwas
    Unangenehmes nachher veröffentlich wird.
  • 35:22 - 35:28
    Dann muss man halt aufpassen, dass man
    in den Kommentaren, die man auf
  • 35:28 - 35:32
    was drauf schreibt in der Wortwahl
    gemäßigt bleibt. Also schreibe ich nicht
  • 35:32 - 35:37
    drauf. „Der Idiot“ oder so, sondern schreibe
    ich „Ich bin nicht dieser Meinung“. Aber es
  • 35:37 - 35:42
    kann natürlich unglaublich viel Arbeit
    sein. Ich ärgere mich auch; ich bekomm irgendeine
  • 35:42 - 35:47
    Beschwerde ins Haus. Nach zwei Wochen
    stellt einer einen Informationsfreiheitsantrag
  • 35:47 - 35:51
    alle E-Mails, die zu der Beschwerde in
    unserem Haus geflossen sind, zu sehen.
  • 35:51 - 35:55
    Dann schreiben wir ihm als Zwischengeschichte
    auch noch zusätzlich zurück. Jetzt haben
  • 35:55 - 35:58
    wir die Stelle um Stellungnahme gebeten.
    Dann kriegen wir sofort
  • 35:58 - 36:02
    Informationsfreiheitantrag, den gesamten
    E-Mail-Verkehr mit der Stelle zu bekommen
  • 36:02 - 36:06
    und am Ende anstatt 10 Beschwerden
    bearbeiten zu können, sind wir mit einer
  • 36:06 - 36:10
    Person beschäftigt. Das ärgert einen. Wir
    sind natürlich die Guten. Da wir die
  • 36:10 - 36:14
    Informationsfreiheit haben, machen wir
    natürlich gerne mit Freude. Aber wenn ich
  • 36:14 - 36:18
    zu ’ner Ministerin oder Minister gehe, die
    kennen alle nur wieviele Leute werden
  • 36:18 - 36:24
    abgezogen, um auch seltsame
    Informationsfreiheitsgeschichten zu
  • 36:24 - 36:29
    machen? Ich stoße dort auf wenige Fans. Zu
    glauben, dass wir in absehbarer Zukunft
  • 36:29 - 36:32
    auf Bundesebene eine deutliche
    Verbesserung des
  • 36:32 - 36:35
    Informationsfreiheitsgesetz sehen,
    bezweifle ich. Da ist noch viel
  • 36:35 - 36:39
    Überzeugungsarbeit zu leisten.
    Herald: Mikrofon Nr. 4. Deine Frage
  • 36:39 - 36:42
    bitte.
    Frage: Herr Kelber, es ist Ihre Aufgabe,
  • 36:42 - 36:46
    die Geheimdienste und Sicherheitsbehörden
    zu kontrollieren und den Datenschutz auch
  • 36:46 - 36:51
    dort. Sind Sie der Meinung, dass Sie das
    effektiv tun können und ausreichend
  • 36:51 - 36:54
    Fähigkeiten und Befugnisse haben?
    Und wenn nein, was fehlt?
  • 36:54 - 37:01
    Kelber: Die Kontrolle im Bereich der
    Erhebung und Verarbeitung von Daten in dem
  • 37:01 - 37:05
    gesamten restlichen Bereich? Ich glaube,
    mit den zusätzlichen Stellen, wenn wir sie
  • 37:05 - 37:10
    besetzt haben, haben wir durchaus erst
    einmal Ressourcen, um auch die
  • 37:10 - 37:15
    Kontrolldichte hochzuhalten. Wir werden
    selber arbeiten müssen bei der Überlegung,
  • 37:15 - 37:19
    wie technologische Veränderungen und auch
    Veränderungen in den Informationssystemen
  • 37:19 - 37:24
    der Dienste unsere Kontrolltätigkeit
    gegenüber früher verändern. Aber das ist
  • 37:24 - 37:29
    natürlich ganz was anderes. Ist Zugriff auf
    eine sequentielle Datenbank mit einem
  • 37:29 - 37:35
    Gothemsystem vom Palantier, wenn es zum
    Einsatz käme, was in der Kontrolle in dem
  • 37:35 - 37:41
    Unterschied ist, in der Zusammenarbeit der
    Dienste untereinander mit dem Ausland,
  • 37:41 - 37:46
    gibt es aus meiner Sicht durchaus
    Kontrolllücken. Da versuchen wir auch, mit
  • 37:46 - 37:52
    den anderen Aufsichtsgremien wie der
    G-10-Kommission und der unabhängigen
  • 37:52 - 37:59
    Gruppe im Kontakt zu sein. Und ich hätte
    gerne natürlich … also in der Joint Implementation
  • 37:59 - 38:03
    Richtlinie, die ich vorhin erwähnt hatte,
    ja, für den Staatsbereich gilt. Die ist ja
  • 38:03 - 38:07
    in Deutschland auch nach 3 Jahren noch
    nicht vollständig umgesetzt. Im Bereich
  • 38:07 - 38:12
    des BKA haben wir Untersagungsrechte.
    Die müssten wir im
  • 38:12 - 38:15
    Bereich der Bundespolizei auch haben. Die
    hat man noch nicht eingerichtet als
  • 38:15 - 38:20
    Gesetzgeber. Das ist ein Verstoß gegen
    Europarecht in Deutschland. Wo es nicht
  • 38:20 - 38:24
    vorgeschrieben wird durch Europarecht,
    aber sinnvoll wäre, wäre diese
  • 38:24 - 38:27
    Untersagungsrechte auch für die Dienste zu
    haben. Das würde dann nicht nach dem
  • 38:27 - 38:31
    Motto, Ich sage dann „aber die waren jetzt
    ganz gemein, haben sich nicht ans Recht
  • 38:31 - 38:35
    gehalten“, sondern ich könnte dann in
    einem besonderen Fall in Zukunft
  • 38:35 - 38:40
    untersagen die Nutzung von Daten oder die
    Löschung anweisen. Und der Dienst müsste
  • 38:40 - 38:46
    vor Gericht gehen und müsste vor Gericht
    meine Anweisung widerrufen lassen. Ich
  • 38:46 - 38:50
    glaube, das wäre der bessere Weg für die
    Aufsicht und würde auch mehr Verständnis
  • 38:50 - 38:55
    für die Arbeit der Dienste wecken. Aber
    auch dafür gibt es noch keine Mehrheit
  • 38:55 - 38:59
    beim Gesetzgeber.
    Herald: Mikrofon Nr. 2. Deine Frage
  • 38:59 - 39:03
    bitte.
    Frage: Sie haben gesagt, dass wir ein
  • 39:03 - 39:07
    gewisses Maß an Digital Literacy brauchen,
    um der Probleme Herr werden zu können. Ich
  • 39:07 - 39:11
    sehe gerade das Problem, dass wir
    politisch eher in die entgegengesetzte
  • 39:11 - 39:15
    Richtung steuern, primär weil kommunal
    z. B. Meldedaten verkauft werden und die
  • 39:15 - 39:19
    Bundesregierung auch eher rhetorisch
    so eine … ökonomisch orientierte Linie
  • 39:19 - 39:25
    fährt. Wie werden wir dieser Sache Herr?
    Kelber: Ich meinte ja mit dem Begriff
  • 39:25 - 39:31
    Digital Literacy, dass die Leute ein
    Grundverständnis für digitale Vorgänge
  • 39:31 - 39:36
    haben. Was passiert? Was passiert mit
    Daten? Wie funktionieren IT-Systeme?
  • 39:36 - 39:40
    Algorithmische Systeme? Das wird
    übrigens—der Teil ist sicherlich auch
  • 39:40 - 39:44
    eine Aufgabe von Schulen und
    Bildungsinstitutionen. Da aber 80 Prozent
  • 39:44 - 39:49
    der Bevölkerung die Schulzeit hinter sich
    haben und mehr, werden wir sie auch über
  • 39:49 - 39:55
    andere Wege erreichen müssen. Dazu gehören
    übrigens auch in den Informationspflichten
  • 39:55 - 39:59
    in der Datenverarbeitung nicht mehr „Ich
    mache eine super lange Information“,
  • 39:59 - 40:04
    sondern ich muss an einer Stelle, wo etwas
    passiert, eine leichte Erläuterung des
  • 40:04 - 40:07
    Vorgangs haben, damit die Menschen
    tatsächlich mit dem Vorgang, den sie
  • 40:07 - 40:12
    machen, ein Verständnis entwickeln können.
    Was Sie meinen, ist ja die Frage, wie ist
  • 40:12 - 40:16
    eigentlich die Souveränität? Wie kann ich
    wenigstens wissen, was passiert? Was darf
  • 40:16 - 40:21
    der Staat machen? Schaffen die gesetzliche
    Grundlage für die Weitergabe von Daten
  • 40:21 - 40:24
    einfach nur, weil sie davon ausgehen, dass
    sie nicht genügend freiwillige
  • 40:24 - 40:28
    Einverständnisses bekommen. Da muss sich
    der Gesetzgeber zurückhalten. Er sollte bei
  • 40:28 - 40:33
    den gesetzlichen Grundlagen trotzdem ’ne
    Verhältnismäßigkeit bewahren. Ist übrigens
  • 40:33 - 40:37
    auch etwas, was wir natürlich in unseren
    Stellungnahmen immer mitprüfen und was
  • 40:37 - 40:42
    auch vor Gericht angegriffen wird von
    Nichtregierungsorganisationen. Das zweite
  • 40:42 - 40:45
    ist, das war das, was ich vorhin meinte
    technische Maßnahmen, die den Bürger auf
  • 40:45 - 40:48
    einen höheren Stand nehmen.
    Wenn wir jetzt wirklich mal an eine
  • 40:48 - 40:52
    Registermodernisierung in Deutschland
    herantreten, bitte bitte nicht – weil es
  • 40:52 - 40:56
    aus meiner Sicht verfassungswidrig ist –
    mit einem einheitlichen Identifier. Kann man
  • 40:56 - 41:00
    auch anders machen. Aber dann wäre
    wirklich mal ein Datencockpit, wo
  • 41:00 - 41:04
    Bürgerinnen und Bürger sehen, zumindest
    mal vielleicht außerhalb der unmittelbaren
  • 41:04 - 41:08
    Sicherheitsdienste schon mal sehen können:
    Wer hat welche Daten, wer hat sie
  • 41:08 - 41:13
    abgerufen und mit wem geteilt? Von allen
    staatlichen Registerstellen. Das kann man
  • 41:13 - 41:19
    heute technisch herstellen, und das wäre
    dann auch ein Gebot, dass der Bürgerinnen
  • 41:19 - 41:23
    und Bürger etwas davon haben, wenn der
    Staat seine IT-Systeme modernisiert.
  • 41:23 - 41:29
    Applaus
    Herald: Mikrofon Nummer 8 Deine Frage
  • 41:29 - 41:32
    bitte.
    Frage: Sie haben ja vorhin gesagt, dass
  • 41:32 - 41:38
    ein möglicher Weg zu sichereren oder
    datenschutzfreundlicheren IT-Produkten
  • 41:38 - 41:45
    die Standardisierung und Zertifizierung
    sein könnte. Was konkret ist denn da schon
  • 41:45 - 41:50
    in der Entwicklung? Auf was können wir uns
    einrichten? Es gibt ja die ISO 27001,
  • 41:50 - 41:56
    aber da ist der Datenschutz eher ein
    optionales Randthema. Und, genau,
  • 41:56 - 41:59
    was kommt jetzt konkret?
    Kelber: Bei der Standardisierung sind wir
  • 41:59 - 42:03
    glaube ich noch nicht sehr weit. Aber wir
    werden für die Entwicklungsmodelle gerade
  • 42:03 - 42:08
    im Bereich algorithmischer Systeme und KI-
    Systeme, denke ich, nochmal für erweiterte
  • 42:08 - 42:11
    Standardisierung brauchen, mit der ich
    wenigstens Modelle habe, wie ich in der
  • 42:11 - 42:15
    Entwicklung bestimmte Dinge
    berücksichtige. Wann mache ich welche
  • 42:15 - 42:19
    Folgenabschätzungen? Wie steht die
    Zurverfügungstellung von Daten aus? Wie
  • 42:19 - 42:23
    sieht die Kontrolle von Datenqualität aus,
    und und und. Bei der Zertifizierung sind
  • 42:23 - 42:28
    wir ein Stückchen weiter. Ich spreche jetzt
    bewusst nicht von Siegeln wie in dieser
  • 42:28 - 42:32
    Debatte über das IT-Siegel, das ja dann
    logischerweise, wenn es ein Siegel sein
  • 42:32 - 42:38
    soll, auch weit über gesetzliche Vorgaben
    hinausgehen müsste, sondern dass wir
  • 42:38 - 42:43
    ermöglichen, dass man, wenn man ein
    Produkt hat, sich durch eine
  • 42:43 - 42:47
    Zertifizierungsstelle, die beliehen ist,
    zertifizieren lassen kann, dass man damit
  • 42:47 - 42:52
    die Anforderungen des Gesetzes eingehalten
    hat. Das heißt, der nächste, der es
  • 42:52 - 42:56
    einsetzt, bekommt das Siegel. Wenn ich das
    wie vorgeschrieben einsetze, dann ist
  • 42:56 - 43:01
    dieser Bestandteil DSGVO-konform, und
    ich muss mir bei dem, was ich add-on mache,
  • 43:01 - 43:05
    bin ich dann der Verantwortliche. Da sind
    wir jetzt so weit, dass der Europäische
  • 43:05 - 43:09
    Datenschutzausschuss seine Guideline
    verabschiedet hat. Danach haben Sie
  • 43:09 - 43:13
    erlaubt, dass die Nationalstaaten ihre
    einbringen. Das haben wir im nächsten
  • 43:13 - 43:16
    Monat gemacht. Ich hoffe, dass wir
    spätestens im Februar die Genehmigung
  • 43:16 - 43:19
    durch den europäischen
    Datenschutzausschuss für die deutsche
  • 43:19 - 43:24
    Variante bekommen. Dann dürften in diesem
    Jahr noch die ersten Akkreditierungen,
  • 43:24 - 43:29
    ersten Zertifizierer, durch die deutsche
    Akkreditierungsstelle zugelassen werden.
  • 43:29 - 43:35
    Ich erwarte, dass zum Beispiel im
    Bereich der Cloud-Dienste ein solcher
  • 43:35 - 43:40
    Zertifizierer an den Start geht.
    Herald: Mikrofon Nummer 1,
  • 43:40 - 43:43
    deine Frage bitte.
    Frage: Vielen Dank für den Vortrag, auch
  • 43:43 - 43:48
    dass Sie hier auf dem Kongress sind. Ja,
    ich bin seit einiger Zeit verantwortlich
  • 43:48 - 43:50
    in IT-Management-Positionen …
    Herald: Bitte die Frage!
  • 43:50 - 43:54
    Frage: … und auch da
    implementierte ich natürlich sehr viele
  • 43:54 - 43:59
    Datenschutzmaßnahmen. Sie haben es kurz
    angesprochen. Mich würde interessieren,
  • 43:59 - 44:03
    wann wir auch mal Ergebnisse sehen im
    Bereich der großen Internetkonzerne –
  • 44:03 - 44:08
    Google, Facebook, Amazon und so weiter,
    ob dann auch mal vielleicht Bußgelder etc.
  • 44:08 - 44:12
    auch an diese großen
    Unternehmen zugeteilt werden.
  • 44:12 - 44:17
    Kelber: Der Druck natürlich auf die Ba…
    Ich habe ja vor allem zwei nationale
  • 44:17 - 44:23
    Datenschutzbehörden genannt, die die
    Zuständigkeit haben für besonders viele
  • 44:23 - 44:28
    der großen Internetkonzerne. Ganz kurzer
    Exkurs europäisches Datenschutzrecht,
  • 44:28 - 44:33
    sogenannter One-Stop-Shop. Die nationale
    Behörde, in der der Hauptsitz innerhalb
  • 44:33 - 44:38
    der Europäischen Union ist, ist zuständig.
    Das heißt, bei den Großen wie Google und
  • 44:38 - 44:45
    Facebook und Microsoft und Apple ist das
    z. B. Irland. Bei Amazon ist es Luxemburg
  • 44:45 - 44:51
    als ein Beispiel. Und das sind
    natürlich erstens relativ kleine
  • 44:51 - 44:57
    Datenschutzbehörden. Sie haben einen
    besonders wirtschaftsfreundliches
  • 44:57 - 45:01
    Verwaltungsrecht,—vereinzelt Applaus
    … Ja, es sind besonders hohe
  • 45:01 - 45:06
    Vorgaben dran, was man alles tun muss,
    bevor man überhaupt einen Bescheid
  • 45:06 - 45:10
    herausgeben darf. Wenn meine irische
    Kollegin so über Fälle sprechen würde, wie
  • 45:10 - 45:14
    ich das in Deutschland mache, würde sie
    sofort vor Gericht scheitern. Weil dann
  • 45:14 - 45:17
    würde der Richter sagen „Sie waren
    voreingenommen in der gesamten
  • 45:17 - 45:21
    Betrachtung“, völlig egal, ob sie selber
    die Untersuchung gemacht hat oder jemand
  • 45:21 - 45:26
    anderes. Trotzdem haben wir gesagt, es
    sind jetzt über 600 Tage, und wir wollen
  • 45:26 - 45:29
    zu sehr offensichtlichen Datenschutz-
    Verstößen jetzt den Vorschlag der Iren
  • 45:29 - 45:33
    und der Luxemburger auf den Tisch kriegen.
    Und dann schauen wir anderen uns an, ob
  • 45:33 - 45:37
    wir der gleichen Meinung sind. Und wenn
    wir nicht der gleichen Meinung sind, dann
  • 45:37 - 45:40
    wird mit Mehrheit im Europäischen
    Datenschutzausschuss darüber abgestimmt,
  • 45:40 - 45:45
    wie die Sicht der europäischen
    Datenschutzbehörden sind. Und das ist dann
  • 45:45 - 45:51
    der erlassene Bescheid. Das heißt, die
    Gefahr, dass wie in Deutschland das
  • 45:51 - 45:56
    Kraftfahrzeugbundesamt einfach alleine
    entscheidet, entsteht am Ende im
  • 45:56 - 45:59
    Datenschutz nicht. Da können dann die
    anderen Kraftfahrzeugsbehörden das
  • 45:59 - 46:03
    Kraftfahrzeugbundesamt bei Dieselgate
    überstimmen. Das wäre doch schön, wenn es
  • 46:03 - 46:07
    da auch gegeben hätte. Aber es dauert
    halt. Ich habe jetzt den Iren angeboten, dass
  • 46:07 - 46:12
    sie uns mal einen Fall abtreten dürfen.
    Wir haben auch Fälle vorgeschlagen. Bisher
  • 46:12 - 46:17
    ist das noch nicht beantwortet worden. Der
    irische Staat hat nur einen minimalen
  • 46:17 - 46:21
    Aufwuchs in diesem Jahr wiedergegeben
    der Datenschutzbehörde. Die ist schon
  • 46:21 - 46:24
    gewachsen in den letzten Jahren nur ein
    Viertel von dem, was die Kollegin
  • 46:24 - 46:29
    beantragt hatte. Und das ist ein Staat …
    es ging um 5 Millionen Euro im Jahr. Der
  • 46:29 - 46:33
    gleiche Staat, der im Augenblick vor
    Gerichten, versucht zu verhindern, dass
  • 46:33 - 46:37
    Apple ihm 14 Milliarden Euro Steuern bezahlen
    muss. Da merken Sie, was der Gedanke
  • 46:37 - 46:41
    dahinter ist. Ich habe bewusst Dieselgate
    verwendet, um deutlich zu machen: Das ist
  • 46:41 - 46:45
    ja auch den Nationalstaaten in der
    Europäischen Union nicht fremd, sich
  • 46:45 - 46:48
    schützend vor einen Wirtschaftszweig zu
    stellen. Aber das dürfen wir ihm einfach
  • 46:48 - 46:52
    nicht durchgehen lassen. Aber wann es
    soweit ist, kann ich Ihnen noch nicht sagen.
  • 46:52 - 46:57
    Applaus
    Herald: Signal-Angel, die nächste Frage
  • 46:57 - 47:01
    aus dem Internet bitte.
    Frage: Woran scheitert es, dass
  • 47:01 - 47:05
    Datensparsamkeit so wenig Gehör in der
    Politik stößt? Und wie können wir Hacker
  • 47:05 - 47:10
    dabei helfen, abseits davon
    für Sie zu arbeiten? —vereinzelt Lachen
  • 47:10 - 47:17
    Kelber: Ich glaube, erst einmal hat es
    eine erfolgreiche Lobbyarbeit darin
  • 47:17 - 47:23
    gegeben, Menschen an führenden Stellen
    in der Politik zu verstehen zu geben,
  • 47:23 - 47:29
    Datensparsamkeit sei Datenarmut. Man müsse
    wichtige Daten wegschmeißen. Damit würden
  • 47:29 - 47:33
    wir mit USA und China nie mehr
    gleichziehen können. Dieser einfache
  • 47:33 - 47:38
    Dreisatz ist denen in die Köpfe implementiert
    worden. Deswegen – habe ich tatsächlich auf
  • 47:38 - 47:42
    dem Digitalgipfel erlebt – wie einen Monat
    bevor europäisches Recht ist, mit den
  • 47:42 - 47:46
    Stimmen Deutschlands beschlossen
    wurde, endgültig wirksam wurde:
  • 47:46 - 47:50
    Datenschutzgrundverordnung, die
    Bundeskanzlerin sich hinstellt und sagt:
  • 47:50 - 47:54
    „Wir müssen das Prinzip der
    Datensparsamkeit aufgeben“. Das aber später
  • 47:54 - 47:58
    bindendes europäisches Recht wurde, vorher
    bindendes deutsches Recht war. Das ist
  • 47:58 - 48:04
    schon etwas, was man selten erlebt an dem
    Punkt. Da werden wir ein ganzes Stück für
  • 48:04 - 48:10
    werben müssen, dass das einfach nicht wahr
    ist. Wenn wir aber auch einfache Narrative
  • 48:10 - 48:15
    gemeinsam entwickeln müssen, die ähnlich
    aufzuführen. Ich finde ja so ein
  • 48:15 - 48:19
    Narrativ wie „dich gehen Daten nichts an,
    die nichts mit einer Dienstleistung zu tun
  • 48:19 - 48:23
    haben“, ist so eine einfach, weil das ist
    eine Werteentscheidung, die ich treffe. Und
  • 48:23 - 48:27
    solche Werteentscheidungen haben wir oft
    getroffen. Klar wird es für Deutschland
  • 48:27 - 48:30
    wirtschaftlich attraktiver,
    Kohlekraftwerke mit Kindern zu betreiben,
  • 48:30 - 48:34
    weil dann könnte man die Stollen kleiner
    machen. Dann können wir gleich wieder mit
  • 48:34 - 48:38
    Preisen aus Kolumbien mithalten. Haben wir
    uns aber aus Wertegründen entschieden, es
  • 48:38 - 48:42
    nicht zu tun. Dasselbe sollten wir auch
    mit Daten machen, die unsere Grundrechte
  • 48:42 - 48:49
    beeinflussen.
    Applaus
  • 48:49 - 48:52
    Herald: Mikrofon Nummer 4,
    deine Frage bitte.
  • 48:52 - 48:57
    Frage: Herr Kelber, Sie haben ja selber
    gesagt, dass Gesetze oftmals noch nicht
  • 48:57 - 49:01
    reichen. Mir persönlich geht es auch so,
    dass ich das Gefühl habe, zum Beispiel die
  • 49:01 - 49:05
    Datenschutzgrundverordnung ist manchmal
    ein bisschen zahnlos, und meine Frage an
  • 49:05 - 49:09
    Sie ist: Welche Handlungsalternativen
    sehen Sie da? Wie sieht es aus z. B. mit
  • 49:09 - 49:13
    Bereitstellung von alternativer
    Infrastruktur? Gerade zu Cloud, großen
  • 49:13 - 49:17
    Cloud-Anbietern zum Beispiel. Wie sieht es
    aus mit Förderungen für Open-Source-
  • 49:17 - 49:21
    Software für Projekte, die z. B. auch
    irgendwie grün unterwegs sind,
  • 49:21 - 49:25
    Daten schützen, wie auch immer. Was gibt’s
    da für Möglichkeiten in der Politik?
  • 49:25 - 49:29
    Kelber: Ich glaube, man sollte nicht das
    eine lassen und das andere unterschätzen
  • 49:29 - 49:34
    und das dritte dann nicht machen. Ich bin
    für die Förderung vor allem dort, wo ich
  • 49:34 - 49:39
    glaube, mit der Förderung – das ist ja dann
    mein Job – Verbesserungen für die Datenschutz-
  • 49:39 - 49:44
    Situation herbeizuführen. Das war das Beispiel
    mit den Messengersystemen, weil die
  • 49:44 - 49:47
    natürlich welche sind, wo ganz
    besonders viele relevante sensible Daten
  • 49:47 - 49:53
    abgegriffen werden. Da bin ich in eine
    Monopolsituation reingekommen, die ich
  • 49:53 - 49:57
    nur noch mit Krafft aufbrechen kann.
    Das eine wäre, diese Frage der
  • 49:57 - 50:02
    Interoperabilität zu erzwingen, wenn
    allein ein Drittel der Sprachnachrichten
  • 50:02 - 50:06
    heutzutage über Messengersysteme, nicht
    mehr über Handy oder Festnetz geht, da
  • 50:06 - 50:10
    müssen sie auch die gleichen Pflichten
    erfüllen wie die anderen. Das ist z. B.
  • 50:10 - 50:16
    Interoperabilität. Ich glaube aber, und
    deswegen werbe ich dafür. Und der Chef des
  • 50:16 - 50:20
    Bundesamtes für die Sicherheit in der
    Informationstechnik hat ja ähnliches schon
  • 50:20 - 50:23
    mal verlautbaren lassen. Ich glaube
    tatsächlich, wir sollten ein Messenger
  • 50:23 - 50:27
    System als deutsche Verwaltung – am besten
    die gesamte, aber ansonsten muss der Bund
  • 50:27 - 50:31
    eben anfangen – anbieten für Bürgerinnen
    und Bürger. Aber eins, das datenschutz-
  • 50:31 - 50:36
    freundlich ist. Und da, glaube ich, gehe
    das tatsächlich nur auf der Open Source
  • 50:36 - 50:41
    Software Basis. Und wenn unser großer
    Nachbarstaat es auf einer solchen Basis
  • 50:41 - 50:45
    macht – Matrix – sich dann anzuschauen,
    sind das die gleichen Bedingungen, die die
  • 50:45 - 50:50
    Franzosen haben und dann noch mehr
    Schlagkraft reinzubringen. Ich verstehe
  • 50:50 - 50:55
    das ja manchmal im privaten Umfeld nicht.
    Dass Menschen, die 15 verschiedene
  • 50:55 - 51:03
    Leih-Fahrräder und -Elektroscooter-
    Anwendungen auf ihrem Gerät haben, nicht
  • 51:03 - 51:09
    in der Lage sein wollen, einen zweiten
    Messenger zu installieren, mit dem sie mir
  • 51:09 - 51:13
    ohne Daten abgreifen, mit mir
    kommunizieren können, da ist irgendwie
  • 51:13 - 51:21
    eine Denkblockade. — Applaus
    Herald: Mikrofon Nummer 2 bitte.
  • 51:21 - 51:26
    Frage: Wie sensibilisiert man den
    durchschnittlichen nicht-IT-affinen Bürger
  • 51:26 - 51:30
    und Politiker für sein eigenes
    Interesse an Datenschutz?
  • 51:30 - 51:35
    Kelber: Ansprechen! Die wollen auch
    angesprochen werden. Den Bürgerinnen
  • 51:35 - 51:39
    und Bürgern muss man es wahrscheinlich …
    Politikerinnen und Politiker wollen
  • 51:39 - 51:43
    angesprochen werden, auch die nicht-
    Netzpolitiker, nicht die Digital-
  • 51:43 - 51:49
    Politikerinnen und -Politiker. Bei
    Bürgerinnen und Bürgern wird man
  • 51:49 - 51:53
    vielleicht auch neben dem jährlichen
    Skandal, nachdem es mal ein kurzes
  • 51:53 - 51:58
    Interesse gibt, das nicht immer sich im
    Handeln ausprägt, wird man das auf eine
  • 51:58 - 52:02
    Art und Weise machen müssen, dass sie
    Bilder erkennen, dass sie in einfachen
  • 52:02 - 52:06
    Systemen machen. Was meistens
    funktioniert, wenn ich in Gruppen rede,
  • 52:06 - 52:11
    die keine Vorbildung haben, ist ihnen zu
    verdeutlichen, was das, was im digitalen
  • 52:11 - 52:15
    Bereich gerade passiert, in ihrer
    gewohnten analogen Welt bedeuten würde.
  • 52:15 - 52:19
    Wenn ich denen dann erzähle mit Tracking:
    Stell dir mal vor, du gehst in die Bonner
  • 52:19 - 52:23
    Fußgängerzone und in dem Augenblick, wenn
    du sie betrittst, beginnt einer, hinter dir
  • 52:23 - 52:27
    herzulaufen, der schreibt auf, an
    welchen Geschäften du stehenbleibst, mit
  • 52:27 - 52:31
    wem du dich unterhälst. Der bietet dir
    irgendwann Kaffee an. Kostenlos. Wenn ihr
  • 52:31 - 52:35
    nach dem Becher greift, sagt er aber „Ich
    will erstmal gucken, wer waren denn die
  • 52:35 - 52:39
    letzten fünf Leute, die sie getroffen
    haben.“ Wenn es verboten würde,
  • 52:39 - 52:43
    Briefumschläge zu verwenden, alles nur
    noch auf Postkarten geschrieben werden
  • 52:43 - 52:48
    dürfte. Wenn Sie es so übertragen in die
    Welt, die die kennen. Dann wird der ein
  • 52:48 - 52:58
    oder andere auch wach. — Applaus — Als ich
    noch Parteipolitiker war, habe ich mir
  • 52:58 - 53:03
    immer mal vorgenommen, einen Kaffeestand beim
    Tag der offenen Tür vorm Innenministerium
  • 53:03 - 53:08
    zu machen mit umsonst Kaffee. Aber den
    kriegen die Leute dann tatsächlich nur,
  • 53:08 - 53:12
    wenn ich einmal kurz ihr Handy
    durchgucken darf. — Lachen, Applaus
  • 53:12 - 53:15
    Aber das kann ich jetzt nicht mehr machen,
    das traue ich mich nicht mehr.
  • 53:15 - 53:19
    Herald: Mikrofon Nummer 8 bitte!
    Frage: Vielen Dank noch einmal für den
  • 53:19 - 53:24
    Talk. Man sieht hier auf dem Kongress
    selbst da, wo man denkt, man hat viel
  • 53:24 - 53:29
    Gutes an Sicherheit gemacht, gibt es immer
    noch Schlupflöcher. In den meisten Fällen
  • 53:29 - 53:34
    hat man nicht so viel Gutes gemacht. Daher
    von mir die kurze Frage: Wie ist bei Ihnen
  • 53:34 - 53:41
    das Verhältnis Datenminimierung zu dem
    Thema Datensicherheit, sprich in Form von
  • 53:41 - 53:47
    Sicherheitsmaßnahmen zu sehen? Wo ist die
    Minimierung wichtiger? Und wo ist die
  • 53:47 - 53:50
    Sicherheit akzeptabel?
    Kelber: Ich glaube übrigens, dass man
  • 53:50 - 53:55
    erstmal durch Datensicherheit eine ganze
    Reihe von Datenschutz-Sicherheitsproblemen
  • 53:55 - 53:59
    ausschließen kann, aber was sie ja
    wahrscheinlich ansprechen ist, dass ich an
  • 53:59 - 54:02
    manchen Stellen eventuell Daten sammeln
    muss, um z. B. Angriffsvektoren oder
  • 54:02 - 54:05
    ähnliches zu erkennen. War es das,
    was Sie meinten?
  • 54:05 - 54:12
    Frage: Es ging darum, dass wir überall
    sehen: Belgacom. Da greift sich einfach ein
  • 54:12 - 54:15
    fremder Geheimdienst die Daten und
    ähnliches …
  • 54:15 - 54:22
    Kelber: Daten. Dann ist Datenminimierung
    ein Teil eines Datensicherheitskonzeptes.
  • 54:22 - 54:27
    Übrigens auch das Verteilthalten von Daten und
    ähnliches ist eine Frage, die ich erwartet
  • 54:27 - 54:30
    hatte. Wie ist das im digitalen
    Gesundheitsschutz? Es gibt ja Daten, wo
  • 54:30 - 54:34
    es durchaus unethisch sein könnte, sie
    nicht einzusetzen. Aber was sind denn die
  • 54:34 - 54:37
    Sicherheitsmaßnahmen? Wie kann ich
    wenigstens das Sicherheitsniveau
  • 54:37 - 54:41
    erreichen, das ich vorher in der analogen
    Welt hatte, wo es ja auch eine Menge
  • 54:41 - 54:44
    Verstöße gab? Wo krieg ich eine
    Verbesserung hin? Wo sind die Daten so
  • 54:44 - 54:48
    sensibel, dass ich mit zusätzlichen
    Methoden dafür sorgen muss. Von daher auch
  • 54:48 - 54:52
    vielen Dank an den Kongress für die
    Aufdeckung der Sicherheitsprobleme bei den
  • 54:52 - 54:59
    Karten. Thema Sie können sich sicher
    sein, — Applaus — Sie können sich sicher
  • 54:59 - 55:03
    sein, dass das auch Thema meiner
    Referatsleitungsrunde am 6. Januar
  • 55:03 - 55:12
    sein wird. — Lachen, Applaus
    Herald: Mikrofon Nummer 1, Bitte.
  • 55:12 - 55:19
    Frage: Herr Kelber, schön, dass Sie hier
    sind. Sie haben sehr ambitionierte Ziele
  • 55:19 - 55:26
    zu schadhaften Algorithmen geäußert und
    auch zu, dass wir Vertrauen schaffen
  • 55:26 - 55:32
    müssen. Dann haben Sie eben
    gerade noch was erzählt von den
  • 55:32 - 55:37
    Zertifizierungenmöglichkeiten? Da weise ich
    mal darauf hin, dass die Diesel-Motoren
  • 55:37 - 55:46
    unserer Auto-Hersteller auch alle zertifiziert
    sind. Um mal an Auguste Kerckhoff zu
  • 55:46 - 55:51
    erinnern: Die Sicherheit eines Algorithmus
    kann nicht in der Geheimhaltung des
  • 55:51 - 55:55
    Algorithmus liegen, sondern sollte
    möglichst vielen Experten offenstehen.
  • 55:55 - 56:03
    Jetzt die Frage: Sehen Sie eine andere
    Möglichkeit als Open Source um Ihre Ziele,
  • 56:03 - 56:09
    Algorithmen – schadhafte Algorithmen – zu
    verhindern oder Vertrauen zu schaffen? Ist
  • 56:09 - 56:12
    das mit proprietärer Software
    überhaupt machbar?
  • 56:12 - 56:18
    Kelber: Thema für einen eigenen Vortrag.
    Ich glaube, es wird Bereiche geben, wo ich
  • 56:18 - 56:24
    Daten, nur indem ich sie überhaupt … indem
    ich den Algorithmus öffentlich mache, überhaupt
  • 56:24 - 56:29
    nur Teil einer Kritikalitätsbetrachtung
    sein kann. Schauen Sie sich das auch mal in
  • 56:29 - 56:34
    Zusammenfassung der Empfehlung der Daten
    Ethikkommission mit der Pyramide zu
  • 56:34 - 56:38
    algorithmischen System an. Da ist die
    zweitoberste Stufe eine mit der
  • 56:38 - 56:42
    völligen Offenlage. Für mich als
    Aufsichtsbehörde gilt aber trotzdem, dass
  • 56:42 - 56:46
    wir an bestimmten Stellen
    hineingucken wollen in Systemen.
  • 56:46 - 56:49
    Das ist mir natürlich auch klar,
    dass sich die sehr schnell ändern.
  • 56:49 - 56:52
    also dass ich nicht einmal einen
    Punkt habe, wo ich da bin. Dem „Nein“
  • 56:52 - 56:58
    dort von Unternehmen oder
    Behörden. Das akzeptieren wir nicht.
  • 56:58 - 57:01
    Also wir als Aufsichtsbehörde dürfen alles
    sehen. Ansonsten bin ich auch bereit,
  • 57:01 - 57:09
    Zwangsmaßnahmen einzuleiten. Der Punkt
    wird allerdings der sein, dass natürlich,
  • 57:09 - 57:13
    wenn nicht zertifiziert werden kann, dass
    etwas, was eingesetzt ist, tatsächlich die
  • 57:13 - 57:17
    Punkte erreicht, die man zertifiziert,
    dann darf auch kein Zertifikat erteilt
  • 57:17 - 57:21
    werden. Das war eine der Erfahrungen aus
    dem Dieselgate. Deswegen habe ich in
  • 57:21 - 57:24
    meiner alten Verwendung ja noch
    Koalitionsverhandlungen geführt, 2018,
  • 57:24 - 57:28
    nach den Bundes-Wink-Wochen gab es echte
    Koalitionsverhandlungen. Und da steht ein
  • 57:28 - 57:34
    Satz drinnen: Es muss überhaupt mal etwas
    geschaffen werden, wo öffentliche Behörden
  • 57:34 - 57:38
    die Kompetenz entwickeln können, in
    algorithmische Systeme rein zu schauen.
  • 57:38 - 57:41
    Und das kann auch nicht sein, dass es
    jeder einstellt. Weil ich kann nicht 20
  • 57:41 - 57:45
    Expertinnen / Experten einstellen, das BSI
    40, das Kraftfahrzeugbundesamt 10, das
  • 57:45 - 57:51
    BaFin 10. Das wird nicht klappen. So viele
    gibt es gar nicht auf dem Markt die das
  • 57:51 - 57:54
    können. Wir werden also eine Stelle
    beauftragen. Kann ja auch an einem
  • 57:54 - 57:58
    Netzwerk mit Wissenschaft und
    Zivilgesellschaft stehen, um die
  • 57:58 - 58:02
    Entwicklung von so etwas anzuschauen. Und
    dann sind wir wieder etwas näher an dem,
  • 58:02 - 58:06
    was Sie gesagt haben.
    Herald: Lieber Single-Angel, die nächste
  • 58:06 - 58:10
    Frage aus Internet.
    Frage: Sollte man darauf achten, IFG-
  • 58:10 - 58:15
    Anfragen verantwortungsvoll zu stellen und
    auf ein Minimum zu reduzieren, um die
  • 58:15 - 58:23
    Akzeptanz bei Ministerien zu erhöhen?
    Kelber: Wie bei jedem Instrument sollte
  • 58:23 - 58:26
    man etwas nur dann machen, wenn man es
    selber für richtig hält. Aber das ist der
  • 58:26 - 58:30
    erste Maßstab, natürlich. Aber das wird ja
    allein nicht reichen. Ich habe natürlich
  • 58:30 - 58:34
    auch schon Informationsfreiheitsanfragen
    gesehen, die man im Augenblick selber gesagt
  • 58:34 - 58:39
    hat „Die ist nicht sinnvoll.“ Nachher kam
    etwas raus über den kleinen Umweg, wo man
  • 58:39 - 58:42
    gesagt hat „Es war gut, dass da einer
    nachgefasst hat.“ Umgekehrt habe ich bei
  • 58:42 - 58:47
    Sicherheitsbehörden auch schon IFG-Anträge
    gesehen, wo man nichts anderes versucht hat,
  • 58:47 - 58:52
    als den Ermittlungsstand der Sicherheits-
    behörden gegen hochkriminelle Banden
  • 58:52 - 58:58
    herauszubekommen. Die Bandbreite ist so
    groß, die Entscheidung treffen Sie selbst.
  • 58:58 - 59:02
    Das Gesetz sagt, was Sie dürfen, was Sie
    nicht dürfen. Was beantwortet werden muss,
  • 59:02 - 59:07
    was nicht beantwortet werden muss. Und bei
    allem, was das IFG angeht, sind wir noch
  • 59:07 - 59:12
    in der Ombudsmann-Funktion. Das heißt,
    wenn eine Auskunft verweigert wird, können
  • 59:12 - 59:16
    Sie sich an uns wenden, und wir beurteilen
    aus unserer Sicht noch einmal die
  • 59:16 - 59:20
    Situation.
    Herald: Mikrofon Nr. 4, deine Frage?
  • 59:20 - 59:27
    Frage: Hallo, zunächst vielen Dank, dass
    Sie hier sind. Vielen Dank für den Vortrag
  • 59:27 - 59:31
    und auch herzlichen Dank, dass Sie die
    Problematik mit WiFi für die EU auf den
  • 59:31 - 59:37
    europäischen Datenschutztisch gebracht
    haben. Zu meiner Frage: Sie hatten gerade
  • 59:37 - 59:41
    das Beispiel angesprochen mit der
    Notwendigkeit von Datenschutz im
  • 59:41 - 59:45
    öffentlichen Raum, am Beispiel des Laufens
    durch die Fußgängerzone in beispielsweise
  • 59:45 - 59:53
    Bonn. Sehen Sie dass momentan Arbeit im
    Wettbewerbsrecht besteht, um entsprechend,
  • 59:53 - 59:57
    ich sage mal datensammelwütige
    Geschäftsmodelle für Kommunen auch
  • 59:57 - 60:01
    handhabbar zu machen. Wir haben in Aachen
    gerade das Problem, dass im Rahmen von der
  • 60:01 - 60:07
    Stadtmobiliarausschreibung man ich sage
    mal die Wertschöpfung von Daten aus dem
  • 60:07 - 60:12
    öffentlichen Raum, in der Ausschreibung
    nicht berücksichtigt hat, sodass die Stadt
  • 60:12 - 60:18
    jetzt in der Problematik ist, dass für eine
    Stadtmobiliarausschreibung ein Anbieter, der
  • 60:18 - 60:24
    Daten abschnorchelt ein nach Wettbewerbsrecht
    zu wählendes, weil günstigeres Angebot
  • 60:24 - 60:30
    vorgelegt hat, als ein Anbieter, der nicht
    Daten abschnorchelt. Konkret geht es um
  • 60:30 - 60:35
    ICIM-Trekker an Bushaltestellen.
    Kelber: Ist mir im Augenblick nichts
  • 60:35 - 60:38
    bekannt. Müsste ich tatsächlich
    nachhaken, ob auf meiner Fachebene schon
  • 60:38 - 60:42
    Debatte gegeben hat? Vielen Dank für die
    Anregung. Ist ja einer der Gründe, warum
  • 60:42 - 60:46
    ich hierher gekommen bin, Anregungen
    mitzunehmen. Nein, kann ich Ihnen leider gar
  • 60:46 - 60:50
    nichts zu sagen. Ich weiß, dass im
    Augenblick die nächste GWB Novelle dran
  • 60:50 - 60:54
    ist, aber was dort in den Entwürfen steht
    und ob wir schon beteiligt wurden im
  • 60:54 - 60:59
    Vorfeld – manche Ministerien beteiligen uns
    ja im Vorfeld – und dann geben wir unsere
  • 60:59 - 61:03
    Beratungen nicht öffentlich. Weiß ich
    nicht, aber ist zumindest nicht von meinem
  • 61:03 - 61:07
    Fachebene für so relevant gehalten worden,
    dass ich darüber informiert wurde. Also
  • 61:07 - 61:12
    wenn ist es nur auf kleiner Ebene.
    Herald: Vielen Dank, Herr Kelber, für das
  • 61:12 - 61:16
    geduldige Beantworten aller Fragen. Vielen
    Dank für Ihren Vortrag. Es können leider
  • 61:16 - 61:18
    nicht mehr alle Fragen drankommen.
  • 61:18 - 61:26
    Applaus
  • 61:26 - 61:32
    36c3 Abspannmusik
  • 61:32 - 61:43
    Untertitel erstellt von c3subtitles.de
    im Jahr 2020. Mach mit und hilf uns!
Title:
36C3 - Weichenstellung
Description:

more » « less
Video Language:
German
Duration:
01:01:54

German subtitles

Revisions