Herr Kettemann, welchen Nutzen hätte künstliche Intelligenz für die polizeiliche Videoüberwachung?
Die KI erkennt bestimmte Muster und analysiert sehr große Videomengen, wodurch sie Menschen sehr schnell identifizieren kann. Allein nutzt die Technologie aber nichts, erst wenn man die biometrische Erkennung mit entsprechenden Datenbanken verknüpfen würde, wäre eine Person aufzufinden. Beispielsweise, wenn die Polizei in Echtzeit auf die Gesamtheit der österreichischen Passbilder zugreift. Man spricht dann von biometrischen Echtzeitfernidentifizierungssystemen. Aber zum Glück sind die nicht ohne Weiteres gestattet: Jeder Datenzugriff durch den Staat, auch zur Gefahrenabwehr und Strafverfolgung, muss eine entsprechende Rechtsgrundlage haben. Durch die neuen Überwachungstechnologien werden die Staaten nun in Versuchung geführt, Echtzeitidentifizierung mit KI durchzuführen, was den bestehenden Rechtsschutz reduzieren werde.
Was wurde dazu dann im AI Act festgelegt?
Ganz fertig ist er ja noch nicht, das wird wohl erst im April final beschlossen. In der jetzigen Fassung gibt es im Artikel 5 ein grundsätzliches Verbot der biometrischen Echtzeitidentifizierung mit KI. Für besonders wichtige Zwecke, etwa die Verfolgung schwerwiegender Straftaten, dürfen Staaten diese Technologie aber nutzen – solange datenschutzrechtliche Grundvoraussetzungen, die Menschenrechte und die Verhältnismäßigkeit gewährleistet sind.
Was könnte denn eine schwerwiegende Straftat sein?
Während das EU-Parlament noch ein absolutes Verbot dieser Art von Überwachung gefordert hat, haben sich die EU-Staaten nun auf eine Liste dieser Straftaten geeinigt. Zu diesen wichtigen Zwecken gehört die Suche nach Entführungsopfern, die Abwendung konkreter, unmittelbar bevorstehender Gefahren – etwa eine Bombendrohung – oder zur Lokalisierung einer Person, die wegen eines besonders schwerwiegenden Verbrechens gesucht wird. Dazu gehören Terrorismus, sexuelle Ausbeutung von Kindern, Völkermord, Mord und Vergewaltigung.
Wie ist das Gesetz jetzt umzusetzen?
Der AI Act ist ein Rechtsakt, also eine Verordnung, die direkt bindet und sofort gilt. Er erlaubt Staaten, das zu tun, was nicht verboten ist, also innerhalb des erwähnten Rahmens Echtzeitfernidentifizierung biometrisch KI-gestützt durchzuführen. Doch dafür braucht es staatliche Gesetze. Das ist aber kein Zwang, es heißt lediglich: Wir verbieten es nicht, wenn es zur Verfolgung von besonders schwerwiegenden Fällen kommt. Grundsätzlich ist es aber so, dass für die Bereiche Sicherheit, polizeiliche Verfolgung und Strafrecht die Staaten selbst verantwortlich sind. Da hat die EU sehr wenige Kompetenzen. Auch internationale Strafverfolgungskooperationen wie die INTERPOL sind vor allem koordinierend tätig.
Wie sieht die bisherige Rechtsgrundlage in Österreich dazu aus?
Da gibt es wenig. Wir haben eine stabile Rechtslage in den Bereichen Datenschutz und Videoüberwachung – auch wenn das in der Praxis nicht immer besonders sorgfältig und privatssphäreschonend gehandhabt wird. Aber zur Nutzung von KI in der Strafverfolgung findet sich noch wenig Spezifisches.
Inwiefern ist die Regelung im AI Act vereinbar mit dem Schutz der Privatsphäre?
So, wie es jetzt gestaltet ist, scheint es mir eine gangbare Lösung zu sein, weil sie darauf abzielt, nur in besonders schwerwiegenden Fällen KI-unterstützte Überwachung durchzuführen. Generell bin ich kein Fan von biometrischer Identifizierung, aber ich sehe durchaus ein, dass es in manchen Fällen notwendig sein kann. Man hat hier einen Weg gewählt, wie man ein gesellschaftliches Ziel, also etwa die Bekämpfung von Terrorismus, verfolgen kann, ohne die Rechte der Bürgerinnen und Bürger zu verletzen. Aufpassen muss man natürlich, dass die Staaten nun nicht zu vage in der Umsetzung sind und sich die Polizei in der Praxis auch an die Vorschriften hält.
Kommen Ihnen ethische Zweifel, wenn Sie an die mögliche Nutzung von KI in der polizeilichen Arbeit denken?
Ja, klar. Gerade im Bereich von „predictive policing“, wo es in Amerika schon schlimme Rechtsverletzungen gegeben hat, halte ich das für sehr problematisch. Generell ist die Nutzung von unerprobten KI-Systemen beziehungsweise KI-Systemen ohne ausreichende menschliche Aufsicht in allen Sozialbereichen, wo in Rechte und Pflichten eingegriffen wird, sehr gefährlich. Die Grazer Juristin Christina Leingruber hat vor kurzem predictive policing in Österreich unter die Lupe genommen und ist zum Schluss gekommen, dass alle bisherigen Implementierungsversuche fehlgeschlagen sind und eine Nutzung verfassungsrechtlich bedenklich ist, auch weil die Datenschutz- und Privatsphärengefährdungen enorm sind. Erfahrungsgesteuerte Prognosen sind wichtige Tools für die Polizeiarbeit. Aber KI hat sich da noch nicht bewährt. Wir sehen, dass sie immer noch sehr fehleranfällig und vor allem nicht neutral ist. Da zum Beispiel ist der neue Rechtsakt super, denn er sagt: Ihr, die KI einsetzen wollt, müsst sicherstellen, dass es eine gute und diskriminierungsfreie KI ist. Das heißt genauer: Die Trainingsdaten müssen offengelegt werden. Wir können dann also erkennen, wie die Kinderstube der KI war. Man weiß dann, wo sie herkommt und wie sie funktioniert – und wie nicht.
Gesetzliche Grenzen
Wie ist Videoüberwachung gesetzlich geregelt? Und welche Auskunftsrechte habe ich? Die Datenschutz-NGO epicenter.works gibt Antwort.
Es gibt verschiedenste rechtliche Grundlagen, die für Videoüberwachungssysteme zur Anwendung kommen können. Das beginnt bei der Datenschutzgrundverordnung (DSGVO) oder dem Sicherheitspolizeigesetz (SPG) und reicht bis zu einzelnen Materiengesetzen wie der Straßenverkehrsordnung (StVO). Sobald Daten einer Videoüberwachung durch öffentliche Einrichtungen oder private Firmen mit Versorgungsauftrag aufgestellt sind, greift das SPG und die Sicherheitsbehörden können Echtzeitzugriff auf die Kamerabilder verlangen, Speicherfristen anordnen und sich über solche Kameras informieren lassen. Diese Bestimmung ist unserer Meinung nach verfassungswidrig, wir konnten sie jedoch 2018 nicht verhindern. Bei jeder neuen Kamera muss in Österreich deshalb die Sorge bestehen, dass das Innenministerium sich die Daten ausleiten lässt.
Matthias C. Kettemann ist Professor für Innovationsrecht und Digitalexperte an der Universität Innsbruck (c) Uni Innsbruck