Bundesverfassungsgericht - darf die Polizei KI einsetzen?

    FAQ

    Umstrittene Datenanalyse:Darf die Polizei KI einsetzen?

    von Jan Henrich
    |

    Künstliche Intelligenz spielt bei der Strafverfolgung eine immer größere Rolle. Doch wie weit darf die Polizei gehen? Das will das Bundesverfassungsgericht nun klären.

    Ein Polizist sitzt im Zentrum Luftoperationen Uedem
    KI macht rasante Fortschritte - und wirft rechtliche Fragen für die Polizeiarbeit auf (Archivfoto).
    Quelle: Imago

    Polizeiarbeit, die Verbrechen genau vorhersagen kann - Kriminelle, die festgenommen werden, noch bevor sie überhaupt zur Tat ansetzen. Was bislang Stoff von Science-Fiction-Geschichten wie "Minority Report" war, ist zumindest in Teilen in der Realität angekommen.
    Denn die Entwicklung künstlicher Intelligenz macht rasante Fortschritte. Ein Potenzial, das sich auch Sicherheitsbehörden nicht entgehen lassen. Als Vorreiter haben Hamburg und Hessen Regelungen in ihre Polizeigesetze aufgenommen, wonach solche Systeme eingesetzt werden dürfen. Doch einige Bürgerrechtsverbände sind skeptisch und haben eine Klage dagegen initiiert. Nun verhandelt das Bundesverfassungsgericht darüber, wie weit die Polizei bei der Verbrechensbekämpfung auf Algorithmen und künstliche Intelligenz setzen darf.

    Was kann die künstliche Intelligenz?

    Die Einsatzmöglichkeiten der Systeme, wie auch der Grad ihrer Selbstständigkeit sind unterschiedlich. Die beiden Gesetze in Hamburg und Hessen, über die nun verhandelt wird, sprechen insoweit auch nicht von künstlicher Intelligenz, sondern von einer "automatisierten Anwendung zur Datenauswertung". Hinter dem Begriff kann sich vieles verbergen.
    Ein Ki-basiertes System hilft dem Mensch einen Ball besser zu greifen
    Künstliche Intelligenz verändert auch die Medizin. Durch Digitalisierung können Heilungschancen verbessert werden.11.06.2022 | 29:36 min
    Der Nutzen solcher Systeme bei der Kriminalitätsbekämpfung liegt momentan insbesondere darin, große Datenmengen zu analysieren. Beispielsweise um die Gesichter von Verdächtigen abzugleichen oder um verdächtige Geldströme im Rahmen von Geldwäsche zu finden. Aber die Systeme können auch zur Vorhersage künftiger Straftaten verwendet werden. Dann spricht man von "Predictive Policing".

    Wo werden die Systeme bislang eingesetzt?

    In den USA und Großbritannien ist diese Art der vorbeugenden Datenanalyse bereits Teil des Polizeialltags. Dort berechnen Computerprogramme mögliche Hotspots für kriminelle Aktivitäten und suchen nach Mustern für Tatzeiten und Tatorte. Streifenwagen werden dann entsprechend eingeteilt.
    Hierzulande setzt Hessen als erstes Bundesland die Analysesoftware "Gotham" des US-Unternehmens Palantir ein. Das Programm soll bei der Identifizierung von möglichen Terroristen und Straftätern im Bereich der schweren Kriminalität helfen.
    Orchester spielt in Staatstheater Saarbrücken bei Konzert mit künstlicher Intelligenz
    Bei einem Konzert in Saarbrücken ist die Musik mit künstlicher Intelligenz entstanden - durch den Pulsschlag und die Emotionen des Publikums. 09.11.2022 | 1:51 min
    Die Software kann nach Unternehmensangaben dabei Zusammenhänge zwischen unterschiedlichen Datenquellen erkennen und auch Verbindungen zwischen offiziellen Datenbanken und ungeordneten Informationsquellen wie Fotos oder Einträgen in sozialen Netzwerken erstellen. So könnte das System beispielsweise innerhalb kürzester Zeit ermitteln, ob eine verdächtige Person in Verbindung zu einem sogenannten "Gefährder" steht.

    Wo liegen die rechtlichen Probleme?

    Wie genau die Software dabei vorgeht, darüber ist wenig bekannt. Palantir sei eine "Blackbox", so die Kritik der Gesellschaft für Freiheitsrechte. Der Verein hat gemeinsam mit anderen Bürgerrechtsverbänden und Einzelpersonen gegen den Einsatz der Software geklagt. Der Vorwurf: Polizeiarbeit würde durch den zunehmenden Einsatz von Technologie an Transparenz verlieren.
    Die deutschen Sicherheitsbehörden würden zudem ihre Befugnisse ein Stück weit aus der Hand geben. Hinzu kommt, dass das Unternehmen Palantir auch in Verbindung mit US-Geheimdiensten steht. Offiziell sollen zwar keine Daten deutscher Sicherheitsbehörden dorthin abfließen, mangelnde Transparenz würde es aber erschweren genau das zu überprüfen, so der Verein.
    Das größte Risiko sieht die Gesellschaft für Freiheitsrechte allerdings darin, dass solche Systeme umfassende Persönlichkeitsprofile erstellen können. Betroffene würden damit zum "gläsernen Menschen". Das System durchleuchte auch nicht nur Verdächtige, sondern auch Unbeteiligte seien als "Beifang" betroffen. Es reiche aus, im selben Haus zu leben oder einen Telefonkontakt gehabt zu haben. Nach Ansicht des Vereins greife das in das Recht auf informationelle Selbstbestimmung ein.
    Jan Henrich ist Redakteur in der ZDF-Redaktion Recht und Justiz.

    Mehr über Künstliche Intelligenz