Die South Side in Chicago gilt seit jeher als eine dergefährlichsten Gegenden der Stadt. Jeder Bordstein gehört hier einer anderen Gang. Eines Tages klopfen zwei Beamte an die Tür von Robert McDaniel. Er ahnt nichts von dem Besuch. Der Schwarze wurde bisher beim Kiffen und beim Glücksspiel erwischt, ansonsten hat er sich nichts zuschulden kommen lassen – noch nicht. Doch die Polizei glaubt zu wissen, dass sich das bald ändern könnte – sie glaubt, in McDaniels Zukunft sehen zu können.
Die Beamten weisen ihn darauf hin, dass er von nun an sein Verhalten ändern sollte. Wenn er nicht aufpasse, sei es „wahrscheinlich“, dass er bald straffällig würde. Was fürsorglich erscheinen mag, interpretiert McDaniel als eindeutige Warnung: Von nun an gilt er als Verbrecher in spe, steht unter Beobachtung. McDaniels Geschichte wurde im vergangenen Jahr durch den Dokumentarfilm „Pre-Crime“ bekannt, der die Methode des sogenannten Predictive Policing (zu Deutsch in etwa: vorausschauende Polizeiarbeit) kritisch unter die Lupe nimmt. Dabei geht es um ein Verfahren, das dabei hilft, Verbrechen zu verhindern, noch bevor sie passieren – was ja zunächst ziemlich großartig klingt. Aber was genau ist Predictive Policing überhaupt? Man kann es sich in etwa so vorstellen: Genau wie Google und Facebook Verbraucherdaten auswerten, um relevante Suchergebnisse zu liefern oder personalisierte Werbeanzei- gen zu platzieren, nutzen Polizeibehörden in den Vereinigten Staaten und Europa zunehmend Daten, um zukünftige Straftäter zu identifizieren und Art, Zeitpunkt oder die Orte anstehender Verbrechen zu ahnen. Dafür werden neben den Polizeidaten auch Informationen aus den sozialen Netzwerken herangezogen und mit analytisch statistischen Verfahren in Form von Algorithmen ausgewertet.
Eine Tat unterbinden, bevor sie passiert, und so verhindern, dass jemand zum Straftäter wird – ob Algorithmen das tatsächlich möglich machen, daran gibt es auch Zweifel. So befürchten einige Kritiker, dass manche Datensätze der Polizei verzerrt sind – etwa durch Fehler bei der Ermittlung oder auch durch die Vorurteile in den Köpfen der Polizisten. Und wenn vorurteilsbehaftete Daten verwendet würden, übernähmen oder verstärkten die für Predictive Policing eingesetzten Algorithmen diese Vorurteile sogar. Im schlimmsten Fall führte dies zu diskriminierender Polizeiarbeit.
Ein Beispiel dafür ist das sogenannte Racial Profiling, bei dem Polizisten Menschen nach ihrem Aussehen und ihrer vermeintlichen Herkunft beurteilen: Fälle wie der von Philando Castile haben in den USA eine öffentliche Debatte über Rassismus in der Polizeiarbeit ausgelöst. Der Afroamerikaner wurde in Minnesota bei einer Verkehrskontrolle vor den Augen seiner Freundin und ihrer kleinen Tochter durch mehrere Schüsse eines Polizisten, der dachte, Castile würde eine Waffe ziehen, schwer verletzt und starb anschließend im Krankenhaus. Castiles Freundin hatte die Situation direkt nach den Schüssen mit ihrem Handy gefilmt und live auf Facebook gestreamt. Die Welt konnte ihm daraufhin beim Verbluten zusehen. Castile ist kein Einzelfall: Immer wieder werden in den USA Schwarze Opfer falscher Verdächtigungen und übermäßiger Polizeigewalt. Eine Studie kam zu dem Ergebnis, dass bei Verkehrskontrollen vermehrt Schwarze und Lateinamerikaner ins Visier von Polizisten geraten. Wer unproportional oft kontrolliert wird, für den ist auch die Wahrscheinlichkeit höher, bei einem Vergehen erwischt zu werden und in der Datenbank zu landen, die Grundlage für das Predictice Policing wird. Einige Polizeibehörden, etwa im kalifornischen Oakland, haben sich deshalb bewusst dagegen entschieden, Predictive Policing einzusetzen.
In Chicago, wo es im Jahr 2016 rund 3.550 Schießereien mit 762 Toten gab, wurde schon vor fünf Jahren die „Heat List“ eingeführt. Auf der befinden sich mittlerweile rund 400.000 Menschen, die als besonders gefährlich eingestuft werden. Für sie gilt eine sehr hohe Wahrscheinlichkeit, dass sie in Zukunft eine Straftat begehen. Algorithmen entscheiden darüber, wer hier erfasst wird. Sie basieren auf Daten über bisherige Verhaftungen in Zusammenhang mit Drogen oder ungesetzlichem Einsatz von Waffen, Bewährungsstrafen, Freunde und Bekannte. Wer es auf die „Heat List“ geschafft hat, den besucht die Polizei.
Predictive Policing wird mittlerweile auch bei den Polizeibehörden einiger deutscher Bundesländer getestet oder eingesetzt. Das Pilotprojekt Predictive Policing (P4) mit der Software PRECOBS (kurz für Pre Crime Observation System) durchläuft gerade in Baden-Württemberg die zweite Phase. Ob es dort auch dauerhaft zum Einsatz kommt, hänge von den Ergebnissen dieses zweiten Testdurchlaufs ab, sagt Horst Haug vom LKA Baden-Württemberg. Personenbezogene Daten werden in diesem Verfahren allerdings nicht verwendet. PRECOBS sucht in Einbruchsmeldungen nach Hinweisen, die Muster für zukünftige Wohnungseinbrüche erkennen lassen, also etwa auf Straßen oder Zeiten schließen lassen, die Diebe bevorzugen. Die gespeicherten Daten ließen keine Rückschlüsse auf Personen zu, sagt Haug.
In der ersten Phase in Baden-Württemberg konnte nur eine minimale oder gar keine Verringerung der Einbrüche festgestellt werden – ob das an PRECOBS lag, ist unklar. In anderen Bundesländern sind die Ergebnisse bisher ebenfalls durchwachsen. In Hamburg kennt man ein anderes Problem: Einbrecher suchen einfach andere Orte auf oder begehen eher Ladendiebstähle.
Datenaktivistin und Bürgerrechtlerin Katharina Nocun hat bisher wenige Bedenken, was die Verfahren in Deutschland betrifft: „Software wie PRECOBS würde ich in den Anwendungsfällen als eher unproblematisch ansehen, in denen es um reine statistische Vorhersagen zu Orten der Kriminalität geht. Schwierig wird es aber, wenn es einen Personenbezug gibt und schon nicht strafbares Verhalten überwacht oder sogar als verdächtig erfasst wird.“ Trotzdem warnt sie vor einem ersten Schritt in Richtung der US-Standards: Ein Problem einiger Systeme sei auch, dass das Vorgehen dort einer Blackbox ähnle. „Man kann nicht nachvollziehen, wie der Algorithmus arbeitet, es ist also völlig intransparent. Wir müssen als Gesellschaft darauf bestehen, dass solche Black-boxes – die uns und unser Verhalten bewerten – gar nicht erst entstehen.“ Tatsächlich stammen die Algorithmen oft von Privatfirmen, deren Geschäftsgeheimnis sie sind.
Automatisierte Entscheidungsverfahren lernen aus realer Polizeiarbeit. Die Hoffnung, dass sich durch den Einsatz von Algorithmen automatisch eine maschinelle, naturgegebene Objektivität einstellen würde, kann schnell einer Ernüchterung weichen. Momentan braucht es für Predictive Policing in Deutschland aber erst einmal mehr unabhängige Untersuchungen, um den Nutzen der Methode besser einschätzen zu können. Denn die potenziellen Nebenwirkungen könnten den sozialen Frieden in der Stadt bedrohen. Wenn der Algorithmus ein Viertel als potenziell gefährlich einstuft (weil dort zum Beispiel überdurchschnittlich viele Migranten wohnen), sind dort mehr Polizisten unterwegs, die kontrollieren. Dadurch werden mehr Delikte erfasst, und der Gefährdungsscore steigt weiter. So könnte ein sich selbst verstärkendes System entstehen, das ganze Wohnviertel stigmatisiert – eine sich selbst erfüllende Prophezeiung.