Die Schweiz ist eine Pionierin im Einsatz von Software, die voraussagt, wer wann wo ein Verbrechen begehen könnte. Doch die Tools sind weder rechtlich noch demokratisch legitimiert.
von Adrienne Fichter und Florian Wüstholz (erschienen in Republik, 11.12.2020)
Mit virtuosen Handbewegungen streicht Tom Cruise über die virtuelle Wand. Er ordnet Hologramme, schiebt Fotos hin und her, visualisiert eine Szene, in der ein Mann mit einem Messer auf eine Person einsticht. Es ist ein Blick in die Zukunft, der sich dem von Cruise gespielten Polizisten offenbart – auf einen Mord, den er und seine Kollegen in letzter Minute verhindern werden.
Der berühmte Filmausschnitt ist untermalt mit Schuberts achter Symphonie, der «Unvollendeten». Er wird gerne zitiert, wenn Medien über das Thema «Predictive Policing» berichten, zu Deutsch: vorhersagende Polizeiarbeit. Technologien also, die es möglich machen sollen, Verbrechen vorauszusehen.
Wie viel von dem, was sich die Macher von «Minority Report» vor zwanzig Jahren ausgedacht haben, ist inzwischen Wirklichkeit? Arbeiten Schweizer Polizeikorps mit Predictive Policing? Und wenn ja: Ist das überhaupt legal? Ist es nützlich? Ist es gut dokumentiert?
Eine neue Studie der Universität St. Gallen und Republik-Recherchen zeigen:
«Erfolg misst sich an dem, was morgen nicht passiert», sagt eine anonyme Polizeibeamtin, mit der wir für diese Recherche gesprochen haben. Aus den Kantonen heisst es, gewisse Einbruchserien hätten sich durch den Einsatz von Prognoseprogrammen vermindert, gewisse Gefährder seien nicht mehr negativ aufgefallen. Die Nachfrage nach diesen Programmen ist gross.
Doch ebenso gross sind die Fragen, die damit verbunden sind. Sie gehen weit über die Technologiedimension hinaus, betreffen fundamentale Aspekte des Rechtsstaats: Wer entscheidet, ob jemand, der noch keine strafrechtlich relevante Tat begangen hat, präventiv überwacht wird?
Volle Frauenhäuser, radikalisierte Einzeltäter, eine Zunahme von Cyberattacken im Netz: Es sind Entwicklungen wie diese, die Polizeikorps unter Zugzwang bringen. Und die in den letzten Jahren ein neues Paradigma hervorgebracht haben: die Täterin von morgen frühzeitig zu erkennen.
Damit erhält Software in der Polizeiarbeit ein grösseres Gewicht. Dies hat eine Forschergruppe der Universität St. Gallen in einer aufwendigen Studie mit dem Titel «Smart Criminal Justice» herausgefunden. Die zwei Strafrechtsexpertinnen Monika Simmler und Simone Brunner und der Betriebswirtschaftsprofessor Kuno Schedler führten dafür ausführliche Interviews mit Anwendern von Predictive-Policing-Programmen. Der Republik haben sie vor der Publikation der Studie bereits einen Einblick gewährt.
Den Forscherinnen zufolge gibt es einen Schlüsselmoment für Predictive Policing: den 15. August 2011. An jenem Montag vor neun Jahren erschoss ein 58-jähriger Familienvater im zürcherischen Pfäffikon zuerst seine Frau und anschliessend die Leiterin des Sozialamts. Ein brutaler Doppelmord, der nicht nur das beschauliche Dorf im Zürcher Oberland erschütterte.
Schnell wurden damals mediale Vorwürfe laut: Die Tat hätte verhindert werden können, der Mann sei der Polizei bereits als gewalttätig bekannt gewesen – sie hätte bloss rechtzeitig intervenieren müssen. Ähnliche Vorwürfe tauchten zuletzt auch nach einer Messerattacke auf zwei Frauen im Tessin auf, bei der die Täterin dem Bundesamt für Polizei bekannt war.
Der Mordfall von Pfäffikon bewog zahlreiche Kantone dazu, ein sogenanntes «kantonales Bedrohungsmanagement» zu lancieren. Der Kanton Solothurn war dabei ein Vorreiter. Er liess sich 2013 vom privaten deutschen Institut für Psychologie und Bedrohungsmanagement beraten und führte als erster Kanton ein solches Regime ein, wie die Pressestelle nicht ohne Stolz schreibt.
Die «instrumentengläubigen» Polizeistellen, wie es ein Mitarbeiter einer Präventionsabteilung in einem Kanton ausdrückt, suchten in der Folge fieberhaft nach Software. Diese sollte Beamten die Arbeit abnehmen und Resultate ausspucken. So brach in der Schweiz die Ära der algorithmenbasierten Prognoseprogramme an.
Was diese genau machen, umschreibt die Forschergruppe so: «Algorithmengestützte Tools versprechen, die Wahrscheinlichkeit von Delikten zum Zeitpunkt X am Ort Y berechnen zu können oder vorherzusagen, mit welcher Wahrscheinlichkeit Person Z delinquieren wird.»
Predictive Policing lässt sich demnach in zwei Formen unterteilen:
Die Einsatzfelder von Predictive Policing in den Kantonen sind: häusliche Gewalt, Drohungen gegen Schulen, Hooliganismus, gewalttätiger Extremismus. Mit den Vorhersageprogrammen sollen Einbruchserien gestoppt und potenzielle Straftäterinnen frühzeitig identifiziert werden.
Wie Recherchen der Republik und die HSG-Studie zeigen, sind in den Kantonen primär fünf Programme im Einsatz: Precobs, Ra-Prof, Dyrias, Odara und Octagon. Sie unterscheiden sich je nach Funktionalität und Anwendungsgebiet.
Dyrias zum Beispiel steht für «Dynamische Risiko-Analyse-Systeme». Anhand eines Fragenkatalogs, der auf unterschiedliche Bereiche ausgelegt ist – Arbeitsplatz, Schule, Partner –, kalkuliert das Programm eine Zahl zwischen 1 und 5. Diese soll das Gefahrenpotenzial und den Handlungsbedarf anzeigen.
Doch nicht nur Polizeistellen, sondern auch Sozialämter oder Kinder- und Elternschutzbehörden greifen auf solche Software zurück. Die Schweiz gehöre zur Avantgarde, bestätigt Simon Egbert, Forscher an der Technischen Universität Berlin. Bereits 2013 habe die Stadtpolizei Zürich mit Precobs experimentiert.
Interessant ist, dass die meisten kantonalen Behörden negieren, Predictive Policing zu betreiben. Sie haben dazu teilweise eigentümliche Erklärungen:
Das sieht zumindest die deutsche Bertelsmann-Stiftung anders. Sobald Polizeibehörden Software einsetzen, um Prognosen hinsichtlich «zukünftiger Verbrechensareale oder zukünftiger Straftäter» zu erstellen, befinde man sich im Bereich des Predictive Policing. Denn am Ende spucken sie eine Prognose aus, die für die Polizistinnen relevant ist.
Da die Prognoseprogramme entweder Produkte von kommerziellen Firmen sind oder deren Funktionsweise als Geschäftsgeheimnis gilt, ist vielen Polizeibeamten nicht klar, was im Hintergrund genau berechnet wird.
Punktuell Klarheit geschaffen haben bisher nur Medienrecherchen. SRF zeigte beispielsweise vor zwei Jahren, dass zwei von drei Personen mit Dyrias falsch eingeschätzt wurden. Ein Faktor, der regelmässig zu Ausreissern führt, ist die Variable Waffenbesitz, wie die Recherchen der Republik zeigen. Ein Mitarbeiter einer kantonalen Fachgruppe Gewaltschutz sagt: «Wer im Besitz von Waffen ist, der schlägt bei Dyrias hoch aus.»
Der Grund dafür ist einfach: Das Tool wurde in Deutschland entwickelt, der Schweizer Kontext mit den Armeewaffen führt zu einer permanenten «Red Flag». Den Schweizer Kantonspolizistinnen ist diese Verzerrung bekannt, sie habe durchaus zu Diskussionen geführt. Der Mediensprecher der Kantonspolizei Luzern, Christian Bertschi, sagt dazu: «Der Umstand, dass ein Waffenbesitz allenfalls eine höhere Gefährdungsstufe bedeuten kann, ist uns bewusst und wird bei der Gesamtbeurteilung entsprechend berücksichtigt.»
Ausreisser gibt es auch bei Odara. Das Programm wird etwa zur Prävention von häuslicher Gewalt angewendet. Es hat den Hang, stark zu «überzeichnen», wie eine Mitarbeiterin eines forensisch-psychologischen Diensts der Republik sagt: «Sechs von zehn Personen wurden als sehr gefährlich eingestuft, wobei aber nach unserer Meinung wirklich nur einer gefährlich war.»
Trotz dieser Risikoüberschätzung sind viele Polizisten von der Effektivität der Werkzeuge überzeugt. Einige verweisen dabei auf einen Vorfall bei der Kesb. Ein Gefährder, der durch Dyrias als hochgefährlich eingestuft worden sei, was Stufe 5 entspricht, wurde gerade noch rechtzeitig «abgefangen», bevor er eine Kesb-Mitarbeiterin bedrohen wollte. Er hatte eine Waffe dabei.
Bisher kamen Prognoseprogramme nur «unterstützend» zum Einsatz. Am Ende entscheide immer noch der Mensch über den Einsatz und das Vorgehen, fassen die Forscherinnen der Universität St. Gallen die Gespräche in ihrer Studie zusammen.
Christian Bertschi von der Luzerner Polizei erklärt den Stellenwert der Programme so: «Die Tools sind ein elektronisches Instrument, welches uns eine gewisse Sicherheit gibt, eine Art ‹Fieber messen›, und allenfalls Unterstützung in gewissen Entscheidungen geben kann.» Ein Polizeibeamter, der anonym bleiben will, bestätigt diese Aussage: «Man nimmt nie einfach so das Resultat hin, das wird ständig hinterfragt.» Auch Ausreisser wie bei Odara oder Dyrias würden dabei niemals überbewertet.
Forscherin Monika Simmler spricht dennoch von einer «Pseudolegitimation». Denn die Resultate sollen das Bauchgefühl der Polizistinnen absichern und als Argument genutzt werden, um etwa Massnahmen anzuordnen. «Der Algorithmus bestimmt mit, wer ein Gefährder ist und wer nicht», sagt Simmler. Gerade bei polizeilichen Eingriffen wie dem Entzug von Waffen dienen die Programme zur Absicherung.
Aus den Gesprächen mit involvierten Beteiligten, die die Republik führte, entsteht der Eindruck, dass wegen des öffentlichen Drucks immer mehr Entscheidungen durchaus «algorithmenkonform» getroffen werden:
Die technologiebasierten Empfehlungen beeinflussen also tatsächlich die Entscheidungsfindung, ob interveniert wird. Die Grenzen, was dabei eigene Fachexpertise ist und was technologische Intelligenz, werden fliessender. «Es schärft die Sinne und zeigt, worauf man achten muss», sagt eine Polizistin.
Nadja Capus, Strafrechtsprofessorin an der Universität Neuenburg, warnt seit Jahren vor diesem «Tunnelblick», bei dem man die Logik der Risikowerkzeuge übernehme. Sie schrieb vor zwei Jahren in der Republik: «Wenn Polizisten, Strafvollzugsbeamtinnen, Bewährungshelfer und Psychiaterinnen sich an diese eingeengte Wahrnehmung gewöhnen, werden wichtige Informationen vernachlässigt oder gehen verloren.» Anders als geschulte Polizisten können Prognosetools Kontext nicht mit einbeziehen.
Ähnlich sieht dies auch die Geschäftsführerin der Organisation Algorithm Watch Schweiz, Anna Mätzener: «Bei Befragungen in Deutschland haben neun von zehn Polizisten geantwortet, dass sie versuchen, sich möglichst genau an die vom Predictive-Policing-System empfohlenen Massnahmen zu halten.»
Doch der Empfehlungscharakter führt dazu, dass der Einsatz von Precobs, Dyrias und Co. unreguliert bleibt. Sowohl die europäische Datenschutz-Grundverordnung als auch das revidierte Schweizer Datenschutzgesetz greifen nur, wenn eine Software nicht nur Empfehlungen abgibt, sondern direkt entscheidet – zum Beispiel über eine Kreditvergabe.
Die fehlende Regulierung ist ein Problem. Erst jetzt beginnen die Kantone, unabhängige Untersuchungen der Programme durchzuführen. So wird Odara vom Kriminologischen Institut der Universität Zürich im Auftrag des Kantons Zürich vertieft evaluiert. Vorher gab es dafür offenbar kaum Bedarf – obwohl die Systeme bereits jahrelang im Einsatz waren. Ein Grund für die fehlende Aufsicht ist: Die Softwarebeschaffungen sind Sache der Polizeikorps. Da es sich um Hilfsinstrumente handelt, wurden sie auch nie politisch hinterfragt.
«Politischen Widerstand gab es nie», erzählt uns eine Polizistin. «Wir nehmen den Politikern auch viel Arbeit ab.»
Dabei würden auch Fachkräfte aus Frauenhäusern, die vom Einsatz von Prognosetools profitieren, eine externe Evaluation begrüssen: «Eine Überprüfung der Tools bzw. die Handhabung mit allen verschiedenen Fachleuten und Stellen gemeinsam wäre wünschenswert, damit auch wirklich allen verschiedenen Aspekten des Bedrohungsmanagements mit den unterschiedlichen Täter-‹Typen› Rechnung getragen wird», sagt etwa Susan Peter, Vorstandsmitglied der Dachorganisation Frauenhäuser Schweiz und Geschäftsleiterin der Stiftung Frauenhaus Zürich.
Auch Anna Mätzener von Algorithm Watch Schweiz fordert, «dass sich die Polizei für Begleitforschung öffnen und nicht alles hinter verschlossen Türen machen soll». Die Polizei selbst würde davon am stärksten profitieren.
Demokratiepolitisch heikel ist, dass die Prognosesysteme eine technologische Blackbox sind. Weder die Hersteller von Precobs noch jene von Dyrias wollen den Quellcode oder die Bewertungsparameter ihrer Algorithmen offenlegen. Brisanterweise erhalten sie dafür vollstes Verständnis der Polizei: «Selbstverständlich gibt keine Softwarefirma den Algorithmus ihrer Analysesoftware preis», sagt ein Fachverantwortlicher eines kantonalen Bedrohungsmanagements. Sie müsse damit ja Geld verdienen. Es sei auch nicht wichtig, diese Merkmale zu kennen.
Hinzu kommt, dass im Fall von Dyrias die Daten auf Servern der Firma in Frankfurt liegen. Diese seien jedoch verschlüsselt, und niemand ausser der Kundschaft habe Zugriff darauf, sagt Monika Hoffmann, Geschäftsführerin des Instituts Psychologie und Bedrohungsmanagement, die das Prognoseprogramm entwickelt hat.
Die Kantonspolizeikorps sind vom präventiven Nutzen des Predictive Policing überzeugt. «Gemäss Statistik ist die Anwendung von Precobs positiv, denn die Einbruchszahlen sind zurückgegangen», sagt ein stellvertretender Vertreter der Sicherheitsabteilung eines Kantons.
Gleichzeitig gestehen sie jedoch ein, dass sich keine Aussagen über den Erfolgsanteil der Systeme machen lassen. So schreibt die Kantonspolizei Glarus, bei der sowohl Dyrias als auch Octagon im Einsatz sind: «Es wird nie möglich sein, eine Aussage dazu zu machen, ob und wie viele Straftaten verhindert wurden, da man ja nicht weiss, ob es tatsächlich zu einer Straftat gekommen wäre.»
ETH-Forscher und Precobs-Experte Matthias Leese bestätigt diesen Befund: «Es gibt durchaus einen Rückgang bei den Einbruchszahlen. Ob das der Software zuzuschreiben ist, ist schwer zu sagen.»
Ob die Instrumente wirklich nützen, wurde bisher kaum von unabhängiger Seite untersucht. Und wenn, dann stellten ihnen Studien kein gutes Zeugnis aus. So untersuchte Algorithm Watch den Einfluss von Precobs auf die Anzahl Einbrüche in der Stadt Zürich und den Kantonen Aargau und Basel-Landschaft. Das Ergebnis war ernüchternd: Die Einbruchsraten gingen nicht stärker zurück als in den Regionen, die keine Vorhersagesoftware verwenden.
Ein möglicher Grund dafür ist, dass algorithmenbasierte Programme viele Daten brauchen. Das Vorhersagemodell von Precobs nützt nur etwas in dichten Siedlungsgebieten, in denen es auch viele Einbrüche gibt. Fehlen diese Daten, so kann der Algorithmus keine verlässlichen Aussagen treffen. Der Kantönligeist macht der Polizei hier einen Strich durch die Rechnung. Denn Kantone dürfen aufgrund des Datenschutzes keine Daten austauschen.
Und trotzdem halten alle in der Studie befragten Institutionen das kantonale Bedrohungsmanagement für ein Erfolgsmodell. Man habe schon «viel Druck» rausholen können, Gespräche mit potenziellen Gefährdern hätten immer eine deeskalierende Wirkung gehabt, heisst es.
Ein weiterer Vorteil: Mit den Prognoseinstrumenten vereinheitlichen sich die Prozesse – alle Beteiligten sprechen vom selben. Ein Beteiligter erinnert an den Fall Kneubühl, bei dem ein Rentner 2010 in Biel einen Polizisten schwer verletzte. Dieser war einigen Behörden als Querulant bekannt, doch es gab damals keinen internen Informationsfluss. «Die linke Hand wusste nicht, was die rechte tat.» So etwas würde dank eines interdisziplinären Netzwerks mit Expertinnen aus Psychologie, Kriminalistik, Forensik und Statistik, das mit dem Bedrohungsmanagement geschaffen wurde, nicht mehr passieren.
Die von den Prognoseinstrumenten ausgespuckten Resultate – also die Risikobewertung eines potenziellen Gewalttäters – werden kantonal in elektronischen Datenbanken gespeichert, sogenannten «Gefährderlisten».
Für die Speicherung als Gefährderin ist weder die tatsächliche Begehung einer Straftat noch ein konkreter Tatverdacht nötig. Es reicht eine ausgesprochene Drohung. 132 Personen waren Ende 2019 im Kanton Solothurn gespeichert. In Luzern waren es diesen Sommer 458, wie die Recherchen der Republik zeigen.
Auch der «Risikoverlauf» wird gespeichert – also wenn jemand umklassifiziert wird, zum Beispiel von A nach C. Ausserdem werden darin weitere schützenswerte Personendaten festgehalten, wie etwa die psychologische Stabilität. Gemäss den Forscherinnen der Universität St. Gallen sind die Hürden für eine Löschung in den Gefährderdatenbanken zu hoch. Für sie ist klar: Ein solches System braucht eine explizite rechtliche Grundlage. Alleine schon die Kategorisierung einer Person in amtlichen Akten stelle einen Eingriff in die Grundrechte dar und tangiere den Schutzbereich nach Artikel 13.1 Absatz 2 der Bundesverfassung.
Doch nicht alle Kantone haben diesbezüglich ihre Hausaufgaben gemacht:
Darauf angesprochen, antwortet der Generalsekretär des Sicherheits- und Justizdepartments in St. Gallen, Hans-Rudolf Arta, ausweichend. Die «Gefährdermassnahmen» würden zum allgemeinen polizeilichen Präventionsauftrag gehören, sagt er: «Sie sollen dazu beitragen, mögliche Gewaltdelikte zu verhindern, bevor es zu spät ist.»
Die fehlende demokratische Legitimation und der rechtliche Graubereich bei Gefährderdatenbanken empfanden die wenigsten Personen als störend, die die St. Galler Wissenschaftler in ihrer Studie befragten. Oft werde auf die polizeiliche Generalklausel in Polizeigesetzen verwiesen. Diese Klausel legitimiert Interventionen der Polizei in «Fällen ernster, unmittelbarer und nicht anders abwendbarer Gefahr».
Doch diese Klausel ist nicht einmal ansatzweise rechtlich haltbar für ein systematisch angewendetes Predictive Policing, halten die Studienautorinnen fest. Auch die Basler Staatsrechtsprofessorin Nadja Braun Binder ist der Ansicht, dass die Generalklausel nur in Ausnahmefällen angerufen werden kann. Sie verweist auf ein Bundesgerichtsurteil, das besagt, dass die Klausel auf «echte und unvorhersehbare sowie gravierende Notfälle» ausgerichtet ist.
Die Autorinnen kritisieren ausserdem in ihrer Studie, dass die Gefährder kaum Möglichkeiten haben, von ihrem Status überhaupt jemals zu erfahren.
«Dass Algorithmen Bürger zu Gefährdern machen, ist bedenklich», sagt Monika Simmler. «Dass dies ohne adäquaten rechtlichen Rahmen geschieht, ist noch bedenklicher.» Sie kritisiert dabei, dass weder die Rechtmässigkeit eines Eintrags überprüft noch dieser zu einem späteren Zeitpunkt gegenüber dem Gefährder transparent gemacht werde. Denn wer nichts von seinem Status weiss, kann sich auch nicht gerichtlich dagegen wehren oder eine Löschung erzwingen, falls keine Gefahr besteht.
Diese Intransparenz bestätigt auch ein Insider gegenüber der Republik. Die Polizei lasse nur gewisse Gefährder spüren, dass sie beobachtet würden: «Eine A-Person spürt unsere Aufmerksamkeit, einen C-Fall hingegen lassen wir an der langen Leine, machen ein Monitoring, und wenn das Verhalten Besorgnis erregt, wird zu B oder A hochgestuft.» Manche Personen, die noch nie straffällig wurden, würden also nie von ihrem Polizeieintrag erfahren.
Weil es sich bei Odara und Co. nur um Hilfswerkzeuge für Polizistinnen handelt, müssen potenzielle Täter auch nicht über ihre algorithmenbasierte Risikoeinschätzung informiert werden. Sie erfahren also nicht, dass eine Maschine sie zum Hochrisikotäter eingestuft hat.
Viele Opferanlaufstellen begrüssen grundsätzlich die enge Zusammenarbeit mit der Polizei und das Regime des Bedrohungsmanagements. Doch auch sie pochen darauf, dass dabei die rechtsstaatlichen Massstäbe beachtet werden. So sagt Corina Elmer von der Frauenberatung sexuelle Gewalt gegenüber der Republik: «Gleichzeitig gilt es, den Datenschutz, die Rechte aller involvierten Personen und die Verhältnismässigkeit der Massnahmen zu beachten. Das ist eine Gratwanderung, der wir in der Praxis immer wieder begegnen und die in jedem Einzelfall sorgfältig abzuwägen ist.»
Manche sagen, die Programme, die in der Schweiz eingesetzt werden, seien weniger nützlich als ursprünglich angenommen. «Das Tool macht nichts, was Analystinnen nicht ohnehin täglich machen», sagt ein Beteiligter. «Es beschleunigt den Prozess einfach.» Doch Predictive Policing wurde nicht etwa entzaubert, weil die Polizei sich der Probleme bewusst geworden wäre. Sondern, weil nicht genügend Daten zur Verfügung stehen.
Das könnte sich bald ändern. Die Kantone beginnen nun, Informationen regional auszutauschen. So hat das Polizeikonkordat Nordwestschweiz beschlossen, eine Vereinbarung für den Datenaustausch aufzubauen. Dies, weil man an die kantonalen Grenzen gekommen sei mit Systemen wie Precobs. Wo diese Grenzen aufgehoben werden, wird es bald mehr Datenfutter geben.
Das fehlende demokratische und rechtsstaatliche Problembewusstsein zeigt sich auch in den Ergebnissen der Forschergruppe der Universität St. Gallen. Eine schweizweite Debatte in den Polizeikorps bleibt bisher aus. Zwar hat der Bundesrat am 25. November Leitlinien für den Einsatz von künstlicher Intelligenz verabschiedet. Doch diese gelten nur für die Bundesverwaltung.
Hologramme, Visualisierungen künftiger Mordfälle und Spezialeinheiten, die kurz vor der Tatzeit eine Verbrecherin dingfest machen, bleiben zwar noch Science-Fiction. Doch der Einsatz algorithmenbasierter Polizeiprogramme wird zunehmen, davon gehen auch die Studienautorinnen aus. Dies nicht zuletzt, weil der gesellschaftliche Ruf nach dem präventiven Staat zunimmt:
Mit dem neuen Antiterrorgesetz wird es beispielsweise möglich, Menschen unter Hausarrest zu stellen, ohne dass sie eine Straftat begangen haben – nur, weil sie als potenzielle Gefährder eingestuft werden. Dies sind neue Möglichkeiten der präventiven Massnahmen, die zur Entwicklung des Schweizer Polizeiwesens in den letzten Jahren passen.
Ich will es genauer wissen: Welche Programme werden eingesetzt?
Precobs ist das einzige raumzeitbezogene Programm, das in der Schweiz zum Einsatz kommt. Mehrere Kantone verwenden zur Risikoanalyse zudem eines oder mehrere personenbezogenen Tools: Dyrias, Ra-Prof oder Octagon.
Abgesehen von Precobs verwenden alle Prognosetools regelbasierte «Wenn-dann-Algorithmen», manche sind auch nur digitalisierte Checklisten oder Fragebögen. Die meisten Tools sind nicht im eigentlichen Sinn «smart».