Verbrechensbekämpfung der Zukunft: Nutzen und Gefahren von KI

Ann-Catherin Karg
Freie Journalistin

Klassische Lügendetektoren sind hinsichtlich ihrer Genauigkeit höchst umstritten. Und doch kommen sie nicht nur bis heute zum Einsatz, sondern haben auch schon einen an die digitalisierte Welt angepassten Nachfahren. Daneben gibt es weitere Möglichkeiten, Künstliche Intelligenz im Kampf gegen das Verbrechen einzusetzen.

Statt Lügendetektoren sollen intelligente Augen-Scans Aufschluss darüber geben, ob ein Verdächtiger lügt (Bild: Getty Images)

Dem Prinzip eines Lügendetektors oder Polygraphen liegt die Annahme zugrunde, dass Lügen bei Menschen körperliche Reaktionen wie einen veränderten Blutdruck, Atmung oder Puls hervorrufen. 1921 erfunden kommen die Geräte, von denen man weiß, dass sie beziehungsweise der Mensch, der den Test durchführt, durchaus überlistet werden können, bis heute vor allem in den USA zum Einsatz. Das Magazin “Wired“ geht von 2,5 Millionen Tests pro Jahr aus. Und das, obwohl offizielle Stellen wie die National Academy of Science seit Jahren darauf hinweisen, dass die Studienlage keineswegs den Schluss zulässt, die Ergebnisse dieser Tests wären zuverlässig.

Studie: Zehn Prozent der Industrieunternehmen in Deutschland setzten KI ein

Auch verdächtige Augenbewegungen sollen Lügner verraten

Ungeachtet dessen wird das Prinzip nicht etwa verworfen. Im Gegenteil sind verschiedene Firmen bemüht, es lediglich an die digitalisierte Welt von heute anzupassen. Die “FAZ“ berichtet zum Beispiel von der US-Firma Converus, die ein automatisches System entwickelt hat, mit dem Lügner anhand ihrer Augen entlarvt werden sollen. An einem Computerbildschirm sitzend muss die betreffende Person konkrete Aussagen als wahr oder unwahr benennen, wobei ihre Augenbewegungen und die Größe der Pupillen mittels Infrarotkameras aufgezeichnet werden. Anschließend berechnet ein Algorithmus einen Glaubwürdigkeitswert zwischen 0 und 100. Liegt er unter 50, hat die Person bei der entsprechenden Frage gelogen. Laut Converus liegt die Trefferquote zwischen 85 und 90 Prozent. Nicht schlecht, aber andererseits auch ziemlich verhängnisvoll für jene zehn bis 15 Menschen, die zu Unrecht einer Lüge bezichtigt werden. Die “FAZ“ schreibt, das System komme in 42 Ländern bei etwa 500 Anwendern zum Einsatz, darunter staatliche Behörden, Staatsanwaltsbüros und Gefängnisse.

In manchen Ländern Asiens sind Gesichtsscans bereits üblich (Bild: Getty Images)

Wer lügt, wird an der Grenze stärker kontrolliert

Einsatzmöglichkeiten für solche Lügendetektoren gibt es viele. Erst vor ein paar Monaten wurde eine Testphase des Projekts iBorderCtrl beendet. Wer als Nicht-EU-Bürger nach Ungarn, Griechenland oder Lettland reisen wollte, musste bei der Onlineregistrierung im Vorfeld vor einer Webcam oder der Kamera des Smartphones erklären, weshalb er die Reise unternehmen will. Anhand von 40 Mikro-Gesten wie Kopf- oder Augenbewegungen errechnet auch hier ein Algorithmus einen Risikowert, der darüber entscheidet, ob die Person die Grenze einfach passieren darf oder von den Beamten herausgeholt und extra befragt wird. Laut dem Unternehmen Silent Talker, das den Algorithmus zur Verfügung gestellt hat, liegt die Trefferquote bei 80 Prozent. 20 Prozent der Reisenden werden also fälschlicherweise als potenzielle Lügner gekennzeichnet. Kritiker bemängeln außerdem, dass eine Lüge auf die Frage des Reisegrunds noch lange nicht bedeuten muss, dass jemand eine Gefahr darstellt. Der Grund für die Lüge könnte auch einfach privater Natur sein, eine geheime Liebelei zum Beispiel. Zudem besteht immer auch die Gefahr, dass ein Algorithmus nicht so neutral ist, wie man meinen könnte. Wurde er zum Beispiel vor allem mit Daten gefüttert, die die Gesichter weißer Menschen zeigen, könnte die Fehlerquote bei Angehörigen ethnischer Minderheiten deutlich höher sein.

Videotechnik: Mehr Videoüberwachung und Gesichtserkennung an Bahnhöfen

KI hilft auch im Kampf gegen Kinder-Pornografie

In Nordrhein-Westfalen läuft in Zusammenarbeit mit Microsoft ein Pilotprojekt, in dem Künstliche Intelligenz die Daten von Verdächtigen auf deren Laptops und PCs durchsucht. Die KI sucht gezielt nach kinderpornografischem Material und ist dabei um ein Vielfaches schneller als Menschen. “Die Ermittler schaffen es nicht, der riesigen Datenmenge Herr zu werden“, sagte der Landesjustizminister Peter Biesenbach gegenüber der dpa. Und weiter: “Ein Ermittler bräuchte etwa 2.000 Jahre, um diese Daten zu sichten.“

In Mannheim sucht eine Software nach auffälligen Bewegungen

Wie man mit KI Verbrechen schneller erkennen kann wird derzeit auch in Mannheim getestet. In einer fünfjährigen Pilotphase überwacht die Polizei zentrale Plätze und Straßen mit Videokameras, deren Aufnahmen von einer eigens entwickelten Software des Karlsruher Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung ausgewertet werden. Bei jeder Person, die sich zum Beispiel auf dem Paradeplatz aufhält, hinterlegt die Software ein elektronisches Skelett. Werden Arme oder Beine unnatürlich oder auffällig bewegt, wie es etwa bei einem körperlichen Angriff oder Sturz der Fall wäre, schlägt das System Alarm. Anschließend entscheiden die Polizisten vor Ort, ob sie jemanden dorthin schicken oder nicht. Die Polizei betont, dass dort keine Gesichtserkennung eingesetzt wird.

Service Help Center: Lufthansa will mit KI Kundenservice verbessern

In China soll Gesichtserkennung Verbrechen verhindern

Anders ist das bei dem chinesischen Gesichtserkennungs-Unternehmen Cloud Walk. Laut “Business Insider“ entwickelt die Firma eine KI, die Verbrechen schon im Voraus verhindern will. Wird eine Person beispielsweise zuerst in einem Waffengeschäft gesehen und kauft später eine Schaufel, sendet die Software einen Alarm an die Polizei. Die totale Überwachung der Bevölkerung, wie sie in China schon jetzt stattfindet, ist hierzulande aber zum Glück noch ein Schreckgespenst.

VIDEO: Wer ist der Nächste? Erste Bar nutzt Gesichtserkennungs-Software gegen Drängler