Nicht nur ihr: Auch Cyberkriminelle nutzen ChatGPT, um sich das Leben leichter zu machen

ChatGPT wird auch von Cyberkriminellen genutzt. - Copyright: Getty Images/ Petri Oeschger
ChatGPT wird auch von Cyberkriminellen genutzt. - Copyright: Getty Images/ Petri Oeschger

Ob es sich um das Schreiben von Aufsätzen oder die Analyse von Daten handelt: ChatGPT kann die Arbeit einer Person erleichtern. Das gilt auch für die Arbeit Cyber-Krimineller. Sergey Shykevich, ein leitender ChatGPT-Forscher beim Cybersicherheitsunternehmen Checkpoint Security, hat bereits beobachtet, wie Cyberkriminelle die Leistung der KI nutzen, um Code zu erstellen, der für einen Ransomware-Angriff verwendet werden kann.

Shykevichs Team begann im Dezember 2021 mit der Untersuchung des Potenzials der KI für Cyberkriminalität. Mithilfe des umfangreichen Sprachmodells der KI erstellten sie Phishing-E-Mails und schädlichen Code. Als klar wurde, dass ChatGPT für illegale Zwecke genutzt werden könnte, sagte Shykevich zu Business Insider, wollte das Team herausfinden, ob ihre Erkenntnisse "theoretisch" waren oder ob sie "die bösen Jungs in freier Wildbahn" finden konnten.

Chatbots wie ChatGPT erobern die Art, wie wir uns Wissen aneignen.
Chatbots wie ChatGPT erobern die Art, wie wir uns Wissen aneignen.

ChatGPT wird auch von Cyberkriminellen genutzt

Da es schwer zu sagen ist, ob eine schädliche E-Mail, die im Posteingang einer Person landet, mit ChatGPT geschrieben wurde, wandte sich sein Team an das Dark Web, um zu sehen, wie die Anwendung genutzt wird.

Am 21. Dezember fanden sie ihr erstes Beweisstück: Cyberkriminelle nutzten den Chatbot, um ein Python-Skript zu erstellen, das für einen Malware-Angriff verwendet werden kann. Der Code wies einige Fehler auf, sagte Shykevich, aber der Großteil war korrekt. "Interessant ist, dass diese Leute, die ihn gepostet haben, noch nie etwas entwickelt haben", sagte er.

Shykevich sagte, dass ChatGPT und Codex, ein OpenAI-Service, der Code für Entwickler schreiben kann, "es weniger erfahrenen Leuten ermöglichen wird, angebliche Programmierer zu sein." Der Missbrauch von ChatGPT beunruhigt Cybersicherheitsexperten, die das Potenzial von Chatbots für Phishing-, Malware- und Hackerangriffe sehen.

Eine Möglichkeit für unkomplizierte Phishing-Angriffe

Justin Fier, Direktor für Cyber Intelligence & Analytics bei Darktrace, einem Unternehmen für Cybersicherheit, sagte zu Business Insider, dass die Einstiegshürde für Phishing-Angriffe bereits niedrig sei. ChatGPT könnte es für Menschen noch unkomplizierter machen, effizient Dutzende von gezielten Betrugs-E-Mails zu erstellen – solange sie gute Eingabeaufforderungen erstellen.

"Beim Phishing dreht sich alles um das Volumen – stellen Sie sich 10.000 E-Mails vor, die sehr gezielt sind. Anstelle von 100 positiven Klicks habe ich jetzt drei oder 4.000", sagte Fier. Er bezog sich dabei auf eine hypothetische Anzahl von Personen, die auf eine Phishing-E-Mail klicken könnten, mit der Benutzer dazu gebracht werden sollen, persönliche Daten wie Bankpasswörter preiszugeben. "Das ist eine große Zahl, und es geht nur um dieses Ziel".

Carlos Link-Arad
Carlos Link-Arad

Ein "Science-Fiction-Film"

Anfang Februar veröffentlichte das Cybersicherheitsunternehmen Blackberry eine Umfrage unter 1.500 IT-Experten, von denen 74 Prozent angaben, sie seien besorgt darüber, dass ChatGPT zur Cyberkriminalität beiträgt. Die Umfrage ergab auch, dass 71 Prozent glaubten, dass ChatGPT bereits von Nationalstaaten genutzt werden könnte, um andere Länder durch Hacking- und Phishing-Versuche anzugreifen.

"Es ist gut dokumentiert, dass Menschen mit böswilligen Absichten das Thema erproben, aber im Laufe dieses Jahres erwarten wir, dass Hacker viel besser in den Griff bekommen, wie sie ChatGPT erfolgreich für schändliche Zwecke nutzen können", schrieb Shishir Singh, Chief Technology Officer of Cybersecurity bei BlackBerry, in einer Pressemitteilung.

Singh sagte zu Business Insider, dass diese Befürchtungen auf die rasanten Fortschritte der KI im letzten Jahr zurückzuführen sind. Experten sagten, dass die Fortschritte bei großen Sprachmodellen, die nun besser in der Lage sind, menschliche Sprache zu imitieren, schneller als erwartet vorangeschritten sind. Singh beschrieb die rasanten Innovationen als etwas aus einem "Science-Fiction-Film". Er sagt: "Was wir in den letzten 9 bis 10 Monaten gesehen haben, haben wir nur in Hollywood gesehen".

Die Nutzung von Cyberkriminalität könnte eine Verantwortung für Open AI darstellen

Da Cyberkriminelle zunehmend Dinge wie ChatGPT zu ihrem Werkzeugkasten hinzufügen, fragen sich Experten wie der ehemalige Bundesstaatsanwalt Edward McAndrew, ob Unternehmen eine gewisse Verantwortung für diese Verbrechen tragen würden.

McAndrew, der mit dem Justizministerium bei der Untersuchung von Cyberkriminalität zusammengearbeitet hat, wies beispielsweise darauf hin, dass Unternehmen, die ChatGPT oder einen Chatbot wie diesen einsetzen, haftbar gemacht werden könnten, wenn sie jemanden zur Begehung eines Cyberverbrechens verleiten.

Beim Umgang mit ungesetzlichen oder kriminellen Inhalten auf ihren Websites von Drittnutzern berufen sich die meisten Tech-Unternehmen in den USA auf Abschnitt 230 des Communications Decency Act von 1996. Das Gesetz besagt, dass Anbieter von Websites, die es Menschen ermöglichen, Inhalte zu veröffentlichen – wie Facebook oder Twitter – nicht für Äußerungen auf ihren Plattformen verantwortlich sind.

Da die Sprache jedoch vom Chatbot selbst stammt, sagte McAndrew, dass das Gesetz OpenAI möglicherweise nicht vor Zivilklagen oder Strafverfolgung schützt – obwohl Open-Source-Versionen es schwieriger machen könnten, Cyber-Verbrechen mit OpenAI in Verbindung zu bringen.

Der Umfang des Rechtsschutzes für Technologieunternehmen gemäß Abschnitt 230 wird diese Woche auch von der Familie einer Frau, die 2015 von ISIS-Terroristen getötet wurde, vor dem Obersten Gerichtshof angefochten. Die Familie argumentiert, dass Google für seinen Algorithmus, der extremistische Videos fördert, haftbar gemacht werden sollte.

McAndrew sagte auch, dass ChatGPT eine "Fundgrube an Informationen" für diejenigen bieten könnte, die mit der Sammlung von Beweisen für solche Verbrechen beauftragt sind, wenn sie in der Lage wären, Unternehmen wie OpenAI vorzuladen.

"Das sind wirklich interessante Fragen, die noch Jahre auf sich warten lassen", sagte McAndrew, "aber wie wir sehen, ist es seit den Anfängen des Internets so, dass Kriminelle zu den frühesten Anwendern gehören. Und das sehen wir jetzt wieder bei vielen KI-Tools". Angesichts dieser Fragen sieht McAndrew eine politische Debatte darüber, wie die USA und die Welt im Allgemeinen die Parameter für KI und Technologieunternehmen festlegen werden.

In der Blackberry-Umfrage sprachen sich 95 Prozent der IT-Befragten dafür aus, dass die Regierungen für die Schaffung und Umsetzung von Vorschriften zuständig sein sollten.
McAndrew sagte, dass die Aufgabe der Regulierung eine Herausforderung sein kann, da es keine Behörde oder Regierungsebene gibt, die ausschließlich mit der Erstellung von Mandaten für die KI-Branche betraut ist und dass das Problem der KI-Technologie über die Grenzen der USA hinausgeht.

"Wir brauchen internationale Koalitionen und internationale Normen für das Verhalten im Cyberspace, und ich denke, dass es Jahrzehnte dauern wird, bis wir sie entwickeln können, wenn wir überhaupt in der Lage sind, sie zu entwickeln."

Die Technologie ist immer noch nicht perfekt für Cyberkriminelle

Eine Tatsache, die Cyberkriminalität erschwert? ChatGPT ist dafür bekannt, fehlerhaft zu sein. Das könnte ein Problem für einen Cyberkriminellen darstellen, der versucht, eine E-Mail zu verfassen, die eine andere Person imitieren soll, so Experten zu Business Insider. In dem Code, den Shykevich und seine Kollegen im Dark Web entdeckten, mussten die Fehler korrigiert werden, bevor er für einen Betrug verwendet werden konnte.

Darüber hinaus implementiert ChatGPT weiterhin Leitplanken, um illegale Aktivitäten zu verhindern, wenngleich diese Leitplanken oft mit dem richtigen Skript umgangen werden können. Shykevich wies darauf hin, dass sich einige Cyberkriminelle nun an ChatGPTs API-Modelle heranmachen, Open-Source-Versionen der Anwendung, die nicht dieselben inhaltlichen Beschränkungen aufweisen wie die Web-Benutzeroberfläche.

Shykevich sagte auch, dass ChatGPT zum jetzigen Zeitpunkt nicht dazu beitragen kann, ausgefeilte Malware oder gefälschte Websites zu erstellen, die zum Beispiel als Website einer bekannten Bank erscheinen. Dies könnte jedoch eines Tages Realität werden, da das von Tech-Giganten geschaffene KI-Wettrüsten die Entwicklung besserer Chatbots beschleunigen kann, so Shykevich zu Business Insider.

"Ich mache mir mehr Sorgen um die Zukunft und es scheint, dass die Zukunft nicht in vier bis fünf Jahren liegt, sondern eher in ein oder zwei Jahren", sagte Shykevich.

Open AI hat auf die Anfrage von Insider nach einem Kommentar nicht sofort reagiert.

Dieser Text wurde aus dem Englischen von Lisa Dittrich übersetzt. Das Original findet ihr hier.