In einem Interview in dieser Woche sagte der Leiter des kanadischen Zentrums für Cybersicherheit, Sami Khoury, dass seine Behörde beobachtet habe, dass KI "bei Phishing-E-Mails oder bei der gezielteren Gestaltung von E-Mails, bei bösartigem Code (und) bei Fehlinformationen und Desinformationen" eingesetzt werde.

Khoury nannte keine Details oder Beweise, aber seine Behauptung, dass Cyberkriminelle bereits KI einsetzen, fügt dem Chor der Besorgnis über die Nutzung der aufkommenden Technologie durch böswillige Akteure eine dringende Note hinzu.

In den letzten Monaten haben mehrere Cyber-Watchdog-Gruppen Berichte veröffentlicht, in denen sie vor den hypothetischen Risiken der KI gewarnt haben - insbesondere vor den schnell voranschreitenden Sprachverarbeitungsprogrammen, den so genannten Large Language Models (LLMs), die auf riesige Textmengen zurückgreifen, um überzeugend klingende Dialoge, Dokumente und mehr zu erstellen.

Im März veröffentlichte die europäische Polizeiorganisation Europol einen Bericht, in dem es hieß, dass Modelle wie ChatGPT von OpenAI es ermöglicht hätten, "sich in höchst realistischer Weise als eine Organisation oder eine Person auszugeben, selbst wenn man nur grundlegende Kenntnisse der englischen Sprache besitzt". Im selben Monat erklärte das britische National Cyber Security Centre in einem Blog-Beitrag, dass die Gefahr bestehe, dass Kriminelle "LLMs nutzen könnten, um bei Cyberangriffen über ihre derzeitigen Fähigkeiten hinaus zu helfen."

Cybersecurity-Forscher haben eine Reihe von potenziell bösartigen Anwendungsfällen aufgezeigt und einige sagen nun, dass sie beginnen, mutmaßlich von KI generierte Inhalte in freier Wildbahn zu sehen. Letzte Woche berichtete ein ehemaliger Hacker, er habe ein LLM entdeckt, das auf bösartiges Material trainiert war, und bat es, einen überzeugenden Versuch zu entwerfen, jemanden zu einer Geldüberweisung zu verleiten.

Der LLM antwortete mit einer E-Mail mit drei Absätzen, in der er sein Ziel um Hilfe bei einer dringenden Rechnung bat.

"Ich verstehe, dass dies vielleicht etwas kurzfristig ist", sagte der LLM, "aber diese Zahlung ist unglaublich wichtig und muss innerhalb der nächsten 24 Stunden erfolgen."

Khoury sagte, dass der Einsatz von KI zur Erstellung von bösartigem Code zwar noch in den Kinderschuhen stecke - "es ist noch ein weiter Weg, denn es braucht viel, um einen guten Exploit zu schreiben" -, aber die Sorge sei, dass sich KI-Modelle so schnell weiterentwickeln, dass es schwierig sei, ihr bösartiges Potenzial in den Griff zu bekommen, bevor sie in die freie Wildbahn entlassen werden.

"Wer weiß, was noch alles auf uns zukommt", sagte er.