Ein Hacker verschaffte sich im vergangenen Jahr Zugang zu den internen Nachrichtensystemen von OpenAI und stahl Details über das Design der Technologien für künstliche Intelligenz des Unternehmens, berichtete die New York Times am Donnerstag.

Der Hacker stahl Details aus Diskussionen in einem Online-Forum, in dem Mitarbeiter über die neuesten Technologien von OpenAI sprachen, so der Bericht unter Berufung auf zwei mit dem Vorfall vertraute Personen.

Sie seien jedoch nicht in die Systeme eingedrungen, in denen OpenAI, das Unternehmen hinter der Chatbot-Sensation ChatGPT, seine KI unterbringt und entwickelt, so der Bericht weiter.

OpenAI, das von der Microsoft Corp. unterstützt wird, reagierte nicht sofort auf eine Anfrage von Reuters nach einem Kommentar.

Dem Bericht zufolge informierten die Führungskräfte von OpenAI sowohl die Mitarbeiter bei einem All-Hands-Meeting im April letzten Jahres als auch den Vorstand des Unternehmens über den Einbruch. Die Führungskräfte beschlossen jedoch, die Nachricht nicht öffentlich zu machen, da keine Informationen über Kunden oder Partner gestohlen worden waren.

Die Führungskräfte von OpenAI betrachteten den Vorfall nicht als Bedrohung der nationalen Sicherheit, da sie glaubten, dass es sich bei dem Hacker um eine Privatperson handelte, von der keine Verbindungen zu einer ausländischen Regierung bekannt waren, heißt es in dem Bericht. Das in San Francisco ansässige Unternehmen hat die Strafverfolgungsbehörden nicht über den Einbruch informiert, heißt es weiter.

OpenAI sagte im Mai, dass es fünf verdeckte Beeinflussungsoperationen unterbrochen habe, die versuchten, seine KI-Modelle für "betrügerische Aktivitäten" im Internet zu nutzen. Dies war der letzte Vorfall, der Sicherheitsbedenken über den möglichen Missbrauch der Technologie aufkommen ließ.

Die Regierung Biden war bereit, eine neue Front in ihrem Bemühen zu eröffnen, die KI-Technologie der USA vor China und Russland zu schützen, indem sie vorläufige Pläne vorlegte, Leitplanken um die fortschrittlichsten KI-Modelle einschließlich ChatGPT zu legen, wie Reuters zuvor unter Berufung auf Quellen berichtete.

Im Mai verpflichteten sich 16 Unternehmen, die KI entwickeln, auf einem globalen Treffen, die Technologie sicher zu entwickeln, und das in einer Zeit, in der sich die Regulierungsbehörden bemühen, mit der schnellen Innovation und den aufkommenden Risiken Schritt zu halten.