Meta gab am Mittwoch bekannt, dass es auf seinen Plattformen Facebook und Instagram "wahrscheinlich KI-generierte" Inhalte gefunden hat, die in irrefuhrender Weise verwendet wurden. Dazu gehorten Kommentare, die Israels Umgang mit dem Gaza-Krieg lobten und unter Beitragen von globalen Nachrichtenorganisationen und US-Gesetzgebern veroffentlicht wurden.

In einem vierteljahrlichen Sicherheitsbericht erklarte das Social-Media-Unternehmen, dass sich die Konten als judische Studenten, Afroamerikaner und andere besorgte Burger ausgaben und auf Zielgruppen in den Vereinigten Staaten und Kanada abzielten. Die Kampagne wurde der in Tel Aviv ansassigen politischen Marketingfirma STOIC zugeschrieben.

STOIC hat nicht sofort auf eine Anfrage nach einem Kommentar zu den Anschuldigungen reagiert.

WARUM ES WICHTIG IST

Wahrend Meta seit 2019 einfache Profilfotos gefunden hat, die von kunstlicher Intelligenz bei Beeinflussungsoperationen generiert wurden, ist der Bericht der erste, der den Einsatz ausgefeilterer generativer KI-Technologien seit ihrem Aufkommen Ende 2022 offenlegt.

Forscher haben befurchtet, dass generative KI, die schnell und kostengunstig menschenahnliche Texte, Bilder und Audios erzeugen kann, zu effektiveren Desinformationskampagnen fuhren und Wahlen beeinflussen konnte.

In einem Pressegesprach sagten Fuhrungskrafte von Meta Security, dass sie nicht glauben, dass neuartige KI-Technologien ihre Fahigkeit beeintrachtigt haben, Einflussnetzwerke zu storen, d. h. koordinierte Versuche, Botschaften zu verbreiten.

Die Fuhrungskrafte sagten, sie hatten noch keine KI-generierten Bilder von Politikern gesehen, die realistisch genug gewesen waren, um mit authentischen Fotos verwechselt zu werden.

SCHLUSSELZITAT

"Es gibt mehrere Beispiele in diesen Netzwerken, wie sie wahrscheinlich generative KI-Tools zur Erstellung von Inhalten verwenden. Vielleicht konnen sie damit schneller oder in grosserem Umfang arbeiten. Aber es hat sich nicht wirklich auf unsere Fahigkeit ausgewirkt, sie aufzuspuren", sagte Mike Dvilyanski, Leiter der Abteilung fur Bedrohungsanalysen bei Meta.

NACH DEN ZAHLEN

Der Bericht hebt sechs verdeckte Einflussnahmeoperationen hervor, die Meta im ersten Quartal gestort hat.

Neben dem STOIC-Netzwerk schaltete Meta auch ein im Iran ansassiges Netzwerk aus, das sich auf den Konflikt zwischen Israel und Hamas konzentrierte, obwohl bei dieser Kampagne keine generative KI eingesetzt wurde.

KONTEXT

Meta und andere Tech-Giganten haben sich mit der Frage auseinandergesetzt, wie sie mit dem potenziellen Missbrauch neuer KI-Technologien umgehen sollen, insbesondere bei Wahlen.

Forscher haben Beispiele von Bildgeneratoren von Unternehmen wie OpenAI und Microsoft gefunden, die Fotos mit wahlbezogenen Desinformationen produziert haben, obwohl diese Unternehmen Richtlinien gegen solche Inhalte haben.

Die Unternehmen haben auf digitale Kennzeichnungssysteme gesetzt, um KI-generierte Inhalte zum Zeitpunkt ihrer Erstellung zu markieren, obwohl die Tools bei Text nicht funktionieren und Forscher Zweifel an ihrer Wirksamkeit haben.

WAS KOMMT ALS NACHSTES?

Meta steht mit den Wahlen in der Europaischen Union Anfang Juni und in den Vereinigten Staaten im November vor wichtigen Bewahrungsproben fur seine Verteidigung.