Das Aufsichtsgremium von Meta Platforms prüft den Umgang des Unternehmens mit zwei sexuell expliziten KI-generierten Bildern von weiblichen Prominenten, die auf seinen Facebook- und Instagram-Diensten kursierten, wie das Gremium am Dienstag mitteilte.

Das Gremium, das von dem Social-Media-Riesen finanziert wird, aber unabhängig von ihm arbeitet, wird die beiden Beispiele nutzen, um die allgemeine Effektivität von Metas Richtlinien und Durchsetzungspraktiken in Bezug auf pornografische Fälschungen, die mit künstlicher Intelligenz erstellt wurden, zu bewerten, so das Gremium in einem Blogbeitrag.

Es wurden zwar Beschreibungen der fraglichen Bilder zur Verfügung gestellt, aber die Namen der darauf abgebildeten berühmten Frauen wurden nicht genannt, um "weiteren Schaden zu verhindern", so ein Sprecher der Behörde.

Fortschritte in der KI-Technologie haben dazu geführt, dass gefälschte Bilder, Audioclips und Videos praktisch nicht mehr von echten, von Menschen erstellten Inhalten zu unterscheiden sind. Dies hat zu einer Flut von sexuellen Fälschungen im Internet geführt, die meist Frauen und Mädchen zeigen.

In einem besonders aufsehenerregenden Fall Anfang des Jahres hat die von Elon Musk betriebene Social-Media-Plattform X kurzzeitig die Suche nach allen Bildern des US-Popstars Taylor Swift gesperrt, nachdem sie Probleme hatte, die Verbreitung gefälschter expliziter Bilder von ihr zu kontrollieren.

Einige Führungskräfte der Branche haben eine Gesetzgebung gefordert, die die Erstellung schädlicher "Deep Fakes" unter Strafe stellt und von den Technologieunternehmen verlangt, eine solche Nutzung ihrer Produkte zu verhindern.

Laut den Beschreibungen der Fälle durch das Oversight Board geht es in einem Fall um ein von der KI generiertes Bild einer nackten Frau, die einer indischen Persönlichkeit des öffentlichen Lebens ähnelt und von einem Konto auf Instagram gepostet wurde, das nur von der KI generierte Bilder indischer Frauen teilt.

Das andere Bild, so das Board, erschien in einer Facebook-Gruppe für den Austausch von KI-Kreationen und zeigte eine KI-generierte Darstellung einer nackten Frau, die "einer amerikanischen Persönlichkeit des öffentlichen Lebens" ähnelt, mit einem Mann, der ihre Brust betatscht.

Meta entfernte das Bild mit der amerikanischen Frau, weil es gegen seine Mobbing- und Belästigungsrichtlinien verstieß, die "herabwürdigende sexualisierte Photoshops oder Zeichnungen" verbieten. Das Bild mit der indischen Frau ließ Meta zunächst aufrecht und änderte seinen Kurs erst, nachdem die Behörde es zur Überprüfung ausgewählt hatte.

In einem separaten Posting räumte Meta die Fälle ein und verpflichtete sich, die Entscheidungen des Vorstands umzusetzen. (Berichterstattung durch Katie Paul; Bearbeitung durch Stephen Coates)