Das NCMEC sagte gegenüber Reuters, die Zahl spiegele ein aufkeimendes Problem wider, das mit dem Fortschreiten der KI-Technologie voraussichtlich zunehmen wird.

In den letzten Monaten haben Kinderschutzexperten und Forscher Alarm geschlagen, weil die generative KI-Technologie, die Texte und Bilder als Reaktion auf Aufforderungen erstellen kann, die Ausbeutung von Kindern im Internet verschlimmern könnte.

Das NCMEC hat die Gesamtzahl der Berichte über Kindesmissbrauch aus allen Quellen, die es im Jahr 2023 erhalten hat, noch nicht veröffentlicht, aber im Jahr 2022 erhielt es Berichte über etwa 88,3 Millionen Dateien.

"Wir erhalten Berichte von den generativen KI-Unternehmen selbst, (Online-)Plattformen und Mitgliedern der Öffentlichkeit. Es passiert wirklich", sagte John Shehan, Senior Vice President beim NCMEC, das als nationale Clearingstelle für die Meldung von Kindesmissbrauchsinhalten an die Strafverfolgungsbehörden dient.

Die Geschäftsführer von Meta Platforms, X, TikTok, Snap und Discord sagten am Mittwoch in einer Anhörung des Senats über die Sicherheit von Kindern im Internet aus. Die Gesetzgeber befragten die Social Media- und Messaging-Unternehmen über ihre Bemühungen, Kinder vor Online-Raubtieren zu schützen.

Forscher des Stanford Internet Observatory haben im Juni in einem Bericht festgestellt, dass generative KI von Missbrauchstätern genutzt werden könnte, um realen Kindern wiederholt Schaden zuzufügen, indem sie neue Bilder erstellen, die dem Bild eines Kindes entsprechen.

Inhalte, die als KI-generiert gekennzeichnet sind, werden "immer fotorealistischer", was es schwierig macht, festzustellen, ob es sich bei dem Opfer um eine reale Person handelt, sagte Fallon McNulty, Direktorin der CyberTipline des NCMEC, die Berichte über die Ausbeutung von Kindern im Internet entgegennimmt.

OpenAI, der Schöpfer des beliebten ChatGPT, hat einen Prozess eingerichtet, um Berichte an NCMEC zu senden, und die Organisation ist in Gesprächen mit anderen generativen KI-Unternehmen, sagte McNulty.