Generative künstliche Intelligenz ist in diesem Jahr zu einem Modewort geworden. Apps wie ChatGPT haben die Öffentlichkeit begeistert und einen Ansturm von Unternehmen ausgelöst, die ähnliche Produkte auf den Markt bringen wollen, von denen sie glauben, dass sie die Art der Arbeit verändern werden.

Millionen von Nutzern haben mit dem Testen solcher Tools begonnen, die laut Befürwortern medizinische Diagnosen stellen, Drehbücher schreiben, juristische Schriftsätze verfassen und Software debuggen können. Dies hat zu wachsender Besorgnis darüber geführt, dass die Technologie zu Verletzungen der Privatsphäre führen, Beschäftigungsentscheidungen verzerren und Betrugs- und Fehlinformationskampagnen unterstützen könnte.

"Wir wollen eine offene Diskussion über die Risiken führen, die wir in der aktuellen und in naher Zukunft zu erwartenden KI-Entwicklung sehen", sagte ein hochrangiger Beamter der Regierung, der wegen der Sensibilität des Themas anonym bleiben wollte. "Unser Leitgedanke ist, dass wir, wenn wir die Vorteile nutzen wollen, zunächst die Risiken in den Griff bekommen müssen.

An dem Treffen am Donnerstag nehmen Sundar Pichai von Google, Satya Nadella von Microsoft, Sam Altman von OpenAI und Dario Amodei von Anthropic sowie Vizepräsidentin Kamala Harris und Regierungsvertreter teil, darunter Bidens Stabschef Jeff Zients, der nationale Sicherheitsberater Jake Sullivan, die Direktorin des nationalen Wirtschaftsrats Lael Brainard und Handelsministerin Gina Raimondo.

Im Vorfeld des Treffens kündigte die Regierung eine Investition der National Science Foundation in Höhe von 140 Millionen Dollar an, um sieben neue KI-Forschungsinstitute zu gründen, und erklärte, dass das Office of Management and Budget des Weißen Hauses politische Leitlinien für den Einsatz von KI durch die Bundesregierung herausgeben werde. Führende KI-Entwickler, darunter Anthropic, Google, Hugging Face, NVIDIA, OpenAI und Stability AI, werden im AI Village auf der DEFCON 31 - einer der größten Hacker-Conventions der Welt - an einer öffentlichen Bewertung ihrer KI-Systeme teilnehmen und auf einer von Scale AI und Microsoft entwickelten Plattform laufen.

Kurz nachdem Biden seine Wiederwahl angekündigt hatte, produzierte das Republican National Committee ein Video, das eine dystopische Zukunft während einer zweiten Amtszeit Bidens zeigt, die vollständig mit KI-Bildern erstellt wurde.

Es ist zu erwarten, dass solche politischen Werbespots mit der zunehmenden Verbreitung von KI-Technologien immer häufiger zu sehen sein werden.

Die Regulierungsbehörden in den Vereinigten Staaten sind nicht so streng wie die europäischen Regierungen bei der Regulierung der Technologie und bei der Ausarbeitung strenger Regeln für Fälschungen und Fehlinformationen, die Unternehmen befolgen müssen, wenn sie nicht hohe Geldstrafen riskieren wollen.

"Wir sehen dies nicht als Wettlauf", sagte der Regierungsbeamte und fügte hinzu, dass die Regierung in dieser Frage eng mit dem US-EU Trade & Technology Council zusammenarbeitet.

Im Februar unterzeichnete Biden eine Verfügung, die Bundesbehörden anweist, Vorurteile beim Einsatz von KI zu beseitigen. Die Biden-Administration hat auch eine KI-Rechtserklärung und einen Rahmen für das Risikomanagement veröffentlicht.

Letzte Woche erklärten auch die Federal Trade Commission und die Abteilung für Bürgerrechte des Justizministeriums, dass sie ihre rechtlichen Befugnisse nutzen werden, um KI-bedingten Schaden zu bekämpfen.

Die Tech-Giganten haben mehrfach versprochen, Propaganda im Zusammenhang mit Wahlen, Fake News über die COVID-19-Impfstoffe, rassistische und sexistische Nachrichten, Pornografie und die Ausbeutung von Kindern sowie Hassbotschaften, die sich gegen ethnische Gruppen richten, zu bekämpfen.

Aber sie waren nicht erfolgreich, wie Untersuchungen und Nachrichtenereignisse zeigen. Nur etwa jeder fünfte englischsprachige Fake-News-Artikel auf sechs großen Social-Media-Plattformen wurde als irreführend gekennzeichnet oder entfernt, so eine aktuelle Studie der Aktivisten-NGO Avaaz, und Artikel in anderen europäischen Sprachen wurden nicht gekennzeichnet.