ChatGPT hat bereits zwei Monate nach dem Start schätzungsweise 100 Millionen monatlich aktive Nutzer erreicht. Damit ist es die am schnellsten wachsende Verbraucheranwendung in der Geschichte und ein wachsendes Ziel für die Regulierung.

Sie wurde von OpenAI, einem privaten Unternehmen, das von der Microsoft Corp. unterstützt wird, entwickelt und der Öffentlichkeit kostenlos zur Verfügung gestellt. Ihre Allgegenwärtigkeit hat die Befürchtung geweckt, dass generative KI wie ChatGPT zur Verbreitung von Desinformationen genutzt werden könnte, während Pädagogen befürchten, dass sie von Schülern zum Schummeln verwendet wird.

Der Abgeordnete Ted Lieu, ein Demokrat im Wissenschaftsausschuss des Repräsentantenhauses, sagte kürzlich in einem Meinungsbeitrag in der New York Times, er sei begeistert von der KI und den "unglaublichen Möglichkeiten, wie sie die Gesellschaft weiter voranbringen wird", aber auch "erschrocken über KI, insbesondere KI, die unkontrolliert und unreguliert bleibt".

Lieu brachte eine von ChatGPT verfasste Resolution ein, in der es heißt, der Kongress solle sich auf KI konzentrieren, "um sicherzustellen, dass die Entwicklung und der Einsatz von KI auf eine Art und Weise erfolgt, die sicher und ethisch vertretbar ist und die Rechte und die Privatsphäre aller Amerikaner respektiert, und dass die Vorteile der KI breit gestreut und die Risiken minimiert werden."

Im Januar besuchte der CEO von OpenAI, Sam Altman, den Capitol Hill, wo er sich mit technologieorientierten Gesetzgebern wie den Senatoren Mark Warner, Ron Wyden und Richard Blumenthal und dem Abgeordneten Jake Auchincloss traf, wie Berater der demokratischen Gesetzgeber berichteten.

Ein Berater von Wyden sagte, dass der Gesetzgeber Altman dazu drängte, dafür zu sorgen, dass KI keine Vorurteile enthält, die in der realen Welt zu Diskriminierung führen würden, etwa bei der Wohnungssuche oder bei der Arbeit.

"Senator Wyden glaubt zwar, dass KI ein enormes Potenzial hat, um Innovation und Forschung zu beschleunigen, aber er ist sehr darauf bedacht, dass automatisierte Systeme nicht automatisch zu Diskriminierung führen", sagte Keith Chu, ein Berater von Wyden.

Ein zweiter Berater des Kongresses beschrieb, dass sich die Gespräche auf die Geschwindigkeit der Veränderungen in der KI und deren Einsatzmöglichkeiten konzentrierten.

Aus Sorge vor Plagiaten wurde ChatGPT Medienberichten zufolge bereits in Schulen in New York und Seattle verboten. Ein Berater des Kongresses sagte, dass die Besorgnis, die sie von Wählern hörten, hauptsächlich von Pädagogen kam, die sich auf Betrug konzentrierten.

OpenAI sagte in einer Erklärung: "Wir wollen nicht, dass ChatGPT in Schulen oder anderswo für irreführende Zwecke verwendet wird. Deshalb entwickeln wir bereits Abhilfemaßnahmen, die es jedem ermöglichen, den von diesem System generierten Text zu identifizieren."

In einem Interview mit der Time sagte Mira Murati, Chief Technology Officer von OpenAI, dass das Unternehmen Anregungen begrüßt, auch von Regulierungsbehörden und Regierungen. "Es ist nicht zu früh (für eine Beteiligung der Regulierungsbehörden)", sagte sie.

Andrew Burt, geschäftsführender Partner von BNH.AI, einer Anwaltskanzlei, die sich auf KI-Haftung spezialisiert hat, wies auf die Bedenken hinsichtlich der nationalen Sicherheit hin und fügte hinzu, dass er mit Gesetzgebern gesprochen hat, die prüfen, ob ChatGPT und ähnliche KI-Systeme wie Googles Bard reguliert werden sollen.

"Der ganze Wertbeitrag dieser Art von KI-Systemen besteht darin, dass sie Inhalte in einem Umfang und mit einer Geschwindigkeit generieren können, die Menschen einfach nicht erreichen können", sagte er.

"Ich würde davon ausgehen, dass böswillige Akteure, nichtstaatliche Akteure und staatliche Akteure, die den Vereinigten Staaten feindlich gesinnt sind, diese Systeme nutzen, um Informationen zu generieren, die falsch oder schädlich sein könnten.

ChatGPT selbst winkte auf die Frage, wie es reguliert werden sollte, ab und sagte: "Als neutrales KI-Sprachmodell habe ich keine Meinung zu bestimmten Gesetzen, die zur Regulierung von KI-Systemen wie mir erlassen werden könnten oder auch nicht. Aber es fuhr dann fort, potenzielle Schwerpunktbereiche für Regulierungsbehörden aufzulisten, wie z.B. Datenschutz, Voreingenommenheit und Fairness sowie Transparenz bei der Erstellung von Antworten.