Führungskräfte aus dem gesamten Technologiesektor sprechen darüber, wie man KI wie ChatGPT betreiben und gleichzeitig die hohen Kosten berücksichtigen kann. Der äußerst populäre Chatbot von OpenAI, der Prosa verfassen und Suchanfragen beantworten kann, hat "horrende" Rechenkosten von ein paar Cent oder mehr pro Konversation, wie Sam Altman, der Geschäftsführer des Startups, auf Twitter erklärte.

In einem Interview sagte John Hennessy, Vorstandsvorsitzender von Alphabet, gegenüber Reuters, dass ein Austausch mit der KI, der als großes Sprachmodell bekannt ist, wahrscheinlich 10 Mal mehr kostet als eine normale Stichwortsuche.

Selbst mit den Einnahmen aus potenziellen Chat-basierten Suchanzeigen könnte die Technologie das Ergebnis von Alphabet mit Sitz in Mountain View, Kalifornien, mit mehreren Milliarden Dollar an zusätzlichen Kosten belasten, so Analysten. Der Nettogewinn des Unternehmens lag im Jahr 2022 bei fast 60 Milliarden Dollar.

Morgan Stanley schätzt, dass die 3,3 Billionen Suchanfragen von Google im vergangenen Jahr jeweils etwa einen Fünftel Cent gekostet haben, eine Zahl, die sich erhöhen würde, je nachdem, wie viel Text KI generieren muss. Google könnte beispielsweise bis 2024 mit einem Anstieg der Ausgaben um 6 Milliarden Dollar konfrontiert sein, wenn eine ChatGPT-ähnliche KI die Hälfte der Suchanfragen mit 50 Wörtern beantworten würde, so die Analysten. Es ist unwahrscheinlich, dass Google einen Chatbot braucht, um die Navigationssuche für Websites wie Wikipedia zu übernehmen.

Andere Unternehmen kamen auf unterschiedliche Weise zu einer ähnlichen Rechnung. SemiAnalysis, ein Forschungs- und Beratungsunternehmen, das sich auf Chiptechnologie spezialisiert hat, sagte beispielsweise, dass die Einführung von KI im Stil von ChatGPT für die Suche Alphabet 3 Milliarden Dollar kosten könnte, ein Betrag, der durch Googles hauseigene Chips, die Tensor Processing Units (TPUs), und andere Optimierungen begrenzt ist.

Was diese Form der KI teurer macht als die herkömmliche Suche, ist die damit verbundene Rechenleistung. Eine solche KI ist auf Chips im Wert von Milliarden von Dollar angewiesen. Diese Kosten müssen über ihre Lebensdauer von mehreren Jahren verteilt werden, so die Analysten. Auch der Stromverbrauch verursacht Kosten und belastet Unternehmen, die ihren ökologischen Fußabdruck verbessern wollen.

Der Prozess der Bearbeitung von KI-gestützten Suchanfragen ist als "Inferenz" bekannt, bei der ein "neuronales Netzwerk", das der Biologie des menschlichen Gehirns nachempfunden ist, die Antwort auf eine Frage aus vorherigem Training ableitet.

Bei einer herkömmlichen Suche hingegen haben Googles Webcrawler das Internet gescannt, um einen Informationsindex zusammenzustellen. Wenn ein Nutzer eine Suchanfrage eingibt, zeigt Google die relevantesten Antworten aus dem Index an.

Hennessy von Alphabet sagte gegenüber Reuters: "Es sind die Kosten für die Rückschlüsse, die Sie senken müssen" und nannte das "schlimmstenfalls ein Problem von ein paar Jahren".

Alphabet steht unter Druck, sich trotz der Kosten dieser Herausforderung zu stellen. Anfang des Monats hat der Konkurrent Microsoft Corp. in seinem Hauptquartier in Redmond, Washington, eine hochkarätige Veranstaltung abgehalten, um seine Pläne für die Integration von KI-Chat-Technologie in seine Suchmaschine Bing vorzustellen. Dabei nahmen Top-Manager den Marktanteil von Google bei der Suche ins Visier, der nach Schätzungen von Similarweb 91% beträgt.

Einen Tag später sprach Alphabet über Pläne zur Verbesserung seiner Suchmaschine, aber ein Werbevideo für seinen KI-Chatbot Bard zeigte, wie das System eine Frage ungenau beantwortete, was zu einem Kursrutsch führte, der den Marktwert des Unternehmens um 100 Milliarden Dollar schmälerte.

Später geriet Microsoft selbst in die Kritik, als seine KI Berichten zufolge Drohungen aussprach oder Testnutzern ihre Liebe erklärte. Das Unternehmen sah sich daraufhin veranlasst, lange Chat-Sitzungen einzuschränken, die unbeabsichtigte Antworten "provozierten".

Amy Hood, Chief Financial Officer von Microsoft, hat gegenüber Analysten erklärt, dass der Zuwachs an Nutzern und Werbeeinnahmen die Kosten übersteigt, wenn das neue Bing bei Millionen von Verbrauchern eingeführt wird. "Das sind zusätzliche Bruttomargen für uns, selbst bei den Kosten, über die wir hier sprechen", sagte sie.

Und ein anderer Google-Konkurrent, der CEO der Suchmaschine You.com, Richard Socher, sagte, dass das Hinzufügen eines KI-Chat-Erlebnisses sowie von Anwendungen für Diagramme, Videos und andere generative Technologien die Kosten um 30 bis 50 % erhöht. "Technologie wird in großem Maßstab und mit der Zeit billiger", sagte er.

Eine Google nahestehende Quelle gab zu bedenken, dass es noch zu früh ist, um genau zu bestimmen, wie viel Chatbots kosten könnten, da Effizienz und Nutzung je nach Technologie stark variieren und KI bereits Produkte wie die Suche antreibt.

Dennoch ist die Finanzierung einer der beiden Hauptgründe, warum die Suchmaschinen- und Social-Media-Giganten mit Milliarden von Nutzern nicht über Nacht einen KI-Chatbot eingeführt haben, sagte Paul Daugherty, Chief Technology Officer von Accenture.

"Der erste Grund ist die Genauigkeit und der zweite ist, dass man das Ganze richtig skalieren muss", sagte er.

DAMIT DIE MATHEMATIK FUNKTIONIERT

Jahrelang haben Forscher bei Alphabet und anderswo untersucht, wie man große Sprachmodelle kostengünstiger trainieren und betreiben kann.

Größere Modelle benötigen mehr Chips für die Inferenz und kosten daher mehr. Die KI, die die Verbraucher mit ihrer menschenähnlichen Autorität blendet, hat eine enorme Größe erreicht. Für das Modell, das OpenAI in ChatGPT aktualisiert hat, wurden 175 Milliarden sogenannte Parameter oder verschiedene Werte, die der Algorithmus berücksichtigt, ermittelt. Die Kosten variieren auch je nach Länge der Anfrage eines Benutzers, gemessen in "Token" oder Wortteilen.

Eine hochrangige Führungskraft aus dem Technologiebereich sagte gegenüber Reuters, dass eine solche KI in den Händen von Millionen von Verbrauchern noch zu teuer sei.

"Diese Modelle sind sehr teuer und die nächste Stufe der Erfindung wird darin bestehen, die Kosten sowohl für das Training dieser Modelle als auch für die Schlussfolgerungen zu senken, damit wir sie in jeder Anwendung einsetzen können", sagte der Manager unter der Bedingung der Anonymität.

Im Moment haben die Informatiker von OpenAI herausgefunden, wie man die Kosten für die Inferenz durch einen komplexen Code optimieren kann, der die Chips effizienter laufen lässt, sagte eine mit den Bemühungen vertraute Person. Ein Sprecher von OpenAI gab nicht sofort eine Stellungnahme ab.

Eine längerfristige Frage ist, wie man die Anzahl der Parameter in einem KI-Modell um das 10- oder sogar 100-fache reduzieren kann, ohne an Genauigkeit zu verlieren.

"Wie man die Parameter am effektivsten reduzieren kann, ist noch eine offene Frage", sagte Naveen Rao, der früher die KI-Chip-Bemühungen von Intel leitete und jetzt mit seinem Startup MosaicML an der Senkung der KI-Rechenkosten arbeitet.

In der Zwischenzeit haben einige Unternehmen in Erwägung gezogen, Gebühren für den Zugang zu erheben, wie z.B. OpenAIs $20 pro Monat für den besseren ChatGPT-Service. Technologieexperten sagten auch, dass eine Abhilfe darin besteht, kleinere KI-Modelle auf einfachere Aufgaben anzuwenden, was Alphabet erforscht.

Das Unternehmen sagte diesen Monat, dass ein "kleineres Modell" seiner massiven LaMDA KI-Technologie seinen Chatbot Bard antreiben wird, der "deutlich weniger Rechenleistung benötigt und es uns ermöglicht, für mehr Nutzer zu skalieren".

Auf die Frage nach Chatbots wie ChatGPT und Bard sagte Hennessy letzte Woche auf einer Konferenz namens TechSurge, dass mehr fokussierte Modelle statt eines Systems, das alles kann, helfen würden, "die Kosten zu zähmen".