Der Facebook-Eigentümer Meta Platforms plant, noch in diesem Jahr eine neue Version eines eigenen Chips in seinen Rechenzentren einzusetzen, um seinen Vorstoß im Bereich der künstlichen Intelligenz (KI) zu unterstützen. Dies geht aus einem internen Dokument des Unternehmens hervor, das Reuters am Donnerstag einsehen konnte.

Der Chip, eine zweite Generation einer hauseigenen Siliziumlinie, die Meta letztes Jahr angekündigt hat, könnte dazu beitragen, Metas Abhängigkeit von den marktbeherrschenden Nvidia-Chips zu verringern und die steigenden Kosten für die Ausführung von KI-Workloads zu kontrollieren, während das Unternehmen um die Einführung von KI-Produkten ringt.

Das weltgrößte Social-Media-Unternehmen hat sich bemüht, seine Rechenkapazitäten für die leistungshungrigen generativen KI-Produkte zu erhöhen, die es in die Apps Facebook, Instagram und WhatsApp sowie in Hardware-Geräte wie die Ray-Ban-Smartglasses einbaut. Es hat Milliarden von Dollar ausgegeben, um Arsenale spezialisierter Chips anzuhäufen und Rechenzentren neu zu konfigurieren, um sie unterzubringen.

In der Größenordnung, in der Meta operiert, könnte ein erfolgreicher Einsatz seines eigenen Chips möglicherweise Hunderte Millionen Dollar an jährlichen Energiekosten und Milliarden an Chip-Kaufkosten einsparen, so Dylan Patel, Gründer der Silizium-Forschungsgruppe SemiAnalysis.

Die Chips, die Infrastruktur und die Energie, die für den Betrieb von KI-Anwendungen erforderlich sind, haben sich für Technologieunternehmen zu einem riesigen Investitionsloch entwickelt, das die Gewinne, die im Rausch der Begeisterung für die Technologie erzielt wurden, bis zu einem gewissen Grad wieder zunichte macht.

Ein Sprecher von Meta bestätigte den Plan, den aktualisierten Chip im Jahr 2024 in Produktion zu bringen. Er sagte, dass er mit den Hunderttausenden von handelsüblichen Grafikprozessoren (GPUs) - den Chips für KI - koordiniert werden würde, die das Unternehmen kauft.

"Wir sind der Meinung, dass unsere intern entwickelten Beschleuniger die handelsüblichen GPUs in hohem Maße ergänzen, um die optimale Mischung aus Leistung und Effizienz bei metaspezifischen Arbeitslasten zu bieten", so der Sprecher in einer Erklärung.

Mark Zuckerberg, CEO von Meta, sagte letzten Monat, dass das Unternehmen bis Ende des Jahres rund 350.000 Flaggschiff-"H100"-Prozessoren von Nvidia haben wolle, die die begehrtesten GPUs für KI herstellen. Zusammen mit anderen Anbietern würde Meta die entsprechende Rechenkapazität von insgesamt 600.000 H100-Prozessoren erreichen, sagte er.

Der Einsatz des eigenen Chips als Teil dieses Plans ist eine positive Wendung für Metas hauseigenes KI-Siliziumprojekt, nachdem die Geschäftsleitung im Jahr 2022 beschlossen hatte, die erste Iteration des Chips zu stoppen.

Das Unternehmen entschied sich stattdessen für den Kauf von GPUs von Nvidia im Wert von Milliarden von Dollar, die fast ein Monopol auf einen KI-Prozess namens Training haben, bei dem Modelle mit riesigen Datensätzen gefüttert werden, um ihnen beizubringen, wie sie Aufgaben ausführen sollen.

Der neue Chip, der intern als "Artemis" bezeichnet wird, kann wie sein Vorgänger nur einen Prozess ausführen, der als Inferenz bezeichnet wird und bei dem die Modelle aufgefordert werden, ihre Algorithmen zu nutzen, um Einstufungsentscheidungen zu treffen und Antworten auf Benutzeranfragen zu geben.

Reuters berichtete letztes Jahr, dass Meta auch an einem ehrgeizigeren Chip arbeitet, der wie GPUs sowohl Training als auch Inferenz durchführen kann.

Das in Menlo Park, Kalifornien, ansässige Unternehmen gab im vergangenen Jahr Details über die erste Generation seines Meta Training and Inference Accelerator (MTIA) Programms bekannt. In der Ankündigung wurde diese Version des Chips als eine Lernmöglichkeit dargestellt.

Trotz dieser anfänglichen Schwierigkeiten könnte ein Inferenz-Chip die Empfehlungsmodelle von Meta wesentlich effizienter verarbeiten als die energiehungrigen Nvidia-Prozessoren, so Patel.

"Es wird eine Menge Geld und Energie ausgegeben, die eingespart werden könnte", sagte er. (Berichte von Katie Paul in New York und Stephen Nellis und Max A. Cherney in San Francisco; Redaktion: Kenneth Li und Mark Porter)