Amazon Web Services, Inc. (AWS), ein Unternehmen von Amazon.com, Inc., kündigte eine Ausweitung ihrer strategischen Zusammenarbeit an, um die fortschrittlichste Infrastruktur, Software und Dienstleistungen zu liefern, die Kunden generative Innovationen im Bereich der künstlichen Intelligenz (KI) ermöglichen. Die Unternehmen werden das Beste aus den Technologien von NVIDIA und AWS zusammenbringen - von NVIDIAs neuesten Multi-Node-Systemen mit GPUs, CPUs und KI-Software der nächsten Generation bis hin zu AWS Nitro System, fortschrittlicher Virtualisierung und Sicherheit, Elastic Fabric Adapter (EFA) Interconnect und UltraCluster-Skalierbarkeit - die sich ideal für das Training von Basismodellen und den Aufbau generativer KI-Anwendungen eignen. Die erweiterte Zusammenarbeit baut auf einer langjährigen Beziehung auf, die die Ära der generativen KI beflügelt hat, indem sie den Pionieren des maschinellen Lernens (ML) die erforderliche Rechenleistung bot, um den Stand der Technik in diesen Technologien voranzutreiben.

Als Teil der erweiterten Zusammenarbeit, um generative KI in allen Branchen voranzutreiben: AWS wird der erste Cloud-Anbieter sein, der NVIDIA GH200 Grace Hopper Superchips mit der neuen Multi-Node NVLink Technologie in die Cloud bringt. Die NVIDIA GH200 NVL32 Multi-Node-Plattform verbindet 32 Grace Hopper Superchips mit NVIDIA NVLink und NVSwitch Technologien in einer Instanz. Die Plattform wird auf Amazon Elastic Compute Cloud (Amazon EC2) Instanzen verfügbar sein, die mit Amazons leistungsfähigem Netzwerk (EFA) verbunden sind und durch fortschrittliche Virtualisierung (AWS Nitro System) und Hyper-Scale Clustering (Amazon EC2 UltraClusters) unterstützt werden. So können gemeinsame Kunden auf Tausende von GH200 Superchips skalieren.

Um die Entwicklung, das Training und die Inferenz der größten LLMs zu ermöglichen, werden AWS P5e-Instanzen mit den neuesten H200-GPUs von NVIDIA ausgestattet, die 141 GB HBM3e-GPU-Speicher bieten, der 1,8-mal größer und 1,4-mal schneller ist als der der H100-GPUs. Diese Steigerung des GPU-Speichers zusammen mit bis zu 3.200 Gbit/s EFA-Netzwerken, die durch das AWS Nitro System ermöglicht werden, wird es den Kunden ermöglichen, weiterhin ihre hochmodernen Modelle auf AWS zu entwickeln, zu trainieren und bereitzustellen. Um kosteneffiziente, energieeffiziente Lösungen für Video-, KI- und Grafik-Workloads bereitzustellen, kündigte AWS neue Amazon EC2 G6e-Instanzen mit NVIDIA L40S-GPUs und G6-Instanzen mit L4-GPUs an.

Die neuen Angebote können Startups, Unternehmen und Forschern helfen, ihre Anforderungen an KI und High-Fidelity-Grafik zu erfüllen. G6e-Instanzen sind für komplexe Arbeitslasten wie generative KI und digitale Zwillingsanwendungen ausgelegt. Mit NVIDIA Omniverse können fotorealistische 3D-Simulationen entwickelt, kontextualisiert und mit Echtzeitdaten von Diensten wie AWS IoT TwinMaker, intelligenten Chatbots, Assistenten, Suche und Zusammenfassung verbessert werden.

Amazon Robotics und Amazon Fulfillment Centers werden in der Lage sein, mit NVIDIA Omniverse und AWS IoT TwinMaker erstellte digitale Zwillinge zu integrieren, um die Gestaltung und den Ablauf von Lagern zu optimieren, intelligentere Roboterassistenten zu trainieren und die Lieferungen an Kunden zu verbessern. Die L40S-GPUs liefern bis zu 1,45 Petaflops FP8-Leistung und verfügen über Ray-Tracing-Cores, die bis zu 209 Teraflops Ray-Tracing-Leistung bieten. Die L4-GPUs in den G6-Instanzen bieten eine kostengünstige, energieeffiziente Lösung für den Einsatz von KI-Modellen für die Verarbeitung natürlicher Sprache, Sprachübersetzung, KI-Video- und Bildanalyse, Spracherkennung und Personalisierung.

Die L40S-GPUs beschleunigen auch Grafik-Workloads, wie z.B. die Erstellung und Verarbeitung von Daten.