NVIDIA hat mit der Einführung der NVIDIA Rubin Plattform die nächste Generation der Künstlichen Intelligenz eingeleitet. Diese Plattform umfasst sechs neue Chips, die zusammen einen beeindruckenden KI-Supercomputer bilden. NVIDIA Rubin setzt einen neuen Standard für den Aufbau, die Bereitstellung und die Absicherung der weltweit größten und fortschrittlichsten KI-Systeme bei geringstmöglichen Kosten, um die breite Akzeptanz von KI zu beschleunigen. Die Rubin Plattform nutzt ein extremes Codesign über alle sechs Chips hinweg –
die NVIDIA Vera CPU, NVIDIA Rubin GPU, NVIDIA NVLink 6 Switch, NVIDIA ConnectX-9 SuperNIC, NVIDIA BlueField-4 DPU und NVIDIA Spectrum-6 Ethernet Switch – um Trainingszeiten und Inferenzkosten pro Token drastisch zu senken. Die Rubin Plattform umfasst die NVIDIA Vera Rubin NVL72 Rack-Scale-Lösung sowie das NVIDIA HGX Rubin NVL8 System.
Die Rubin Plattform bringt fünf Innovationen mit sich, darunter die neuesten Generationen der NVIDIA NVLink Interconnect-Technologie, der Transformer Engine, Confidential Computing und RAS Engine sowie die NVIDIA Vera CPU. Diese Durchbrüche beschleunigen agentenbasierte KI, fortgeschrittenes Reasoning und Inferenz von Mixture-of-Experts (MoE) Modellen im großen Maßstab zu bis zu 10-fach geringeren Kosten pro Token im Vergleich zur NVIDIA Blackwell Plattform. Gegenüber dem Vorgänger trainiert die NVIDIA Rubin Plattform MoE-Modelle mit viermal weniger GPUs und beschleunigt so die KI-Einfuhrung.
Zu den weltweit führenden KI-Laboren, Cloud-Service-Anbietern, Computerherstellern und Startups, die Rubin voraussichtlich einsetzen werden, gehören Amazon Web Services (AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure (OCI), Perplexity, Runway, Supermicro, Thinking Machines Lab und xAI. Die fünf bahnbrechenden Technologien der Rubin Plattform umfassen die sechste Generation von NVIDIA NVLink, die NVIDIA Vera CPU, die NVIDIA Rubin GPU, die dritte Generation von NVIDIA Confidential Computing und die zweite Generation der RAS Engine. NVIDIA Rubin führt außerdem die NVIDIA Inference Context Memory Storage Platform ein, eine neue Klasse von KI-nativer Speicherinfrastruktur, die darauf ausgelegt ist, Inferenzkontexte im Gigamaßstab zu skalieren.
Angetrieben von NVIDIA BlueField-4 ermöglicht die Plattform eine effiziente gemeinsame Nutzung und Wiederverwendung von Key-Value-Cache-Daten über die gesamte KI-Infrastruktur hinweg, verbessert die Reaktionsfähigkeit und den Durchsatz und ermöglicht ein vorhersehbares, energieeffizientes Skalieren agentenbasierter KI. BlueField-4 führt zudem die Advanced Secure Trusted Resource Architecture (ASTRA) ein, eine Systemvertrauensarchitektur, die KI-Infrastrukturbauern einen einzigen, vertrauenswürdigen Kontrollpunkt bietet, um großskalige KI-Umgebungen sicher bereitzustellen, zu isolieren und zu betreiben, ohne die Leistung zu beeinträchtigen. Die NVIDIA Vera Rubin NVL72 bietet ein einheitliches, sicheres System, das 72 NVIDIA Rubin GPUs, 36 NVIDIA Vera CPUs, NVIDIA NVLink 6, NVIDIA ConnectX-9 SuperNICs und NVIDIA BlueField-4 DPUs vereint.
NVIDIA wird zudem die NVIDIA HGX Rubin NVL8 Plattform anbieten, eine Serverplatine, die acht Rubin GPUs über NVLink verbindet und x86-basierte generative KI-Plattformen unterstützt. Die HGX Rubin NVL8 Plattform beschleunigt Training, Inferenz und wissenschaftliches Rechnen für KI- und Hochleistungsrechner-Workloads. Der NVIDIA DGX SuperPOD dient als Referenz für die Bereitstellung von Rubin-basierten Systemen im großen Maßstab und integriert entweder NVIDIA DGX Vera Rubin NVL72 oder DGX Rubin NVL8 Systeme mit NVIDIA BlueField-4 DPUs, NVIDIA ConnectX-9 SuperNICs, NVIDIA InfiniBand Networking und NVIDIA Mission Control Software. NVIDIA Spectrum-6 Ethernet ist die nächste Generation von Ethernet für KI-Netzwerke, ausgelegt für den effizienten und widerstandsfähigen Betrieb von Rubin-basierten KI-Fabriken und ermöglicht durch 200G SerDes-Kommunikationsschaltungen, co-packaged Optics und KI-optimierte Netzwerke.
Basierend auf der Spectrum-6 Architektur liefern Spectrum-X Ethernet Photonics co-packaged optische Switchsysteme eine zehnfach höhere Zuverlässigkeit und fünfmal längere Betriebszeit für KI-Anwendungen, während sie eine fünfmal bessere Energieeffizienz erreichen und so die Leistung pro Watt gegenüber herkömmlichen Methoden maximieren. Die Spectrum-XGS Ethernet Technologie, Teil der Spectrum-X Ethernet Plattform, ermöglicht es, Anlagen, die hunderte Kilometer und mehr voneinander entfernt sind, als eine einzige KI-Umgebung zu betreiben. NVIDIA Rubin befindet sich in voller Produktion, und Rubin-basierte Produkte werden ab der zweiten Jahreshälfte 2026 bei Partnern verfügbar sein.
Zu den ersten Cloud-Anbietern, die Vera Rubin-basierte Instanzen im Jahr 2026 bereitstellen werden, gehören AWS, Google Cloud, Microsoft und OCI sowie die NVIDIA Cloud Partner CoreWeave, Lambda, Nebius und Nscale. Microsoft wird NVIDIA Vera Rubin NVL72 Rack-Scale-Systeme als Teil von KI-Rechenzentren der nächsten Generation einsetzen, darunter künftige Fairwater AI Superfactory-Standorte. CoreWeave wird ab der zweiten Jahreshälfte 2026 NVIDIA Rubin-basierte Systeme in seine KI-Cloud-Plattform integrieren.
Cisco, Dell, HPE, Lenovo und Supermicro werden voraussichtlich eine breite Palette von Servern auf Rubin-Basis liefern. KI-Labore wie Anthropic, Black Forest, Cohere, Cursor, Harvey, Meta, Mistral AI, OpenAI, OpenEvidence, Perplexity, Runway, Thinking Machines Lab und xAI setzen auf die NVIDIA Rubin Plattform, um größere, leistungsfähigere Modelle zu trainieren und langkontextuelle, multimodale Systeme mit geringerer Latenz und zu niedrigeren Kosten als mit früheren GPU-Generationen bereitzustellen. Infrastruktur-Software- und Speicherpartner wie AIC, Canonical, Cloudian, DDN, Dell, HPE, Hitachi Vantara, IBM, NetApp, Nutanix, Pure Storage, Supermicro, SUSE, VAST Data und WEKA arbeiten mit NVIDIA zusammen, um Plattformen der nächsten Generation für Rubin-Infrastrukturen zu entwickeln.
Die Rubin Plattform markiert die dritte Generation der Rack-Scale-Architektur von NVIDIA, mit mehr als 80 Partnern im NVIDIA MGX Ökosystem. Red Hat hat eine erweiterte Zusammenarbeit mit NVIDIA angekündigt, um einen vollständigen KI-Stack zu liefern, der für die NVIDIA Rubin Plattform mit dem Hybrid-Cloud-Portfolio von Red Hat optimiert ist, einschließlich Red Hat Enterprise Linux, Red Hat OpenShift und Red Hat AI.


















