NetApp kündigt neue Funktionen an, die das Potenzial generativer Projekte im Bereich künstliche Intelligenz (Gen AI) maximieren und Anwendern Wettbewerbsvorteile verschaffen. Kunden können ihre KI-Projekte jetzt auf die nächste Stufe heben, indem sie die intelligente Dateninfrastruktur von NetApp mit High-Performance-Computing, Netzwerken und Software von NVIDIA kombinieren. Gen AI hat weltweit Aufmerksamkeit erregt, weil es das Potenzial hat, langwierige Aufgaben zu automatisieren, neue Erkenntnisse zu gewinnen und Produktinnovationen voranzutreiben.

Fast drei von vier Unternehmen nutzen bereits Gen AI, so der NetApp 2023 Data Complexity Report. Um das Potenzial von Gen AI auszuschöpfen, benötigen Unternehmen einen sicheren, leistungsstarken Zugriff auf Daten, die über komplexe Hybrid- und Multi-Cloud-Umgebungen verteilt sind. NetApp kann auf eine lange und erfolgreiche Erfahrung bei der Unterstützung von KI mit Lösungen zurückblicken, die ein einfaches Management überall dort ermöglichen, wo Daten vorhanden sind, eine hohe Performance bieten, ohne dass neue Infrastruktursilos erforderlich sind, und vertrauenswürdige, sichere Daten bereitstellen, um verantwortungsvolle KI voranzutreiben.

Um Unternehmen zu unterstützen, die KI nutzen, um ihre Abläufe und strategischen Entscheidungen zu verbessern, hat NetApp Updates für seine intelligenten Dateninfrastrukturfunktionen veröffentlicht: NetApp AIPod ist die KI-optimierte konvergierte Infrastruktur von NetApp für KI-Projekte mit hoher Priorität, einschließlich Training und Inferencing. NetApp AIPod powered by NVIDIA DGX ist jetzt eine zertifizierte NVIDIA DGX BasePOD-Lösung mit NVIDIA DGX H100 Systemen, die mit Flash-Systemen der NetApp AFF C-Serie mit erschwinglicher Kapazität integriert sind, um ein neues Kosten-/Leistungsniveau zu erreichen und gleichzeitig den Platzbedarf im Rack und die Nachhaltigkeit zu optimieren. NetApp A IPod powered by NVIDIA DGX unterstützt auch weiterhin NVIDIA DGX A100 Systeme. Neue FlexPod for AI Referenzarchitekturen erweitern die führende konvergierte Infrastrukturlösung von NetApp und Cisco.

FlexPod for AI unterstützt jetzt die NVIDIA AI Enterprise Software-Plattform. FlexPod für KI kann jetzt erweitert werden, um RedHat OpenShift und SuSE Rancher zu nutzen. Neue Skalierung und Benchmarking wurden hinzugefügt, um zunehmend GPU-intensive Anwendungen zu unterstützen.

Kunden können diese neuen FlexPod Lösungen als End-to-End-Blaupause nutzen, um die FlexPod Plattform für KI-Anwendungsfälle effizient zu entwerfen, bereitzustellen und zu betreiben. NetApp ist jetzt für NVIDIA OVX Systeme validiert. NetApp Storage in Kombination mit NVIDIA OVX Computing-Systemen kann dazu beitragen, KI-Implementierungen in Unternehmen zu optimieren, einschließlich Modell-Feinabstimmung und Inferenz-Workloads. Die von NVIDIA L40S GPUs angetriebenen, validierten NVIDIA OVX Lösungen sind bei führenden Serveranbietern erhältlich und umfassen NVIDIA AI Enterprise Software zusammen mit NVIDIA Quantum-2 InfiniBand oder NVIDIA Spectrum-X Ethernet und NVIDIA BlueField-3 DPUs.

NetApp ist einer der ersten Partner, der diese neue Storage-Validierung für NVIDIA OVX abgeschlossen hat. Um seine Führungsposition im Bereich KI weiter auszubauen, kündigt NetApp außerdem revolutionäre neue Cyber-Resilience-Funktionen an, darunter eine der ersten Anwendungen von in Storage eingebetteter KI/ML zur Bekämpfung von Ransomware. Diese Updates sind ein weiteres Beispiel für die Bereitschaft von NetApp, sich weiterzuentwickeln und Kunden Innovationen zu bieten, die das volle Potenzial von KI ausschöpfen." NetApp bietet einen einheitlichen Ansatz für das Infrastruktur- und Datenmanagement, der Datensilos beseitigt, den KI-Lösungen der Kunden verbesserte Performance und zuverlässigen Datenschutz bietet und den Kunden hilft, ihre KI-Projekte schneller zum Erfolg zu führen.