Cloudflare, Inc. gab bekannt, dass Entwickler KI-Anwendungen jetzt mit einem einfachen Klick direkt von Hugging Face aus auf dem globalen Netzwerk von Cloudflare bereitstellen können. Mit der allgemeinen Verfügbarkeit von Workers AI ist Cloudflare der erste serverlose Inferenzpartner, der in den Hugging Face Hub für die Bereitstellung von Modellen integriert ist. Damit können Entwickler schnell, einfach und kostengünstig KI weltweit einsetzen, ohne die Infrastruktur zu verwalten oder für ungenutzte Rechenkapazität zu bezahlen. Mit der allgemeinen Verfügbarkeit von Workers AI können Entwickler jetzt KI-Modelle mit einem Klick direkt von Hugging Face aus einsetzen, um schnell auf eine Vielzahl von Modellen zuzugreifen und Inferenzanfragen auf dem globalen GPU-Netzwerk von Cloudflare auszuführen.

Entwickler können eines der beliebten Open-Source-Modelle auswählen und dann einfach auf Deploy to Cloudflare Workers AI klicken, um ein Modell sofort einzusetzen. Es gibt jetzt 14 kuratierte Hugging Face-Modelle, die für die globale serverlose Inferenzplattform von Cloudflare optimiert sind und drei verschiedene Aufgabenkategorien unterstützen, darunter Textgenerierung, Einbettung und Satzähnlichkeit.