Die auf hybrides Multicloud-Computing fokussierte Nutanix mit Zentrale im kalifornischen San Jose hat die allgemeine Verfügbarkeit der neuesten Version ihrer Enterprise AI (NAI) Lösung bekanntgegeben. Sie wartet gemäss Mitteilung mit einer vertieften Integration mit Nvidia AI Enterprise einschliesslich Nvidia NIM Microservices und Nvidia Nemo Framework auf, um die Einführung von Agentic-AI-Anwendungen in Unternehmen zu beschleunigen.
NAI sei dazu konzipiert, die Bereitstellung von generativer KI in den Unternehmen schneller voranzubringen, heisst es, und vereinfache zu diesem Zweck die Art und Weise, wie Anwenderunternehmen Modelle und Inferencing-Dienste am Edge, im Rechenzentrum oder in der Public Cloud auf von der Cloud Native Computing Foundation (CNCF) zertifizierten Kubernetes-Umgebungen erstellen, betreiben und sicher managen.
Das neueste NAI-Release erweitere den Infos gemäss die mit Nvidia gemeinsame Model-Service-Methodologie, die Agentic-Workflows vereinfache und dabei hilfe, deren Bereitstellung und laufenden Betrieb einfacher zu gestalten. Mithilfe gemeinsamer Embedding-, Reranking- und Guardrail-Funktionsmodelle für Agenten optimiere das Release die Ressourcen und Modelle, die für die geschäftsbereichsübergreifende Bereitstellung multipler Anwendungen erforderlich seien, verspricht Nutanix. Die neue Version baut auf dem NAI-Kern auf, der ein zentrales Repository für LLM-Modelle enthält. Damit sollen sich sichere Endpunkte erstellen lassen, welche die Anbindung generativer KI-Anwendungen und -Agenten vereinfachen und schützen.
Nutanix zufolge unterstützt NAI für Agentic-Anwendungen Anwenderfirmen bei:
-- der Bereitstellung von Agentic-AI-Anwendungen mit Shared-LLM-Endpunkten: Unternehmen könnten bereits bestehende und bereitgestellte Modell-Endpunkte als Shared Services für multiple Anwendungen wiederverwenden. Durch die Wiederverwendung von Modell-Endpunkten lasse sich der Bedarf an wichtigen Infrastrukturkomponenten reduzieren. Dazu zählen GPUs, CPUs, Arbeitsspeicher, Datei- und Objektspeicher sowie Kubernetes-Cluster.
-- der Nutzung einer grossen Bandbreite an LLM-Endpunkten: NAI ermögliche ein grosses Spektrum an Agentic-Model-Services einschliesslich der Open-Reasoning-Modelle Nvidia Llama Nemotron, Nvidia Nemo Retriever und Nemo Guardrails. NAI-Anwender könnten Nvidia AI-Blueprints nutzen. Dabei handle es sich um vorkonfigurierte und anpassbare Workflows, mit deren Hilfe Betriebe unmittelbar mit der Entwicklung ihrer eigenen KI-Anwendungen auf der Basis von Nvidia-Modellen und KI-Microservices loslegen könnten. Zudem ermögliche NAI Funktionsaufrufe für Konfiguration und Nutzung externer Datenquellen, damit Agentic-AI-Anwendungen exaktere und detaillierter Ergebnisse liefern könnten.
-- bei der Absicherung von generativen KI: Mithilfe der neuen NAI-Version sollen Unternehmen Guardrail-Modelle nutzen und dadurch Agentic-Anwendungen unter Einhaltung der in ihren Unternehmen geltenden Regeln implementieren können. Diese Modelle seien in der Lage, ab der ersten Interaktion User-Eingaben und LLM-Antworten zu filtern und dadurch vorurteilsbehaftete oder schädliche Ausgaben zu verhindern. Ausserdem ermöglichten sie, die Kontrolle über Themen zu behalten und Jailbreak-Versuche zu entdecken, heisst es. Nvidia Nemo Guardrails zum Beispiel seien LLM-Modelle für Inhaltsfilterung und erlaubten es, unerwünschte Inhalte und andere sensible Themen auszusortieren. Sie sollen sich zudem auf den Bereich Code-Generierung anwenden lassen und dadurch modellübergreifend eine höhere Zuverlässigkeit und Konsistenz gewährleisten.
-- bei der Gewinnung von Erkenntnissen mithilfe der Nvidia AI Data Platform: Die Nutanix Cloud Platform baut auf der Referenzarchitektur der Nvidia AI Data Platform auf und integriert Nutanix Unified Storage und Nutanix Database Service für strukturierte und unstrukturierte Daten zur Nutzung durch KI. Die Plattform Nutanix Cloud Infrastructure liefert demnach eine unternehmensinterne Basis für Nvidias Accelerated Computing-, Networking- und KI-Software, um aus Daten verwertbare Erkenntnisse zu gewinnen. Mittels Fähigkeiten wie Nvidia GPUDirect Storage biete Nutanix Unified Storage Unternehmen Software-definierten Enterprise-Storage für KI-Workloads.
Wie es zudem heisst, sei NAI auch für die Nutzung weiterer Services der Nutanix-Plattform ausgelegt und ermögliche gleichzeitig Bereitstellungen auf hyperkonvergenter Infrastruktur (HCI), Bare Metal und Cloud IaaS. NAI-Anwenderbetriebe könnten ferner die Kubernetes-Plattform von Nutanix für das Flottenmanagement containerisierter Cloud-nativer Anwendungen in der Multicloud sowie Nutanix Unified Storage (NUS) und Nutanix Database Service (NDB) als diskrete Datenservices nutzen. Dadurch entstünde eine Komplettplattform für Agentic-AI-Anwendungen.
NAI mit Agentic-Model-Unterstützung ist laut den Nutanix-Infos ab sofort allgemein erhältlich.