Nutanix, tra i leader nell’hybrid multicloud computing, ha annunciato l'ampliamento della sua piattaforma IA con una nuova offerta cloud-native, Nutanix Enterprise AI (NAI), che può essere implementata su qualsiasi piattaforma Kubernetes, all’edge, nei data center e nei cloud pubblici come AWS EKS, Azure AKS e Google GKE. Nutanix Enterprise AI offre un modello operativo ibrido e multicloud uniforme per accelerare i carichi di lavoro IA, permettendo alle aziende di utilizzare i propri modelli e dati in un ambiente sicuro a loro scelta e migliorando il ritorno sull'investimento. Grazie all'integrazione con NVIDIA NIM per ottimizzare le prestazioni dei modelli di base, Nutanix Enterprise AI consente alle aziende di implementare, gestire e scalare in modo sicuro gli endpoint di inferenza per modelli linguistici di grandi dimensioni (LLM) per supportare la distribuzione di applicazioni di IA generativa (GenAI) in pochi minuti, anziché in giorni o settimane.
L’IA generativa è un carico di lavoro intrinsecamente ibrido: le nuove applicazioni sono spesso sviluppate nel cloud pubblico, la messa a punto dei modelli avviene con dati privati su infrastrutture locali, e l'inferenza viene implementata il più vicino possibile alla logica di business, che può trovarsi all'edge, on premise o nel cloud pubblico. Questo flusso di lavoro GenAI ibrido e distribuito può essere sfidante per le aziende in termini di complessità, privacy dei dati, sicurezza e costi.
Nutanix Enterprise AI offre un modello operativo multicloud coerente e un metodo semplice per distribuire, scalare e gestire in sicurezza modelli linguistici di grandi dimensioni (LLM), utilizzando microservizi di inferenza ottimizzati con NVIDIA NIM, oltre a modelli open source forniti da Hugging Face. Ciò permette ai clienti di creare un'infrastruttura GenAI aziendale con la resilienza, le operazioni avanzate e la sicurezza necessarie per le applicazioni critiche per il business, sia in locale che su servizi Kubernetes gestiti come AWS Elastic Kubernetes Service (EKS), Azure Managed Kubernetes Service (AKS) e Google Kubernetes Engine (GKE).
Inoltre, Nutanix Enterprise AI offre un modello di pricing trasparente e prevedibile basato sulle risorse dell'infrastruttura, un aspetto fondamentale per i clienti che desiderano ottimizzare il ritorno dai loro investimenti in soluzioni GenAI. Ciò è in contrasto con i prezzi difficilmente prevedibili basati sull'utilizzo o sui token.
Il silenzio creativo e lo smartphone spento
Nutanix Enterprise AI è un componente di Nutanix GPT-in-a-Box 2.0. GPT-in-a-Box include anche Nutanix Cloud Infrastructure, Nutanix Kubernetes Platform e Nutanix Unified Storage, insieme a servizi per supportare le esigenze di configurazione e dimensionamento dei clienti per l'addestramento e l'inferenza on premise. Per i clienti che desiderano implementazioni nel cloud pubblico, Nutanix Enterprise AI può essere distribuito in qualsiasi ambiente Kubernetes, ma è operativamente coerente con le implementazioni on premise.
“Nutanix Enterprise AI permette in altri termin ai nostri clienti di eseguire le applicazioni GenAI in modo semplice e sicuro, sia on-premise che su cloud pubblici. Nutanix Enterprise AI può operare su qualsiasi piattaforma Kubernetes e consente alle applicazioni IA di essere eseguite in un luogo sicuro, con un modello di costo prevedibile”, puntualizza Thomas Cornely, SVP, Product Management, Nutanix.
Nutanix Enterprise AI può essere implementato con la piattaforma IA full-stack di NVIDIA ed è certificato per l’utilizzo con la piattaforma software NVIDIA AI Enterprise, inclusa NVIDIA NIM, una gamma di microservizi semplici da utilizzare e progettati per un’implementazione sicura ed affidabile di processi di inferenza dei modelli IA ad alte prestazioni. Nutanix-GPT-in-a-Box ha la certificazione NVIDIA-Certified System, garantendo prestazioni affidabili.
I benefici per i clienti
In particolare Nutanix Enterprise AI permette ai clienti di:
- Affrontare la carenza di competenze nell’ambito dell’IA. La semplicità, la flessibilità e le funzionalità integrate della piattaforma permettono agli amministratori IT di diventare amministratori dell’IA, semplificando e accelerando il lavoro dei data scientist e degli sviluppatori. Grazie a queste risorse, è possibile adattarsi rapidamente e sfruttare i modelli più avanzati insieme al computing accelerato di NVIDIA.
- Abbattere le barriere alla creazione di una piattaforma AI-ready,offrendo un flusso di lavoro intuitivo e semplice, basato su interfaccia utente, che consente ai clienti di implementare e testare endpoint di inferenza LLM in pochi minuti. La soluzione offre inoltre ampia libertà di scelta, con supporto per i microservizi NVIDIA NIM, che funzionano ovunque e garantiscono prestazioni ottimali dei modelli sia in cloud sia on premise. Nutanix Enterprise A,come si diceva, supporta anche Hugging Face e altri standard di modello. Grazie all'integrazione nativa con Nutanix Kubernetes Platform è possibile mantenere l'allineamento con l'intera Nutanix Cloud Platform oppure optare per l'esecuzione su qualsiasi runtime Kubernetes, compresi AWS EKS, Azure AKS o Google Cloud GKE, con il supporto del computing accelerato NVIDIA.
- Ridurre i rischi per la privacy e la sicurezza dei dati permettendo ai clienti di eseguire modelli e dati su risorse di calcolo sotto il loro diretto controllo. La piattaforma offre una dashboard intuitiva per la risoluzione dei problemi, l’osservabilità e il monitoraggio delle risorse utilizzate per gli LLM, oltre a controlli di accesso basati sui ruoli (RBAC) che garantiscono un accesso rapido e sicuro agli LLM, mantenendo l’accessibilità sotto controllo..
- Estendere l’infrastruttura aziendale ai carichi di lavoro GenAI. I clienti che utilizzano Nutanix Cloud Platform per applicazioni business-critical possono ora gestire i carichi di lavoro di intelligenza artificiale generativa con lo stesso livello di resilienza, le stesse operazioni di secondo livello e la stessa sicurezza tipica delle infrastrutture aziendal
"Offrendo un'esperienza coerente dall'azienda al cloud pubblico, Nutanix Enterprise AI punta a fornire una piattaforma infrastrutturale intuitiva per supportare le aziende in ogni fase del loro percorso di adozione dell’intelligenza artificiale, dal cloud pubblico fino all'edge," ha sintetizzato Dave Pearson, Infrastructure Research VP di IDC.