GenAI: Nvidia Nim sbarca sulla piattaforma Red Hat OpenShift AI

L’integrazione include una serie di microservizi di inferenza di facile utilizzo inclusi nella piattaforma software Nvidia AI Enterprise

Il supporto di Nvidia Nim su Red Hat OpenShift AI si basa sull’ottimizzazione per Nvidia AI Enterprise esistente sulle tecnologie cloud ibride aperte di Red Hat.
Red Hat ha avviato l’integrazione dei microservizi Nvidia Nim su Red Hat OpenShift AI con l’obiettivo di ottimizzare l’inferenza di decine di modelli di intelligenza artificiale (AI) tramite il supporto di una piattaforma cloud ibrida AI/ML coerente e open source. L’integrazione di Nvidia Nim – una serie di microservizi di inferenza di facile utilizzo inclusi nella piattaforma software Nvidia AI Enterprise – consentirà alle organizzazioni di utilizzare Red Hat OpenShift AI per accelerare l’erogazione di applicazioni di AI generativa (GenAI) e velocizzare il time to value. Il supporto di Nvidia Nim su Red Hat OpenShift AI si basa sull’ottimizzazione per Nvidia AI Enterprise esistente sulle tecnologie cloud ibride aperte di Red Hat, fra cui Red Hat Enterprise Linux e Red Hat OpenShift. Tramite quest’ultima collaborazione, Nvidia abiliterà l’interoperabilità di Nim con KServe, un progetto open source basato su Kubernetes per casi d’uso AI altamente scalabili e un collaboratore core upstream di Red Hat OpenShift AI, contribuendo ad alimentare l’interoperabilità continua dei microservizi Nvidia Nim nelle future iterazioni di Red Hat OpenShift AI.
Chris Wright, chief technology officer e senior vice president, Global Engineering, Red Hat, ha commentato: «Grazie alla collaborazione con Nvidia, Red Hat vuole abbattere le barriere e le complessità legate alla rapida creazione, gestione e distribuzione di applicazioni abilitate dall’intelligenza artificiale generativa. Red Hat OpenShift AI fornisce una base scalabile e flessibile per estendere la portata dei microservizi Nim, consentendo agli sviluppatori di disporre di container pre-costruiti e Api standard del settore, il tutto alimentato dall’innovazione open source».
Justin Boitano, vicepresidente dei prodotti aziendali di Nvidia, ha aggiunto: «In ogni azienda, i team di sviluppo vogliono portare in produzione le proprie applicazioni di AI generativa nel modo più rapido e sicuro possibile. L’integrazione di Nvidia Nim in Red Hat OpenShift AI segna una svolta cruciale nella nostra collaborazione, in quanto aiuterà gli sviluppatori a costruire e scalare rapidamente applicazioni aziendali innovative utilizzando fondamenta e modelli di embedding ottimizzati per le prestazioni in qualsiasi cloud o data center».
Questa integrazione consente alle aziende di aumentare la produttività sfruttando le capacità dell’AI generativa in ambiti come l’ottimizzazione del servizio clienti con assistenti virtuali, la riepilogazione dei casi per i ticket IT e l’accelerazione delle operazioni aziendali con copiloti domain-specific. Utilizzando Red Hat OpenShift AI con Nvidia Nim, le aziende possono beneficiare di:
  • Un percorso di integrazione semplificato per distribuire Nvidia Nim insieme ad altri deployment di AI in un workflow comune, con l’obiettivo di favorire maggiore coerenza e una gestione semplificata.
  • Scalabilità e monitoraggio integrati per le implementazioni di Nvidia Nim strettamente correlati ad altre implementazioni di modelli di AI in ambienti hybrid cloud.
  • Sicurezza, supporto e stabilità di livello enterprise per garantire alle aziende che gestiscono il proprio business sull’AI una transizione fluida dal prototipo alla produzione.













Articolo precedenteNuova campagna pubblicitaria in Italia per il broker assicurativo Howden
Articolo successivoDrone in 5G: Qualcomm, Ericsson e Dronus completano con successo test per l’industria manifatturiera






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui