Alleanza Red Hat-Run:ai per massimizzare le risorse Gpu e semplificare i flussi di lavoro AI

La piattaforma di orchestrazione consente alle aziende di ottenere il massimo dalle risorse AI a disposizione

Le Gpu sono i motori di calcolo che guidano i flussi di lavoro dell’AI, consentendone l’addestramento dei modelli, l’inferenza e la sperimentazione.

Red Hat ha ufficializzato una collaborazione con Run:ai, leader nell’ottimizzazione e nell’orchestrazione dell’AI, per portare le funzionalità di allocazione delle risorse di Run:ai su Red Hat OpenShift AI. Semplificando le operazioni AI e ottimizzando l’infrastruttura sottostante, questa collaborazione consente alle aziende di ottenere il massimo dalle risorse AI a disposizione, ottimizzando i flussi di lavoro sia hardware che dei team, su una piattaforma MLOps affidabile per la creazione, la messa a punto, la distribuzione e il monitoraggio di applicazioni e modelli abilitati all’AI su scala. Le Gpu sono i motori di calcolo che guidano i flussi di lavoro dell’AI, consentendone l’addestramento dei modelli, l’inferenza e la sperimentazione. L’utilizzo di questi processori specializzati, tuttavia, può comportare costi notevoli, soprattutto nel caso di compiti distribuiti di addestramento e inferenza. Red Hat e Run:ai stanno lavorando per soddisfare questa esigenza critica di ottimizzazione delle risorse Gpu con Run:ai’s certified OpenShift Operator on Red Hat OpenShift AI, che aiuta gli utenti a scalare e ottimizzare i loro carichi di lavoro AI ovunque si trovino.

Steven Huels, vicepresidente e direttore generale della business unit AI, Red Hat, ha dichiarato: «La crescente adozione dell’AI e la domanda di Gpu impone alle aziende di ottimizzare la propria piattaforma AI per ottenere il massimo dalle proprie operazioni e infrastrutture, indipendentemente dalla loro collocazione nel cloud ibrido. Grazie alla nostra collaborazione con Run:ai, stiamo consentendo alle organizzazioni di massimizzare i carichi di lavoro AI su scala senza sacrificare l’affidabilità di una piattaforma AI/ML o le risorse Gpu preziose, ovunque sia necessario».







Omri Geller, ceo e fondatore di Run:ai, ha aggiunto: «Siamo entusiasti di collaborare con Red Hat OpenShift AI per accrescere la potenza delle operation AI. Combinando i punti di forza MLOps di Red Hat OpenShift con l’esperienza di Run:ai nella gestione delle infrastrutture di intelligenza artificiale, stiamo innalzando gli standard dell’AI aziendale fornendo scalabilità continua e gestione ottimizzata delle risorse».

La piattaforma di orchestrazione di calcolo cloud-native di Run:ai su Red Hat OpenShift AI aiuta a:

  • Risolvere problemi di pianificazione delle Gpu per i carichi di lavoro AI con uno schedulatore dedicato per assegnare più facilmente le priorità ai carichi di lavoro mission-critical e consentire l’allocazione delle giuste risorse per supportare tali carichi di lavoro.
  • Utilizzare Gpu frazionali e capacità di monitoraggio per allocare dinamicamente le risorse in base alle priorità e alle policy preimpostate e aumentare l’efficienza dell’infrastruttura.
  • Migliorare controllo e visibilità sull’infrastruttura di Gpu condivisa per facilitare l’accesso e l’allocazione delle risorse tra i team IT, di data science e di sviluppo delle applicazioni.

L’operatore OpenShift certificato di Run:ai è già ora disponibile. In futuro, Red Hat e Run:ai intendono continuare a sviluppare questa collaborazione con ulteriori capacità di integrazione per Run:ai su Red Hat OpenShift AI, con l’obiettivo di supportare esperienze più fluide per i clienti e di accelerare ulteriormente il passaggio dei modelli AI nei flussi di lavoro di produzione con una coerenza ancora maggiore.














Articolo precedenteVersalis (Eni) e Forever Plast insieme nei riciclati per contatto alimentare
Articolo successivoEconomia circolare: Osai GreenTech sceglie la tecnologia digitale di Siemens per il recupero dei metalli preziosi






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui