Oltre il cloud: Aws è la fabbrica per l’IA generativa. I casi Pirelli, Fastweb, A2A e…

di Piero Macrì ♦︎ Amazon Web Services è l'azienda che ha creato il cloud. E oggi vuole imporsi come l'infrastruttura di riferimento per i carichi di lavoro di IA. Mettendo a disposizione tutto il necessario, dai foundation model agli strumenti per sviluppatori. E anche l'hardware. I chip Trainium e Inferentia per addestramento e inferenza IA. La collaborazione con Fastweb per il Llm italiano. Energia: i casi A2A e Acea. Lo studio di Accenture sull'efficienza energetica. Se ne è parlato a margine dell'evento Aws Summit

Aws, la multinazionale del cloud con un fatturato ormai prossimo ai 100 miliardi di dollari, promuove e accelera lo sviluppo di soluzioni algoritmiche creando una vera e propria fabbrica per l’IA generativa, un ambiente di produzione che si sviluppa su tre diversi livelli. Al primo livello l’infrastruttura computazionale, al secondo il plant dei modelli generativi e al terzo l’area dove realizzare soluzioni a partire da prefabbricati applicativi.

«I server d’infrastruttura possono essere macchine molto potenti che lavorano con Gpu come quelle di Nvidia oppure server che sfruttano i chip che sviluppiamo internamente, i Trainium e gli Inferentia. La scelta dipende dalle necessità e dai costi», afferma Antonio D’Ortenzio, senior manager, solutions architecture di Aws.







Secondo lo studio di Accenture, “How moving onto the Aws cloud reduces carbon emission”, la nuova generazione di processori Trainum e Inferentia riduce del 93% le emissioni di carbonio associate alla produzione e funzionamento dei modelli generativi. «Su tutti i tre livelli dell’AI factory continuiamo ad aggiornare ed estendere le risorse mantenendo la massima apertura rispetto a nuove tecnologie che emergono sul mercato», dice D’Ortenzio. È il caso di Fastweb, che ha annunciato il porting su Aws del nuovo large language model addestrato nativamente in lingua italiana, il modello Mistral 7B che ha registrato miglioramenti prestazionali tra il 20% e il 50% sui benchmark di lingua italiana.

Secondo Julien Groues, vice president South Europe di Aws, «Il cloud è il principale sourcing tecnologico per la trasformazione digitale supportata dall’intelligenza artificiale, e lo è per aziende di ogni dimensione e settore.»,

«Il cloud è il principale sourcing tecnologico per la trasformazione digitale supportata dall’intelligenza artificiale, e lo è per aziende di ogni dimensione e settore. Il nostro obiettivo è aiutare le imprese italiane a realizzare il pieno potenziale di questa tecnologia trasformativa per semplificare i processi, guidare l’innovazione e sbloccare nuove possibilità di crescita», dice Julien Groues, vice president South Europe di Aws in occasione dell’ultimo summit milanese che ha visto la partecipazione di oltre 8.000 tra sviluppatori, imprenditori, software house e system integrator (Reply ed Engineering) che sviluppano soluzioni per il manifatturiero.

Un mercato in grande fermento

Antonio D’Ortenzio, senior manager, solutions architecture di Aws.

I risultati dell’ultima ricerca Aws confermano l’entusiasmo delle aziende italiane verso il potenziale delle tecnologie algoritmiche. Se al momento solo il 23% delle aziende afferma di aver adottato nel corso del 2023 una soluzione di IA generativa, rispetto al 18% dell’anno precedente, il 67% ritiene che la GenAi trasformerà in modo sostanziale il proprio settore entro i prossimi cinque anni, segno che l’attenzione verso le opportunità offerte da intelligenza artificiale e large language models è ai massimi livelli. Una conferma arriva da A2A, la multiutiliy milanese quotata a Piazza Affari che entrerà nella “fabbrica Aws” con l’obiettivo di integrare la GenAi nei processi aziendali a supporto di tutti i business del gruppo, dalla generazione di energia da fonti rinnovabili alla mobilità elettrica e al teleriscaldamento, in linea con i due pilastri strategici di economia circolare e transizione energetica del piano industriale.

A bordo di Aws anche Acea, uno dei principali gruppi industriali italiani che opera nei settori dell’idrico e dell’energia. L’azienda ha infatti dichiarato che investirà nel cloud Aws per dare vita a iniziative strategiche con un focus su intelligenza artificiale e Industrial Iot. Ecco la fabbrica generativa ad alta efficienza energetica di Aws, i servizi e le tecnologie abilitanti la produzione di large e small language models e l’investimento di Fastweb per supportare le imprese nello sviluppo di modelli linguistici nazionali.

L’AI factory di Amazon Web Services. Infrastruttura, modelli e strumenti di produttività

Aws, una fabbrica con tre diversi ambienti per la progettazione e produzione di soluzioni generative cui si accede in funzione di quelli che sono gli obiettivi di sviluppo. Come spiega D’Ortenzio, «Accedono direttamente all’infrastruttura quegli utenti che vogliono importare o sviluppare in autonomia, from scratch, il modello fondazionale. Al secondo livello accede invece chi vuole creare soluzioni con modelli di terze parti presenti nel repository Amazon Bedrock, tra questi Claude di Anthropic, Llama 3 di Meta, Mistral, Cohere e, prossimamente, quello di Fastweb». Infine, il terzo livello, pensato soprattutto per quelle aziende che non hanno competenze avanzate o che vogliono avere risultati immediati, portando in produzione applicazioni con il massimo della velocità. «L’IA generativa è facile da utilizzare, ma sviluppare nuovi modelli dedicati a specifiche esigenze rimane un compito che non è alla portata di tutti», afferma D’Ortenzio. Al terzo livello dall’Ai factory di Aws gli utenti utilizzano Q developer, l’assistente conversazionale che offre la possibilità di creare e testare il codice, oltre ad eseguire una serie di operazioni ripetitive che richiedono un considerevole investimento di tempo. Nello specifico, l’assistente accelera la ricerca e la risoluzione dei problemi di programmazione, l’ottimizzazione e l’aggiornamento delle applicazioni e la scansione del codice per rilevare potenziali vulnerabilità.

Tre i livelli di adozione dell’IA secondo Aws. Ci sono i clienti più evoluti, che accedono direttamente all’infrastruttura per crearsi app di IA da zero. Il secondo livello è pensato per chi vuole sviluppare app di IA utilizzando gli Llm già disponibili. Il terzo livello è invece pensato per quelle imprese che hanno scarse competenze e vogliono godere da subito dei benefici dell’IA.

Semplificazione della produzione di modelli generativi per tutti settori di industry e privacy dei dati

«Chi ha adeguate competenze, o che ha la necessità di avere un livello di sofisticazione elevato, potrà lavorare in Bedrock, al livello 2 dell’Ai factory, dove è possibile confrontare e testare i diversi modelli in modo da poter capire quello più adatto e performante in funzione dei propri obiettivi». Modelli con capacità linguistica e multimodale, in grado di conversare in linguaggio naturale o con interazioni text to image o text to video e viceversa. «Nel mondo manufacturing un primo use case è quello di Pirelli che riguarda la sicurezza del plant», dice D’Ortenzio.

Fra i clienti di Aws anche Pirelli. Grazie all’analisi della documentazione, di dati storici e real time, è stato sviluppato un agente conversazionale che fornisce all’operatore le informazioni per eseguire le operazioni di fabbrica in modo corretto, scongiurando qualsiasi fonte di rischio.

«Grazie all’analisi della documentazione, di dati storici e real time, è stato sviluppato un agente conversazionale che fornisce all’operatore le informazioni per eseguire le operazioni di fabbrica in modo corretto, scongiurando qualsiasi fonte di rischio».

Come rispondete a chi solleva obiezioni in merito alla sovranità e protezione dei dati? «Non vedo complicazioni, dice D’Ortenzio. In Italia esiste la region locale e i clienti hanno certezza che i dati non vengano trasferiti altrove. Un principio che vale ovviamente anche per i dati inerenti il training dei modelli. Non memorizziamo i dati che i clienti utilizzano per la customizzazione dei modelli generativi. Lui soltanto può avere accesso al modello supportato da propri dati»

Processori Nvidia e Aws (Trainium e Inferentia) per lo sviluppo di modelli basati su set informativi aziendali

In Aws, come già detto, oltre a tecnologia Nvidia, per l’infrastruttura si fa riferimento a due famiglie di processori, dedicate rispettivamente all’addestramento e inferenza dei modelli: per l’addestramento si usa la classe di processori Trainium, per l’inferenza i processori Inferentia. «Trainium è stato creato appositamente per l’addestramento ad alte prestazioni di modelli di IA generativa, inclusi modelli linguistici di grandi dimensioni», dice D’Ortenzio. Strumento di supporto per queste attività l’Sdk Aws Neuron, che consente agli sviluppatori di addestrare modelli su Trainium e di implementarli sugli acceleratori Inferentia. «Si riducono i tempi di addestramento da mesi a settimane, o addirittura giorni, riuscendo ad aumentare sensibilmente la produttività», dice D’Ortenzio.

L’acceleratore di IA Trainium è stato ottimizzato per addestrare l’elaborazione del linguaggio naturale, la visione artificiale e i modelli di raccomandazione utilizzati in un’ampia gamma di applicazioni, come il riepilogo del testo, la generazione di codice, la risposta alle domande, la generazione di immagini e video.

Trainium è stato ottimizzato per addestrare l’elaborazione del linguaggio naturale, la visione artificiale e i modelli di raccomandazione utilizzati in un’ampia gamma di applicazioni, come il riepilogo del testo, la generazione di codice, la risposta alle domande, la generazione di immagini e video, il rilevamento di frodi. «Acquisire i dati su cui fare i training dei modelli a disposizione è fattibile con i connettori software, più di 40, verso database Saleforce, Sap o di altre importanti applicazioni enterprise. Ci si connette alle diverse sorgenti dati e si ingloba la conoscenza nel modello sottostante in modo che sia in grado di rispondere alle domande che gli vengono poste. Ma servono buoni giacimenti. Senza dati di qualità, per quanto talento cognitivo possa avere il modello, non si va da nessuna parte. Il modello può avere miliardi di parametri, ma se non ha i dati corretti su cui lavorare non sviluppa nessuna conoscenza», dice D’Ortenzio.

Fastweb: su infrastruttura Aws il primo modello di IA generativa in lingua italiano

Walter Renna, ceo di Fastweb. La telco farà leva sui servizi di intelligenza artificiale generativa e di machine learning di per mettere a disposizione di terzi il suo large language model italiano.

A bordo di Aws anche Fastweb, uno dei principali operatori di telecomunicazioni in Italia: farà leva sui servizi di intelligenza artificiale generativa e di machine learning di per mettere a disposizione di terzi il suo large language model italiano. «Gli attuali modelli di intelligenza artificiale si affidano principalmente a dati in lingua inglese, ma una maggiore comprensione delle sfumature della lingua italiana può essere ottenuta dall’addestramento su set di dati in italiano accuratamente selezionati e di alta qualità», ha detto Walter Renna, amministratore delegato di Fastweb in occasione dell’annuncio. «Questa iniziativa strategica contribuirà a promuovere la trasformazione digitale delle organizzazioni italiane che utilizzano tecnologie all’avanguardia nell’innovazione. Rendendo questi modelli e applicazioni disponibili non solo a livello nazionale ma anche a livello globale attraverso l’ampio portafoglio di servizi di intelligenza artificiale generativa di Aws, siamo in grado di realizzare e scalare più facilmente le nostre soluzioni di intelligenza artificiale generativa, portando sul mercato nuove innovazioni più velocemente».

Efficienza energetica. I risultati dello studio Accenture

Per gestire carichi di lavoro di IA complessi, come quelli richiesti dai grandi modelli di linguaggio, Aws offre dunque una vasta gamma di hardware ottimizzato. Come si afferma nel report di Accenture, “processori progettati su misura, come i chip Trainium e Inferentia, garantiscono prestazioni significativamente superiori rispetto a istanze di calcolo comparabili. Consentono di eseguire modelli di IA in modo efficiente su larga scala, riducendo l’impronta di carbonio e migliorando le prestazioni per watt di energia consumata”.

Processori come Aws Inferentia garantiscono prestazioni significativamente superiori rispetto a istanze di calcolo comparabili. Consentono di eseguire modelli di IA in modo efficiente su larga scala, riducendo l’impronta di carbonio e migliorando le prestazioni per watt di energia consumata.

Secondo Accenture, con la crescente complessità e intensità dei dati dei carichi di lavoro di intelligenza artificiale, saranno richiesti nuovi sistemi in grado di eseguire milioni di calcoli ogni secondo, insieme a nuove infrastrutture di memoria, storage e networking. Mentre i data center on-premise faticano a tenere il passo a causa delle loro limitazioni intrinseche in termini di scalabilità ed efficienza energetica, Aws continua quindi a innovare per rendere il cloud più efficiente. «Lo studio dimostra che l’attenzione di Aws all’efficienza dell’hardware e del raffreddamento, all’energia priva di emissioni di anidride carbonica, ai processori progettati su misura e allo storage ottimizzato, può aiutare le organizzazioni a ridurre l’impronta di carbonio dei carichi di lavoro di intelligenza artificiale e machine learning», afferma Sanjay Podder, global lead for technology sustainability innovation di Accenture. Con la crescente domanda di soluzioni di intelligenza artificiale, utilizzare tecnologie sostenibili può svolgere un ruolo cruciale nel permettere alle aziende di raggiungere gli obiettivi ambientali mentre promuovono l’innovazione».














Articolo precedenteEx Ilva, Acciaierie d’Italia disponibile ad accordo condiviso su cassa integrazione
Articolo successivoPrysmian si rafforza in Nord America con l’acquisizione di Encore Wire






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui