IA più sicura e affidabile con Granite 3.0, i modelli linguistici di terza generazione di Ibm

I modelli sono stati addestrati su oltre 12 trilioni di token e su dati provenienti da 12 lingue e 116 linguaggi di programmazione diversi

Sui benchmark accademici standard definiti dalla OpenLlm Leaderboard di Hugging Face, le prestazioni complessive del modello Granite 3.0 8B Instruct sono in media superiori a quelle dei modelli open-source di dimensioni simili di Meta e Mistral.

In occasione dell’evento annuale TechXchange di Ibm è stata svelata Granite 3.0, la famiglia di modelli di intelligenza artificiale finora più avanzata. I modelli linguistici di terza generazione Ibm Granite superano o eguagliano sui principali benchmark le prestazioni dei modelli di dimensioni simili dei principali fornitori di modelli con le migliori prestazioni, trasparenza e sicurezza della categoria. In linea con l’impegno dell’azienda nei confronti dell’AI open-source, i modelli Granite sono rilasciati con una licenza Apache 2.0 senza restrizioni, che li rende unici per la combinazione di prestazioni, flessibilità e diritti che offre alle imprese e alla comunità. I nuovi modelli Granite 8B e 2B sono stati progettati come modelli solidi e affidabili per l’AI in ambito aziendale, in grado di offrire prestazioni all’avanguardia e costi contenuti per attività quali Rag (Retrieval Augmented Generation), classificazione, riepilogo, estrazione di entità e utilizzo di strumenti. Questi modelli compatti e versatili sono progettati per essere addestrati con i dati aziendali e integrati in modo fluido in qualsiasi ambiente aziendale o flusso di lavoro.

Mentre la maggior parte dei modelli linguistici di grandi dimensioni (Llm) viene invece addestrata su dati pubblici, la gran parte dei dati aziendali non viene sfruttata. Combinando Granite con i dati aziendali e utilizzando metodi di riaddestramento come InstructLab – introdotto da Ibm e RedHat a maggio – Ibm ritiene che le aziende possano ottenere prestazioni specifiche in grado di competere con modelli più grandi a una frazione del costo (sulla base di una gamma osservata di costi inferiori di 3-23 volte rispetto ai modelli di frontiera di grandi dimensioni in diversi iniziali proof-of-concept). La pubblicazione di Granite 3.0 riafferma l’impegno di Ibm per la trasparenza, la sicurezza e l’attendibilità. La relazione tecnica di Granite e la guida all’uso responsabile forniscono un’ampia documentazione dei set di dati utilizzati per addestrare questi modelli, i dettagli delle fasi di filtraggio, pulizia e cura applicate e i dati completi sulle prestazioni dei modelli rispetto ai principali benchmark accademici e aziendali. In particolare, Ibm fornisce una garanzia di proprietà intellettuale per tutti i modelli Granite su watsonx.ai, in modo che i clienti i possano essere più sicuri di integrare i loro dati ai modelli.







Nuovi traguardi: i benchmark di Granite 8B e 2B

I modelli linguistici Granite stanno dimostrando anche risultati promettenti in termini di prestazioni. Sui benchmark accademici standard definiti dalla OpenLlm Leaderboard di Hugging Face, le prestazioni complessive del modello Granite 3.0 8B Instruct sono in media superiori a quelle dei modelli open-source di dimensioni simili di Meta e Mistral. Nel benchmark di sicurezza AttaQ di Ibm, il modello Granite 3.0 8B Instruct è in testa in tutte le dimensioni della sicurezza rispetto ai modelli Meta e Mistral. Su attività di core business come il Retrieval Augmented Generation, e di Cybersecurity, il modello Granite 8B mostra in media prestazioni complessivamente migliori rispetto ai modelli open-source di dimensioni simili di Mistral e Meta.

I modelli Granite 3.0 sono stati addestrati su oltre 12 trilioni di token e su dati provenienti da 12 lingue e 116 linguaggi di programmazione diversi, utilizzando un nuovo metodo di addestramento in due fasi, avvalendosi dei risultati di diverse migliaia di esperimenti concepiti per ottimizzare la qualità e la selezione dei dati e i parametri di addestramento. Entro la fine dell’anno, i modelli 8B e 2B includeranno anche il supporto per la lunghezza del contesto estesa a 128K e le capacità di comprensione multimodale dei documenti. Dimostrando un eccellente equilibrio tra prestazioni e costi di inferenza, Ibm offre i suoi modelli con architettura Granite Mixture of Experts (MoE), Granite 1B A400M e Granite 3B A800M più piccoli e leggeri che possono essere utilizzati per applicazioni a bassa latenza e per implementazioni basate su cpu.

Ibm annuncia anche una versione aggiornata dei suoi modelli Granite pre-addestrati, le cui prime versioni sono state rilasciate all’inizio di quest’anno. Questi nuovi modelli sono addestrati su un numero di dati 3 volte superiore e offrono prestazioni ineguagliabili su benchmark di serie temporali, superando modelli 10 volte più grandi come quelli di Google e Alibaba. I modelli aggiornati offrono inoltre una maggiore flessibilità di modellazione, grazie al supporto di variabili esterne e previsioni continue.

I modelli Granite Guardian 8B e 2B offrono la serie più completa di funzionalità di rilevamento dei rischi e dei danni oggi disponibile sul mercato

Nell’ambito di questa release, Ibm introduce anche una nuova famiglia di modelli Granite Guardian che consentono agli sviluppatori di applicazioni di implementare barriere di sicurezza controllando i prompt degli utenti e le risposte dell’Llm rispetto ad una serie di rischi. I modelli Granite Guardian 8B e 2B offrono la serie più completa di funzionalità di rilevamento dei rischi e dei danni oggi disponibile sul mercato. Oltre alle misurazioni di aspetti dannosi legati ad esempio al pregiudizio sociale, odio, tossicità, blasfemia, violenza, jailbreaking e altro ancora, questi modelli forniscono anche una serie di controlli unici e specifici per i Rag, come la fondatezza, la rilevanza del contesto e la rilevanza delle risposte. Nei test approfonditi, condotti su oltre 19 benchmark di sicurezza e Rag, il modello Granite Guardian 3.0 8B ha ottenuto un’accuratezza complessiva nel rilevamento di questi aspetti superiore in media a tutte e tre le generazioni di modelli Llama Guard di Meta. Inoltre, ha mostrato prestazioni complessive pari a quelle dei modelli specializzati nel rilevamento delle allucinazioni WeCheck e MiniCheck. Sebbene i modelli Granite Guardian siano derivati dai corrispondenti modelli linguistici Granite, possono essere utilizzati da chiunque per implementare protezioni da abbinare a qualsiasi modello di intelligenza artificiale open o proprietario.

L’intera suite di modelli Granite 3.0 e i modelli time series aggiornati sono disponibili per il download su HuggingFace sotto la licenza senza restrizioni Apache 2.0. Le varianti di istruzione dei nuovi modelli linguistici Granite 3.0 8B e 2B e i modelli Granite Guardian 3.0 8B e 3B sono disponibili da oggi per uso commerciale sulla piattaforma Ibm watsonx. Una selezione dei modelli Granite 3.0 sarà disponibile anche come microservizi Nvidia Nim e attraverso le integrazioni Vertex AI Model Garden di Google Cloud con HuggingFace. Per aiutare gli sviluppatori a scegliere, a semplificare l’uso e a supportare le implementazioni locali, una serie curata di modelli Granite 3.0 è disponibile anche su Ollama e Replicate. L’ultima generazione di modelli Granite amplia il solido catalogo open-source di Ibm con potenti Llm adatti allo scopo. Ibm ha collaborato con partner dell’ecosistema come Aws, Docker, Domo, attraverso il suo Qualcomm AI Hub, Salesforce, Sap e altri per integrare i modelli Granite nelle offerte di questi partner o per rendere i modelli Granite disponibili sulle loro piattaforme, offrendo una maggiore scelta alle aziende di tutto il mondo.

Ibm continua a far evolvere il suo portafoglio di tecnologie per assistenti AI

Ibm sta facendo progredire l’AI per le imprese attraverso uno spettro di tecnologie che varia dai modelli, agli assistenti e strumenti necessari per mettere a punto e distribuire l’AI basandosi sui dati e i casi d’uso specifici delle aziende. Ibm sta anche aprendo la strada a futuri agenti di intelligenza artificiale in grado di auto-dirigersi, riflettere ed eseguire compiti complessi in ambienti aziendali dinamici. Ibm continua a far evolvere il suo portafoglio di tecnologie per assistenti AI: da watsonx Orchestrate, che aiuta le aziende a creare i propri assistenti tramite strumenti e automazione low-code, a un’ampia gamma di assistenti precostituiti per attività e settori specifici come il servizio clienti, le risorse umane, le vendite e il marketing.

Le organizzazioni di tutto il mondo hanno utilizzato watsonx Assistant per costruire assistenti AI per attività come rispondere alle domande di routine dei clienti o dei dipendenti, modernizzare i loro mainframe e le applicazioni IT legacy, aiutare gli studenti a esplorare potenziali percorsi di carriera o fornire assistenza digitale per i mutui agli acquirenti di case. Oggi Ibm ha presentato la nuova generazione di watsonx Code Assistant, alimentata dai modelli di codice Granite, per offrire un’assistenza generica alla codifica in linguaggi come C, C++, Go, Java e Python, con funzionalità di modernizzazione delle applicazioni avanzate per le applicazioni Java aziendali. Le funzionalità di codice di Granite sono ora accessibili anche attraverso un’estensione di Visual Studio Code, Ibm Ibm Granite.Code. Ibm sta inoltre introducendo nuovi strumenti per aiutare gli sviluppatori a costruire, personalizzare e distribuire l’AI in modo più efficiente tramite watsonx.ai, tra cui framework per agire in autonomia, integrazioni con ambienti esistenti e automazioni low-code per casi d’uso comuni come Rag e agenti.

Ibm sta inoltre sviluppando tecnologie di agenti AI in grado di garantire una maggiore autonomia, un ragionamento sofisticato e la risoluzione di problemi in più fasi. La versione iniziale del modello Granite 3.0 8B è dotata di supporto per le principali funzioni per agire in autonomia, come il ragionamento avanzato e un modello di chat altamente strutturato e uno stile di prompting per l’implementazione di flussi di lavoro per l’utilizzo di strumenti. Ibm sta inoltre introducendo una nuova funzionalità di chat con agenti AI in Ibm watsonx Orchestrate, che utilizza le funzionalità per agire in autonomia per orchestrare assistenti AI, competenze e automazioni che aiutino gli utenti ad aumentare la produttività dei loro team8. Nel 2025 Ibm continuerà a sviluppare funzionalità di agenti in tutto il suo portafoglio, compresi agenti precostituiti per domini e casi d’uso specifici.

Ampliata la piattaforma di delivery basata sull’AI a disposizione dei consulenti Ibm

Ibm annuncia anche un’importante espansione della sua piattaforma di delivery basata sull’AI, Ibm Consulting Advantage. La piattaforma multi-modello contiene agenti AI, applicazioni e metodi come framework ripetibili che consentono a 160.000 consulenti IBM di fornire ai clienti un valore migliore e più rapido a un costo inferiore.














Articolo precedenteQuattro dipartimenti governativi UK scelgono Oracle Cloud per migliorare i servizi aziendali
Articolo successivoCfe Finance Group punta sul metaverso industriale con l’acquisizione del 100% di TechStar






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui