Gemini, l’IA di Google, sempre più potente! Tutte le novità del modello che vuole spodestare OpenAI dal trono

La mission di Google? Organizzare le informazioni del mondo attraverso ogni input, rendendole accessibili tramite qualsiasi output e combinare le informazioni del mondo con le informazioni del mondo

Sundar Pichai, ceo di Google

Il 14 maggio si è tenuto Google I/O, l’evento annuale dove l’azienda guidata da Sundar Pichai illustra le novità in arrivo. Novità che in questa occasione ruotano tutte attorno a Gemini, il Llm di Big G, che si aggiorna e arricchisce di nuove funzionalità, alcune delle quali particolarmente innovative, in grado di stravolgere l’attuale approccio che abbiamo con le IA.

Una delle principali è Riepiloghi AI, un nuovo modo di effettuare ricerche con il motore di Google fino a ora accessibile solo in modalità anteprima e ora aperto a tutti gli utenti Usa e Uk, e che a breve verrà esteso al resto del mondo. Con i riepiloghi dell’AI, le persone visitano una varietà maggiore di siti web per ricevere aiuto su domande complesse. E vediamo che i link inclusi nei riepiloghi dell’AI ottengono più clic rispetto agli scenari in cui la pagina appare in un elenco tradizionale di siti web per quella query. Man mano che li rendiamo disponibili a più persone, continueremo a impegnarci per inviare traffico di valore ai publisher e ai creator. Come sempre, gli annunci continueranno ad apparire negli spazi dedicati all’interno della pagina, con un’etichetta chiara per distinguere tra risultati organici e sponsorizzati.







Grazie alle capacità di ragionamento in più passaggi di Gemini, i riepiloghi dell’AI vi aiuteranno a trovare risposte a domande sempre più complesse. Invece di suddividere le vostre domande in varie ricerche, potete porre in un’unica volta domande più complesse, senza tralasciare nessun dettaglio o precisazione.

Ipotizziamo che stiate cercando una nuova palestra di yoga o pilates, vorreste che fosse situata sul tragitto tra casa e lavoro e che offrisse uno sconto ai nuovi iscritti. Presto, con una sola ricerca potrete chiedere, ad esempio, “trova le palestre di yoga o pilates migliori di Boston e mostrami i dettagli delle offerte per i nuovi iscritti e la distanza a piedi da Beacon Hill”.

Arriva la funzione Chiedi a Foto

Chiedi a Foto può recuperare queste informazioni quando chiedete informazioni legate alla vita personale, come ad esempio dove ci si è recati in campeggio l’anno scorso o quando scadono i voucher per la spesa. Le potenti funzionalità multimodali di Gemini possono comprendere il contesto e il soggetto delle foto, estrapolando dei dettagli. Per esempio si può chiedere: “quali sono stati i temi usati per le feste di compleanno di Lena?” Chiedi a Foto analizzerà i dettagli, come le decorazioni che ci sono sullo sfondo o sulla torta, per dare una risposta.

Grazie ai modelli Gemini, anche svolgere attività in Google Foto è più facile. Ad esempio, al termine di un lungo viaggio, può essere impegnativo raccogliere i migliori scatti da condividere con amici e familiari. Chiedi a Foto può aiutare a ricreare più facilmente i momenti più belli del viaggio. Basterà chiedere e suggerirà le foto migliori, scrivendo anche una didascalia personalizzata da condividere sui social media.

Gemini 1,5 Flash, l’IA a latenza ridottissima

In occasione di Google I/O è stato annunciato Gemini 1.5 Flash, un modello ancora più leggero di 1.5 Pro, progettato per essere veloce ed efficiente da servire su larga scala. È ottimizzato per attività ad alto volume e ad alta frequenza su larga scala, è più conveniente e presenta la nostra rivoluzionaria finestra di contesto lungo. Anche se meno potente di 1.5 Pro, ha capacità eccellenti di ragionamento multimodale su grandi quantità di informazioni e offre una qualità impressionante per le sue dimensioni.

1.5 Flash eccelle nel riassumere, nelle applicazioni di chat, nei sottotitoli di immagini e video, nell’estrazione di dati da documenti e tabelle lunghi e altro ancora. Questo perché è stato addestrato da 1.5 Pro attraverso un processo chiamato “distillazione”, in cui le conoscenze e le competenze più essenziali di un modello più grande vengono trasferite a un modello più piccolo ed efficiente.

Project Astra, il futuro degli assistenti AI

Fra le novità più interessante Project Astra, quello che il colosso considera il futuro degli assistenti virtuali.  Per essere davvero utile, un agente deve capire e rispondere alla complessità e al dinamismo del mondo, proprio come fanno le persone. Inoltre, deve recepire e ricordare ciò che vede per comprendere il contesto e agire. Deve anche essere proattivo, istruibile e personale, in modo che gli utenti possano dialogare con lui in modo naturale e senza ritardi.

Una demo in due parti di Project Astra, la nostra visione del futuro degli assistenti IA. A quanto afferma Google, ogni parte è stata catturata in un’unica ripresa, in tempo reale.

Sulla base di Gemini sono stati sviluppati agenti sperimentali che elaborano le informazioni più velocemente attraverso la codifica continua di frame, combinando l’input video e vocale in una linea temporale di eventi e memorizzando nella cache queste informazioni per un richiamo efficiente. Grazie ai modelli vocali è stato anche migliorato il modo in cui parlano, per offrendo una gamma più ampia di intonazioni. Ora gli agenti sono in grado di comprendere meglio il contesto in cui vengono utilizzati e di rispondere rapidamente nelle conversazioni.














Articolo precedenteA2A, sale (+70%) l’utile netto nel Q1 2024. Guidance rivista al rialzo
Articolo successivoLe soluzioni per la manifattura intelligente di B&R in mostra a Sps Italia (Parma, 28-30 maggio)






LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui