Salta al contenuto

Google presenta EmbeddingGemma, un nuovo strumento per l'incorporazione di attività di intelligenza artificiale su dispositivi personali

Google introduce EmbeddingGemma, un modello multilingue con 308 milioni di parametri, progettato per dispositivi mobili con memoria RAM minima (sotto i 200MB) e tempi di inferenza rapidi (15 ms).

Google presenta EmbeddingGemma, uno strumento per eseguire compiti di incorporamento AI...
Google presenta EmbeddingGemma, uno strumento per eseguire compiti di incorporamento AI direttamente sui dispositivi

Google presenta EmbeddingGemma, un nuovo strumento per l'incorporazione di attività di intelligenza artificiale su dispositivi personali

Google ha annunciato il rilascio di EmbeddingGemma, un modello di incorporazione del testo rivoluzionario, il 4 settembre 2025. Questo modello rappresenta un passo importante nel campo delle applicazioni dell'IA sul dispositivo.

EmbeddingGemma, seguito da VisionSynth a dicembre 2025, si distingue per le sue impressionanti funzionalità e capacità. Con 308 milioni di parametri, guida la sua categoria in termini di dimensioni, offrendo prestazioni di livello superiore.

Uno dei principali vantaggi di EmbeddingGemma è la sua efficienza. Grazie all'adozione di tecniche di quantizzazione, opera su meno di 200MB di RAM, rendendolo adatto per dispositivi quotidiani come smartphone, laptop e tablet.

La versatilità del modello è un'altra caratteristica degna di nota. EmbeddingGemma si integra senza problemi con vari framework di sviluppo dell'IA, tra cui Sentence Transformers, llama.cpp e LMStudio. Questa integrazione consente l'affinamento specifico del dominio, aprendo nuove applicazioni come la ricerca di contenuti personalizzati, la funzionalità del chatbot offline e i sistemi di raccomandazione che preservano la privacy.

EmbeddingGemma affronta anche la crescente domanda dei consumatori di funzionalità dell'IA che mantengono il controllo e la privacy dei dati. Genera incorporazioni direttamente sull'hardware dell'utente, senza richiedere la connessione a Internet, garantendo che i dati dell'utente rimangano sicuri.

In termini di prestazioni, EmbeddingGemma offre velocità di inferenza impressionanti. Per 256 token di input su hardware EdgeTPU, il modello può elaborare i compiti in meno di 15 millisecondi.

I team di marketing possono utilizzare EmbeddingGemma per vari scopi. Ad esempio, può essere utilizzato per l'analisi dei dati dei clienti, la corrispondenza della similarità dei contenuti e i motori di personalizzazione, tutto senza la necessità di condividere i dati esterni.

Inoltre, i dati di addestramento per EmbeddingGemma coprono oltre 100 lingue, eliminando la necessità di ulteriori requisiti di localizzazione nelle applicazioni globali.

La posizione di EmbeddingGemma sul mercato in crescita dell'IA sul dispositivo è strategica, poiché compete con modelli di incorporazione più grandi offrendo prestazioni comparabili in un pacchetto più piccolo adatto al deployment mobile.

La disponibilità di modelli di incorporazione di alta qualità per il deployment sul dispositivo ha importanti implicazioni per lo sviluppo della tecnologia del marketing. EmbeddingGemma, con la sua capacità di operare completamente sull'hardware locale attraverso i pipeline di Generazione Augmentata del Rilievo, è destinato a ridefinire il panorama delle applicazioni dell'IA.

EmbeddingGemma è ora disponibile attraverso piattaforme popolari come Hugging Face, Kaggle e Vertex AI, rendendolo accessibile agli sviluppatori di tutto il mondo. Con l'arrivo di VisionSynth, è chiaro che Google è impegnato a spingere i limiti della tecnologia dell'IA sul dispositivo.

Leggi anche:

Più recente