Le novità AI annunciate da Google a marzo 2026

apr 1, 2026

Ecco le innovazioni di Google a tema intelligenza artificiale lanciate nelle ultime settimane.

Le novità AI annunciate da Google a marzo 2026

Dopo il Gemini Drop, con il riassunto di tutti i miglioramenti arrivati per app e chatbot, Google pubblica anche il riepilogo generale di tutte le novità AI annunciate a marzo 2026. Eccolo a seguire.

Search Live è stato distribuito in più di 200 paesi e territori in cui la modalità AI è disponibile. È possibile toccare l'icona "Live" nell'app Google per avviare un dialogo fluido utilizzando la voce o il feed della fotocamera — ideale per la risoluzione di problemi a mani libere, suggerimenti di viaggio in tempo reale o l'identificazione di oggetti in movimento. Google ha inoltre reso disponibile Canvas in modalità AI in tutti gli Stati Uniti in lingua inglese, offrendo uno spazio di lavoro dedicato e dinamico per organizzare piani e progetti a lungo termine. Lo strumento è più capace che mai grazie al nuovo supporto per la scrittura creativa e le attività di codifica direttamente all'interno di Search.

Google ha semplificato la creazione con Gemini in Documenti, Fogli, Presentazioni e Drive. Gli abbonati a AI Ultra e Pro possono ora accedere a strumenti AI avanzati e alla produttività in Documenti, Fogli, Presentazioni e Drive. Gemini può sintetizzare in modo sicuro le informazioni tra file, email e il web per scoprire spunti utili e connettere i punti per l'utente, mantenendo i dati salvaguardati. In particolare, Gemini in Fogli ha raggiunto prestazioni all'avanguardia, rendendolo un partner più potente per l'analisi di dati complessi e le attività collaborative.

Google ha dato a Google Maps un importante aggiornamento con Gemini. Questo aggiornamento ha introdotto Ask Maps, un'esperienza conversazionale che risponde a domande complesse come: "Dove posso caricare il telefono senza una lunga attesa per un caffè?". Può persino effettuare prenotazioni durante gli spostamenti. I conducenti stanno ottenendo anche un'esperienza ridisegnata con Immersive Navigation, che utilizza immagini del mondo reale e indicazioni naturali per semplificare il percorso e ridurre lo stress su strada.

Google ha esteso la Personal Intelligence a più persone. Google ha portato la Personal Intelligence nella modalità AI in Search, Gemini in Chrome e nell'app Gemini in tutti gli Stati Uniti. Che si tratti di consigli per gli acquisti che si adattano effettivamente allo stile dell'utente o di un itinerario di viaggio costruito dai propri piani, la Personal Intelligence si connette in modo sicuro con le app Google — come Gmail e Foto — per fornire risultati più personalizzati. L'utente ha sempre il controllo: sceglie cosa connettere e può modificare queste impostazioni in qualsiasi momento.

Google ha introdotto strumenti per aiutare le persone a passare a Gemini. Passare a un assistente AI più utile non dovrebbe significare perdere la propria cronologia, e le nuove funzioni di importazione della memoria e della cronologia delle chat consentono di migrare istantaneamente le chat e il contesto da altre app AI direttamente in Gemini. Esse rendono facile garantire che le preferenze personali seguano l'utente in Gemini, così da non dover mai ricominciare da zero.

Google ha rilasciato nuove funzionalità AI per i dispositivi nel Pixel Drop di marzo. L'ultimo rilascio punta a rendere i dispositivi più intuitivi. Cerchia e Cerca può ora scomporre un intero look da una foto, aiutando a trovare ogni pezzo di un outfit, dal cappotto alle scarpe; e Gemini usa Magic Cue per far emergere consigli sui ristoranti direttamente nelle chat. Il rilascio aggiunge anche comodità quotidiane come la cronologia musicale di Now Playing e nuove funzioni per Pixel Watch, tra cui Express Pay e il blocco del telefono.

Google ha esteso la traduzione dal vivo per le cuffie su iOS e in più paesi. La traduzione dal vivo con le cuffie di Google Translate è arrivata su iOS e Google ha esteso la funzionalità sia per gli utenti iOS che Android in ancora più luoghi. La traduzione dal vivo aiuta a capire istantaneamente e a connettersi con il mondo circostante direttamente attraverso qualsiasi paio di cuffie in oltre 70 lingue.

Google ha annunciato nuovi strumenti e partnership per supportare la salute a The Check Up 2026. Durante l'evento annuale sulla salute, Google ha condiviso come l'AI possa aiutare a innescare scoperte mediche e portare assistenza sanitaria di qualità a tutti, ovunque. Google sta fornendo 10 milioni di dollari in finanziamenti per aiutare le organizzazioni a reimmaginare la formazione clinica nell'era dell'AI e sta esplorando nuove partnership con i leader della sanità rurale focalizzate su istruzione, erogazione delle cure e ricerca. Inoltre, Fitbit sta migliorando ulteriormente il monitoraggio della salute con espansioni del coach sanitario personale in Public Preview che forniranno consigli più personalizzati sul sonno e sulla salute generale, la possibilità di collegare le cartelle cliniche all'app Fitbit, oltre a nuove funzioni per la salute del ciclo, il benessere mentale e la registrazione di nutrizione e acqua.

Google ha introdotto Lyria 3 Pro per una generazione musicale avanzata. Questo aggiornamento porta il modello musicale più avanzato di Google in più prodotti, consentendo di generare tracce lunghe fino a tre minuti con un controllo granulare su elementi specifici come intro, strofe e ponti. Inoltre, Lyria e Lyria 3 sono ora disponibili in public preview per gli sviluppatori tramite l'API Gemini e Google AI Studio, ampliando gli strumenti disponibili per l'espressione creativa dell'AI.

Google ha rilasciato Gemini 3.1 Flash-Lite e Gemini 3.1 Flash Live. Flash-Lite è il modello più veloce e conveniente mai realizzato finora. È costruito per gestire rapidamente carichi di lavoro pesanti senza compromettere la qualità. La sua bassa latenza lo rende una soluzione ideale per costruire esperienze reattive e in tempo reale, mantenendo una significativa efficienza dei costi per implementazioni su larga scala. Inoltre, Google ha rilasciato Gemini 3.1 Flash Live, il miglior modello audio ad oggi. È veloce e nitido quanto basta per sembrare una conversazione reale, ed è già attivo in più di 200 paesi tramite Search Live e Gemini Live. Riducendo il ritardo e aumentando la precisione, Google sta aiutando gli sviluppatori e le aziende a costruire strumenti affidabili per i propri clienti.

Google ha lanciato un'esperienza di vibe coding potenziata in Google AI Studio. Costruire un'app dovrebbe essere facile come parlarne. Google AI Studio ora consente di trasformare i prompt in app pronte per la produzione, utilizzando il nuovo agente di codifica Google Antigravity. È possibile utilizzare la modalità Build per costruire esperienze multiplayer, aggiungere database, connettersi a servizi del mondo reale e altro ancora. Il nuovo agente AI ha una comprensione molto più profonda dell'intero progetto, il che significa iterazioni più veloci e modifiche del codice più precise, e memorizza in modo sicuro le chiavi API consentendo di riprendere esattamente da dove si era interrotto. Bisogna andare su Google AI Studio per iniziare a costruire.

Google ha guardato indietro a 10 anni di impatto di AlphaGo. Un decennio dopo la sua storica vittoria contro un campione del mondo di un gioco incredibilmente complesso, Google ha ricordato come AlphaGo abbia dimostrato che l'AI può navigare nelle sfide più complesse del mondo e comprendere meglio le vaste complessità del mondo fisico. Questa pietra miliare è servita come scintilla fondamentale per AlphaFold nel risolvere il problema del "ripiegamento delle proteine" vecchio di 50 anni. Mappando finalmente queste strutture 3D, AlphaFold ha aperto la porta a una migliore comprensione delle malattie e a una nuova era di scoperte scientifiche guidate dall'AI.

Ulteriori riferimenti a risorse utili dal post di Google qui.

Modulo di contatto

Archivio