Ecco l'elenco completo, con video e podcast riassuntivo, di tutte le novità annunciate da Google all'evento I/O 2025.
Anche quest'anno, Google ha pubblicato il suo post con le 100 'cose' annunciate all'evento I/O 2025. Dopo i dettagli con tutte le novità in arrivo dalla più importante conferenza per sviluppatori di Big G, dunque, eccoci a proporvi l'elenco, con anche diversi video, ti tutto ciò che abbiamo visto ed ascoltato a I/O nei giorni scorsi.
In fondo all'articolo, se preferite, potete ascoltare anche il podcast di 40 minuti che riassume tutto l'evento con tutte le note di rilascio.
100 annunci di Google all'evento I/O 2025
- La modalità AI sta iniziando a essere disponibile per tutti negli Stati Uniti direttamente nella Ricerca. Ma se si vuole accedervi subito, si può accedere tramite Labs.
- Per le domande in cui si desidera una risposta ancora più approfondita, Google sta integrando funzionalità di ricerca approfondita nella modalità AI in Labs, con Deep Search.
- Le funzionalità live di Project Astra arriveranno in modalità AI in Labs. Con Search Live, in arrivo quest'estate, gli utenti potranno interagire con Search in tempo reale su ciò che vedono, utilizzando la propria fotocamera.
- Google sta inoltre estendendo le funzionalità agentiche di Project Mariner ad AI Mode in Labs, a partire dai biglietti per eventi, dalle prenotazioni di ristoranti e dagli appuntamenti locali.
- Prossimamente: quando si ha bisogno di ulteriore supporto per elaborare numeri o visualizzare dati, la modalità AI in Labs analizzerà set di dati complessi e creerà grafici che li renderanno più realistici, il tutto personalizzato per la query dell'utente. Google lo applicherà anche alle query su sport e finanza.
- Google sta introducendo una nuova esperienza di acquisto AI Mode che unisce funzionalità di intelligenza artificiale avanzate al Shopping Graph di Google per aiutare gli utenti a cercare ispirazione, riflettere attentamente e trovare il prodotto giusto per loro.
- Si può provarlo subito! Si possono provare virtualmente miliardi di inserzioni di abbigliamento semplicemente caricando una propria foto. L'esperimento "prova" di Google è disponibile per gli utenti di Search Labs negli Stati Uniti a partire da oggi: ci si può iscrivere subito per provarlo.
- Google ha anche presentato un nuovo checkout agente per aiutare gli utenti ad acquistare a un prezzo adatto al proprio budget con facilità. Basta toccare "monitora prezzo" su qualsiasi scheda prodotto, impostare l'importo desiderato e Google farà sapere se il prezzo scende.
- Google ha condiviso alcuni aggiornamenti sulle panoramiche AI: dall'I/O dello scorso anno, le panoramiche AI hanno raggiunto 1,5 miliardi di utenti mensili in 200 paesi e territori. Ciò significa che la Ricerca Google sta portando l'IA generativa a più persone di qualsiasi altro prodotto al mondo.
- Nei mercati più grandi di Google, come Stati Uniti e India, le panoramiche AI stanno determinando un aumento di oltre il 10% nell'utilizzo di Google per i tipi di query che mostrano le panoramiche AI.
- E a partire da questa settimana, Gemini 2.5 arriverà per la ricerca sia in modalità AI che in panoramiche AI negli Stati Uniti.
- Gemini è ora un compagno di studio ancora migliore grazie alla nuova funzione di quiz interattivi di Google. Si può semplicemente chiedere a Gemini di "creare un quiz di pratica su..." e Gemini genererà le domande.
- Nelle prossime settimane Google renderà Gemini Live ancora più personale collegando alcune delle app Google preferite dagli utenti, così si potranno eseguire azioni durante una conversazione, come aggiungere qualcosa al proprio calendario o chiedere maggiori dettagli su una posizione. Google inizierà con Google Maps, Calendar, Tasks e Keep, con altre app collegate in seguito.
- A partire da oggi, le funzionalità di condivisione della fotocamera e dello schermo di Gemini Live inizieranno a essere disponibili non solo su Android, ma anche per gli utenti dell'app Gemini su iOS.
- A partire da oggi, Google introduce un nuovo menu "Crea" all'interno di Canvas che aiuta gli utenti a esplorare le potenzialità di Canvas, consentendo di trasformare il testo in infografiche interattive, pagine web, quiz immersivi e persino panoramiche audio in stile podcast in 45 lingue.
- Da oggi si possono caricare PDF e immagini direttamente in Deep Research, così i report di ricerca saranno basati su una combinazione di informazioni pubbliche e dettagli forniti dall'utente.
- Presto si potranno collegare i propri documenti da Drive o da Gmail e personalizzare le fonti da cui Deep Research attinge, come la letteratura accademica.
- Google ha annunciato la Modalità Agente, una funzionalità sperimentale che permetterà agli utenti di descrivere semplicemente il proprio obiettivo finale e Gemini si occuperà di tutto per loro. Una versione sperimentale della Modalità Agente nell'app Gemini sarà presto disponibile per gli abbonati a Google AI Ultra.
- Gemini in Chrome inizierà a essere distribuito su desktop agli abbonati a Google AI Pro e Google AI Ultra negli Stati Uniti che utilizzano l'inglese come lingua di Chrome su Windows e macOS.
- L'app Gemini conta ora oltre 400 milioni di utenti attivi al mese.
- Con l'ultimo aggiornamento di Google, Gemini 2.5 Pro è ora il modello leader a livello mondiale nelle classifiche WebDev Arena e LMArena.
- Google sta integrando LearnLM direttamente in Gemini 2.5, che ora è il modello di apprendimento leader a livello mondiale. Come dettagliato nell'ultimo report di Google, Gemini 2.5 Pro ha superato la concorrenza in ogni categoria di principi di apprendimento scientifico.
- Google ha introdotto una nuova versione di anteprima del suo modello principale, Gemini 2.5 Flash, con prestazioni più elevate nelle attività di codifica e ragionamento complesso, ottimizzate per velocità ed efficienza.
- 2.5 Flash è ora disponibile per tutti nell'app Gemini e Google renderà la sua versione aggiornata generalmente disponibile in Google AI Studio per gli sviluppatori e in Vertex AI per le aziende all'inizio di giugno, con 2.5 Pro subito dopo.
- 2.5 Pro migliorerà ulteriormente con Deep Think, una modalità di ragionamento sperimentale e avanzata per calcoli matematici e di codifica altamente complessi.
- Google sta introducendo nuove funzionalità sia nella versione 2.5 Pro che nella 2.5 Flash, tra cui misure di sicurezza avanzate. Il nuovo approccio alla sicurezza di Google ha contribuito ad aumentare significativamente il livello di protezione di Gemini contro gli attacchi di iniezione indiretta di prompt durante l'utilizzo dello strumento, rendendo Gemini 2.5 la famiglia di modelli più sicura fino ad oggi.
- Google sta integrando le funzionalità di utilizzo del computer di Project Mariner nell'API Gemini e in Vertex AI. Aziende come Automation Anywhere, UiPath, Browserbase, Autotab, The Interaction Company e Cartwheel ne stanno esplorando il potenziale e Google non vede l'ora di estenderlo ulteriormente agli sviluppatori, consentendo loro di sperimentarlo quest'estate.
- Sia la versione 2.5 Pro che Flash includeranno ora riepiloghi dei pensieri nell'API Gemini e in Vertex AI. I riepiloghi dei pensieri prendono i pensieri grezzi del modello e li organizzano in un formato chiaro con intestazioni, dettagli chiave e informazioni sulle azioni del modello, ad esempio quando utilizza strumenti.
- Google ha lanciato la versione 2.5 Flash con budget di pensiero per offrire agli sviluppatori un maggiore controllo sui costi bilanciando latenza e qualità, e sta estendendo questa funzionalità alla versione 2.5 Pro. Questo consente di controllare il numero di token che un modello utilizza per pensare prima di rispondere, o persino di disattivarne le capacità di pensiero. Gemini 2.5 Pro con budget sarà disponibile al pubblico per un utilizzo in produzione stabile nelle prossime settimane, insieme al modello disponibile al pubblico di Google.
- Google ha aggiunto il supporto SDK nativo per le definizioni del Model Context Protocol (MCP) nell'API Gemini per una più facile integrazione con gli strumenti open source. Google sta anche esplorando nuove modalità per implementare server MCP e altri strumenti ospitati, semplificando la creazione di applicazioni agentiche.
- Google ha introdotto un nuovo modello di ricerca, chiamato Gemini Diffusion. Questo modello di diffusione del testo impara a generare output convertendo il rumore casuale in testo o codice coerente, proprio come funzionano gli attuali modelli di generazione di immagini e video di Google. Google continuerà a lavorare su diversi approcci per ridurre la latenza in tutti i modelli Gemini, con una versione Flash Lite 2.5 più veloce in arrivo a breve.
- Google ha introdotto Google AI Ultra, un nuovo piano di abbonamento AI con i limiti di utilizzo più elevati e l'accesso ai modelli più potenti e alle funzionalità premium di Google, oltre a 30 TB di spazio di archiviazione e accesso a YouTube Premium.
- Google AI Ultra è ora disponibile negli Stati Uniti e presto sarà disponibile anche in altri Paesi. Costa 249,99 dollari al mese, con un'offerta speciale per i nuovi utenti con uno sconto del 50% per i primi tre mesi.
- Anche gli studenti universitari negli Stati Uniti, in Brasile, Indonesia, Giappone e Regno Unito hanno diritto a ottenere un aggiornamento gratuito di Gemini per un intero anno scolastico. Presto sarà disponibile anche in altri Paesi.
- C'è anche Google AI Pro, che offre una suite di strumenti di intelligenza artificiale a $19,99 al mese. Questo piano Pro migliorerà l'esperienza degli utenti con l'app Gemini. Include anche prodotti come Flow, NotebookLM e altri, tutti con funzionalità speciali e limiti di prezzo più elevati.
- Google ha annunciato Veo 3, che permette di generare video con audio ed è ora disponibile nell'app Gemini per gli abbonati a Google AI Ultra negli Stati Uniti, oltre che in Vertex AI.
- Google ha anche aggiunto nuove funzionalità al suo famoso modello Veo 2, tra cui nuovi controlli della telecamera, outpainting e aggiunta e rimozione di oggetti.
- Google ha mostrato quattro nuovi filmati creati con Veo e altri strumenti e tecniche. Si possono guardare questi filmati dei partner di Google e altri contenuti stimolanti su Flow TV.
- Imagen 4 è l'ultimo modello Imagen di Google, con una nitidezza straordinaria nei dettagli più fini come pelle, pelliccia e texture intricate, ed eccelle sia nello stile fotorealistico che in quello astratto. Imagen 4 è disponibile oggi stesso nell'app Gemini.
- Imagen 4 è disponibile anche in Whisk e per le aziende in Vertex AI.
- Presto Imagen 4 sarà disponibile nella versione Fast, fino a 10 volte più veloce di Imagen 3.
- Imagen 4 può creare immagini in una vasta gamma di proporzioni e con una risoluzione fino a 2K, per ottenere una qualità ancora più elevata per stampe e presentazioni.
- È anche significativamente migliore nell'ortografia e nella tipografia, rendendo più semplice la creazione di biglietti d'auguri, poster e persino fumetti.
- Flow è il nuovo strumento di intelligenza artificiale di Google per la produzione cinematografica. Utilizzando i migliori modelli di Google DeepMind, Flow permette di creare film cinematografici con il controllo di personaggi, scene e stili, così che più persone che mai possano creare film visivamente sorprendenti con l'intelligenza artificiale.
- Flow è disponibile oggi per gli abbonati ai piani Google AI Pro e Ultra negli Stati Uniti.
- Ad aprile Google ha ampliato l'accesso a Music AI Sandbox, basato su Lyria 2. Lyria 2 offre una composizione potente e un'esplorazione infinita ed è ora disponibile per i creatori tramite YouTube Shorts e per le aziende in Vertex AI.
- Lyria 2 è in grado di arrangiare voci ricche che suonano come un cantante solista o un coro completo.
- Lyria RealTime è un modello di generazione musicale interattivo che consente a chiunque di creare, controllare ed eseguire musica in modo interattivo e in tempo reale. Questo modello è ora disponibile tramite l'API Gemini in Google AI Studio e Vertex AI.
- Google ha annunciato una partnership tra Google DeepMind e Primordial Soup, una nuova iniziativa dedicata all'innovazione narrativa fondata dal regista pioniere Darren Aronofsky. Primordial Soup sta producendo tre cortometraggi utilizzando i modelli, gli strumenti e le funzionalità di intelligenza artificiale generativa di Google DeepMind, tra cui Veo.
- Il primo film, "ANCESTRA", è diretto dalla pluripremiata regista Eliza McNitt e sarà presentato in anteprima al Tribeca Festival il 13 giugno 2025.
- Per rendere più semplice per persone e organizzazioni il rilevamento di contenuti generati dall'intelligenza artificiale, Google ha annunciato SynthID Detector, un portale di verifica che aiuta a identificare in modo rapido ed efficiente i contenuti con filigrana SynthID.
- E dal suo lancio, SynthID ha già applicato la filigrana a oltre 10 miliardi di contenuti.
- Google sta iniziando a distribuire il portale SynthID Detector a un gruppo di primi tester. Giornalisti, professionisti dei media e ricercatori possono unirsi alla lista d'attesa di Google per accedere a SynthID Detector.
- Google sta lavorando per estendere il suo miglior modello di base multimodale, Gemini 2.5 Pro, affinché diventi un "modello mondiale" in grado di fare progetti e immaginare nuove esperienze attraverso la comprensione e la simulazione di aspetti del mondo, proprio come fa il cervello.
- Gli aggiornamenti a Project Astra, il prototipo di ricerca di Google che esplora le capacità di un assistente AI universale, includono un output vocale più naturale con audio nativo, memoria migliorata e controllo del computer migliorato. Col tempo, Google introdurrà queste nuove funzionalità in Gemini Live e nuove esperienze di ricerca, API Live per sviluppatori e nuovi fattori di forma come gli occhiali Android XR.
- E come parte della ricerca sul Progetto Astra di Google, Google ha collaborato con il servizio di interpretazione visiva Aira per realizzare un prototipo che assiste i membri della comunità dei non vedenti e degli ipovedenti nelle attività quotidiane, integrando le competenze e gli strumenti che già utilizzano.
- Con il Progetto Astra, Google sta sviluppando un prototipo di tutor conversazionale che può aiutare gli utenti con i compiti. Non solo può seguire ciò su cui si sta lavorando, ma può anche guidare passo dopo passo nella risoluzione dei problemi, identificare gli errori e persino generare diagrammi per aiutare a spiegare i concetti in caso di difficoltà.
- Questa esperienza di ricerca sarà disponibile nei prodotti Google entro la fine dell'anno e gli Android Trusted Tester potranno iscriversi alla lista d'attesa per un'anteprima.
- Google ha dato un'occhiata al primo dispositivo Android XR in arrivo entro la fine dell'anno: il Project Moohan di Samsung. Questo visore offrirà esperienze immersive su uno schermo infinito.
- E Google ha condiviso un'anteprima di come funzionerà Gemini sugli occhiali con Android XR in scenari reali, tra cui inviare messaggi agli amici, fissare appuntamenti, chiedere indicazioni stradali dettagliate, scattare foto e altro ancora.
- Google ha anche fatto una dimostrazione della traduzione in tempo reale tra due persone, dimostrando il potenziale di questi occhiali nell'abbattere le barriere linguistiche.
- I prototipi degli occhiali Android XR sono ora nelle mani di tester fidati di Google, che aiutano Google a garantire che si stia sviluppando un prodotto realmente assistivo e che lo si stia facendo in un modo che rispetti la privacy degli utenti e di chi li circonda.
- Inoltre, Google sta collaborando con marchi di occhiali innovativi, a partire da Gentle Monster e Warby Parker, per creare occhiali con Android XR che gli utenti vorranno indossare tutto il giorno.
- Google sta portando avanti la sua partnership con Samsung per andare oltre i visori ed estendere Android XR agli occhiali. Insieme stanno creando una piattaforma software e hardware di riferimento che consentirà all'ecosistema di realizzare occhiali di alta qualità. Gli sviluppatori potranno iniziare a sviluppare per questa piattaforma entro la fine dell'anno.
- Qualche anno fa Google ha presentato il Progetto Starline, un progetto di ricerca che consentiva conversazioni a distanza tramite tecnologia video 3D, dando la sensazione che due persone si trovassero nella stessa stanza. Ora si sta evolvendo in una nuova piattaforma chiamata Google Beam.
- Google sta collaborando con Zoom e HP per lanciare sul mercato i primi dispositivi Google Beam con clienti selezionati entro la fine dell'anno. Google sta inoltre collaborando con leader del settore come Zoom, Diversified e AVI-SPL per portare Google Beam ad aziende e organizzazioni in tutto il mondo.
- Tra qualche settimana all'InfoComm si vedranno anche i primi prodotti Google Beam di HP.
- Google ha annunciato la traduzione vocale, ora disponibile su Google Meet. Questa funzione di traduzione non solo avviene quasi in tempo reale, grazie all'intelligenza artificiale di Google, ma è anche in grado di mantenere la qualità, il tono e l'espressività della voce di chi parla. La conversazione fluida permette alle persone di capirsi e sentirsi connesse, senza barriere linguistiche.
- Oltre 7 milioni di sviluppatori stanno lavorando con Gemini, cinque volte di più rispetto allo stesso periodo dell'anno scorso.
- L'utilizzo di Gemini su Vertex AI è aumentato di 40 volte rispetto allo stesso periodo dell'anno scorso.
- Google sta rilasciando nuove anteprime per la sintesi vocale in 2.5 Pro e 2.5 Flash. Queste offrono il primo supporto nel loro genere per più speaker, consentendo la sintesi vocale a due voci tramite audio nativo. Come i dialoghi in audio nativo, la sintesi vocale è espressiva e può catturare sfumature davvero sottili, come i sussurri. Funziona in oltre 24 lingue e passa facilmente da una all'altra.
- La Live API introduce una versione di anteprima dell'input audiovisivo e del dialogo in uscita audio nativo, in modo da poter creare direttamente esperienze di conversazione.
- Jules è un agente parallelo e asincrono per i repository GitHub degli utenti che aiuta a migliorare e comprendere la propria base di codice. È ora disponibile per tutti gli sviluppatori in versione beta. Con Jules si possono delegare più elementi del backlog e attività di codifica contemporaneamente e persino ottenere una panoramica audio di tutti gli aggiornamenti recenti alla propria base di codice.
- Gemma 3n è l'ultimo modello multimodale aperto di Google, veloce ed efficiente, progettato per funzionare senza problemi su telefoni, laptop e tablet. Gestisce audio, testo, immagini e video. Il rollout iniziale è in corso su Google AI Studio e Google Cloud, con l'intenzione di estenderlo agli strumenti open source nelle prossime settimane.
- Google AI Studio offre ora un'interfaccia utente più pulita, documentazione integrata, dashboard di utilizzo, nuove app e una nuova scheda "Genera contenuti multimediali" per esplorare e sperimentare i modelli generativi all'avanguardia di Google, tra cui Imagen, Veo e la generazione di immagini native.
- Colab sarà presto una nuova esperienza completamente agentiva. Basta dire a Colab cosa si desidera ottenere e osservare come agisce nel notebook, correggendo gli errori e trasformando il codice per aiutare a risolvere più velocemente i problemi più complessi.
- SignGemma è un modello aperto in fase di sviluppo che traduce il linguaggio dei segni in testo parlato (il migliore è dal linguaggio dei segni americano all'inglese), consentendo agli sviluppatori di creare nuove app e integrazioni per utenti sordi e con problemi di udito.
- MedGemma è il modello aperto più potente di Google per la comprensione multimodale di testi e immagini mediche, progettato per consentire agli sviluppatori di adattare e sviluppare le proprie applicazioni sanitarie, come l'analisi di immagini mediche. MedGemma è ora disponibile per l'uso nell'ambito di Health AI Developer Foundations.
- Stitch è un nuovo strumento basato sull'intelligenza artificiale per generare design di interfacce utente di alta qualità e il corrispondente codice frontend per desktop e dispositivi mobili utilizzando descrizioni in linguaggio naturale o prompt di immagini.
- Google ha annunciato Journeys in Android Studio, che consente agli sviluppatori di testare percorsi utente critici utilizzando Gemini, descrivendo i passaggi dei test in linguaggio naturale.
- Version Upgrade Agent in Android Studio sarà presto disponibile per aggiornare automaticamente le dipendenze all'ultima versione compatibile, analizzando le note di rilascio, compilando il progetto e correggendo eventuali errori.
- Google ha introdotto nuovi aggiornamenti all'API di Google Pay pensati per aiutare gli sviluppatori a creare esperienze di pagamento più fluide, sicure e di maggior successo, tra cui Google Pay in Android WebViews.
- Flutter 3.32 presenta nuove funzionalità progettate per accelerare lo sviluppo e migliorare le app.
- Google ha inoltre condiviso gli aggiornamenti per il suo Agent Development Kit (ADK), il Vertex AI Agent Engine e il suo protocollo Agent2Agent (A2A), che consente interazioni tra più agenti.
- L'anteprima per sviluppatori per Wear OS 6 introduce Material 3 Expressive e strumenti di sviluppo aggiornati per i quadranti dell'orologio, controlli multimediali più avanzati e il Gestore delle credenziali per l'autenticazione.
- Google ha annunciato che Gemini Code Assist per privati e Gemini Code Assist per GitHub sono disponibili al pubblico e gli sviluppatori possono iniziare a utilizzarlo in meno di un minuto. Gemini 2.5 ora supporta sia la versione gratuita che quella a pagamento di Gemini Code Assist, offre prestazioni di programmazione avanzate e aiuta gli sviluppatori a eccellere in attività come la creazione di app web visivamente accattivanti, oltre alla trasformazione e alla modifica del codice.
- Ecco un esempio di un aggiornamento recente che si può esplorare in Gemini Code Assist: riprendere rapidamente da dove si era rimasti e passare a nuove direzioni con la cronologia della chat e i thread.
- Firebase ha annunciato nuove funzionalità e strumenti per aiutare gli sviluppatori a creare più facilmente app basate sull'intelligenza artificiale, tra cui aggiornamenti a Firebase Studio e Firebase AI Logic lanciati di recente, che consentono agli sviluppatori di integrare più rapidamente l'intelligenza artificiale nelle loro app.
- Google ha anche introdotto una nuova community di sviluppatori Google Cloud e NVIDIA, un forum dedicato per entrare in contatto con esperti di entrambe le aziende.
- Google ha presentato in anteprima privata Google AI Edge Portal, una nuova soluzione di Google Cloud per testare e confrontare su larga scala l'apprendimento automatico (ML) sui dispositivi.
- Gmail sta introducendo nuove risposte intelligenti personalizzate che incorporano il contesto e il tono dell'utente. Trarranno spunto dalle email e dai file precedenti nel Drive dell'utente per creare una bozza di risposta, mantenendo al contempo il tono abituale dell'utente, in modo che le risposte riflettano il suo stile. Si possono provare entro la fine dell'anno.
- Google Vids è ora disponibile per gli utenti di Google AI Pro e Ultra.
- A partire da oggi, l'app NotebookLM è disponibile su Play Store e App Store, per aiutare gli utenti a utilizzare le panoramiche audio ovunque si trovino.
- Anche per NotebookLM Google sta apportando maggiore flessibilità alle panoramiche audio, consentendo di selezionare la lunghezza ideale per i riepiloghi, sia che si preferisca una panoramica rapida o un'esplorazione più approfondita.
- Le panoramiche video saranno presto disponibili su NotebookLM, aiutando a trasformare informazioni dense come PDF, documenti, immagini, diagrammi e citazioni chiave in panoramiche narrate più comprensibili.
- Google ha persino condiviso uno dei suoi quaderni NotebookLM, che includeva un paio di anteprime di panoramiche video!
- Il nuovo esperimento Labs Sparkify di Google aiuta a trasformare le domande in un breve video animato, grazie agli ultimi modelli Gemini e Veo di Google. Queste funzionalità saranno disponibili nei prodotti Google entro la fine dell'anno, ma nel frattempo si può iscriversi alla lista d'attesa per avere la possibilità di provarle.
- Google sta inoltre apportando miglioramenti basati sul feedback degli utenti a Learn About, un esperimento in Labs in cui l'intelligenza artificiale conversazionale incontra la curiosità degli utenti.
- Come ha affermato Sundar nel suo discorso di apertura, le persone stanno adottando l'intelligenza artificiale più che mai. Per esempio: l'anno scorso, in questo stesso periodo, Google elaborava 9,7 trilioni di token al mese tra i suoi prodotti e le sue API. Ora ne elabora oltre 480 trilioni, 50 volte tanto.
- Considerando ciò, non c'è da stupirsi che la parola "IA" sia stata pronunciata 92 volte durante il discorso principale. Ma il numero di "IA" che si è sentito è arrivato al secondo posto, dopo Gemini!
Articolo di HTNovo