Già durante il Google I/O 2025, l’azienda americana aveva anticipato la sua visione con Project Astra, mostrando come l’intelligenza artificiale potesse non solo “vedere” ciò che accade sullo schermo dello smartphone, ma interagire fisicamente con esso, scorrendo pagine e premendo pulsanti.
Oggi, grazie all’analisi approfondita delle versioni beta dell’app Google, emergono dettagli concreti su come questa funzionalità prenderà forma sui dispositivi Android.
Gemini potrà controllare il tuo smartphone, ecco come

Recenti scoperte effettuate all’interno del codice dell’applicazione Google per Android (specificamente nella versione beta 17.4.66) hanno portato alla luce nuove stringhe di testo che delineano il funzionamento di quello che internamente viene chiamato con il nome in codice “Bonobo”.
La terminologia utilizzata pubblicamente, tuttavia, sembra orientarsi verso il concetto di “screen automation”, ovvero automazione dello schermo.
Questa tecnologia promette di trasformare Gemini in un agente operativo capace di compiere azioni complesse per conto dell’utente. Le descrizioni rintracciate nel software indicano esplicitamente la capacità dell’AI di gestire compiti pratici come effettuare ordini online o prenotare corse su piattaforme come Uber o Lyft.
Non si tratta più di toccare vari link per completare l’azione, ma di lasciare che sia l’assistente a navigare l’interfaccia dell’app, selezionare le opzioni e finalizzare la richiesta.
La responsabilità resta all’utente
Nonostante la promessa di un’assistenza autonoma, Google sembra adottare un approccio estremamente cauto riguardo alla responsabilità delle azioni compiute dall’AI.
I messaggi di avviso integrati nel sistema sottolineano che Gemini può commettere errori e che l’utente è tenuto a supervisionare attentamente le operazioni. Una delle stringhe di testo recita chiaramente che l’utente è responsabile di ciò che l’agente fa per suo conto, invitando a monitorare i progressi e a intervenire manualmente se necessario.
Questo aspetto introduce una curiosa contraddizione nell’esperienza d’uso: l’obiettivo di un agente autonomo dovrebbe essere quello di liberare l’utente da compiti ripetitivi riducendo l’intervento umano. Tuttavia, la necessità di una supervisione costante potrebbe, almeno in una fase iniziale, non ridurre significativamente il carico cognitivo richiesto, trasformando l’utente da attore a controllore.
Privacy e gestione dei dati sensibili
Un altro capitolo fondamentale riguarda la privacy e la sicurezza dei dati durante l’utilizzo dell’automazione dello schermo. Le note informative scoperte nel codice avvertono che, quando Gemini interagisce con un’applicazione, gli screenshot delle attività potrebbero essere analizzati da revisori umani per migliorare il servizio, qualora l’opzione per il salvataggio dell’attività sia attiva.
Di conseguenza, Google sconsiglia vivamente di inserire credenziali di accesso o informazioni di pagamento direttamente nelle chat con Gemini o di utilizzare l’automazione per compiti che coinvolgono dati altamente sensibili.
Resta ancora da chiarire come il sistema gestirà il momento del pagamento all’interno delle app terze: non è specificato se l’AI si metterà “in pausa” per lasciare che l’utente inserisca i dati della carta di credito o se ci saranno protocolli di sicurezza specifici.
Infine, l’integrazione di queste funzioni potrebbe portare a modifiche visibili nell’interfaccia utente. Sono stati individuati riferimenti a una sezione “I miei ordini” o “Acquisti” all’interno del profilo utente, suggerendo che Google intenda centralizzare lo storico delle azioni compiute dall’assistente, offrendo un hub unico per monitorare le transazioni effettuate tramite l’automazione.
Sebbene non ci sia ancora una data di rilascio ufficiale, è evidente che il passaggio da semplice chatbot a vero e proprio agente operativo è ormai prossimo.








