
Google ha annunciato importanti novità per Gemini Live, la funzione presentata lo scorso anno al Made by Google e pensata per permettere agli utenti di interagire con il chatbot AI come se fosse una persona reale. Un aspetto ancor più accentuato dal nuovo pacchetto di miglioramenti in arrivo, lanciati dopo l’introduzione delle opzioni di condivisione per fotocamera e schermo. Con questi nuovi aggiornamenti, Google potrà interagire con l’ambiente circostante e anche “leggere” le nostre emozioni attraverso la voce e gli argomenti trattati.
Interagisce con il mondo reale tramite la fotocamera
La prima novità riguarda le visual overlays, che possiamo tradurre come sovrapposizioni visive. Quando l’utente condivide il feed della fotocamera, Gemini Live è ora in grado di evidenziare specifici oggetti sullo schermo: l’oggetto selezionato viene racchiuso in un rettangolo bianco, mentre il resto dell’immagine viene leggermente oscurato per risaltare l’elemento.
Questa nuova funzionalità può rivelarsi utile per individuare rapidamente oggetti all’interno di uno scenario. Ad esempio una specifica specie di uccello all’interno di un gruppo di simili, il pulsante corretto da premere su di un macchinario o ancora lo strumento giusto da utilizzare in una determinata occasione.
Queste sovrapposizioni sono in grado di affrontare, però, anche situazioni più complesse. È il caso raccontato da un product manager di Google, che ha spiegato di essersi trovato di fronte ad alcuni cartelli stradali scritti nella lingua locale mentre si trovava in un viaggio all’estero, senza riuscire ad interpretare quanto scritto. Così ha aperto Gemini Live, puntato la fotocamera e chiesto se fosse possibile parcheggiare.
L’assistente ha tradotto i cartelli stradali, consultato i regolamenti scritti e indicato con un overlay il punto della strada in cui avrebbe potuto lasciare l’auto gratuitamente per due ore.
Gemini Live può leggere le tue emozioni e il tono di voce
Un’altra novità riguarda il nuovo modello di audio nativo di Gemini Live: l’assistente è ora in grado di rilevare le sfumature del tono di voce dell’utente per adattare la risposta al suo stato d’animo, anche in base all’argomento trattato. Se, ad esempio, percepisce entusiasmo, risponde in modo più energico; se il tema trattato è preoccupante, utilizza un tono più rassicurante.
Queste funzioni, presentate in occasione del lancio della serie Pixel 10, non resteranno esclusive dei nuovi dispositivi flagship dell’azienda. In una nota presente nel video dimostrativo condiviso da Google si legge che saranno disponibili su Android per tutti gli utenti con abbonamento Google One AI Premium.