Importanti novità in arrivo in casa Big G! Durante la conferenza annuale Google I/O 2021 dedicata agli sviluppatori tenutasi dal 18 al 21 maggio, sono state discusse tantissime innovazioni che cambieranno notevolmente alcune dinamiche sul web.

Dell’evento tech si sentiva la mancanza da tempo ed è stato più atteso che mai da tutti gli addetti ai lavori, ma anche dagli appassionati del settore, visto che lo scorso anno è stato cancellato a causa della pandemia.

Grande protagonista delle news presentate è sua maestà l’intelligenza artificiale, una risorsa preziosissima per umanizzare i processi.

Ma non solo: privacy ed efficienza sul lavoro hanno rappresentato altri elementi cardine del keynote virtuale.

Vediamo quindi i temi trattati durante l’evento e quale impatto avranno sulla digital experience.

La privacy prima di tutto

Una user experience piacevole inizia prima di tutto se ci si sente sicuri a navigare nel mare di informazioni e dati del web. Google, in questo senso, ha voluto fornire diverse garanzie agli utenti, introducendo nuovi meccanismi di protezione.

I cambiamenti nella gestione delle password di Google

Il gestore di password integrato di Google è stato migliorato considerevolmente, soprattutto per cambiare più agevolmente le keyword non considerate più sicure. Ora è possibile, infatti, impostare una password casuale grazie a un singolo tocco. Attualmente la novità è in fase di roll out per Android negli USA, ma arriverà nei prossimi mesi anche in altri Paesi.

Google Foto e Android sempre più uniti

Molto presto su Google Foto per Android sbarcherà la funzione Locked Folder. Con questa risorsa sarà semplicissimo nascondere le immagini personali o sensibili in un’area protetta da password, PIN o biometria. Attualmente questa possibilità prevista, in rollout, per gli smartphone Google Pixel. Ma niente paura! Nei prossimi mesi raggiungerà anche tutti gli altri dispositivi Android.

Una partizione nuova per Android

Rimanendo sempre sul tema sicurezza, Google ha introdotto una nuova partizione all’interno degli smartphone Android. Questa renderà più sicura la gestione dei dati delle operazioni di machine learning.

Il nuovo Private Compute Core di Android sarà uno spazio all’interno del sistema operativo, per molti aspetti simile alle partizioni utilizzate per dati biometrici sensibili o password. Il sistema però non salverà le credenziali, ma solamente i dati per l’uso nell’apprendimento automatico, come quelli necessari per il funzionamento di Now Playing o Smart Reply.

Google Smart Canvas per semplificare il lavoro

Alla suite dei tool con Google si aggiunge un nuovo componente: Smart Canvas, un workspace condiviso con il proprio team per gestire i task di ognuno e un collettore di materiali e informazioni.

Anche Google Meet subirà dei miglioramenti, come la possibilità di eliminare il rumore di fondo durante le call e zoomare il video dei partecipanti.

Il potere dell’Intelligenza Artificiale è sempre più forte con Google

Come anticipato, l’Intelligenza Artificiale è il principale fiore all’occhiello della ventata di novità digitali portata da Google. Questa tecnologia informatica porterà tantissime rivoluzioni nel modo in cui gli utenti si approcciano alle ricerche online e più in generale al web.

Vediamo nel dettaglio quali cambiamenti dobbiamo aspettarci.

L’incredibile precisione del nuovo algoritmo MUM di Google

Il team AI del colosso di Mountain View ha annunciato l’introduzione di una grande novità basata sul preesistente sistema Bert (Bidirectional Encoder Representations from Transformers).

Questo nuovo algoritmo, Multitask Unified Model (abbreviato appunto in MUM), è composto da una rete neurale di mille nodi, pensata per riprodurre le sinapsi nervose del cervello umano. Ognuno di essi, infatti, raffigura un punto decisionale attraversato dalla ricerca dell’utente. L’analisi viene può essere effettuata in ben 75 lingue diverse, scansionando tutti i contenuti pubblici online.

Google MUM

Per l’azienda, si tratta di una vera e propria sfida di cui andare molto fieri. “Ogni volta che facciamo un balzo in avanti con l’intelligenza artificiale, per rendere le informazioni del mondo più accessibili, lo facciamo in modo responsabile. Ogni miglioramento a Google Search viene sottoposto a un rigoroso processo di valutazione per garantire che stiamo fornendo i risultati più pertinenti e utili”, ha affermato nel blogpost dell’azienda Pandu Nayak, vicepresidente di Google Search.

Perché MUM rappresenta una svolta per le ricerche su Google

MUM non si occuperà solamente di fornire dei risultati corrispondenti alle parole chiave inserite dall’utente. In presenza di query molto complesse e articolate, la risposta sarà di una precisione paragonabile a quella di un esperto del settore appartenente al tema cercato dall’individuo.

Inoltre, trattandosi di un sistema di natura multimediale, l’analisi dell’algoritmo è in grado di comprendere anche il significato di immagini e video all’interno dei contenuti rilevanti, incamerando ancora più informazioni.

L’architettura multitasking e la possibilità di accedere a fonti eterogenee, quindi, saranno cruciali per fornire risposte in pochissimo tempo ed estremamente accurate.

LaMDA: conversare con l’intelligenza artificiale non è mai stato così naturale

Google LaMDA è il sorprendente sistema in grado di rendere naturalissime le conversazioni con l’intelligenza artificiale. Durante l’evento I/O 2021, è stata riprodotto un inconsueto dialogo durante il quale il Language Model for Dialogue Applications ha risposto a tono alle richieste, inserendo battute e altri elementi in grado di rendere la chiacchierata scorrevole e realistica.

La cosa davvero sconvolgente di questa novità è che LaMDA non fornisce delle risposte predefinite, ma le genera sul momento a seconda del modello creato attraverso il machine learning. Quest’ultimo, ovviamente, è correlato alle informazioni che gli vengono fornite.

LaMDA novità di Google

Il keynote ha mostrato alcune conversazioni tra LaMDA e un utente quando il primo rappresentava prima Plutone e poi un aeroplanino di carta.

Durante il primo dialogo, il sistema rispondeva in modo molto preciso alle richieste riguardanti le caratteristiche dell’ambiente che avrebbe trovato un visitatore dopo essere sbarcato sul pianeta.

Con la seconda prova, LaMDA ha risposto in maniera acuta e ironica alle domande sul suo status di aereo di carta.

Lo stesso Big G ha spiegato: “Sebbene le conversazioni tendano a ruotare attorno ad argomenti specifici, la loro natura aperta dimostra che possono iniziare in un posto e finire in un altro completamente diverso. Una chiacchierata con un amico su un programma televisivo potrebbe evolvere in una conversazione sul Paese in cui lo spettacolo è stato girato prima di concludersi in un confronto sulla migliore cucina regionale di quel Paese. Questa qualità serpeggiante può bloccare rapidamente gli agenti di conversazione moderni (noti attualmente come chatbot), che tendono a seguire percorsi stretti e predefiniti. LaMDA – abbreviazione di Language Model for Dialogue Applications – può impegnarsi in modo fluido su un numero potenzialmente infinito di argomenti, una capacità che riteniamo possa sbloccare modi più naturali di interagire con la tecnologia e tipologie completamente nuove di applicazioni utili.”

Le possibili evoluzioni di LaMDA

LaMDA sembrerebbe essere davvero in grado di trattare un numero infinito di temi in modo fluido e creando conversazioni interessanti e simpatiche.

Certamente passeranno anni prima che LaMDA sia a tutti gli effetti in grado di restituire risultati davvero degni di nota.

In ogni caso, Google garantisce che lo sviluppo della nuova tecnologia avverrà in modo da rispettare sempre la sicurezza dell’utente finale. Elemento imprescindibile di questo strumento, poi, sarà la sensibilità. Le conversazioni potranno raggiungere un grado di empatia tale da rendere comprensibili anche i contesti in cui si trova l’utente che avvia la discussione.

Foto animate grazie all’intelligenza artificiale, non solo su Android

A breve una nuova funzionalità di Google Foto, chiamata “momenti cinematografici”, permetterà di prendere due immagini simili, scattate in momenti molto vicini, e creare un breve video animato. Questo sarà possibile, chiaramente, estrapolando le informazioni presenti tra i due frame utilizzati come sorgente.
Troverai a breve questa opzione sia su Android che su iOS.

Il chipset TPU v4 di Google per prestazioni eccellenti

Il Tensor Processing Unit (TPU), chip creato da Google per lavorare specificatamente con algoritmi di machine learning, compie 5 anni. Nato in primis per funzionare al meglio con TensorFlow, una libreria software open source, negli anni ha subìto diversi miglioramenti.

Durante Google I/O 2021 è stata annunciata la nuova generazione di TPU, ossia la v4, che vanterà una velocità di due volte maggiore della precedente versione.

Oltre per i modelli di machine learning e per i servizi di Google, questo chip sarà disponibile per tutti gli sviluppatori Cloud.

TPU V4

La realtà aumentata per atleti in movimento

Grazie alla realtà aumentata (AR), alcuni atleti selezionati potranno essere visti in 3D dagli utenti del web. Tra i nomi di questi sportivi troviamo Simone Biles, Megan Rapinoe e Naomi Osaka.
Sarà possibile osservare delle rappresentazioni accurate di ogni persona che svolge diverse azioni. Simone Biles, per esempio, mostrerà online la propria routine da ginnasta.

Attualmente Big G propone già animali e oggetti 3D, ma sicuramente sarà molto interessante e divertente vedere degli umani fare attività fisica.

Android e smart TV, squadra che vince non si cambia

L’integrazione tra gli smartphone Android e gli altri dispositivi smart per Google è presente da diverso tempo e ritenuta molto interessante per gli utenti. Oggigiorno moltissimi modelli di televisore e set-top box sono dotati Android TV. Tuttavia, l’applicazione esistente che permetteva di utilizzare gli smartphone come telecomando è diventata, nel corso del tempo, obsoleta.

Google ha quindi pensato a un nuovo aggiornamento per migliorare l’aspetto esperienziale, ma anche quello grafico. Il nuovo telecomando, infatti, consentirà agli utenti di inserire del testo nella propria Google TV. Questo renderà il login notevolmente più facile, perché si potrà accedere a una tastiera completa a portata di mano invece di utilizzare un D-Pad per scegliere ogni singolo carattere.

Lo smartphone si trasforma nella chiave dell’auto

Le chiavi digitali per auto introdotte da Google potranno aprire, chiudere e far partire un veicolo direttamente dallo smartphone.

Attraverso la tecnologia Ultra Wide Band (UWB), gli smartphone più recenti permetteranno addirittura di accendere l’auto senza estrarre il telefono dalle tasche. Intanto, per entrare in un veicolo abilitato NFC, bisognerà compiere un tocco fisico sulla porta dell’auto.

In questo modo, i dispositivi che hanno la tecnologia più recente in assoluto possono sfruttare le chiavi virtuali, mentre gli altri utenti riescono comunque a condividere in modo sicuro e a distanza la chiave dell’auto con altri quando necessario.

Il primo partner a collaborare con Big G è BMW e questa nuova funzione verrà introdotta nei prossimi mesi.

Material You, un nuovo linguaggio visual per Android 12

In occasione di Google I/O 2021 è stato anticipato l’aspetto finale di Android 12 e quindi tutte le funzionalità che lo caratterizzeranno. Prima di tutto è stato annunciato Material You, un nuovo linguaggio di design che con il tempo verrà integrato in tutti i prodotti del brand e quindi non solo con il sistema operativo mobile.

Android 12 presentato da Google

Il design di Android 12

Il nuovo sistema di temi di Android 12 è in grado di estrarre i colori principali nelle foto che si vogliono utilizzare come sfondi, per riportarli in tutti gli elementi e i programmi del sistema operativo, dalla homescreen, ai widget, passando per i Quick Toggles. Ma non solo: queste nuance verranno riprese anche dalle varie app.

Inoltre sono state aggiunte moltissime nuove animazioni e una schermata di blocco completamente modificata e ridisegnata.

Le nuove prestazioni di Android 12

Le nuove funzionalità di Android 12 sono pensate soprattutto per eliminare la maggior parte dei problemi che causavano un rallentamento del sistema operativo.
In particolare, Privacy Dashboard consentirà di controllare quali applicazioni hanno ottenuto l’accesso ai vari permessi di sistema, eventualmente revocandoli nel caso in cui abbiano creato problemi a livello di funzionamento.

Privacy dashboard novità di Android 12

Wear OS e Tizen insieme per migliorare gli smartwatch

Durante l’evento, Google ha annunciato anche che per migliorare Wear OS collaborerà con Tizen OS (il sistema operativo di Samsung) in una piattaforma unificata. Le due aziende uniranno i propri sforzi per rendere le app di Wear OS più veloci e per migliorare la durata della batteria degli smartwatch. Una chiara alleanza contro Apple!

In particolare le conseguenze dell’apporto tecnico di Tizen saranno animazioni più fluide, un’apertura della applicazioni più veloce del 30% e anche una maggiore autonomia della batteria. Per quanto concerne invece Big G, sicuramente la vera novità sarà la possibilità di creare una piattaforma aperta non solo ai dispositivi di Google e Samsung, ma anche ai produttori di terze parti.

Non mancheranno poi sistemi di integrazione con Google Maps, Google Pay e Google Assistant. Altro obiettivo che si è prefissato il colosso di Mountain View è quello di acquisire Fitbit, integrando i suoi servizi all’interno di Wear OS.

Tizen

Valentina D'Antonio

Valentina D'Antonio

Smartphone e social media addicted, ma amo il profumo della carta stampata. Appassionata di moda e beauty. Credo nel binomio conoscenza e creatività. Visita il mio profilo LinkedIn.

One Comment

  • Dario de Judicibus ha detto:

    Interessante, ma resta il fatto che le logiche che stanno dietro a queste tecnologie sono di natura commerciale e quindi privilegiamo meccanismi e regole legate a tale natura. Ad esempio, Google Translator non è capace di tradurre un testo latino perché il meccanismo che usa di basa sulla disponibilità di testi e non sull’analisi grammaticale e logica. Analogamente, Google Search conosce solo ciò che è indicizzato in rete quando una gran parte della cultura è ancora disponibile solo in forma cartacea e quindi non contribuisce alla comprensione dei contesti da parte delle AI. Quello che manca alle AI è la parte sensoriale che permetta loro di interagire col mondo “analogico” e trarne da questo esperienza.

Leave a Reply