Durante il Google I/O, l’annuale evento della multinazionale americana dedicato alle innovazioni tecnologiche, sono state annunciate svariate novità. Quest’anno la conferenza è incentrata sul sempre scottante argomento dell’IA. “Sempre più intelligenza (artificiale) è disponibile, per tutti, ovunque. E il mondo sta rispondendo, adottando l’Ai più velocemente che mai“, annuncia Sundar Pichai, CEO di Google, durante la livestream “Anni di ricerca si stanno concretizzando in applicazioni reali per utenti, imprese e comunità in tutto il mondo“.
Il modello di Google di intelligenza artificiale, Gemini, ha raggiunto altissimi livelli di complessità e capacità logica. Durante la conferenza Google ha annunciato la nuova versione dell’app: Gemini Ultra, allo sconvolgente prezzo di 249$ mensili. Questa nuova versione darà accesso a Deep Think, una avanzata funzione di ragionamento logico ancora in fase di testing. Questo modello permetterà a Gemini di elaborare svariate risposte ad un quesito prima di rispondere. Concludendo per quanto riguarda le novità solo di Gemini si parla di Gemini Live, ovvero l’integrazione della IA di Google in app come maps, keeps e il calendario.
Oltre le novità strettamente legate a Gemini, durante la conferenza di Mountain View sono state presentate una miriade di novità e progetti legati all’ IA.
Veo 3 è il primo modello dell’azienda per la creazione di audio sincronizzato, capacità necessaria per realizzare paesaggi realistici. Veo sarà in grado di ricreare rumori di sottofondo come il canto degli uccelli o rumore del traffico. Imagen 4 invece è il generatore di immagini più avanzato svelato da Google. Sarà in grado di riprodurre immagini con incredibile precisione e delinearne anche i dettagli più complessi. A concludere la trinità delle IA a scopo artistico si presenta Flow. Uno strumento per la creazione di filmati tramite IA, esso userà le già menzionate Veo e Imagen per creare le immagini e l’audio, e Gemini per creare le storyboard e coordinare le immagini.
Google intende continuare con l’introduzione della IA nella funzione di ricerca principale, proposito iniziato con le AI Overviews. Modalità di ricerca lanciata per la prima volta nel maggio del 2024, ha lasciato molto a desiderare per quanto riguarda la precisione e veracità delle risposte. L’azienda californiana intende migliorare l’esperienza tramite l’uso di feedback utente e DeepResearch. Lo strumento IA permetterà di chiedere alla intelligenza artificiale di prendersi più tempo per analizzare meglio la risposta. AI Mode si avvarrà anche di una funzione nata dal progetto Project Mariner, un agente AI per la navigazione web.
Lanciato lo scorso dicembre, Project Mariner, è un sistema di IA che interagisce direttamente col web. Mariner cerca per l’utente e analizza i risultati migliori. Alla conferenza è stata annunciata la nuova versione di Mariner, che si avvale di un sistema di agenti artificiali che gli permette di completare fino a dieci attività diverse in contemporanea. Attività come cercare informazioni o fare acquisti. L’obbiettivo di Mariner è automatizzare la ricerca nel web pur mantenendo l’utente in controllo. Google sta attualmente integrando le capacità di Project Mariner nella modalità AI di Google Search negli Stati Uniti.
Ennesima aggiunta alla ricerca Google è il Project Astra. Simile a Google Lens, Astra si avvale della fotocamera del dispositivo utilizzandola per “conversare” e chiedere aiuto alla IA. Astra è una sorta di segretaria digitale che tramite la condivisione schermo e DeepThink è in grado di riconoscere l’ambiente dove si trova e dare consigli come il ricordare dove si hanno lasciato gli occhiali. Parlando di occhiali Google ha inoltre annunciato una coppia di occhiali smart che, tra altre cose, proprio Astra.
Per concludere parliamo di Google Beam, l’ultima innovazione per quanto riguarda i video 3D. Rifacendosi al Project Starline con il quale condivide l’obbiettivo: la rivoluzione delle videochiamate. Beam impiega un modello video di ultima generazione per trasformare uno stream video in un’esperienza 3D realistica: utilizzando un sistema di sei videocamere e l’AI, gli stream video vengono uniti e resi su un display 3D che sfrutta la tecnologia lightfield, il tutto a 60 fotogrammi al secondo.
Fonte immagine in evidenza: GoogleBlog
© RIPRODUZIONE RISERVATA
Articoli di proprietà di Voci di Città, rilasciati sotto licenza Creative Commons.
Sei libero di ridistribuirli e riprodurli, citando la fonte.
Ti piacerebbe entrare nella redazione di Voci di Città? Hai sempre coltivato il desiderio di scrivere articoli e cimentarti nel mondo dell’informazione? Allora stai leggendo il giornale giusto. Invia un articolo di prova, a tema libero, all’indirizzo e-mail entrainvdc@vocidicitta.it. L’elaborato verrà letto, corretto ed eventualmente pubblicato. In seguito, ti spiegheremo come iscriverti alla nostra associazione culturale per diventare un membro della redazione.