Tech

Finiremo per innamorarci del nostro assistente vocale?

È una domanda che circola dopo la presentazione di GPT-4o, l'ultimo aggiornamento di OpenAI capace di sostenere una conversazione con la stessa fluidità degli umani
© Reuters
Marcello Pelizzari
14.05.2024 10:30

Addio, Siri. E, forse, Alexa. Quantomeno, dopo aver assistito all'ultima presentazione di OpenAI – la start-up alla base di ChatGPT – il futuro degli attuali assistenti vocali è più che mai in discussione. Anche perché, beh, quelli targati Apple e Amazon, al di là della novità iniziale e di un certo stupore, negli anni hanno mostrato non pochi limiti. Dalla difficoltà nel comprendere un ordine alla lentezza (o all'imprecisione) nel fornire risposte. Passando, evidentemente, dall'impossibilità di usare Siri o Alexa per una semplice conversazione. 

Ieri, lunedì, OpenAI ha svelato l'aggiornamento del suo celebre chatbot. E, diciamolo, il senso di meraviglia sta accompagnando più o meno tutti in queste ore. GPT4-omni o, in alternativa, GPT-4o infatti è in grado di sostenere una conversazione – nel senso di parlare – con la medesima fluidità di un essere umano. Non finisce qui: può leggere, commentare immagini e, se necessario, tradurre in un'altra lingua. Tutto in tempo reale. Detto brevemente: OpenAI ha fatto compiere un balzo in avanti notevole al suo modello di intelligenza artificiale. Sam Altman, tradendo una passionaccia per il cinema, ha paragonato l'AI di OpenAI a quella, per certi versi sensuale, vista nel film Her del 2013. Significa che ce ne innamoreremo? Non proprio, ma di sicuro il rapporto che avremo (o potremmo avere) sarà ancora più stretto rispetto a quello che abbiamo con ChatGPT ora.

Il tempo medio di risposta di GPT-4o, leggiamo, è di 0,32 secondi per i contenuti audio. Ma la macchina sa fare molto di più: legge, ascolta, vede, e ancora genera testi e poi immagini. Fa tutto, in sostanza. Alla velocità nostra. Quella degli esseri umani. Di qui la capacità nel sostenere una conversazione con noi. E attenzione: la stessa OpenAI, parlando della modalità vocale varata per ChatGPT, ha spiegato che nel caso di GPT-4o siamo di fronte a un cambiamento epocale. Proprio perché la modalità vocale di ChatGPT impiega molto più tempo per rispondere. Oltre cinque secondi, in media. GPT-4o, nello specifico, è stato definito come un modello all-in-one. Dentro, detto in altri termini, c'è tutto. Non solo, la novità introdotta da OpenAi può distinguere e comprendere i vari toni di voci e, allargando il campo, le emozioni.

Tutto molto bello, ma dove sta la fregatura? C'è, eccome se c'è. Il problema principale, quello che accompagna ChatGPT sin dalla sua nascita, non verrà infatti risolto con l'arrivo di GPT-4o. Parliamo dell'affidabilità e della veridicità delle risposte fornite. Se ne riparlerà, eventualmente, in futuro. Sia quel che sia, gli utenti di ChatGPT (l'ultimo dato parla di 180 milioni di utenti attivi al mese) dovranno pazientare prima di poter mettere le mani sull'aggiornamento. Inizialmente, inoltre, la novità sarà riservata agli abbonati. Sul perché OpenAI abbia parlato così presto di GPT-4o le teorie si sprecano. La più probabile, in ogni caso, è legata alla necessità di distogliere l'attenzione da Google, che oggi terrà la sua conferenza annuale Google I/O. Il colosso di Mountain View è uno dei principali rivali della creatura di Sam Altman.

A proposito di Google, OpenAI secondo Bloomberg sarebbe in vantaggio nelle trattative con Apple (rispetto a Google) per integrare la propria intelligenza artificiale, quindi ChatGPT, nell'ambiente iOS. Se confermata, la trattativa di fatto segnerebbe o potrebbe segnare la fine di Siri. L'assistente vocale che aveva stupito il mondo ma che, oggi, sembra superato dagli eventi. E dalla tecnologia.