OpenAI presenta la nuova modalità vocale avanzata senza drama di Scarlett Johansson
Novità sull’Advanced Voice Mode di OpenAI
OpenAI ha iniziato a implementare il suo attesissimo Advanced Voice Mode per gli utenti di ChatGPT Plus e Teams, rappresentando un passo significativo verso interazioni AI più umane. Questa funzionalità consente conversazioni in tempo reale, fluide e potenziate dal modello GPT-4o di OpenAI, il quale combina testo, visione e audio per fornire risposte più rapide. “Advanced Voice è in fase di rollout per tutti gli utenti Plus e Team nell’app di ChatGPT nel corso della settimana,” ha dichiarato OpenAI in un tweet ufficiale. La novità è in grado di dire “Sorry I’m late” in oltre 50 lingue, sottolineando il lungo ritardo che ha caratterizzato questo progetto.
Mentre gli utenti attendevano con pazienza, OpenAI ha aggiunto anche istruzioni personalizzate, memoria, cinque nuove voci e accenti migliorati. Questa nuova modalità vocale è progettata per rendere le conversazioni più naturali, con una risposta emotiva e la capacità di interrompere e cambiare argomento rapidamente. Tuttavia, uno degli elementi più chiacchierati al momento è l’assenza della voce “Sky”, che aveva suscitato scalpore per la sua somiglianza con l’attrice Scarlett Johansson. Dopo che il suo team legale ha inviato lettere al CEO di OpenAI, Sam Altman, la voce Sky è stata messa in attesa, con OpenAI che ha dichiarato che qualsiasi somiglianza con la voce distintiva di Johansson era puramente casuale.
Invece di continuare con la Sky voice, OpenAI ha introdotto cinque nuove voci: Arbor, Maple, Sol, Spruce e Vale, disponibili sia nella modalità standard che avanzata. Queste si uniscono alle già disponibili Breeze, Juniper, Cove ed Ember. Non sorprende che l’azienda abbia scelto nomi che ricordano fragranze di sapone. Gli utenti nei livelli Plus e Team inizieranno a ricevere gradualmente accesso a queste nuove voci, progettate per migliorare l’esperienza di conversazione, rendendola più naturale e in linea con le preferenze degli utenti.
Introduzione delle nuove voci e migliorie
Funzionalità personalizzate e interazioni migliorate
Con l’introduzione dell’Advanced Voice Mode, OpenAI non si è limitata a lanciare nuove voci, ma ha anche implementato diverse funzionalità personalizzate che migliorano notevolmente l’esperienza dell’utente. Una delle novità più significative è l’aggiunta di “Istruzioni Personalizzate”, che consente agli utenti di fornire specifiche informazioni a ChatGPT per ottimizzare le interazioni. Utilizzando queste istruzioni, l’intelligenza artificiale può apprendere dettagli come il nome dell’utente, la professione e le preferenze di risposta, rendendo ogni conversazione più pertinente e su misura.
Ma non è tutto. OpenAI ha integrato anche una funzione di “memoria”, in grado di consentire a ChatGPT di ricordare le interazioni passate e di utilizzare queste informazioni per migliorare ulteriormente la qualità delle risposte. Questo meccanismo di apprendimento continuo significa che, man mano che gli utenti interagiscono più frequentemente con l’AI, le conversazioni diventano sempre più naturali e familiari, riflettendo meglio le esigenze individuali degli utenti.
Inoltre, le nuove voci non solo forniscono una varietà di modi di parlare, ma sono anche progettate per essere emotivamente reattive. Questo permette a OpenAI non solo di generare risposte più adatte al contesto, ma di farlo in modo che le interazioni siano più coinvolgenti e meno meccaniche. La capacità di passare da un argomento all’altro e di interrompere in modo fluido rappresenta un passo avanti nelle conversazioni tra utenti e AI, creando un’interazione che si avvicina sempre di più a quella umana.
Funzionalità personalizzate e interazioni migliorate
Disponibilità e rollout del servizio
Attualmente, l’Advanced Voice Mode è in fase di rollout per tutti gli utenti di ChatGPT Plus e Teams, con accesso previsto nel corso della settimana. Tuttavia, gli utenti situati nell’UE, Regno Unito, Svizzera, Islanda, Norvegia e Liechtenstein dovranno pazientare, poiché la funzionalità non è ancora disponibile in quelle regioni. OpenAI ha annunciato che gli utenti enterprise ed educativi possono aspettarsi di accedere a queste novità a partire dalla prossima settimana, seguendo la tabella di marcia stabilita dall’azienda.
È importante notare che il rollout avverrà in modo graduale. Non tutti gli utenti, anche quelli provenienti da regioni supportate, riceveranno immediatamente la nuova funzionalità. Ciò implica che la disponibilità varierà in base alla posizione geografica e al pianoforte di abbonamento degli utenti. OpenAI ha progettato questa distribuzione attenta per garantire un’implementazione fluida e senza intoppi, monitorando le prestazioni e l’esperienza dell’utente durante il processo.
La compagnia ha anche comunicato che, mentre il rollout procede, sono in atto migliorie continue agli accenti nelle lingue straniere, così come per la velocità e la fluidità delle conversazioni. In aggiunta, l’interfaccia dell’utente ha subito un aggiornamento significativo: un nuovo design che presenta una sfera blu animata, la quale rappresenta visivamente l’interazione vocale in atto, rendendo l’esperienza più piacevole dal punto di vista estetico rispetto al punto nero minimalista utilizzato in precedenza.
Disponibilità e rollout del servizio
Concorrenza nel mercato delle AI vocali
In un mercato in rapida evoluzione, OpenAI deve affrontare una concorrenza crescente da parte di altri giganti dell’intelligenza artificiale come Google e Meta. Google, con il suo strumento NotebookLM, ha fissato un nuovo standard con alcune delle voci AI più umane disponibili oggi. Questo strumento è in grado di elaborare fino a un milione di token di dati e consente interazioni realistiche tra AIs generate, simulando dibattiti completi su argomenti specifici con una qualità sorprendente e realistica.
NotebookLM permette agli utenti di caricare gruppi di documenti contenenti informazioni diverse, generando poi fino a dieci minuti di audio in cui due AIs discorrono su quel contenuto specifico. La qualità delle interazioni ha raggiunto un livello così elevato da sembrare estremamente autentica, offrendo una seria sfida a OpenAI nel campo delle conversazioni AI.
Meta non è da meno, avendo lanciato il suo assistente live, Meta AI, anche se non è ancora ampiamente accessibile. Questo assistente è progettato per intrattenere conversazioni naturali con gli utenti e gestire comandi in modo fluido. Tuttavia, mentre la voce risulta più naturale rispetto ai tradizionali assistenti AI, presenta ancora alcuni tratti che la identificano come generata artificialmente, come la cadenza e la velocità del parlato. Nonostante ciò, rapporti di Reuters indicano che Meta prevede di integrare le personalità di figure di spicco come Judi Dench e Michael Cerna nel suo chatbot, aumentando ulteriormente il fascino della loro offerta.
In questo contesto competitivo, OpenAI dovrà continuare a innovare e migliorare le proprie offerte per mantenere una posizione di forza nel mercato delle AI vocali, mentre gli utenti si aspettano interazioni sempre più raffinate e umane.
Concorrenza nel mercato delle AI vocali
In un mercato in rapida evoluzione, OpenAI deve affrontare una concorrenza crescente da parte di altri giganti dell’intelligenza artificiale come Google e Meta. Google, con il suo strumento NotebookLM, ha fissato un nuovo standard con alcune delle voci AI più umane disponibili oggi. Questo strumento è in grado di elaborare fino a un milione di token di dati e consente interazioni realistiche tra AIs generate, simulando dibattiti completi su argomenti specifici con una qualità sorprendente e realistica.
NotebookLM permette agli utenti di caricare gruppi di documenti contenenti informazioni diverse, generando poi fino a dieci minuti di audio in cui due AIs discorrono su quel contenuto specifico. La qualità delle interazioni ha raggiunto un livello così elevato da sembrare estremamente autentica, offrendo una seria sfida a OpenAI nel campo delle conversazioni AI.
Meta non è da meno, avendo lanciato il suo assistente live, Meta AI, anche se non è ancora ampiamente accessibile. Questo assistente è progettato per intrattenere conversazioni naturali con gli utenti e gestire comandi in modo fluido. Tuttavia, mentre la voce risulta più naturale rispetto ai tradizionali assistenti AI, presenta ancora alcuni tratti che la identificano come generata artificialmente, come la cadenza e la velocità del parlato. Nonostante ciò, rapporti di Reuters indicano che Meta prevede di integrare le personalità di figure di spicco come Judi Dench e Michael Cerna nel suo chatbot, aumentando ulteriormente il fascino della loro offerta.
In questo contesto competitivo, OpenAI dovrà continuare a innovare e migliorare le proprie offerte per mantenere una posizione di forza nel mercato delle AI vocali, mentre gli utenti si aspettano interazioni sempre più raffinate e umane.