• ADV
    • CHI SIAMO
    • CONTATTI
  • TECH
  • FINTECH
  • AI
  • WEB3
  • LIFESTYLE
  • MOTORI
  • SVIZZERA
  • SVAPO
  • BRANDED
  • TREND
  • PUBBLICITA’
  • CHI SIAMO
  • REDAZIONE
  • CONTATTI
  • CISION – PRNEWSWIRE
#ASSODIGITALE.

NEWS TECH & FINTECH + AI & LIFESTYLE

#ASSODIGITALE.
  • ADV
    • CHI SIAMO
    • CONTATTI
  • TECH
  • FINTECH
  • AI
  • WEB3
  • LIFESTYLE
  • MOTORI
  • SVIZZERA
  • SVAPO
  • BRANDED
  • TREND
  • AI INTELLIGENZA ARTIFICIALE

Meta lancia Llama 3.2 e introduce una voce all’intelligenza artificiale

  • Redazione Assodigitale
  • 25 Settembre 2024
Meta lancia Llama 3.2 e introduce una voce all'intelligenza artificiale

Llama 3.2: la nuova era dell’intelligenza artificiale di Meta

▷ GUADAGNA & RISPARMIA con i nostri Coupon & Referral Code: CLICCA QUI ORA!

Mark Zuckerberg ha annunciato oggi che Meta ha lanciato Llama 3.2, la prima versione dei suoi modelli di intelligenza artificiale ad avere capacità visive. Questo aggiornamento rappresenta un passo significativo nell’evoluzione delle capacità AI dell’azienda, ampliando l’utilizzo e la rilevanza delle sue applicazioni in ambiti come la robotica, la realtà virtuale e gli agenti AI. A differenza delle versioni precedenti, Llama 3.2 è stata progettata per funzionare anche su dispositivi mobili, aprendo la strada a sviluppatori che desiderano creare app AI in grado di sfruttare le fotocamere degli smartphone o interagire direttamente con gli schermi per operare a nome dell’utente.

Indice dei Contenuti:
  • Meta lancia Llama 3.2 e introduce una voce all’intelligenza artificiale
  • Llama 3.2: la nuova era dell’intelligenza artificiale di Meta
  • Aggiornamenti delle funzionalità dell’assistente virtuale
  • Voce e personalità: l’aggiunta di celebri voci
  • Capacità visive e applicazioni pratiche
  • Futuro delle applicazioni AI e impatto sul mercato


USA IL CODICE MFL25BLCONS PER AVERE LO SCONTO DEL 20% SUL BIGLIETTO DI INGRESSO! ==> CLICCA QUI!

“Questa è la nostra prima versione open source e multimodale, e abiliterà molte applicazioni interessanti che richiedono comprensione visiva”, ha dichiarato Zuckerberg durante l’evento Connect, tenutosi in California. Con oltre 180 milioni di persone che già utilizzano Meta AI settimanalmente, questo aggiornamento potrebbe rappresentare l’inizio di una nuova era per assistenti personali AI più vocali e coinvolgenti.

Inoltre, Meta prevede di rilasciare diverse dimensioni di Llama 3.2, con capacità corrispondenti. Saranno disponibili versioni più potenti con 11 miliardi e 90 miliardi di parametri, ma anche modelli meno complessi da 1 miliardo e 3 miliardi di parametri, ottimizzati per funzionare su dispositivi portatili. Questo approccio è concepito per attrarre una vasta gamma di sviluppatori, specialmente quelli interessati a integrazioni nei mercati della tecnologia mobile.

Aggiornamenti delle funzionalità dell’assistente virtuale


SCONTO 10% sul PREZZO DEL ticket usando il codice MEDIA10 ==> CLICCA QUI

Meta ha recentemente potenziato le funzionalità del suo assistente virtuale, offrendo agli utenti nuovi strumenti e opzioni interattive. Tra queste, l’assistente ora può fornire feedback e informazioni dettagliate sui contenuti visivi, come fotografie scattate dagli utenti. Ad esempio, se un utente cattura un’immagine di un uccello e desidera conoscere la specie, il sistema sarà in grado di identificare l’animale, fornendo così un valore aggiunto all’esperienza d’uso.

LEGGI ANCHE ▷  Ibarra CEO di Engineering sottolinea l'utilizzo di AI e digitale contro il cambiamento climatico

Inoltre, l’assistente svilupperà la capacità di modificare le immagini degli utenti, consentendo di aggiungere sfondi alternativi o dettagli su richiesta. Questa funzione si posiziona in diretta competizione con strumenti simili già presenti sul mercato, come quelli recentemente introdotti da Google per i dispositivi Pixel e Google Photos.

Un’altra caratteristica interessante riguarda le applicazioni pratiche mostrati durante l’evento Connect: un paio di occhiali smart Ray-Ban, progettati per funzionare con Llama 3.2, hanno dimostrato di fornire consigli su ricette in base agli ingredienti visualizzati. Ciò evidenzia come le nuove capacità visive dell’assistente possano integrarsi in diversi scenari quotidiani, migliorando l’interazione con l’utente.

Meta ha reso inoltre evidente il suo impegno nel rendere Meta AI una componente essenziale all’interno delle sue suite di applicazioni, tra cui Instagram e Messenger. Con tali aggiornamenti, l’assistente virtuale non solo dovrebbe rispondere a domande, ma anche assistere gli utenti in tempo reale, ampliando significativamente il campo delle possibilità offerte da tali strumenti intelligenti.

Voce e personalità: l’aggiunta di celebri voci

Meta ha deciso di potenziare ulteriormente la personalità dei suoi assistenti AI introducendo una selezione di voci famose nel mix di interazioni disponibili per gli utenti. Questo aggiornamento rappresenta un’importante evoluzione rispetto ai modelli di assistenza basati solo su testo, permettendo agli utenti di personalizzare la loro esperienza di interazione con assistenti che parlano con le voci di celebrità come Dame Judi Dench, John Cena, Awkwafina, Keegan Michael Key e Kristen Bell.

Questa mossa non è solo un mero abbellimento estetico; le voci caratteristiche possono rendere le interazioni più coinvolgenti e familiari, portando un tocco di umanità nelle conversazioni con l’intelligenza artificiale. Le celebri voci possono anche attrarre nuovi utenti e stimolare il coinvolgimento di quelli esistenti, offrendo un’esperienza più personalizzata e piacevole.

Meta ha già testato l’idea di integrare personalità vocali nei suoi assistenti AI, ma finora l’adozione è stata scarsa. Con AI Studio, Meta ha permesso agli utenti di creare chatbot con qualsiasi persona che desiderassero, ma la limited uptake di questi personaggi suggerisce che gli utenti potrebbero preferire le voci di figure pubbliche più affermate. L’ambizione di Meta di attingere a un cast di voci celebri è strategica; dato il vasto ecosistema delle sue piattaforme, questa funzionalità potrebbe servire a reimmaginare completamente come gli utenti interagiscono con l’intelligenza artificiale.

LEGGI ANCHE ▷  L'estinzione umana causata dalla AI: lanciato un allarme mondiale a cui bisogna prestare attenzione?

Le nuove voci saranno disponibili per gli utenti negli Stati Uniti, in Canada, in Australia e in Nuova Zelanda nel corso del prossimo mese, ponendo le basi per un’adozione più ampia della tecnologia. Questo sviluppo si allinea con l’evoluzione continua della AI, dove non solo le capacità tecniche ma anche l’esperienza sensoriale che si prova durante l’interazione giocano un ruolo cruciale nel dare vita a assistenti AI più intuitivi e accessibili.

Capacità visive e applicazioni pratiche

La nuova versione di Meta AI non si limita a potenziare l’assistente virtuale, ma introduce anche innovative capacità visive che promettono di trasformare l’interazione tra utenti e tecnologia. Con Llama 3.2, gli assistenti AI sono ora in grado di analizzare e interpretare le immagini, aprendo un mondo di applicazioni pratiche che possono migliorare l’esperienza quotidiana degli utenti. Ad esempio, gli assistenti possono fornire informazioni sugli oggetti catturati con la fotocamera dello smartphone. Se un utente è incerto riguardo alla specie di un uccello fotografato, l’assistente sarà in grado di identificare l’animale, fornendo informazioni utili in tempo reale.

In aggiunta, il sistema avrà la possibilità di modificare immagini in base alle richieste degli utenti. Questo significa che sarà possibile, ad esempio, aggiungere nuovi sfondi alle foto o inserire dettagli personalizzati, rendendo l’editing fotografico più accessibile e immediato. Questa funzionalità si posiziona come una proposta competitiva rispetto a soluzioni analoghe, come quelle già esistenti in Google Photos.

Durante l’evento Connect, Zuckerberg ha dimostrato l’efficacia delle nuove capacità visive in scenari tangibili. Gli occhiali smart Ray-Ban, progettati per lavorare con Llama 3.2, sono stati presentati mentre offrivano ricette in base agli ingredienti che gli utenti avevano a vista. Tale integrazione di tecnologia mostra come le capacità visive possono arricchire le interazioni quotidiane, semplificando attività comuni come la preparazione dei pasti. Inoltre, l’assistente potrebbe fornire commentary e consigli in tempo reale, elevando l’utilizzo delle tecnologie indossabili.

Meta sta organizzando il suo assistente AI in modo da essere non solo una funzione di supporto, ma un compagno attivo nella vita quotidiana degli utenti, assistendo in tempo reale e migliorando la produttività. Con una simile offerta tecnologica, l’azienda mira a posizionarsi all’avanguardia della trasformazione digitale, combinando intelligenza artificiale e capacità visive per offrire soluzioni utili e innovative nel mercato. Queste innovations non solo hanno il potenziale di cambiare il modo in cui interagiamo con la tecnologia, ma di estendere l’uso degli assistenti AI in una varietà di contesti pratici.

LEGGI ANCHE ▷  OpenAI e Condé Nast alleanza su AI per migliorare le risposte di ChatGPT

Futuro delle applicazioni AI e impatto sul mercato

Il lancio di Llama 3.2 segna un momento decisivo per il futuro delle applicazioni di intelligenza artificiale, con Meta che si propone di ridefinire il panorama tecnologico. La crescente domanda di strumenti AI più avanzati e personalizzati si riflette nella strategia dell’azienda di rendere Llama 3.2 accessibile a una vasta gamma di sviluppatori e startup, che potranno sfruttare le sue capacità multimodali. Questo approccio open source potrebbe stimolare l’innovazione, consentendo agli sviluppatori di creare applicazioni uniche che integrano audio, immagini e testo in modi precedentemente inimmaginabili.

In un contesto in cui le applicazioni AI stanno proliferando, Llama 3.2 offre un’opportunità per differenziarsi nel mercato. Con la capacità di analizzare contenuti visivi e fornire risposte contestualizzate, l’assistente AI di Meta potrebbe diventare una risorsa fondamentale nei settori della salute, dell’istruzione e del commercio elettronico. Per esempio, nella salute, l’analisi delle immagini potrebbe semplificare diagnosi o assistenza a distanza. In ambito educativo, gli strumenti AI potrebbero offrire supporto personalizzato agli studenti, guidandoli attraverso contenuti complessi con facilità.

La competizione tra le aziende tecnologiche per dominare il campo delle AI multimodali è in continua crescita. Meta, capitalizzando sulla vasta base di utenti delle sue piattaforme esistenti, potrebbe guadagnare un vantaggio significativo. La combinazione di assistenti visivi parlanti e la capacità di interagire in tempo reale pone Meta in una posizione privilegiata per acquisire nuovi utenti e aumentare l’engagement. Inoltre, la diffusione graduale delle nuove funzionalità in mercati come Stati Uniti, Canada, Australia e Nuova Zelanda indica una strategia di lanci mirati, progettata per valutare le reazioni degli utenti e ottimizzare ulteriormente l’offerta.

Con il potenziamento delle capacità dei suoi assistenti AI, Meta si prepara a espandere l’ecosistema delle sue applicazioni, introducendo strumenti che possono non solo rispondere a domande, ma anche assistere gli utenti in modo proattivo. Questa ambizione di rendere l’intelligenza artificiale non solo un supporto, ma un compagno interattivo, potrebbe infatti essere il fattore chiave che determinerà il suo successo futuro, spingendo per una rapida adozione da parte di utenti allettati dalle possibilità offerte dalla tecnologia avanzata.


Sostieni Assodigitale.it nella sua opera di divulgazione

Grazie per avere selezionato e letto questo articolo che ti offriamo per sempre gratuitamente, senza invasivi banner pubblicitari o imbarazzanti paywall e se ritieni che questo articolo per te abbia rappresentato un arricchimento personale e culturale puoi finanziare il nostro lavoro con un piccolo sostegno di 1 chf semplicemente CLICCANDO QUI.

← Post Precedente
Post Successivo →
Redazione Assodigitale

Articolo editoriale realizzato dalla Redazione di Assodigitale. Per tutte le vostre esigenze editoriali e per proporci progetti speciali di Branded Content oppure per inviare alla redazione prodotti per recensioni e prove tecniche potete contattarci direttamente scrivendo alla redazione : CLICCA QUI

 


ISCRIVITI SUBITO AL NOSTRO FEED SU GOOGLE NEWS ==> CLICCA QUI!


DIRETTORE EDITORIALE

Michele Ficara Manganelli ✿

PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI

Per acquistare pubblicità CLICCA QUI

Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI

#ASSODIGITALE.
  • PUBBLICITA’
  • JOBS
  • REDAZIONE
  • CHI SIAMO
  • CONTATTI – IMPRESSUM
  • PRIVACY
  • COOKIE

PUBBLICITA’ COMUNICATI STAMPA

Per acquistare pubblicità potete richiedere una offerta personalizzata scrivendo al reparto pubblicitario.

Per pubblicare un comunicato stampa potete richiedere una offerta commerciale scrivendo alla redazione.

Per inviarci prodotti per una recensione giornalistica potete scrivere QUI

Per informazioni & contatti generali potete scrivere alla segreteria.

Tutti i contenuti pubblicati all’interno del sito #ASSODIGITALE. “Copyright 2024” non sono duplicabili e/o riproducibili in nessuna forma, ma possono essere citati inserendo un link diretto e previa comunicazione via mail.

FONTE UFFICIALE GOOGLE NEWS

#ASSODIGITALE. da oltre 20 anni rappresenta una affidabile fonte giornalistica accreditata e certificata da Google News per la qualità dei suoi contenuti.

#ASSODIGITALE. è una testata editoriale storica che dal 2004 ha la missione di raccontare come la tecnologia può essere utile per migliorare la vita quotidiana approfondendo le tematiche relative a: TECH & FINTECH + AI + CRYPTO + BLOCKCHAIN + METAVERSE & LIFESTYLE + IOT + AUTOMOTIVE + EV + SMART CITIES + GAMING + STARTUP.

 

Inserisci la chiave di ricerca e premi invio.