Llama 4: Scopri i nuovi modelli IA Scout e Maverick di Meta in arrivo

Modelli Llama 4: Novità e caratteristiche principali
Meta ha recentemente svelato la sua ultima generazione di modelli di intelligenza artificiale, Llama 4. Questo annuncio è avvenuto in vista della conferenza LlamaCon, prevista per il 29 aprile, e include il lancio di due modelli già disponibili, Llama 4 Scout e Llama 4 Maverick, e un’anteprima del modello ancora in fase di training, Llama 4 Behemoth. Entrambi i modelli sono accessibili tramite Llama.com e dai partner di Meta come la piattaforma Hugging Face e sono stati aggiornati per l’uso in 40 Paesi attraverso il suo assistente intelligente Meta AI per app come WhatsApp, Messenger e Instagram. Tuttavia, le funzioni multimodali sono attualmente limitate agli Stati Uniti per la lingua inglese.
Non buttare via soldi per comprare contenuti effimeri sui social media. ==> LEGGI QUI perchè.
ISCRIVITI ORA USANDO IL CODICE – SWISSBLOCKCHAIN10 – PER AVERE LO SCONTO DEL 10% SUL BIGLIETTO DI INGRESSO! ==> CLICCA QUI!
Scout, il modello più compatto della serie, vanta 109 miliardi di parametri totali, con 17 miliardi di essi attivi grazie a una configurazione di 16 esperti. Progettato per funzionare su una singola GPU NVIDIA H100 attraverso quantizzazione INT4, Scout è ottimale per compiti come il riassunto di documenti, l’analisi di attività degli utenti su scala e il ragionamento su ampie basi di codice. Nonostante le sue dimensioni contenute, Meta afferma che Scout supera diversi modelli concorrenti, tra cui Google Gemini 3, Gemini 2.0 Flash-Lite e Mistral 3.1, in molteplici benchmark.
D’altra parte, Maverick presenta un’imponente architettura con 400 miliardi di parametri totali, di cui 17 miliardi sono attivi su una configurazione di 128 esperti. Questo modello è stato progettato per eccellere nella comprensione di testi e immagini in contesti di assistenza virtuale e chat. Secondo Meta, Maverick si confronta favorevolmente con GPT-4o e Gemini 2.0 Flash, mostrando risultati paragonabili al recente DeepSeek v3 per compiti di ragionamento e codifica, pur utilizzando meno della metà dei parametri attivi richiesti dai modelli precedenti. In contrasto con Scout, Maverick necessita di un sistema DGX H100 o equivalente per il suo funzionamento efficiente.
Caratteristiche tecniche di Scout e Maverick
I modelli Llama 4 presentano approcci distintivi e sofisticati nella loro progettazione, ognuno mirato a rispondere a specifiche esigenze di performance e utilizzo. Scout, con i suoi 109 miliardi di parametri, è stato sviluppato per essere eseguito su singole GPU NVIDIA H100, sfruttando la quantizzazione INT4. La sua configurazione di 16 esperti consente un’ottimizzazione per attività come il riassunto di documenti e l’analisi di grandi volumi di dati degli utenti, risultato che lo pone in vantaggio su modelli competitivi, come Google Gemini 3 e Mistral 3.1, secondo i benchmark forniti da Meta.
Maverick, con una capacità computazionale di 400 miliardi di parametri, richiede un’infrastruttura più potente, come un sistema DGX H100. La sua architettura è progettata per gestire non solo testi, ma anche immagini in contesti di assistenza virtuale e chat. Meta afferma che Maverick è in grado di competere con sistemi avanzati come GPT-4o e Gemini 2.0 Flash, raggiungendo risultati simili a DeepSeek v3. Questa efficienza è combinata a una configurazione di 128 esperti, permettendo una buona gestione dei parametri attivi, con un impatto significativo sulle prestazioni e sull’efficacia operativa.
Entrambi i modelli sfruttano l’architettura Mixture of Experts (MoE), che attiva dinamicamente solo i moduli più rilevanti per ogni specifica richiesta. Questa strategia permette di migliorare la velocità delle elaborazioni e ridurre il carico sul sistema, con un uso di risorse più efficiente. Inoltre, la distillazione da Llama 4 Behemoth, il modello di punta da circa 2 trilioni di parametri in fase di training, ha contribuito a migliorare l’intelligenza di queste nuove versioni, rendendole tra le più performanti nel panorama attuale dell’Intelligenza Artificiale.
Prospettive future per Llama 4 Behemoth
Il modello Llama 4 Behemoth rappresenta un significativo passo in avanti nel campo dell’intelligenza artificiale. Con circa 2 trilioni di parametri, di cui 288 miliardi attivi attraverso 16 esperti, Behemoth è progettato per essere il più potente e sofisticato della serie Llama 4. Attualmente in fase di addestramento, si prevede che superi le prestazioni di modelli rivali come GPT-4.5, Claude Sonnet 3.7 e Gemini 2.0 Pro in vari benchmark, specialmente nell’ambito delle scienze, della tecnologia, dell’ingegneria e della matematica (STEM).
Uno degli aspetti più interessanti di Behemoth è la sua architettura di elaborazione, che combina l’efficienza dei modelli precedenti con una capacità di ragionamento migliorata. Mentre i modelli precedenti di Llama non erano specificamente ottimizzati per il ragionamento, Behemoth punta a colmare questa lacuna, permettendo risposte più accurate e contestualizzate. La promessa di un modello che possa esercitare un ragionamento critico rappresenta un passo importante nel rendere l’intelligenza artificiale più utile in applicazioni pratiche, come assistenti virtuali e analisi di dati complessi.
Per quanto riguarda la disponibilità, Meta non ha ancora rivelato una data di lancio ufficiale per Llama 4 Behemoth, ma la sua capacità di apprendimento e la potenza computazionale promessa suscitano già ampie aspettative nel settore. Le aziende e i ricercatori sono ansiosi di vedere come questo modello potrà essere integrato in ambiti strategici come l’assistenza sanitaria, la finanza e l’educazione, dove l’analisi dei dati e la capacità di fornire risposte fondate sono cruciali per il successo.
Sostieni Assodigitale.it nella sua opera di divulgazione
Grazie per avere selezionato e letto questo articolo che ti offriamo per sempre gratuitamente, senza invasivi banner pubblicitari o imbarazzanti paywall e se ritieni che questo articolo per te abbia rappresentato un arricchimento personale e culturale puoi finanziare il nostro lavoro con un piccolo sostegno di 1 chf semplicemente CLICCANDO QUI.