
Lama 4 Scout è un modello compatto, ma vanta una finestra di contesto di 10 milioni di token, paragonabile alla memoria di lavoro di un modello completo di intelligenza artificiale
Meta ha presentato Llama 4, la sua più recente serie di modelli di intelligenza artificiale. I modelli sono ora alla base dell'assistente Meta AI, disponibile sul web e integrato in diverse piattaforme di messaggistica quali WhatsApp, Messenger e Instagram. Llama 4 Scout è un modello compatto, in grado di operare su una singola GPU Nvidia H100. Llama 4 Maverick, d'altra parte, si posiziona in modo analogo a GPT-4o e Gemini 2.0 Flash. Meta sta ancora conducendo l'addestramento di Llama 4 Behemoth, che il CEO Mark Zuckerberg definisce il modello base con le prestazioni più elevate a livello globale.
Lama 4 Scout vanta una finestra di contesto di 10 milioni di token, paragonabile alla memoria di lavoro di un modello completo di intelligenza artificiale. Nei principali benchmark supera i modelli Gemma 3 e Gemini 2.0 Flash-Lite di Google, nonché il modello open-source Mistral 3.1. Si evidenzia la capacità di Llama 4 Scout di operare su una singola GPU Nvidia H100. Meta formula affermazioni simili riguardo alle prestazioni del suo modello più grande, Maverick, rispetto a GPT-4o di OpenAI e Gemini 2.0 Flash di Google. L'azienda asserisce che i risultati ottenuti sono comparabili a DeepSeek-V3 in compiti di codifica e ragionamento, utilizzando un numero significativamente inferiore di parametri attivi.
Llama 4 Behemoth presenta un'imponente architettura con 288 miliardi di parametri attivi e un totale di 2 trilioni di parametri. Sebbene non sia ancora stato rilasciato ufficialmente, Meta sostiene che Behemoth è in grado di superare i suoi concorrenti, come GPT-4.5 e Claude Sonnet 3.7, in vari benchmark STEM. In contrasto, Llama 4 impiega un'architettura di tipo "mixture of experts" (MoE), un approccio che ottimizza l'utilizzo delle risorse impiegando solamente i componenti necessari del modello per uno specifico compito. Meta prevede di svelare i suoi piani futuri per i modelli e i prodotti di intelligenza artificiale durante la sua prossima conferenza LlamaCon, programmata per il 29 aprile. Analogamente ai modelli precedenti, Meta classifica la serie Llama 4 come "open-source". Tuttavia, Llama ha ricevuto critiche per i suoi termini restrittivi. Ad esempio, la licenza di Llama 4 impone alle entità commerciali con oltre 700 milioni di utenti attivi mensili di ottenere l'autorizzazione da Meta prima di poter utilizzare i suoi modelli. Questo requisito di licenza, come evidenziato dalla Open Source Initiative nel 2023, ha portato alla sua esclusione dalla categoria "open source" in senso stretto.