Meta a lansat două modele AI Llama 4, unul de mici dimensiuni, botezat Scout, care poate fi rulat pe o placă Nvidia H100, iar al doilea accesibil online. Llama 4 Maverick seamănă mai mult cu GPT-4o și Gemini 2.0 Flash, dar Meta susține că le-a depășit pe acestea în testele benchmark.
Modele AI de generația a patra
Meta a anunțat modele AI Llama 4, cea mai nouă serie care alimentează acum asistentul Meta AI de pe web și în WhatsApp, Messenger și Instagram. Cele două modele noi, disponibile și pentru descărcare de la Meta sau Hugging Face, au fost botezate Llama 4 Scout: un model mic capabil să ruleze pe un singur GPU Nvidia H100, și Llama 4 Maverick, care seamănă mai mult cu GPT-4o și Gemini 2.0 Flash. Meta spune că este încă în curs de training o variantă Llama 4 Behemoth, despre care CEO-ul Meta, Mark Zuckerberg, spune că este „cel mai performant model AI din lume”.
Potrivit Meta, Llama 4 Scout are o capacitate de înțelegere (context window) de 10 milioane de tokeni, care depășește modelele Google Gemma 3 și Gemini 2.0, precum și Mistral 3.1, „într-o gamă largă de benchmark-uri raportate pe scară largă”. Meta face afirmații similare cu privire la performanța modelului său mai mare Maverick față de GPT-4o de la OpenAI și Gemini 2.0 Flash de la Google și spune că rezultatele sale sunt comparabile cu DeepSeek-V3 în sarcinile de programare și raționament folosind „mai puțin de jumătate din parametrii activi”.
Între timp, viitorul Llama 4 Behemoth are 288 de miliarde de parametri activi cu 2 trilioane de parametri în total. Deși nu a fost încă lansat, Meta spune că Behemoth își poate depăși concurenții (în acest caz GPT-4.5 și Claude Sonnet 3.7) „la mai multe benchmark-uri STEM”. Pentru Llama 4, Meta spune că a trecut la o arhitectură “mixture of experts” (MoE), o abordare care conservă resursele utilizând doar părțile unui model care sunt necesare pentru o anumită sarcină. Compania intenționează să discute planurile viitoare pentru modele și produse AI la conferința sa LlamaCon, care are loc pe 29 aprilie.
Ca și în cazul modelelor sale anterioare, Meta numește colecția Llama 4 „open-source”. Deși Llama a fost criticată pentru restricțiile de licență. De exemplu, licența Llama 4 cere entităților comerciale cu peste 700 de milioane de utilizatori activi lunar să solicite permisiunea de la Meta înainte de a folosi modelele, ceea ce Open Source Initiative a explicat în 2023 că o scoate „din categoria „Open Source”.