LLaMA 2 è la seconda generazione di un’intelligenza artificiale (AI) veloce e potente che Meta ha inizialmente progettato per la ricerca. Meta ha rilasciato ufficialmente LLaMA 2 nel 2023, un modello di intelligenza artificiale open source in collaborazione con Microsoft, in modo che gli sviluppatori potessero utilizzare la piattaforma di cloud computing Azure. Ma ora è disponibile anche da altri fornitori.
LLaMA 2 è open source, consentendo ai ricercatori di intelligenza artificiale e agli sviluppatori commerciali di utilizzarlo gratuitamente. In confronto, altri modelli linguistici di grandi dimensioni di prim’ordine come ChatGPT di OpenAI e Gemini di Google sono sistemi proprietari. Ciò rende LLaMA 2 intrigante per gli sviluppatori di terze parti che desiderano un accesso diretto al modello (in maniera simile anche Mixtral 8x7b è open source).
Cos’è LLaMA2?
LLaMA è l’acronimo di Large Language model Meta AI. Presumibilmente, Meta ha omesso una “M” dall’acronimo per rendere il nome più memorabile. La prima versione è stata introdotta nel febbraio 2023 in quattro dimensioni, contenenti 7, 13, 33 e 65 miliardi di parametri.
All’aumentare del numero di parametri, un modello di intelligenza artificiale diventa più raffinato, ma il grado di sofisticazione varia tra i modelli di intelligenza artificiale. I ricercatori di Meta hanno scoperto che il modello di parametri 13B di LLaMA ha sovraperformato il GPT-3 di OpenAI, che ha 175B parametri. Nei test di Meta, LLaMA-65B ha funzionato in modo simile ai migliori modelli di intelligenza artificiale dell’epoca, Chinchilla-70B e PaLM-540B.
Meta ha introdotto LLaMA 2 nel luglio 2023 (e nei mesi successivi anche Code LLaMA, versione specifica progettata per il coding). La seconda generazione ha un design simile ma è addestrato con un set di dati più grande del 40% per creare un’intelligenza artificiale più avanzata e in grado di competere con versioni proprietarie come GPT-3.5 Turbo). Meta ha sorpreso il settore rendendo il codice open source con restrizioni minime d’uso.
LLaMA 2 è disponibile in tre dimensioni di modello: si parte da quello da 7B piccolo ma robusto che può essere eseguito su un laptop, si passa a quello da 13B adatto per computer desktop e si arriva a un modello da 70 miliardi di parametri che richiede un computer potente progettato per la ricerca e lo sviluppo dell’intelligenza artificiale.
Il nuovo Snapdragon 8 Gen 3 di Qualcomm ha migliorato l’elaborazione dell’intelligenza artificiale con diversi modelli di intelligenza artificiale ottimizzati, quindi gli ultimi telefoni Android con quel chip possono eseguire l’intelligenza artificiale di Meta localmente. Puoi eseguire LLaMA 2 nel cloud per un uso occasionale, rendendo questa intelligenza artificiale disponibile anche su telefoni Android economici.
Come usare LLaMA 2
Il modello LLaMA 2 è disponibile su GitHub come codice Python open source gratuito. Meta richiede l’accesso prima di scaricare i pesi del modello e il tokenizzatore. Questi sono componenti critici per eseguire l’intelligenza artificiale sul tuo computer. È inoltre necessario un interprete Python poiché è il linguaggio in cui è scritto il modello.
Per eseguire LLaMA 2 in locale su un proprio computer, vi invitiamo a visionare la nostra guida di approfondimento. Tuttavia, non è strettamente necessario installare LLaMA 2 sul tuo computer per usarlo. Molti modelli di intelligenza artificiale, compreso questo di Meta, sono gratuiti su Hugging Face.
Se desideri utilizzare LLaMA 2 per scopi commerciali, Microsoft Azure AI Studio può eseguirlo nel cloud. In alternativa, SageMaker di Amazon funziona sulla piattaforma Amazon Web Services.