I Large Language Models (LLM) sono strumenti potenti e ChatGPT, Microsoft Copilot e Google Gemini riescono costantemente a stupirmi. Le loro capacità sono estese, ma non sono prive di difetti. Le allucinazioni sono un grosso problema con LLM come questi, anche se le aziende ne sono consapevoli e cercano di eliminarle ove possibile. Tuttavia, non penso che questi modelli siano il futuro dei LLM. Penso che il futuro dell’IA risieda nei modelli LLM più piccoli e specializzati, piuttosto che negli strumenti generici come questi sono.
Le IA con modelli LLM specializzati hanno meno requisiti hardware
Immagina di essere un’azienda e di voler implementare un LLM interno che possa aiutare i tuoi sviluppatori con la codifica. Potresti pagare per l’intera gamma di GPT-4 Turbo, con i costi sostenuti per ogni transazione… oppure potresti utilizzare una GPU Nvidia, Hugging Face e StarCoder2 LLM di ServiceNow. È significativamente più piccolo con soli 15 miliardi di parametri, è gratuito da usare (a parte i costi sostenuti per eseguirlo localmente) e funziona molto bene nelle attività di codifica.
Facendo un ulteriore passo avanti, ci sono altri LLM specializzati solo nella codifica che puoi utilizzare anche tu. Potrebbero non essere ancora pienamente in grado di fare tutto ciò che GPT-4 può fare, ma il lavoro è in continua crescita in quest’area e, poiché questi modelli sono così piccoli, si possono ottenere molti risultati positivi con loro. Per quanto riguarda i modelli extra piccoli con 7 miliardi di parametri (o anche meno), le opzioni sono ancora più numerose.
Ad esempio, pur non essendo un modello per uso specializzato, Vicuna-7B è un modello che puoi effettivamente eseguire su uno smartphone Android se ha abbastanza RAM. I modelli più piccoli sono più portabili e, se si concentrano su un singolo argomento, possono comunque essere addestrati per essere migliori rispetto a LLM più grandi e versatili come ChatGPT, Microsoft Copilot o Gemini di Google.
Non è l’uno o l’altro
Tutto sommato, le IA con gli LLM a scopo generale avranno il loro posto, ma il futuro dell’intelligenza artificiale incisiva è davvero nello spazio più piccolo e specializzato. Abbiamo già modelli linguistici più piccoli come Vicuna-7B in grado di funzionare su dispositivi che stanno nelle nostre tasche. Un modello da 7 miliardi di parametri è capace di molto se specializzato per un utilizzo particolare, ed è esattamente dove credo che sia diretto il settore. StarCoder2 ne è un esempio, e con l’inizio del decollo anche di RAG, sospetto che vedremo meno modelli pesanti e invece molti più modelli più piccoli ma precisi.
Se vuoi provare alcuni di questi LLM più piccoli, puoi utilizzare strumenti come LM Studio e una potente GPU. Non è così difficile da eseguire finché hai molta vRAM e ci sono molti modelli specializzati per tutti i tipi di usi che puoi provare. Ce n’è per tutti i gusti e, una volta provati, capirai perché il futuro dell’intelligenza artificiale sarà costituito da questi modelli che chiunque può eseguire, ovunque e in qualsiasi momento.