Potresti aver notato che Google investe profondamente negli strumenti di intelligenza artificiale da molti anni. Ultimamente, ha reso disponibili al pubblico molti di questi strumenti, incoraggiando gli sviluppatori a fare affidamento sulle piattaforme Google per le loro complesse creazioni di intelligenza artificiale. Ciò significa spesso chatbot e altri usi di modelli linguistici di grandi dimensioni (LLM), il che ci porta al PaLM 2.
Questo LLM attentamente progettato è realizzato per potenziare le IA avanzate con molti trucchi interessanti e puoi utilizzarlo direttamente dal tuo smartphone. L’importante aggiornamento della piattaforma di codifica di Google include modelli per molti scopi ed è uno degli strumenti di intelligenza artificiale più importanti a cui gli sviluppatori possono accedere. Ecco una panoramica.
Cos’è PaLM2?
PaLM 2 è l’enorme LLM di Google che è attualmente responsabile della maggior parte della tecnologia AI predittiva e generatrice utilizzata da Google. Se Gmail ti ha mai consigliato come completare un’e-mail o di recente hai provato il chatbot Google Bard, hai sfruttato la potenza di PaLM 2. Rilasciato nel 2023, è un aggiornamento alla prima versione di LLM, che è stato rilasciato nel 2022.
Come LLM o modello linguistico di grandi dimensioni, PaLM 2 è progettato per sintetizzare e addestrarsi con una grande quantità di dati, imparando come funzionano cose come la lingua e insegnandosi da sola quando commette errori. Tuttavia, è un po’ più mirato rispetto ad altri potenti LLM. Ad esempio, in base ai parametri di addestramento, PaLM 2 è circa un decimo delle dimensioni di GPT-4 che alimenta ChatGPT. Ma è fatto anche per fare cose più specifiche.
Cosa fa questo modello linguistico dell’intelligenza artificiale?
Con i suoi set di addestramento più piccoli del PaLM originale, Google si sta concentrando maggiormente su un addestramento dell’IA mirato e accurato piuttosto che stipare quante più informazioni possibile in un’intelligenza artificiale (cosa che invece sta facendo con l’LLM di nuova generazione Gemini). La teoria sostiene che parametri di addestramento elaborati con cura con feedback umano possono addestrare un’intelligenza artificiale in modo più efficiente con un impatto inferiore, il che può rendere le IA più adatte agli sviluppatori e ai consumatori allo stesso tempo.
Finora questo approccio sembra funzionare bene, almeno in alcuni campi dell’intelligenza artificiale. Non conosciamo tutta la tecnologia utilizzata per creare e addestrare PaLM 2, ma sappiamo che batte GPT-4 nel test di “buon senso” di WinoGrande (da 90 a 88) per interpretare ciò di cui parla il linguaggio umano. Si tratta di un lavoro impressionante per un LLM di queste dimensioni che consente al tempo stesso di risparmiare un sacco di spazio sul server, rendendolo una scelta interessante per rispondere a concetti basati sull’uomo come modi di dire e poesia.
PaLM 2 funziona solo con linguaggio e codice?
Sì e no. La versione di PaLM 2 a disposizione degli sviluppatori non è multimodale e non può essere facilmente personalizzata per diversi tipi di contenuti o dati. Il suo focus è il testo basato sull’uomo e questa specializzazione è uno dei motivi per cui è bravo nelle capacità di ragionamento e nelle sottigliezze del linguaggio.
Google ha mostrato che PaLM 2 fa altre cose. In particolare, ha mostrato (e testato direttamente nelle cliniche) esempi di LLM che analizza i raggi X e altre scansioni mediche con risultati estremamente accurati, oltre a osservare i dati sulla sicurezza informatica e a identificare le minacce in arrivo.
Ma non è chiaro quanto lavoro sia stato necessario per rendere PaLM 2 multimodale in questi modi o quali sarebbero i tempi e i costi associati per un’azienda per fare lo stesso da sola. Per ora, a meno che Google non rilasci un proprio strumento PaLM 2 specifico, è intelligente pensare a PaLM 2 come un modello di solo testo.