Qualche giorno fa vi abbiamo parlato di Mistral e del lancio del suo LLM open source Mixtral 8x7B. Questo è un LLM dalle capacità simili a quelle di GPT 3.5 ma che, pur essendo open source, ha dei paletti in termini di cosa è possibile generare da esso. Ma proprio per la natura open source, sono stati necessari solamente pochi giorni (e un bel set di dati supplementari, soprattutto in ambito programmazione) per lo sviluppatore Eric Hartford per rilasciare Dolphin-2.5-Mixtral-8x7b, una versione completamente senza filtri e con capacità ancora superiori.
Nel vasto oceano dei progressi dell’intelligenza artificiale, Mixtral 8x7B emerge come un faro di innovazione. Sviluppato da Mistral AI, questo modello rappresenta una versione semplificata del formidabile GPT-4, mantenendo le sue sofisticate capacità offrendo allo stesso tempo un formato più compatto e accessibile. Ecco cosa distingue Mixtral 8x7B:
- Struttura semplificata: a differenza della colossale architettura di GPT-4, Mixtral 8x7B funziona con 8 esperti, ciascuno con 7 miliardi di parametri. Questo design lo rende uno strumento snello ma potente.
- Elaborazione efficiente: rispecchia l’efficienza di GPT-4 coinvolgendo solo 2 esperti per token per l’inferenza, raggiungendo un equilibrio tra prestazioni e utilizzo delle risorse.
- Accessibilità ed etica open source: Mistral AI ha reso questo potente strumento disponibile tramite collegamenti torrent, democratizzando l’accesso alla tecnologia all’avanguardia.
Dai poteri di Dolphin-2.5-Mixtral-8x7b derivano grandi responsabilità
Basandosi su questi progressi, Dolphin-2.5-Mixtral-8x7b è un’iterazione unica che si basa sulle fondamenta gettate da Mixtral 8x7B. Dolphin 2.5 Mixtral 8x7b entra sotto i riflettori con la sua natura senza censure, un tratto che ne definisce la vera essenza.
- Intelligenza senza censura: Dolphin 2.5 Mixtral 8x7b si libera dai soliti vincoli della moderazione dell’IA, offrendo una piattaforma per interazioni AI autentiche e illimitate.
- Potenziale e insidie: questo approccio senza censure apre nuove possibilità per diverse applicazioni, sollevando allo stesso tempo importanti questioni sull’uso etico e responsabile.
Il concetto di “modello non censurato” è allo stesso tempo intrigante e complesso. Fondamentalmente, si riferisce a un’intelligenza artificiale che opera senza i filtri e gli allineamenti convenzionali che tipicamente guidano le risposte dell’intelligenza artificiale. Questo significa:
- Risposte non filtrate: aspettatevi risposte grezze e autentiche che possano sfidare le norme e le prospettive prevalenti.
- Considerazioni etiche: sebbene offra un nuovo livello di apertura, richiede anche un maggiore senso di responsabilità da parte dei suoi utenti.
- Nessun filtro all’illegalità: non avendo alcun filtro e quindi nessun senso della legalità, è possibile chiedere qualsiasi cosa aspettandosi una risposta accurata.
Lo stesso sviluppatore ha prontamente comunicato, insieme con il rilascio del modello:
Questo modello non è censurato. Ho filtrato il set di dati per rimuovere allineamento e pregiudizi. Ciò rende il modello più conforme. Ti consigliamo di implementare il tuo livello di allineamento prima di esporre il modello come servizio. Sarà altamente conforme a qualsiasi richiesta, anche a quelle non etiche. Per favore leggi il mio post sul blog sui modelli senza censure. Sei responsabile di qualsiasi contenuto che crei utilizzando questo modello. Consuma responsabilmente.
Come provare Dolphin-2.5-Mixtral-8x7b
Sebbene sia possibile scaricare il modello ed eseguirlo in locale sul proprio computer (mediante Ollama o Llamafile ad esempio), sono disponibili diverse versioni web che permettono di eseguire Dolphin-2.5-Mixtral-8x7b anche in assenza di un computer dotato di potenti GPU.
In particolare, è possibile provare questo modello non censurato utilizzando le piattaforme di: