Abacus AI, una startup impegnata nella creazione di una piattaforma end-to-end di machine learning (ML) e LLMOps guidata dall’intelligenza artificiale, ha rilasciato un modello linguistico di grandi dimensioni (LLM) open-source e non censurato, denominato Liberated-Qwen1.5-72B. Questo modello è stato messo a punto per seguire rigorosamente le istruzioni del sistema in tutti gli scenari, rappresentando un significativo miglioramento rispetto ad altri LLM open-source esistenti.
Nell’adozione degli LLM da parte delle aziende, come nel caso dei chatbot rivolti ai clienti, è fondamentale che l’intelligenza artificiale rispetti le indicazioni del sistema per evitare risposte o azioni indesiderate. La maggior parte dei modelli open-source attualmente disponibili non riesce a eseguire perfettamente questa funzione, ma Abacus ha risolto il problema con Liberated-Qwen1.5-72B.
La messa a punto di Liberated-Qwen1.5-72B con SystemChat
Abacus ha sviluppato Liberated-Qwen1.5-72B mettendo a punto Qwen1.5-72B utilizzando un nuovo dataset open-source chiamato SystemChat. Questo insieme di conversazioni sintetiche ha insegnato al modello a rispettare i messaggi del sistema, anche quando ciò significa sfidare le richieste dell’utente durante la conversazione.
Liberated-Qwen1.5-72B si è dimostrato perfetto per le applicazioni di produzione che richiedono risposte simili a quelle umane, ma anche il rispetto di una determinata programmazione. Nei test MT-Bench, il modello ha ottenuto risultati leggermente superiori rispetto ad altri modelli open-source di punta.
Le prospettive future
È importante sottolineare che Liberated-Qwen1.5-72B è completamente privo di censure e senza guardrail inclusi nella formazione. Gli utenti dovrebbero implementare il proprio livello di allineamento prima di esporre il modello come servizio. Abacus ha in programma di migliorare ulteriormente le prestazioni del modello e di rilasciare versioni più capaci in futuro, combinando le proprietà di SystemChat con i dataset utilizzati per addestrare Smaug.