Un gruppo di ricercatori cinesi hanno creato un chatbot basato sul modello Llama 2. ChatBIT, questo il suo nome, viene utilizzato per applicazioni militari. Reuters ha scoperto che due ricercatori sono affiliati all’Accademia delle scienze militari, un istituto di ricerca dell’Esercito popolare di liberazione. Meta ha dichiarato (ovviamente) che tale uso del modello non è autorizzato.
ChatBIT: prestazioni simili a GPT-4
I ricercatori hanno utilizzato il modello Llama 2 da 13 miliardi di parametri come base per ChatBIT. Quest’ultimo è ottimizzato per rispondere a domande su attività nel settore militare, in particolare per suggerire decisioni operative. In base a quanto riportato sui documenti visti da Reuters, le prestazioni sono circa il 90% di quelle offerte da GPT-4.
Meta permette a tutti di accedere ai modelli Llama, in quanto sono open source (non secondo la definizione di OSI). L’azienda di Menlo Park impone però alcune restrizioni, come l’obbligo di un licenza per servizi con oltre 700 milioni di utenti mensili.
Meta proibisce l’uso dei modelli attività militari, belliche, industrie o applicazioni nucleari e spionaggio, attività soggette ai controlli sulle esportazioni della difesa degli Stati Uniti e per lo sviluppo di armi e contenuti volti ad incitare e promuovere la violenza.
L’azienda di Menlo Park ha dichiarato che questo uso da parte dell’Esercito popolare di liberazione non è autorizzato e che si tratta di un vecchio modello. Ciò è tuttavia irrilevante considerato che la Cina ha già investito trilioni di dollari per superare gli Stati Uniti nel settore dell’intelligenza artificiale.
ChatBIT viene attualmente sfruttato per le funzionalità di “intelligence analysis”. In futuro potrebbe essere usato per pianificazione strategica e decisioni di comando. Gli Stati Uniti vieteranno alle aziende di investire in settori cinesi che possono rappresentare un pericolo per la sicurezza nazionale, ma l’accesso ai modelli open source non può essere bloccato.