In occasione del lancio del GPT Store, OpenAI ha aggiornato la policy del servizio. The Intercept ha notato un’importante modifica rispetto alla precedente versione. L’azienda californiana ha eliminato il riferimento a due usi vietati di ChatGPT: militare e guerra.
ChatGPT usato per attività militari?
OpenAI specifica che l’aggiornamento è stato effettuato per rendere la policy più leggibile. In realtà, nella precedente versione c’era un elenco più dettagliato di usi vietati, tra cui le attività che possono causare gravi danni fisici. Nella nuova versione è stato eliminato il divieto di usare ChatGPT per scopi militari e guerra.
Ora è scritto solo che il chatbot non può essere usato per danneggiare se stessi o gli altri. Ad esempio, ChatGPT non può essere usato per promuovere suicidio o autolesionismo, sviluppare o utilizzare armi, ferire altri o distruggere proprietà ed eseguire attività non autorizzate che violino la sicurezza di qualsiasi servizio o sistema.
La modifica potrebbe indicare una nuova opportunità di business per OpenAI. Le parole usate nei termini d’uso sono piuttosto vaghe. Secondo alcuni esperti del settore, l’azienda californiana avrebbe eliminato i termini “militare” e “guerra”, dopo aver notato un’interesse crescente per la tecnologia da parte del Dipartimento della Difesa e delle agenzie di intelligence degli Stati Uniti.
ChatGPT non può guidare un drone o lanciare un missile, ma potrebbe essere sfruttato per scrivere codice. Considerato il problema della allucinazioni sono ovvi i rischi derivanti dall’uso del chatbot per le attività militari.
Pochi giorni fa, il Governatore della Pennsylvania ha invece annunciato che ChatGPT Enterprise verrà utilizzato da alcuni dipendenti statali per eseguire specifiche attività, tra cui creazione e modifica di testi, semplificazione del linguaggio politico obsoleto, scrittura degli annunci di lavoro, individuazione di duplicazioni e indicazioni contrastanti all’interno dei documenti e supporto per la generazione di codice.