Perché le aziende vietano ai dipendenti di utilizzare ChatGPT?

Perché le aziende vietano ai propri dipendenti di utilizzare ChatGPT?

ChatGPT sta gradualmente diventando l’assistente virtuale preferito di privati e aziende, però i divieti aumentano: ecco perché.
Perché le aziende vietano ai propri dipendenti di utilizzare ChatGPT?
ChatGPT sta gradualmente diventando l’assistente virtuale preferito di privati e aziende, però i divieti aumentano: ecco perché.

ChatGPT sta gradualmente diventando l’assistente virtuale preferito di privati e aziende. Lo strumento firmato OpenAI è oramai un punto di riferimento per più professioni e sta sollevando al contempo numerose polemiche sui suoi rischi. Abbiamo già visto cosa non condividere con ChatGPT se lo si usa a lavoro, e parlato anche dei timori degli Italiani sulla potenziale sostituzione dei lavoratori con l’IA, che si tratti del chatbot di Sam Altman e soci o di soluzioni alternative.

Sotto la superficie si celano molti pericoli, già piuttosto chiari alle principali aziende dell’industria tech. Ma quali sono? Cerchiamo di individuarli, al fine di comprendere anche i motivi per cui sempre più aziende stanno vietando ChatGPT ai dipendenti nonostante la sua innegabile utilità.

ChatGPT è l’asso nella manica dei lavoratori

ChatGPT

Sin dal suo debutto online, ChatGPT è conosciuto tra i lavoratori per essere un ottimo aiutante nella ricerca di informazioni, seppur precedenti al 2021, almeno fino all’introduzione del plugin per la navigazione online in tempo reale , nella scrittura di testi elaborati dalla composizione verosimilmente umana, nella programmazione e non solo. In breve, è l’assistente numero uno per numerose persone, un asso nella manica che viene svelato nei momenti più opportuni per velocizzare determinate attività e ottenere risultati convincenti in poco tempo.

Peccato, però, che la gioia di finire il lavoro in anticipo abbia lentamente posto in secondo piano la necessità di prestare attenzione alle informazioni condivise con il chatbot. ChatGPT, del resto, non è una scatola chiusa all’interno della quale si possono condividere dati a piacere, nella convinzione che finita la conversazione essi vengano eliminati. Al contrario, OpenAI continua a monitorare le chat dietro le quinte raccogliendo qualsiasi elemento che possa aiutare il modello di linguaggio GPT a migliorare.

Dovrebbe essere quindi scontato che il trasferimento di dati relativi al lavoro a un sistema di intelligenza artificiale online di terze parti possa rappresentare una minaccia per la sicurezza e la privacy. Per migliaia di persone, però, non è affatto ovvio.

Rischi da non sottovalutare

Come sbloccare ChatGPT dall’Italia

Ne consegue che i dipendenti di qualsiasi azienda, anche di colossi come Apple e Amazon, abbiano fatto – e stiano facendo – affidamento sul chatbot senza considerare la diffusione di informazioni riservate su server chiusi e controllati da una parte terza, dove alcuni amministratori potrebbero essere potenzialmente interessati al leak di stringhe di codice o minacciare la società richiedendo una somma considerevole di denaro per cancellare i dati o bloccare la loro fuga.

Nel caso di OpenAI, data la fama dell’organizzazione no-profit, sicuramente ciò non avverrà. Ciononostante, il problema rimane: i dati sensibili finiscono all’interno dei suoi server. Considerato che, stando a recenti studi, il 43% su 12.000 dipendenti ricorre all’intelligenza artificiale come ChatGPT nel proprio ambiente di lavoro, è inevitabile che alcuni di essi non si interessino minimamente delle ripercussioni delle loro azioni.

Proprio per questa ragione, Samsung Electronics ha deciso di agire non appena un ingegnere ha copiato parti del codice sorgente nel chatbot di OpenAI, vietando in toto l’uso dell’IA generativa. A seguire il suo esempio sono state realtà come Apple, JPMorgan e Bank of America. In assenza di un modo per recuperare e cancellare le informazioni sensibili, i colossi di più settori hanno posto un blocco generale e dichiarato pubblicamente l’intento di dare vita a un assistente IA proprietario, in maniera tale che i dipendenti possano lavorare con il supporto di chatbot ma tramite server interni, senza trapelare dati sensibili.

Tra approcci convenienti e pericoli

ChatGPT

Alcune aziende stanno ancora sfruttando la potenza di ChatGPT, a oggi il chatbot più potente e performante al mondo: ad esempio, The Coca-Cola Company sta usando tale modello di linguaggio assieme al generatore di immagini DALL-E per il branding e la creazione di contenuti. O ancora, Buzzfeed ha una partnership a gennaio per generare quiz e altri contenuti. Nell’ambito legale e sanitario, invece, l’uso viene valutato con molta cautela in quanto vengono utilizzate informazioni sensibili dei cittadini, che si tratti di casi giudiziari o di terapie, ergo dati sullo stato di salute di un individuo. In altri ambienti, specialmente nel mondo tech e nel settore finanziario, si corre invece ai ripari adottando IA proprietarie, come citato in precedenza.

È chiaro, dunque, che tutto il mondo sta guardando sia con interesse, sia con molta paura alle capacità dell’intelligenza artificiale, il cui genio non può essere inserito nuovamente nella lampada. Oramai le IA generative stanno crescendo e sono a piede libero. La soluzione? Accoglierle in maniera tale da semplificare e ottimizzare molteplici attività, considerando ovviamente i numerosi pericoli per gli esseri umani. La loro condanna non giova a nessuno ora che l’IA risulta integrata in sempre più servizi. La corretta implementazione è l’unica strada percorribile a oggi, ma bisogna educare il pubblico.

In un mondo dove sempre più Paesi possono beneficiare delle IA non bisogna combattere contro tali strumenti con tutte le proprie forze, bensì inquadrare i loro casi d’uso, notare le potenzialità e sfruttarle senza minacciare gli esseri umani.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
3 lug 2023
Link copiato negli appunti