Brad Smith, presidente di Microsoft, ha dichiarato che i dipendenti del gruppo non sono autorizzati a utilizzare il chatbot di DeepSeek. Il motivo è da ricercare nelle questioni inerenti la sicurezza dei dati e nelle preoccupazioni legate alla propaganda di Pechino. Lo ha dichiarato nel corso di un’udienza al Senato degli Stati Uniti.
In Microsoft non consentiamo ai nostri dipendenti di utilizzare l’app DeepSeek.
Microsoft su DeepSeek: no al chatbot, sì al modello
Per la stessa ragione, l’applicazione AI della startup cinese non è stata resa disponibile per il download sui PC attraverso lo store ufficiale di Windows. È la prima volta che la società di Redmond si pronuncia apertamente sul tema.
Ricordiamo che l’informativa di DeepSeek sulla privacy prevede l’archiviazione dei dati riguardanti gli utenti all’interno di server localizzati nel paese d’origine, in Cina. Questo comporta la cooperazione con le agenzie di intelligence locali. Inoltre, i prompt sono elaborati dall’intelligenza artificiale con un algoritmo calibrato in modo da attuare una pesante forma di censura su argomenti ritenuti sensibili dal governo centrale.
Il ban, se così lo si può definire, è comunque parziale. Va infatti ricordato che Microsoft ha offerto fin da subito ai propri clienti il modello R1 addestrato dalla società cinese, attraverso l’infrastruttura cloud di Azure. A questo proposito, Smith ha dichiarato che la software house ha apportato alcune correzioni e cambiamenti (la sua natura è open source) per impedire e prevenire comportamenti indesiderati, senza però fornire ulteriori dettagli in merito.
Il successore R2 è in arrivo. Stando a quanto reso noto, sarà molto più potente ed economico. L’obiettivo è quello di stravolgere di nuovo gli equilibri nell’ambito dell’intelligenza artificiale, come fatto all’inizio dell’anno.
Come accaduto in passato con ChatGPT, l’Italia è stata tra i primi paesi a organizzarsi per bloccare l’accesso al chatbot, per questioni relative alla sicurezza, seguita da molti altri.