Microsoft ha deciso di investire pesantemente sull’intelligenza artificiale, come dimostrano il lancio di Bing Chat e Copilot. L’azienda di Redmond ha ora spiegato come verranno gestiti i problemi di etica e privacy, nonostante lo smantellamento del team dedicato.
350 persone per una IA responsabile
Microsoft spiega che una IA responsabile si può ottenere attraverso una serie di passi che possano garantire il rispetto di determinati principi, tra cui equità, affidabilità, privacy, sicurezza, inclusività e trasparenza. Natasha Crampton, Chief Responsible AI Officer, ha illustrato le tre aree principali che consentiranno di raggiungere l’obiettivo.
È previsto innanzitutto il coinvolgimento della leadership. L’azienda di Redmond ha previsto la creazione del Responsible AI Council, presieduto da Brad Smith (Presidente di Microsoft) e da Kevin Scott, Chief Technology Officer e responsabile della divisione Microsoft Research. Il team dell’Office of Responsible AI, guidato da Natasha Crampton, si occupa della creazione e dell’applicazione dei modelli di governance, ovvero delle linee guida da seguire per ottenere una IA responsabile.
La dirigente chiarisce infine la questione relativa al team Ethics & Society. Quasi tutti i membri sono stati spostati in altri gruppi che lavorano su progettazione e sviluppo di sistemi e servizi IA. Solo sette dipendenti sono stati licenziati. Attualmente quasi 350 persone lavorano alla creazione di una IA responsabile. Nei prossimi mesi sono previste nuove assunzioni a tempo indeterminato e l’aggiornamento formativo dei dipendenti.