Microsoft: nuovo report sulla trasparenza dell'AI responsabile

Microsoft: nuovo report sulla trasparenza dell'AI responsabile

Il nuovo Responsible AI Transparency Report di Microsoft illustra le misure adottate nel 2023 per sviluppare e rilasciare prodotti di AI responsabili.
Microsoft: nuovo report sulla trasparenza dell'AI responsabile
Il nuovo Responsible AI Transparency Report di Microsoft illustra le misure adottate nel 2023 per sviluppare e rilasciare prodotti di AI responsabili.

Microsoft ha recentemente pubblicato il suo Responsible AI Transparency Report, che illustra le misure adottate dall’azienda per rilasciare piattaforme di AI responsabili nel corso dell’anno passato. Il rapporto, che copre principalmente il periodo 2023, sottolinea i risultati ottenuti nell’implementazione sicura dei prodotti di intelligenza artificiale, in linea con l’accordo volontario firmato con la Casa Bianca a luglio dello scorso anno.

Nel report, Microsoft afferma di aver creato 30 strumenti di AI responsabile nell’ultimo anno e di aver fatto crescere il proprio team dedicato a questo ambito. L’azienda ha anche richiesto ai team che realizzano applicazioni di intelligenza artificiale generativa di misurare e mappare i rischi durante l’intero ciclo di sviluppo. Tra le novità introdotte, spiccano le Content Credentials, che appongono una filigrana sulle foto generate da modelli di IA, etichettandole come tali.

Strumenti e team dedicati all’AI responsabile

Microsoft ha dato ai clienti di Azure AI l’accesso a strumenti che rilevano contenuti problematici come discorsi d’odio, contenuti sessuali e autolesionismo, oltre a strumenti per valutare i rischi per la sicurezza. Tra questi, sono stati ampliati i metodi di rilevamento del jailbreak.

L’azienda sta inoltre ampliando i suoi sforzi di red-teaming, che comprendono sia i red team interni che cercano deliberatamente di aggirare le funzioni di sicurezza dei modelli AI, sia le applicazioni di red-teaming per consentire test di terze parti prima del rilascio di nuovi sistemi. Nonostante gli sforzi di Microsoft tuttavia, sono emerse varie criticità.

Quando Bing AI è stato lanciato per la prima volta a febbraio 2023, gli utenti hanno scoperto che il chatbot affermava come fatti veri informazioni errate e che insegnava alle persone insulti razzisti. Ad ottobre, con il generatore di immagini di Bing, alcuni utenti sono riusciti a generare foto di personaggi famosi che pilotavano un aereo contro le Torri Gemelle. A gennaio 2023, su X hanno iniziato a circolare immagini di nudo false di Taylor Swift, create con Microsoft Designer. Microsoft ha poi chiuso la falla che permetteva di generare quelle immagini.

Microsoft e l’impegno verso un’AI responsabile

Il rapporto di Microsoft evidenzia l’impegno dell’azienda verso lo sviluppo di un’AI responsabile, ma allo stesso tempo mette in luce le sfide che ancora devono essere affrontate in questo campo in continua evoluzione. La strada verso un’intelligenza artificiale sicura e affidabile è ancora lunga, ma iniziative come questa rappresentano un passo importante nella giusta direzione.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
3 mag 2024
Link copiato negli appunti