Microsoft ha pubblicato la seconda versione del suo Responsible AI Standard, una serie di linee guida per lo sviluppo di sistemi basati sull’intelligenza artificiale. Dato che la progettazione di questi sistemi deve essere effettuata mettendo le persone al centro e rispettando i principi di equità, affidabilità, sicurezza, privacy e trasparenza, l’azienda di Redmond ha deciso di ritirare la tecnologia che permette di riconoscere le emozioni in foto e video.
Intelligenza artificiale più responsabile
Microsoft evidenza che l’uso dei sistemi IA può essere discriminatorio. È stato dimostrato che la tecnologia speech-to-text non funziona perfettamente con il riconoscimento vocale di persone afroamericane. La tecnologia Custom Neural Voice di Azure, che permette di creare voci sintetiche simili all’originale, può essere sfruttata in modo inappropriato, ad esempio per ingannare gli ascoltatori. Per questo motivo è stato limitato l’accesso al servizio. Simili controlli verranno applicati al riconoscimento facciale.
Microsoft ha inoltre annunciato il ritiro della tecnologia che consente di riconoscere le emozioni delle persone in foto e video, oltre a sesso, età, barba, capelli e trucco. Non verranno più fornite le Face API che possono essere utilizzate per determinare lo stato emotivo sulla base dei movimenti e delle espressioni facciali.
La mancanza di un consenso unanime sulla definizione di emozione e l’impossibilità di generalizzare il collegamento tra espressione facciale e stato emotivo hanno sollevato diverse preoccupazioni in tema di privacy e discriminazione. Gli attuali clienti potranno utilizzare le API fino al 30 giugno 2023. L’accesso al servizio sarà possibile solo in casi specifici, ad esempio per supportare lo sviluppo di applicazioni per persone con disabilità, come Seeing AI.