Nelle scorse settimane ha fatto la sua comparsa un software chiamato DeepNude, basato su algoritmi IA e strutturato in modo da ricevere in input la fotografia di una donna per restituirne in output una versione senza veli. Proposto in un’edizione gratuita e un’altra premium a pagamento, ha avuto vita corta: il progetto è stato chiuso a breve distanza il lancio.
DeepNude: via i cloni da GitHub
L’idea ha però stuzzicato la fantasia degli sviluppatori, che fin da subito ne hanno create diverse copie. Alcuni dei cloni sono stati avvistati su GitHub, con tanto di codice sorgente condiviso per far sì che chiunque potesse mettervi mano. La piattaforma, dallo scorso anno controllata da Microsoft, non ha gradito la pratica ed è intervenuta per fare piazza pulita. L’azione è giustificata da quanto previsto in un passaggio delle linee guida rivolte alla community. Nella sezione “Sexually obscene content” leggiamo quanto segue.
Non pubblicate contenuti pornografici. Ciò non significa che tutte le nudità o tutto il codice e i contenuti legati alla sessualità siano proibiti. Riconosciamo che la sessualità faccia parte della vita e contenuti non pornografici potrebbero far parte del vostro progetto oppure essere presentati per scopi artistici o educativi. Non permettiamo contenuti sessuali osceni o che riguardano lo sfruttamento o la sessualizzazione dei minori.
Questo il commento fornito da un portavoce di GitHub, interpellato sulla vicenda dalla redazione di Motherboard.
Non monitoriamo in modo proattivo i contenuti generati dagli utenti, ma investighiamo attivamente i report relativi ad abusi. In questo caso abbiamo disabilitato il progetto poiché ritenuto in violazione delle nostre policy. Non consentiamo l’utilizzo di GitHub per la pubblicazione di contenuti sessualmente osceni e proibiamo tale condotta sia nei nostri Termini di Servizio sia nelle linee guida per la community.
C’è chi ha lamentato la cancellazione del proprio progetto nonostante fosse relativo esclusivamente all’algoritmo del software, senza l’inclusione di alcun elemento legato all’interfaccia utente. Considerando la natura discutibile e controversa di DeepNude, ascrivibile alla categoria degli strumenti per la creazione di deepfake nonostante in grado di generare in output un’immagine e non un filmato, la decisione di GitHub ci pare condivisibile.