L’intelligenza artificiale può sostituire l’uomo non soltanto nei compiti più complessi e meccanici da svolgere, ma anche in alcuni tra i più sgradevoli e traumatici. Tra questi, quello del riconoscimento e della valutazioni di immagini all’interno di filmati pedopornografici. La soluzione è nelle Content Safety API messe a disposizione da Google.
Il problema è emerso nel tempo in modo evidente da parte degli addetti ai lavori: avere l’ingrato compito di riconoscere immagini pedopornografiche per poterle mettere in seguito a disposizione di sistemi di riconoscimento automatico, impone all’uomo un lavoro del tutto sgradevole, che da più parti è stato definito come espressamente traumatico. Se l’intervento umano non potrà mai essere del tutto escluso, se non altro come verifica ultima o come compendio alle attività algoritmiche, al tempo stesso è ora possibile immaginare un nuovo protocollo di intervento nel quale è la macchina a svolgere il lavoro sporco di analisi. L’identificazione del cosiddetto “child sexual abuse material” (CSAM) sarà infatti affidato al nuovo strumento aperto di identificazione basato su Intelligenza Artificiale e firmato dai tecnici di Google.
La tempistica non è casuale, poiché arriva in risposta a richieste di maggiore proattività di Google da parte della politica (in questo caso nel Regno Unito). Ma la tempistica non è un minus, anzi: Google ha risposto in modo opportuno alla richiesta ricevuta, creando uno strumento che potrà rendere più rapida, più efficiente e meno traumatica l’analisi delle immagini raccolte.
Le Content Safety API attingono ai principi delle reti neurali per l’analisi di immagini, filtrandole in modo da poter rendere prioritarie quelle che con maggiori possibilità possano essere identificate come CSAM. In qualità di potente luogo di diffusione, Internet diventa così sempre di più anche il luogo prediletto per consentire l’emergere di violenze e reti spesso nascoste, consentendo agli inquirenti di agire con strumenti sempre più sofisticati perseguendo il tentativo di identificare e proteggere le vittime.
Il nuovo strumento sarà gratuitamente a disposizione delle organizzazioni non governative, la cui azione potrebbe essere migliorata di un fattore pari al 700%: tanto è il materiale processabile nella stessa unità di tempo grazie alle API presentate da Google. Lo scopo, come noto, non è soltanto quello di identificare filmati riprovevoli per poterli eliminare dalla vista online, ma anche quello di risalire alla fonte per bloccare le violenze e fermare network di produzione e scambio di materiale.
La velocità di elaborazione non è un fattore secondario, anzi: migliorare i tempi di identificazione delle immagini potrebbe consentire maggior rapidità anche nelle indagini, offrendo alle parti interessate strumenti molto più potenti nella rincorsa all’identificazione dei responsabili. La tutela delle vittime può essere perseguita anche così e la pressione delle istituzioni su Google ha evidentemente sortito i propri effetti.