La sola tecnologia non è sufficiente per stanare i traffici di pedopornografia, sopprimere le immagini di abusi, segnalare alle autorità le attività illegali che vengono perpetrate con la mediazione della Rete: l’occhio umano, sensibile al comune senso morale e addestrato dalle policy, resta uno strumento indispensabile. Due paia di questi occhi, alle dipendenze di Microsoft, denunciano le conseguenze di questa attività lavorativa, capace di generare profondi turbamenti e di riverberarsi sulla psiche e sulla vita quotidiana di chi la esercita.
La denuncia è stata mossa nei confronti di Redmond da Henry Soto e Greg Blauert, due membri dell’Online Safety Team, divisione costituita nel 2008 per interfacciarsi con il National Center for Missing and Exploited Children (NCMEC) statunitese e per segnalare alle autorità e rimuovere contenuti violenti, pedopornografici o illegali che circolassero presso i servizi di Redmond. Fra i loro compiti, si spiega nei documenti depositati in tribunale, c’era quello di “supportare le forze dell’ordine nel tentativi di combattere lo organizzazioni criminali”, quello di “analizzare migliaia di immagini di pedopornografia e di pornografia”, e di visionare contenuti che mostrano “atti di brutalità, omicidio, indescrivibili violenze sessuali, video di persone in punto di morte e, in generale, video e fotografie pensati per intrattenere il pubblico più deviante”.
Soto riferisce di aver lavorato nell’ambito di progetti come PhotoDNA, sviluppato da Microsoft per tracciare e individuare automaticamente in Rete immagini pedopornografiche contenute negli archivi delle autorità, e in progetti analoghi per la classificazione e il monitoraggio delle immagini degli abusi presso i servizi di Redmond. Quelle che Microsoft presenta come soluzioni automatizzate per rilevare contenuti frutto di violenza sono inevitabilmente affiancate da un controllo umano , per alimentare gli archivi, per rastrellare prove a favore delle autorità, per verificare quanto rilevato dal software, compito che spetta all’Online Safety Team. Nelle denuncia, inoltre, si riferisce che ai dipendenti fosse stato assegnato un particolare status che permetteva loro di “visionare letteralemte ogni comunicazione di ogni utente”: Microsoft, come altre aziende che offrono servizi di comunicazione in Rete, opera un controllo nel nome del contrasto alla pedopornografia. Un controllo che, evidentemente, non è governato dai soli automatismi della tecnologia, ma presieduto da una gestione umana .
Di immagine in immagine, di video in video, la violenza ha compenetrato la vita quotidiana dei due dipendenti: lamentano insonnia e allucinazioni, ansia e depressione, sintomi di disturbi post-traumatici da stress che il datore di lavoro non avrebbe saputo trattare con la dovuta attenzione. La denuncia di Soto e Blauert si concentra sulle mancanze del “wellness program” organizzato da Microsoft per assistere coloro che si occupano di questo tipo di attività, i cui consulenti avrebbero offerto cure quali passeggiate di salute e sessioni di intrattenimento videoludico. Con la denuncia, oltre ad un congruo risarcimento, auspicano di ottenere un miglioramento delle condizioni a favore di chi opera a Redmond nel settore del controllo e della moderazione dei contenuti.
Microsoft, per il momento, rende noto di “considerare una priorità la salute e la sicurezza dei dipendenti che svolgono questo tipo di lavoro”, supportati con particolari turnazioni, assistenza psicologica obbligatoria, e tecnologie pensate per “ridurre il realismo delle immagini”. Il genere di attività lavorativa svolto da Soto e Blauert è sempre più necessario presso gli intermediari della Rete, incalzati dalle autorità e dall’opinione pubblica affinché collaborino al monitoraggio di quanto di illegale venga ordito con la mediazione dei loro servizi. Microsoft, a questo proposito, riferisce di essere impegnata a tutelare i dipendenti che ricoprono queste posizioni in un processo di continuo apprendimento, recependo le loro esigenze e mettendo in pratica quanto suggerito dai più recenti studi in materia.
Gaia Bottà