Cos’è l’odio? E chi sono gli hater? Qual è la sostanza da cui origina la pulsione che porta alla parola violenta, al commento urticante, al giudizio stroncante da mettere nero su bianco online? Uno studio dell’Università Cà Foscari (pubblicato da Scientific Reports e firmato da Matteo Cinelli, Andraž Pelicon, Igor Mozetič, Walter Quattrociocchi, Petra Kralj Novak e Fabiana Zollo) tenta di mettere in luce non soltanto la dimensione del fenomeno, quanto più la sua natura, le sue origini, il brodo primordiale da cui si scatenano fenomeni di violenza online.
Le origini dell’odio
Lo studio è stato condotto analizzando anzitutto un ampio spettro di commenti che un modello di machine learning ha etichettato e catalogato (appropriato, inappropriato, offensivo o violento), così da poter portare in seguito avanti analisi ulteriori basate sui pregressi dell’utenza e sulle sue caratteristiche. 1 milione i commenti analizzati, passandone al vaglio dapprima i contenuti e quindi procedendo oltre nell’analisi degli stessi nel merito.
L’hate speech è uno dei fenomeni più problematici del web poiché rappresenta un incitamento alla violenza nei confronti di specifiche categorie sociali ed infatti sia le piattaforme social che i governi sono alla ricerca di soluzioni a tale problema
Matteo Cinelli, primo autore dello studio e ricercatore postdoc a Ca’ Foscari
La prima interessante deduzione che ne consegue è che l’hater non ha un profilo caratteristico, né un’identità precisa. Per certi versi è come se non fosse una condizione dell’Essere, quanto più un modo di Fare. Le condizioni che portano a tali esplosioni sono determinate dal connubio tra un contesto stimolante ed una predisposizione strisciante che – sotto alcune condizioni – tende ad emergere. Spiega il comunicato dell’Università:
Tra i 345mila autori dei commenti analizzati, lo studio non ha identificato dei veri e propri “leoni da tastiera” dediti unicamente a seminare odio. L’insulto non è quindi una deriva che riguarda una specifica categoria di persone. Molti utenti, in determinati contesti, diventano autori di commenti “tossici”. La ricerca ha quantificato la mole di commenti d’odio, registrando un’incidenza dell’1% sul milione di commenti analizzati. Tale percentuale è risultata simile sia per i canali ritenuti affidabili, sia per quelli che diffondono disinformazione.
Molto interessante anche l’influsso che comporta la percezione di essere o meno all’interno della propria “bolla”, poiché è proprio il contesto ad essere discriminante nel favorire o meno l’insorgere di atteggiamenti violenti:
Gli utenti che tendono a commentare sotto canali affidabili utilizzano in media un linguaggio più tossico, con offese ed espressioni violente, rispetto a coloro i quali tendono a commentare sotto canali non affidabili. D’altra parte, l’analisi ha anche mostrato come il linguaggio degeneri quando l’utente si trova a commentare in una “bolla” diversa da quella a cui è più familiare, in un ambiente quindi “avverso” alle sue opinioni.
Studi di questo tipo debbono essere presi in grande considerazione tanto dalle piattaforme quanto dalle istituzioni che hanno velleità di intervento sul tema: conoscere il problema è l’unica via per poter immaginare soluzioni in grado di arginare i fenomeni di maggior violenza, regalando così alle piattaforme digitali maggiori potenzialità in termini di socialità, dibattito, crescita, mutua comprensione e costruzione dell’identità anche nella dimensione immateriale.