Claudio Tamburrino

Facebook e i contenuti antagonisti

Un nuovo studio si concentra sugli algoritmi e sui filtri del social network. evidenziando che spesso gli utenti contentrano la propria attenzione e le proprie interazioni su contenuti eterogenei alla propria area ideologica

Roma - Il team di ricercatori scientifici di Facebook ha pubblicato su Science uno studio dal titolo "Esposizione a notizie ed opinioni ideologicamente differenti su Facebook", scoprendo che in gran parte i suoi utenti vengono messi a confronto con opinioni diverse dalle proprie.

La ricerca si concentra sulle informazioni che passano sui social network, attraverso l'analisi dei contenuti pubblicati su Facebook, e cercando di capire dove e con che modalità vengono condivisi contenuti "eterogenei" rispetto alla sfera ideologica, politica e di visione del mondo del proprio interlocutore.
Lo studio ha analizzato il tipo di contenuti che giornalmente appaiono sulla bacheca di circa 10 milioni di propri utenti, dividendoli nell'analisi in "conservatori", "liberali" e neutrali, e poi comparandoli a quelli commentati, spolliciati e condivisi dagli utenti.

In questo modo lo studio ha evidenziato come questi siano in gran parte originati da amici non strettamente correlati alla cerchia di amici intimi e all'ideologia degli utenti: nel 23 per cento dei casi si ha amicizia con contatti con una visione politica opposta e, anche se sulla propria bacheca si visualizzano notizie controverse che superano la propria "Linea ideologica" solo nel 28,5 per cento dei casi, sono queste spesso che portano gli utenti ad interagire.
I risultati dello studio, in estrema sintesi, mostrano che Facebook viene utilizzato anche per la condivisione di cosiddette "hard news" intese come notizie di politica, economia e affari internazionali, e che - nonostante l'algoritmo del social network tenda a mostrare i contenuti coincidenti con la sfera ideologica dell'utente - l'individuo finisce per interagire con quelli distanti da essa.

Lo studio sembra dunque entrare in conflitto con il fenomeno mediatico definito echo chamber, che vede dare dagli algoritmi più importanza (e quindi il valore) ai link online maggiormente condivisi: secondo tale principio, in gran parte, si vede, si linka, si condivide e si commenta solo ciò che in maniera confortante rappresenta già il proprio punto di vista, andando a delineare così una "bolla di notizie" che quotidianamente costituisce il vissuto del proprio news feed e contribuisce a limitare le conoscenze delle persone. In pratica un utente tenderebbe a leggere, condividere e circondarsi di opinioni simili alle proprie e notizie che confermano il suo punto di vista su una questione.

Claudio Tamburrino
Notizie collegate
  • AttualitàFacebook: fatti vostri e fatti nostriMentre l'attivista Max Schrems apre una class action in Austria contro le pratiche del social network in materia di privacy, Facebook respinge l'analisi dei tecnici nel quadro della causa belga e anche in patria rischia di... Perdere le facce
  • AttualitàChi vince le elezioni su Internet?I valori in campo in Rete non ricalcano necessariamente quelli del Paese. Un'analisi dei cinguettii e dei mi piace rivela le migliori strategie digitali