Come funziona la censura su Facebook

CHECK015Non è la prima volta che un nudo artistico viene rimosso da Facebook, e che il proprietario di quella immagine si ritrova bannato per qualche giorno, ma il caso che ha coinvolto la bolognese Caterina Cavina, e che nelle ultime ore ha fatto il giro del web, ha risvolti tragicomici. E non tanto perché, appunto, la fotografia che ritrae la scrittrice è stata cancellata dal social network, quanto per la storia che vi è dietro. Tutto comincia con un servizio fotografico che vede la scrittrice senza veli in veste di modella. È il fotografo Giuliano Gardenghi a ritrarla. Le foto sono belle, e Caterina le inserisce in un album su Facebook. Restano lì, e non fanno alcun scalpore per un anno. Ma, si sa, basta poco — un commento, un mi piace, una condivisione — perché le immagini tornino a sfilare sotto gli occhi di amici, amici degli amici, e via dicendo.

Come funziona la censura su Facebook?

Non si può allattare, non si può andare in bagno, forse non si possono nemmeno mostrare i piedi nudi, non si può parlare di Kurdistan se si risiede in Turchia. Si tratta delle regole base che si devono seguire per vivere nel mondo virtuale di Facebook. Solo che non vengono sempre esplicitate agli utenti, che diventano a volte violatori inconsapevoli delle regole del social network.

Il controllo dei contenuti pubblicati dagli utenti di tutto il mondo si svolge su più livelli. Il primo, il più basso – capita, se si violano le regole, di trovarsi l’account bloccato per 24 o 48 ore, di non poter più mandare inviti agli amici, ecc. – è affidato ad aziende esterne, dove sembra che i lavoratori vengano pagati 1 dollaro l’ora. Da Facebook ammettono senza problemi il ricorso a compagnie esterne per il controllo, e assicurano che per «processare in modo rapido ed efficiente milioni di segnalazioni che riceviamo ogni giorno», le società selezionate «sono soggette a rigorosi controlli di qualità e abbiamo implementato diversi livelli di tutela per proteggere i dati degli utenti che usano il nostro servizio. Inoltre nessun altra informazione viene condivisa con terzi oltre ai contenuti in questione e alla fonte della segnalazione. Abbiamo sempre gestito internamente le segnalazioni più critiche e tutte le decisioni prese dalle terze parti sono soggette a verifiche approfondite».

E’ questo il meccanismo in base al quale alcune foto scompaiono dopo poco dalle bacheche degli utenti, o come gli account vengono di volta in volta bloccati o sospesi. Gli standard comunitari che gli utenti di Facebook accettano al momento dell’iscrizione recitano «Ci impegniamo a coltivare un ambiente in cui ognuno possa parlare apertamente di problemi comuni e condividere il proprio punto di vista nel pieno rispetto dei diritti degli altri», e avvisano che: potrebbero essere rimossi i contenuti che indicano un appoggio ad organizzazioni violente; che le autorità competenti saranno informate in caso di minacce di suicidio; che bullismo e molestie saranno presi in assoluta considerazione; che «la discriminazione di individui in base a razza, etnia, nazione di origine, religione, sesso, orientamento sessuale o malattia rappresenta una grave violazione»; che le immagini di violenza sadica non sono tollerate; che protegge la privacy; che non consente «l’organizzazione di atti di vandalismo, furti o frodi».

Ma all’atto pratico, che cosa è consentito pubblicare e condividere, e cosa no? E qual è il limite tra la «pulizia» e la censura stretta? La pattuglia di moderatori riceve una segnalazione e sceglie se accoglierla, cancellando il contenuto, respingerla, mantenendolo, o inoltrarla a livelli più alti di quella che sembra una struttura piramidale per un ulteriore vaglio. Vengono censurate fotografie con un abbigliamento che evidenzia troppo la zona genitale (per maschi e femmine), quelle di donne che allattano bambini senza coprirsi il seno (è dei mesi scorsi la cancellazione di una foto di una donna di colore che allattava un bambino bianco, o albino), giocattoli sessuali (ma solo se usati nel loro contesto), oggetti di feticismo sessuale (senza specificare quali siano, se indumenti, parti del corpo o altro), immagini di persone ubriache o addormentate con il volto disegnato da qualche buontempone, o persone che vanno in bagno. O quelle comparative tra due individui, o tra una persona e un animale che magari le somiglia. Ma anche frasi ed espressioni, e qui si tocca la libertà di espressione, che possano incitare alla violenza (l’esempio? «I love hearing skulls crack», «Mi piace sentire un cranio che si frattura»), a prescindere dal loro contesto, o che «mostrino supporto per organizzazioni o persone note prevalentemente per la loro violenza», a giudizio del moderatore che riceve la segnalazione.

Censurate anche le esplicite attività sessuali, anche se «velate», mentre vengono consentiti i baci anche tra individui dello stesso sesso.

Sì alle foto della marijuana, no alle altre droghe se non nel contesto di studi medici o scientifici. Ovviamente se non si fa riferimento a un’offerta di vendita delle sostanze, però. Sì ai video di risse scolastiche, a meno che non siano pubblicati per bullismo. I video sulle torture agli animali sono ammessi ma solo se sono apertamente schierati contro la violenza.

A sorprendere di più, però, sono i contenuti che devono essere consentiti: «E’ ok mostrare i fluidi corporei (con l’eccezione dello sperma) a meno che nel processo non sia coinvolto un essere umano». Traduzione spicciola: sangue, ferite, o altro sono «ok» a meno che non si veda l’atto di violenza che l’ha causata. «Ferite profonde sono ok, il sanguinamento eccessivo è ok, teste rotte e arti recisi sono ok finché non si vedono le interiora». E qui scatta la nota che sottolinea come non siano ammesse eccezioni per i link alle notizie o a contenuti che richiedono il controllo da parte dei genitori. (spunti dal Corriere.it)

Potrebbero interessarti anche...