<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=336576148106696&amp;ev=PageView&amp;noscript=1">

"Sui social i deboli vanno tutelati, ma no alla censura"

di Marco Scorzato
marco.scorzato@ilgiornaledivicenza.it

Il web è nato e si è sviluppato in Occidente e lo ha fatto come non era mai accaduto ad altri settori economici, basti pensare alle telecomunicazioni: all’insegna della libertà totale, dell’assenza di briglie e limiti. Un “laissez faire” come motore di innovazione, che è diventato però anche il fattore di un abnorme sviluppo deresponsabilizzato delle piattaforme digitali. Federico Neresini, sociologo vicentino, docente all’Università di Padova ed esperto di sociologia dell’innovazione, sorgono almeno due domande iniziali.

E' stato “opportuno” questo sviluppo? E che cosa si può fare, oggi, per correggere le storture di un web nato “senza regole”?

Tutti i processi di innovazione non sono accompagnati da regole finché non si comincia a capire cosa sta accadendo, come funzionano davvero. D’altra parte delle regole di funzionamento ci sono, regole che sembrano tecniche e neutrali ma in realtà non lo sono: la neutralità della tecnica non esiste, chi ha pensato a un certo modo di scambiare informazioni via web aveva una certa di idea di relazioni.

Esiste però una forte differenza tra modelli di web: quello occidentale, dove il libero pensiero è qualcosa di sconfinato fino a diventare talvolta spazio in cui si ledono le libertà altrui; e quello cinese o delle dittature in cui il web è filtrato e censurato.

Questo conferma il fatto che ciò che sembra una infrastruttura tecnica in realtà rispecchia un’ideologia o un’idea del sociale che vige nel contesto in cui si sviluppa. Tanto che i social cinesi sono diversi da quelli che conosciamo noi.

Nei nostri social troviamo di tutto e di più, compresi contenuti “problematici”. È opportuno inserire dei paletti, come tenta di fare l’Unione europea, o è velleitario o sbagliato?

Farei un ragionamento a partire da un esempio pratico, le fake news. Mettere delle regole potrebbe sembrare una buona idea, ma ci si scontra con due problemi. Il primo è che qualsiasi tentativo di decidere che cos’è una fake news ha fallito e forse fallirà sempre, perché è sempre legato a un punto di vista e a un contesto. Se volessimo intervenire per regolare preventivamente la circolazione di informazioni ci troveremmo di fronte al problema di definire che cos’è la disinformazione, e da lì non usciamo più. Il secondo è che mettere dei paletti vuol dire creare degli appigli a cui potrebbero legarsi, prima o dopo, cose fastidiose come la censura. Io preferisco i rischi di circolazione di notizie sballate piuttosto che il web in apparenza pulito però controllato da qualcuno.

L’Ue col suo regolamento non va a mettere limiti preventivi ma prova a far sì che le piattaforme controllino i contenuti che ospitano, in particolare per sanzionare il discorso d’odio. E lo fa imponendo loro di offrire la possibilità di vedere i contenuti in ordine cronologico, oltre che in base alla selezione fatta dall’algoritmo. Come valuta questa intenzione?

Sappiamo che le piattaforme guadagnano in base al traffico che hanno. Siccome più un contenuto è forte e più genera opposizione, l’algoritmo enfatizza queste opposizioni perché generano traffico. E questo alimenta le le “bolle”, cioè una rete di scambi che conferma il punto di vista dell’utente. Questa cosa va bene? Direi di no. Possiamo cambiarla? Forse sì, ma l’applicazione la vedo complicata. Del resto anche nella vita reale viviamo, da sempre, dentro a “bolle”. Agli studenti chiedo spesso: nell’ultimo mese con quante persone diverse dalla vostra cerchia di amici avete parlato? La differenza, nei social, è che la velocità delle relazioni è moltiplicata e la diffusione potenziale è mondiale.

Lei è dunque scettico sulla possibilità di regolare i social network senza sconfinare nella censura...

Non sono a proporre l’anarchismo, sia chiaro, e credo che si debba lavorare per mettere i più deboli nelle condizioni di difendersi da certi contenuti di aggressione o di odio. Ho però dubbi sulla regolazione preventiva per i motivi che ho spiegato. E mi chiedo: quanto ci costa disciplinare le piattaforme? Forse ha più senso spendere quelle somme in altro modo, nella scuola e nella formazione? Ecco, più che sullo strumento, lavorerei sulle persone che usano quello strumento. 

Suggerimenti