top of page

I contenuti degli articoli rappresentano esclusivamente le idee e le opinioni degli autori, e in nessun modo i punti di vista dell'Università Bocconi.

PER UNA SOCIETÀ PIÙ INFORMATA E CONSAPEVOLE

Al giorno d’oggi i social media sono una presenza sempre più rilevante nella quotidianità di milioni di persone, e costituiscono una fonte primaria d'informazione e socializzazione.

La velocità e capillarità della diffusione delle informazioni hanno reso le piattaforme social un terreno fertile per la disinformazione: un fenomeno globale che porta a gravi conseguenze sulla percezione pubblica della stabilità sociale in seguito alla manipolazione dell'opinione pubblica, ma anche sui processi democratici tramite i canali d'informazione.

I social media possono essere definiti “catalizzatori della disinformazione”, poichè gli algoritmi contenuti al loro interno sono progettati per aumentare l'interazione emotiva, indipendentemente dalla loro veridicità, promuovendo dei contenuti polarizzati che generano reazioni rispetto a notizie neutrali.

Tale processo è meglio conosciuto come “filter bubble”, tramite il quale viene assicurata agli individui una visione delle informazioni che conferma la loro opinione, limitando l’esposizione a prospettive differenti, spesso alimentando la disinformazione.

Ma mentre da un lato i social media hanno democratizzato l'accesso all'informazione, dall'altro hanno abbassato le barriere per la diffusione di notizie false.

Infatti, la velocità con cui le informazioni si diffondono sui social è vertiginosa: contenuti virali come un post su Instagram o su Facebook possono raggiungere milioni di persone in pochi minuti e questo rende difficile l'intervento delle autorità o delle stesse piattaforme per contrastare la diffusione di “fake news” in tempo utile.

Di fronte a questa costante crescita e all’ingente sviluppo dei social media nella disinformazione, i governi stanno adottando diverse misure per cercare di contrastare e ridurre questo fenomeno. Molti governi hanno votato normative per obbligare le piattaforme a monitorare e gestire i contenuti pubblicati; ad esempio, l’Unione Europea ha introdotto il Digital Services Act (DSA) utile a contrastare la disinformazione e a garantire una maggiore trasparenza, adottando anche misure restrittive come le sanzioni per le piattaforme che non rimuovono tempestivamente i contenuti ritenuti “dannosi”. Ne è un esempio la legge tedesca NetzDG (obbligo di rimozioni dei contenuti illegali entro le 24 ore dalla segnalazione).

Inoltre, per imparare a riconoscere e interpretare correttamente le informazioni sui social media, identificando quali fonti sono affidabili e opponendosi alle fake news, i governi stanno diffondendo  competenze di “alfabetizzazione mediatica".

È giusto affermare che le piattaforme stesse stanno introducendo diversi strumenti per combattere la disinformazione, volti sia a migliorare la propria immagine pubblica, sia ad evitare sanzioni. Si tratta di strumenti di “fact-checking” utili a verificare i contenuti sospetti.

Oppure l'invenzione di algoritmi che identificano e rimuovono automaticamente contenuti considerati pericolosi o falsi, ma è un approccio un po' controverso, poiché potrebbe portare alla rimozione di di contenuti legittimi.

Tuttavia, le misure adottate sia dai governi che dalle piattaforme, se pur corrette, non sono sufficienti o tantomeno prive di difficoltà e criticità.

Uno dei principali problemi riguarda la libertà di espressione, poiché la rimozione di un contenuto sospetto porta a interrogativi etici: fino a che puntò è corretto limitare la diffusioni di idee ed opinioni? C’è la possibilità che le piattaforme diventino giudici della verità, nel decidere cosa è giusto o sbagliato.

Anche gli strumenti di fact-checking sono stati criticati per il loro possibile utilizzo come strumenti di censura selettiva.

Infine, il continuo tentativo di limitare la disinformazione potrebbe portare al risultato opposto, noto come “effetto streisand”, in cui la censura di un contenuto aumenta la sua visibilità.

É necessario un approccio integrato e collaborativo, dato che pur ricordando i progressi fatti, le misure finora adottate sono risultate insufficienti.

La disinformazione è una fitta rete di comunicazione inversa che costituisce un problema fondamentale nella nostra società e che per essere risolto necessita di una collaborazione più stretta tra i governi, piattaforme social, società civile e utenti.

Le normative adottate dai governi devono essere più elastiche in modo da adattarsi meglio alla rapidità con cui evolve la tecnologia.

A priori, è necessario che le piattaforme impongano delle regole oltre che promuovere un'etica della responsabilità nei contenuti condivisi.

L'alfabetizzazione digitale dovrebbe essere una priorità per i giovani fin dalle scuole: per formare cittadini responsabili ed informati. 

Infine, i social media rappresentano una risorsa preziosa per la società e l’informazione, ma è fondamentale che vengano adottate misure per contenere e contrastare la disinformazione, è un’equilibrio che può essere raggiunto solo con un impegno collettivo che coinvolga governi, piattaforme e cittadini, garantendo un’informazione libera e attendibile.




The contents of the article represent solely the ideas and opinions of the author and in no way the opinions of Bocconi University or the IUS@B association.


Sources of information:

European Commission:

 

Rainews

 

Pearson

 
 
 

Comments


bottom of page