Nell’ambito dell’iniziativa “Fake news e odio in rete” organizzata dalla Alleanza Transizioni Giuste, fondata da Comune di Bologna, Fondazione Giangiacomo Feltrinelli e Arci con il supporto di Fondazione IU Rusconi Ghigi, abbiamo discusso un contributo a partire dalla nostra ricerca.

“Fringe democracy e media ibridi: capire la disinformazione nelle nuove ecologie digitali”
Giovanni Boccia Artieri
12 maggio 2025 – Palazzo d’Accursio, Bologna
Parto da una considerazione semplice: la disinformazione oggi non è un incidente, ma è parte di una ecologia comunicativa che la rende sistemica. È l’effetto di un ambiente in cui contenuti falsi o distorti, discorsi d’odio e logiche polarizzanti trovano le condizioni ideali per emergere e circolare. Ed è in questa ecologia che dobbiamo ripensare le categorie classiche con cui abbiamo descritto l’informazione, la fiducia e l’opinione pubblica.
Negli ultimi anni, con il progetto CORIT abbiamo studiato in profondità la relazione tra piattaforme “fringe” – come Telegram, 4chan, alcune aree di TikTok o canali YouTube poco regolati – e i media mainstream. L’idea di fondo è che il rapporto tra questi due mondi non sia di opposizione netta, ma di osmosi, di ibridazione.
Non viviamo più in un sistema in cui le piattaforme marginali sono chiuse e autoreferenziali. Al contrario, esse sono laboratori di contenuti, frame e linguaggi che poi spesso emergono nel discorso pubblico più ampio.
Pensiamo alla pandemia: molti dei frame cospirazionisti o anti-istituzionali che hanno avuto eco nei talk show e sui giornali avevano origine in canali Telegram, in gruppi Facebook radicalizzati, in meme virali nati su ambienti “borderline”. E ancora: in USA tutta la retorica MAGA trova il suo sviluppo su Parler, Reddit per poi farsi discorso pubblico e viceversa.
Questo passaggio – da fringe a mainstream – avviene attraverso forme di intossicazione della sfera pubblica. Contenuti distorti o falsi si agganciano a elementi veri, si presentano come “contro-narrazioni” e si diffondono grazie a due fattori principali:
- l’architettura delle piattaforme, che privilegia ciò che genera engagement, a prescindere dalla veridicità (e oggi, dopo le scelte ad es. di Meta, sappiamo che il fact checking è un valore secondario rispetto alle community notes);
- la crisi di fiducia nei confronti delle istituzioni e dei media tradizionali, che rende attraente qualsiasi messaggio che sembri “indipendente” o “non allineato”.
E qui arriviamo a una questione centrale: le responsabilità del mainstream. I media generalisti non sono solo vittime della disinformazione. Spesso ne sono anche veicoli involontari o amplificatori consapevoli. Inseguendo visibilità, share, click, molti programmi e testate danno spazio a contenuti sensazionalistici o controversi senza adeguata verifica, o ospitano figure borderline per “aumentare il dibattito”, contribuendo in realtà a normalizzare visioni radicali e infondate.
Nel nostro lavoro, abbiamo osservato casi in cui frame cospirazionisti – nati su canali Telegram, per esempio – diventano titoli, sottopancia o discussioni nei talk show, senza mai passare attraverso un filtro di responsabilità editoriale. In questo modo, il mainstream alimenta quella che potremmo chiamare una disinformazione legittimata, dove contenuti nati anche nei margini ottengono visibilità e credibilità proprio perché circolano nei canali ufficiali.
Cosa dire poi quando, come in Italia, politici e ministri della Repubblica alimentano le loro narrazione frequentando quelle di gruppi antiscientisti, no-vax, complottisti, ecc. (Lollobriggida sulla teoria del complotto “sostituzione etnica”).
Il punto, allora, è che la disinformazione è funzionale al sistema attuale, sia per le piattaforme, che guadagnano dal traffico, sia per alcuni media, che inseguono l’audience, sia per la politica che la utilizza per le proprie narrazioni.
Ma a pagarne il prezzo è la qualità del dibattito pubblico, la tenuta della fiducia democratica, e – in ultima istanza – la possibilità stessa di decidere insieme come vivere.
In questo scenario, la disinformazione è una forma di agency culturale. Non è solo un errore, è una strategia. È una forma di produzione identitaria e politica. Spesso chi la diffonde non si percepisce come disinformatore, ma come “portatore di verità” in un sistema corrotto.
E qui si inserisce un altro elemento: l’odio come collante. Nei nostri studi, abbiamo rilevato come la disinformazione si accompagni spesso a un linguaggio aggressivo, violento, polarizzato. L’inciviltà digitale non è solo sfogo emotivo, ma è una pratica di appartenenza: serve a marcare il “noi” contro “loro”. E la rete lo rende possibile, lo amplifica, lo normalizza.
Cosa possiamo fare?
Credo servano tre direzioni:
- capire l’ecologia ibrida della disinformazione, senza limitarci alla verifica del singolo contenuto, ma analizzando i circuiti di produzione e circolazione, le affordance delle piattaforme e le pratiche degli utenti;
- rafforzare l’alfabetizzazione critica, ma non come semplice “educazione ai media” tradizionale. Serve una pedagogia digitale che metta al centro le emozioni, la partecipazione, l’identità. Perché le persone non condividono solo informazioni: condividono chi sono;
- costruire alleanze tra istituzioni, media, attivismo e ricerca. Nessuno può combattere la disinformazione da solo. E spesso, chi è oggetto di campagne d’odio o di discredito (penso agli amministratori locali, ai giornalisti, ai comunicatori pubblici) ha bisogno di strumenti, ma anche di reti di supporto.
Concludo con un’immagine. Il nostro spazio pubblico è diventato un campo di battaglia informativa in cui verità, fiducia e partecipazione sono in gioco. Ma non è un campo neutro: è modellato da algoritmi, da modelli economici, da culture digitali.
Se vogliamo immaginare transizioni giuste – ecologiche, sociali, democratiche – dobbiamo prima di tutto occuparci di come circolano le idee, le emozioni, le narrazioni.
E capire che il contrasto alla disinformazione non è un lavoro di “correzione”, ma di cura democratica.
Commenti recenti