Uno studio britannico mostra come YouTube accompagni dalla destra “rispettabile” all’estremismo: un meccanismo globale, replicabile ovunque, anche nel nostro spazio digitale.
Letta dall’Italia, la notizia sembra lontana. Un gruppo di estrema destra britannico, uno studio universitario inglese, una piattaforma globale che “spinge” verso il neonazismo. Eppure, proprio questa distanza apparente è l’inganno più pericoloso. Perché ciò che accade nel Regno Unito non è un’anomalia nazionale, ma un meccanismo replicabile ovunque. Italia compresa.
Lo studio del City St George’s, University of London ricostruisce come decine di militanti di Patriotic Alternative non siano arrivati all’estremismo per scelta improvvisa o per militanza ideologica iniziale, ma per scivolamento progressivo. Si parte da contenuti conservatori o libertari, spesso legittimi nel dibattito pubblico; poi l’autoplay di YouTube conduce verso narrazioni sempre più radicali, complottiste, identitarie. Nessuna rottura netta. Nessun salto nel vuoto. Solo una sequenza coerente di suggerimenti.
È un punto che dovrebbe interpellare anche noi. Perché l’algoritmo non ha passaporto. Funziona allo stesso modo a Londra, Milano, Roma o Palermo. Cambiano le lingue, i volti, i simboli; non cambia la logica. L’algoritmo non cerca il vero, né il giusto, né il democratico. Cerca ciò che trattiene l’attenzione. E ciò che trattiene, quasi sempre, è ciò che semplifica, polarizza, divide.
In Italia il percorso può assumere altre forme: non il suprematismo bianco anglosassone, ma l’ossessione per l’invasione migratoria, il sospetto sistematico verso le ONG, la delegittimazione delle istituzioni, il vittimismo identitario, la retorica del “non si può più dire niente”. Tutti contenuti che esistono già, sono visibili, e che l’algoritmo tende a concatenare, rafforzando convinzioni invece di metterle alla prova.
Il dato più inquietante dello studio inglese non è la presenza dell’estrema destra su YouTube – cosa nota – ma il fatto che molti attivisti raccontino la radicalizzazione come un processo quasi casuale, domestico, quotidiano: video guardati mentre si stirano i panni, si cucina, si passa il tempo. È la normalizzazione dell’estremo, resa possibile da una tecnologia che non distingue tra informazione e propaganda, ma solo tra contenuti che funzionano e contenuti che non funzionano.
Anche in Italia vediamo già i segni di questo processo speculare: youtuber che monetizzano la rabbia, dirette davanti a centri per migranti, contenuti che trasformano la cronaca in sospetto collettivo, l’indignazione in reddito. Non sempre c’è un partito dietro. Spesso c’è solo un canale, una community, un pubblico fidelizzato. Ma l’effetto politico è reale.
Il problema, allora, non è solo “cosa” viene detto, ma come viene accompagnato chi ascolta. Quando una piattaforma guida il 70% del tempo di visione – come ricorda lo studio – essa diventa di fatto un educatore invisibile. E un educatore senza responsabilità pubblica è sempre un rischio per la democrazia.
Pensare che tutto questo non possa accadere in Italia è una forma di autoassoluzione. La radicalizzazione oggi non ha più bisogno di sezioni di partito o di sedi clandestine. Le basta un algoritmo efficiente, un malcontento diffuso e una narrazione semplice. Il resto lo fa da sola. In silenzio.
YouTube è usato per radicalizzare gli estremisti
