Sei milioni di italiani profilati in segreto. Un filtro algoritmico che seppelliva la sinistra e amplificava la destra antieuropeista, disattivato in silenzio la notte in cui vinceva Trump. Una multa da settantacinque milioni evaporata grazie a due voti contrari dentro il Garante. Meta nega tutto. I documenti dicono il contrario.

Non hacker russi: algoritmi americani. Non propaganda del Cremlino: la nostra vita digitale raccolta, aggregata e orientata da una società privata che non risponde a nessun parlamento. Sei milioni e mezzo di italiani trasformati in profili elettorali da Meta nelle settimane prima del voto del 2022, un filtro segreto che penalizzava il centrosinistra e amplificava la destra antieuropeista, una multa da settantacinque milioni insabbiata dall’interno. Mentre guardavamo a est, Menlo Park decideva chi meritava di essere ascoltato. L’inchiesta di Report.

C’è un’ironia amara nella storia che stiamo per raccontare. Nell’estate del 2022, mentre politici, commentatori e servizi d’intelligence di mezza Europa agitavano lo spettro delle interferenze russe sul voto italiano — Mosca, i suoi troll, i suoi canali Telegram, le sue reti di disinformazione — qualcosa di molto più concreto, capillare e tecnicamente sofisticato stava accadendo nel silenzio degli algoritmi. Non nel dark web, non in qualche bunker di San Pietroburgo: dentro le app installate sugli smartphone di milioni di italiani. Facebook e Instagram. Proprietà di Meta. Società con sede legale a Menlo Park, California, e sede europea a Dublino, Irlanda.

L’inchiesta di Report, trasmessa domenica sera su Rai 3 e anticipata dal Fatto Quotidiano, ricostruisce per la prima volta in modo organico una vicenda che ha attraversato tre anni di procedimenti del Garante della Privacy, scontri interni all’autorità di vigilanza, una multa da settantacinque milioni di euro proposta e poi silenziata, e un algoritmo che — secondo i dati analizzati dai tecnici del Pd e mostrati alla trasmissione — ha favorito sistematicamente la destra antieuropeista mentre teneva “sottoterra”, come ha detto il senatore dem Sandro Ruotolo, i contenuti del centrosinistra.

Meta nega tutto. Ma i documenti parlano.

L’operazione EDI: la filantropia come cavallo di Troia

Cinque giorni prima del voto del 25 settembre 2022, le agenzie di stampa diffondono una notizia all’apparenza rassicurante: Meta ha attivato su Facebook e Instagram una funzione chiamata EDI — Election Day Information. Promemoria elettorali, sticker su Instagram, link al sito del Ministero dell’Interno per trovare “informazioni attendibili sulle elezioni”. Un gesto civico, quasi filantropico. Meta che si preoccupa della partecipazione democratica.

Il Garante della Privacy si insospettisce immediatamente, rilevando una “macroscopica contraddittorietà tra l’asserita finalità filantropico-sociale dichiarata da Meta e la raccolta dei dati di cittadini italiani nell’ambito di uno specifico contesto elettorale.”

Non è un sospetto campato in aria. Meta raccoglieva, attraverso la funzione EDI, i dati degli utenti relativi alla posizione geografica, all’età, al dispositivo utilizzato, alle interazioni con la piattaforma, conservati per un tempo indefinito. Non si trattava di informare i cittadini: si trattava di profilarli. Ogni click sullo sticker di Instagram, ogni interazione con il promemoria elettorale su Facebook diventava un dato — età, dove abitavi, cosa avevi guardato, come ti comportavi sulla piattaforma — che veniva raccolto, conservato e aggregato da una società privata americana il cui modello di business si fonda esattamente su questo: sapere tutto di te per venderti meglio agli inserzionisti.

Oltre sei milioni e mezzo di utenti vengono coinvolti attraverso la funzione EDI su Facebook e Instagram, e i loro dati vengono raccolti, conservati e aggregati.

Non è un’operazione marginale. È una raccolta di massa di dati politicamente sensibili — le preferenze, i comportamenti, le interazioni elettorali di sei milioni di cittadini italiani — condotta da un soggetto privato straniero, senza consenso, cinque giorni prima di elezioni politiche generali.

Lo scontro al Garante: la multa che scomparve

Di fronte a questa attività, il dipartimento tecnico del Garante guidato da Riccardo Acciai chiede un blocco urgente. Ma qui la storia si complica, e diventa — se possibile — ancora più inquietante.

I membri del collegio Guido Scorza e Agostino Ghiglia frenano, chiedendo di attendere le autorità europee. È una mossa che ha un effetto preciso: congelare il procedimento, rinviarlo, diluirlo nei tempi lunghi della burocrazia europea. Le elezioni passano. I dati sono già stati raccolti.

A metà 2023, con le elezioni regionali alle porte, i tecnici del Garante riescono a far emanare un provvedimento d’urgenza che impedisce a Meta di condividere i dati con terzi. E propongono una sanzione: settantacinque milioni di euro. Una cifra che avrebbe fatto rumore, che avrebbe portato alla luce l’intera architettura del sistema. La multa viene abbassata a venticinque milioni. Ma anche quella cifra ridotta non passa: sia Scorza che Ghiglia votano contro il provvedimento.

Il risultato è che Meta, dopo aver raccolto i dati di sei milioni di italiani in modo che il Garante stesso ha definito verosimilmente illecito, non paga nulla. Ottiene quello che voleva: tempo, opacità, impunità.

Meta, nell’8 febbraio 2023, aveva di fatto confermato di aver effettuato operazioni di raccolta e conservazione di tali informazioni, affermando che “i Dati Aggregati relativi alle Elezioni di Settembre non sono stati condivisi con terze parti, né vi è intenzione alcuna da parte di Meta Ireland di procedere in tal senso.” È un’ammissione velata: i dati esistono, sono stati raccolti, sono stati aggregati. Semplicemente — per ora — non vengono condivisi con terzi. Una rassicurazione che suona come una promessa fatta con le dita incrociate.

L’algoritmo e il filtro segreto: la destra favorita

Ma la vicenda EDI è solo il primo strato dell’inchiesta. Il secondo è, se possibile, ancora più dirompente, perché non riguarda la raccolta dei dati ma la manipolazione dell’informazione politica su scala nazionale.

Meta dichiara di aver introdotto un filtro per limitare la visibilità dei contenuti politici, dichiarando di averlo rimosso per tutti nel 2025. Il filtro sarebbe stato uno strumento di neutralità: meno politica su Facebook e Instagram per tutti, per ridurre la polarizzazione. Questa è la versione ufficiale.

La versione reale, documentata dai grafici mostrati a Report, è diversa. Un’analisi condotta da un gruppo interno di tecnici del Pd smentisce questa versione: il filtro sembrerebbe essere stato disattivato in gran segreto già nel novembre 2024, in coincidenza con la vittoria di Donald Trump negli Usa. I grafici mostrano che la rimozione ha favorito esclusivamente le posizioni della destra antieuropeista.

Una ricerca dell’Università di Urbino aveva già evidenziato come tra il 2022 e il 2024 gli algoritmi di Meta avessero compresso la visibilità della politica istituzionale, mentre cresceva la propaganda estremista e antieuropeista.

Il meccanismo, nella sua logica, è semplice quanto devastante. Il filtro sui contenuti politici non veniva rimosso in modo simmetrico per tutti: veniva selettivamente disattivato per le forze politiche che stavano crescendo nell’ecosistema globale dell’alt-right trumpiana, mentre continuava a penalizzare quelle che ne erano fuori. Non è uno squilibrio accidentale: è un orientamento. Un algoritmo non è neutro. Ogni scelta su cosa mostrare e cosa nascondere è una scelta politica, anche quando viene presentata come tecnica.

Il senatore dem Sandro Ruotolo lo ha detto chiaramente: i contenuti del centrosinistra erano rimasti “sottoterra”. Mentre quelli della destra antieuropeista prendevano il volo.

Cambridge Analytica all’italiana?

C’è un precedente che nessuno ha voluto nominare troppo esplicitamente, ma che aleggia su tutta la vicenda: Cambridge Analytica. Nel 2018, lo scandalo che travolse Facebook rivelò che i dati di milioni di utenti erano stati sottratti e usati per costruire profili psicologici degli elettori americani, poi impiegati nella campagna di Trump del 2016. Il meccanismo era lo stesso: dati raccolti attraverso una funzione apparentemente innocua, aggregati, analizzati, trasformati in strumento di influenza politica.

Il Garante italiano aveva già citato lo scandalo di Cambridge Analytica nei suoi ragionamenti, ricordando che Facebook era già stata sanzionata nel 2019 per vicende analoghe. Una recidiva, insomma. Un’azienda che sa esattamente cosa sta facendo, che l’ha già fatto, che è già stata punita per averlo fatto, e che lo ha rifatto.

La differenza rispetto a Cambridge Analytica è che stavolta non c’è un’azienda-terzo che ruba i dati. Li raccoglie direttamente Meta, attraverso una funzione che presenta come un servizio civico. La sofisticazione è aumentata. L’impudenza anche.

Il silenzio della politica (di una parte)

Le reazioni all’inchiesta di Report hanno avuto la forma prevedibile delle reazioni politiche italiane: indignazione a sinistra, silenzio a destra. La senatrice M5S Dolores Bevilacqua ha domandato: “O le interferenze sono un problema solo quando verrebbero da Mosca?” È la domanda giusta. Per anni la narrazione dominante sulle interferenze elettorali in Italia ha guardato a est, verso il Cremlino, verso i canali di disinformazione russa. Quella minaccia esiste, ed è reale. Ma mentre la si agitava come spauracchio, una minaccia diversa — americana, corporativa, algortimica, tecnicamente molto più pervasiva — operava indisturbata.

Marco Furfaro, deputato Pd, ha chiesto piena luce sui meccanismi: “Su questi meccanismi va fatta piena luce. Non è un tema tecnico per addetti ai lavori. Qui c’è di mezzo la tenuta democratica.”

Alla Camera, in Commissione Trasporti, si sta discutendo di come regolare gli algoritmi. Il Partito Democratico ha presentato una proposta di legge sulla questione, chiedendo alla maggioranza di discuterne insieme. Che la maggioranza — la stessa destra antieuropeista che secondo i grafici di Report ha beneficiato della manipolazione algoritmica — abbia fretta di regolare il sistema che l’ha avvantaggiata è, per dirla con delicatezza, improbabile.

Meta e la democrazia come mercato

C’è una domanda strutturale che questa vicenda pone, e che va oltre le responsabilità di Meta o i fallimenti del Garante. È la domanda che avremmo dovuto porci molto prima, quando abbiamo cominciato a fare politica su piattaforme commerciali progettate per massimizzare l’engagement — cioè per mostrare agli utenti ciò che li eccita, li indigna, li polarizza, perché un utente eccitato clicca di più, e più clicca più genera dati, e più genera dati più si può vendere agli inserzionisti.

Per Meta, le elezioni sono un business importantissimo: basti pensare ai post sponsorizzati da partiti e candidati. Non è una considerazione moralistica: è una descrizione del modello economico. Meta non è un’agenzia di informazione pubblica. Non ha obblighi di neutralità politica, non ha vincoli di servizio civico, non risponde a nessun elettorato. Risponde agli azionisti. E agli azionisti interessa che la piattaforma cresca, che gli utenti ci passino più tempo, che i ricavi pubblicitari aumentino.

Quando questi interessi si allineano con quelli di una parte politica — quella che occupa l’ecosistema dell’outrage, della radicalizzazione, dei contenuti virali per definizione — l’algoritmo non ha bisogno di essere esplicitamente programmato per favorirla. Lo fa da solo, per logica interna. Per questo la questione non si risolve multando Meta. Si risolve — se si vuole risolverla — regolando gli algoritmi come si regolano le reti televisive: con obblighi di trasparenza, di pluralismo, di accesso parificato. Con la possibilità per le autorità pubbliche di vedere il codice, non solo i comunicati stampa.

Cosa rimane

Rimane la domanda che l’inchiesta di Report pone senza poter rispondere del tutto: le elezioni del 2022 sarebbero andate diversamente senza la profilazione di massa della funzione EDI, senza il filtro asimmetrico che penalizzava il centrosinistra? Non lo sapremo mai con certezza. La causalità tra manipolazione algoritmica e esito elettorale è impossibile da dimostrare in modo diretto, e Meta lo sa bene. È la sua assicurazione sulla vita: il danno è reale ma indimostrabile, la violazione è documentata ma le conseguenze sono opache.

Quello che sappiamo è che sei milioni di italiani sono stati profilati politicamente senza consenso. Che i loro dati esistono ancora, da qualche parte nei server di Meta. Che una multa da settantacinque milioni è stata votata contro da due membri del Garante che avrebbero dovuto essere i guardiani di quei dati. Che un algoritmo ha mostrato più destra e meno sinistra a un’Italia che stava andando a votare. E che tutto questo è successo mentre guardavamo a Mosca.

Le interferenze straniere nelle elezioni italiane ci sono state. Venivano da ovest.