Skip to main content

Analisi delle interferenze al processo democratico in Bulgaria

In Bulgaria, nel pieno della fase pre-elettorale, lo spazio informativo si è trasformato in un terreno di confronto ibrido, dove dinamiche politiche tradizionali e operazioni digitali si sovrappongono per la costruzione – o manipolazione – del consenso

Come da anni accade nei periodi pre-elettorali occidentali ed europei, anche il sistema informativo bulgaro appare, in prossimità della tornata elettorale, al centro di dinamiche di competizione e manipolazione informativa, cognitiva e percettiva sempre più evidenti, sia per quanto riguarda le strategie di costruzione del consenso e propaganda interne, sia per l’ormai continua – e crescente – attività di influenza riconducibile all’ecosistema informativo russo.

L’ecosistema

Un primo elemento emerge dall’analisi pubblicata da Factcheck.bg, che documenta l’esistenza di una rete di circa 120 profili Facebook non autentici, che opererebbero in modo coordinato per amplificare i contenuti pubblicati da esponenti del partito Ima Takav Narod (Itn), in particolare del leader Stanislav Trifonov e della deputata Pavela Mitova.

Secondo la ricostruzione, i profili individuati sono stati creati, coerentemente con meccanismi di preposizionamento, tra la fine del 2025 e l’inizio del 2026. Questi presenterebbero anche caratteristiche ricorrenti: immagini generate tramite intelligenza artificiale, assenza di reti sociali autentiche, attività esclusivamente orientata alla condivisione di contenuti politici. Più che profili, vettori informativi, canali di amplificazione dei contenuti, megafoni digitali per il rilancio artificiale delle narrazioni.

Il risultato dell’effetto cumulativo è una distorsione significativa dei segnali di engagement. Alcuni post superano le 300 condivisioni, con una quota rilevante (fino a un terzo) riconducibile a profili non autentici. In termini algoritmici, questo tipo di attività produce un effetto moltiplicatore capace di ingannare le piattaforme, in particolare Meta Platforms, che interpretano l’elevato livello di interazione come indicatore di rilevanza, aumentando di conseguenza la visibilità dei contenuti.

A questa prima rete si affianca un secondo cluster di circa 50 profili semi-anonimi, attivati, in questo caso, in prossimità della campagna elettorale e caratterizzati dall’utilizzo dello slogan politico direttamente nel nome. Anche in questo caso, l’attività è monotematica ma intensiva, mentre le immagini risultano (spesso) generate artificialmente o sottratte a soggetti reali. Parallelamente, si registrano anomalie nelle reazioni ai post, prevalentemente provenienti da profili con identità straniere e compatibili con pratiche di acquisto di engagement.

Se questo primo livello riguarda la manipolazione endogena dello spazio informativo, un secondo vettore – documentato da United Media 24 – evidenzia una pressione esogena strutturata, per la quale le autorità bulgare hanno attivato un meccanismo istituzionale di contrasto alle minacce ibride coinvolgendo esperti del settore e organi preposti al contrasto alla disinformazione.

Secondo i dati riportati, la pressione informativa riconducibile all’ecosistema russo ha raggiunto livelli elevati, con reti come Pravda, Matryoshka, Portal Kombat, in grado di generare fino a 6.000 contenuti al mese. A questa si aggiunge un’infrastruttura composta da oltre 30 canali Telegram collegati tra loro, capaci di accumulare circa 180 milioni di visualizzazioni in un anno, saturando lo spazio informativo nazionale con narrazioni pro-Cremlino.

Elezione che vai, interferenza che trovi

Le linee narrative individuate ricalcano schemi già osservati negli altri contesti elettorali europei e occidentali: delegittimazione del processo elettorale, campagne di discredito contro attori politici filo-europei, costruzione di scenari di minaccia legati a presunte interferenze ucraine e rappresentazione dell’Unione Europea come attore ostile agli interessi nazionali.

Le attività informative ostili, riconducibili a Mosca, sembrano sfruttare i processi democratici dell’Europa orientale come teatri di sperimentazione per tecniche di influenza. Dinamiche analoghe sono state osservate recentemente in Moldavia e Romania, dove strumenti come disinformazione, finanziamenti occulti, progettazione di disordine e operazioni cibernetiche sono stati impiegati per influenzare i processi politici e rallentare i percorsi di integrazione europea.

Motivo per cui, in vista del 19 aprile, Sofia ha attivato anche il Rapid Alert System dell’Unione Europea, rafforzando il coordinamento con i partner europei per il monitoraggio in tempo reale delle campagne di disinformazione.

I due livelli, dall’amplificazione artificiale esogena alla pressione endogena, contribuiscono a plasmare un ecosistema informativo distorto, nel quale le differenti operazioni di manipolazione, pur non operando necessariamente tutte in maniera coordinata, finiscono per rafforzarsi reciprocamente.

L’avvelenamento dei modelli linguistici (Llm), la manipolazione degli algoritmi di engagement e visibilità digitale e la produzione strategica di contenuti e disordine si sovrappongono, viziando la percezione dei filoni narrativi, della realtà che raccontano e, in definitiva, impattando sulla qualità del dato cognitivo alla base del processo decisionale dell’elettore.


×

Iscriviti alla newsletter