Skip to main content

Il silente avvelenamento dei pozzi digitali. Il nuovo sabotaggio cognitivo secondo Preziosa

Nel teatro bellico dominato dall’intelligenza artificiale, la sicurezza dei dati diventa una nuova frontiera della competizione strategica. Tecniche sofisticate di data poisoning, manipolazione deliberata dei dataset che alimentano gli algoritmi militari, stanno emergendo come strumenti di sabotaggio cognitivo in grado di compromettere la capacità decisionale dei sistemi avversari, senza sparare un colpo. A contare, in futuro, non sarà solo la supremazia tecnologica, ma la capacità di controllare o contaminare l’infrastruttura dati che alimenta l’intelligenza artificiale militare. L’analisi del generale Pasquale Preziosa

La crescente integrazione dell’intelligenza artificiale (IA) nelle operazioni militari contemporanee introduce nuove vulnerabilità sistemiche, in particolare nel ciclo di vita dei dati che alimentano i modelli di apprendimento automatico (machine learning). La possibilità di impiegare operazioni coperte di data poisoning, ovvero l’introduzione deliberata e mirata di dati manipolati nei set di addestramento degli avversari,  come strumento strategico volto a degradare le capacità decisionali e operative del nemico, è oggi una prospettiva concreta. Il dominio informativo, e in particolare il controllo e la manipolazione dei dati, diventerà cruciale nella definizione della superiorità strategica nel campo di battaglia dominato dall’IA.

L’emergere dell’intelligenza artificiale quale forza abilitante in ambito militare sta trasformando radicalmente le dinamiche del conflitto. Sistemi di targeting automatizzato (tipo Lavender o Gospel), riconoscimento di immagini, supporto al comando e controllo dipendono oggi da modelli di machine learning addestrati su grandi quantità di dati. Tali dipendenze generano vulnerabilità latenti, suscettibili di essere sfruttate attraverso tecniche di data poisoning, una forma sofisticata di manipolazione algoritmica capace di indurre errori sistematici o malfunzionamenti operativi nei sistemi avversari.

Il data poisoning rappresenta oggi uno degli strumenti più avanzati di guerra informativa e cibernetica. Esso consiste nell’inserimento di dati corrotti, manipolati o “avversi” nei set di addestramento dei modelli IA. Le tecniche più comuni includono: il label flipping, ovvero la modifica delle etichette per provocare errori di classificazione, i backdoor attacks, cioè l’inserimento di trigger specifici che attivano comportamenti anomali solo in determinate condizioni e il poisoning graduale, che introduce distorsioni cumulative per eludere i sistemi di rilevamento.

L’obiettivo di tali tecniche è quello di alterare l’affidabilità delle decisioni avversarie, inducendo, per esempio, un sistema di ricognizione a identificare erroneamente veicoli o velivoli in Teatro come “neutri” o “amici”. Storicamente, tali pratiche si ricollegano alle tecniche di sabotaggio cognitivo, come la lettura dei cifrari nemici durante la Seconda Guerra Mondiale, ma oggi trasposte in una dimensione interamente digitale. Federazione Russa e Repubblica Popolare Cinese stanno da tempo investendo in difese avanzate in questo settore, attraverso la validazione crittografica dei dataset, il rilevamento delle anomalie nei modelli operativi, l’incremento della robustezza degli algoritmi, e altre misure di sicurezza.

Attualmente non esiste alcuna protezione assoluta contro forme avanzate di data poisoning ritardato o backdoor condizionate. Il rischio è inoltre bidirezionale: anche i sistemi proprietari o alleati, spesso basati su dataset open-source o di provenienza commerciale, possono diventare bersaglio di attacchi simmetrici o asimmetrici.

Il data poisoning rientra nella categoria delle operazioni cibernetiche non cinetiche e, se condotto al di sotto della soglia del conflitto armato, è compatibile con le normative vigenti. Le operazioni più sofisticate non si limitano all’accesso digitale remoto. Possono essere implementate attraverso assetti Humint infiltrati in centri di ricerca, presso fornitori di equipaggiamenti militari o all’interno di organizzazioni civili che producono dataset pubblici.

La combinazione tra intrusione digitale e infiltrazione umana consente una manipolazione persistente e difficilmente attribuibile, simile alle operazioni di controspionaggio della Guerra Fredda, ma adattata al contesto algoritmico contemporaneo. Anche in assenza di uno stato di guerra formale, i principi del Law of Armed Conflict (Loac) possono essere applicati come guida normativa per garantire coerenza etica e giuridica nelle operazioni di data poisoning durante le fasi di competizione sottosoglia.

I quattro principi fondamentali del diritto dei conflitti armati sono: distinzione la quale impone che la manipolazione dei sistemi IA sia diretta esclusivamente verso obiettivi militari; la proporzionalità la quale richiede che gli eventuali effetti collaterali, anche indiretti, non siano eccessivi rispetto al vantaggio militare previsto, invitando alla cautela nell’attivazione di trigger o backdoor; la necessità militare che legittima il data poisoning solo se risponde a un’esigenza operativa concreta, escludendo manipolazioni generalizzate o punitive prive di valore strategico diretto; le sofferenze inutili per evitare danni superflui derivanti da interferenze nei sistemi IA, come destabilizzazioni sistemiche o tecniche eccessivamente intrusive.

L’adozione di tali principi, pur non giuridicamente vincolante nei contesti di pace o di intelligence, rafforza la legittimità strategica e la reputazione degli Stati nell’impiego di tecnologie avanzate nei conflitti algoritmici.

Il data poisoning presenta vantaggi significativi in termini di costo-efficacia, capacità di negazione plausibile (operational deniability) e riduzione della soglia per l’ingaggio preventivo. Tuttavia, comporta anche rischi sostanziali: una narrativa strategica avversa in caso di danni collaterali civili, escalation asimmetrica sul piano informativo, e l’erosione della fiducia globale nei sistemi IA, con possibili implicazioni sulla futura regolazione internazionale. Per tali ragioni, l’adozione di queste tecniche richiede una rigorosa disciplina operativa, un solido supporto legale e un’integrazione coerente in una strategia più ampia di influenza e dissuasione.

Nel contesto della competizione strategica globale, il dominio dell’ambiente informativo sottostante ai sistemi IA rappresenta una leva fondamentale per esercitare influenza e deterrenza. Il data poisoning può divenire uno strumento legale, etico e operativo per alterare proattivamente l’equilibrio delle capacità militari, senza ricorrere alla forza cinetica.

In ultima analisi, non sarà la sola superiorità tecnologica a determinare il vincitore delle guerre future, ma piuttosto la capacità di controllare, contaminare o proteggere l’infrastruttura invisibile dei dati.


×

Iscriviti alla newsletter