Svegliarsi e scoprirsi vulnerabili. In un quotidiano segnato dal nostro essere connessi e dall’avere la nostra “memoria” affidata alla capacità della rete, un attacco cyber di portata globale come nel caso “WannaCry” fa riflettere sul trade-off esistente tra digitalizzazione e sicurezza informatica. In altre parole, emerge un dilemma tutto tecnologico: la vitale dipendenza delle società dai sistemi ICT e la conseguente fragilità in termini di protezione cibernetica. Ma stanno proprio così le cose? Seppur nella stragrande maggioranza delle analisi di questi giorni non si sono risparmiate le valutazioni complottistiche che hanno additato contemporaneamente sia l’americana NSA che il Cremlino, sarebbe utile avere uno sguardo lungo, strategico. Da un’analisi approfondita del modus operandi dell’attacco, sembra emergere infatti un’amara realtà: la responsabilità esclusiva e decisiva del fattore umano.
In altre parole, le macchine (ancora non intelligenti) hanno eseguito ciò che l’operatore umano gli ha indicato di fare “senza se e senza ma”. Non a caso, il ransomware è un tipico strumento malevolo (sempre più diffuso) che punta a utilizzare due deficit fondamentali: 1) la bassa consapevolezza dell’utente sui rischi cyber; 2) l’assenza della cultura del backup dei propri file su dispositivi esterni e non connessi a internet. Infatti, se si ricostruisce l’intera vicenda del caso “WannaCry” emerge che il riscatto ha fatto leva sulla paura (per motivi reputazionali e di business) della perdita dei file presenti sul pc infettato e non a caso, la richiesta dei “sequestratori” poggiava sulla possibilità da parte della vittima di avere nuovamente nella propria disponibilità i documenti (momentaneamente criptati) solo dopo aver pagato un riscatto in bitcoin. Cercando di andare oltre la facile lettura “complottistica”, sembrerebbe che si sia venuta a creare una tempesta perfetta (seppur prevedibile) anche tenendo conto che la stragrande maggioranza dei sistemi informatici delle pubbliche amministrazioni mondiali (da Londra a Mosca, passando per Berlino, Dubai e Roma) utilizza sistemi operativi datati e non all’altezza con le sfide attuali.
Ciò che si consolida è quindi la consapevolezza che la cultura della cybersecurity ha un impatto maggiore sugli incidenti informatici rispetto alle vulnerabilità in sè dei sistemi tecnologici. Da una recente analisi, pubblicata dalla stessa NSA, emerge che tra le cause dei cyberattacks i problemi tecnologici rappresentino solo il 20%, mentre il restante 80% è causato da comportamenti malevoli (volontari e non) degli utenti. Investire in tecnologia, ammodernare i sistemi informatici e avere strumenti di protezione più efficaci è senz’altro necessario, e non rinviabile. Quello che però fa e sempre più farà la differenza è proprio il fattore consapevolezza.
Il governo italiano ha recentemente varato il cosiddetto Dpcm Gentiloni che riforma il modello istituzionale per la sicurezza cibernetica del Paese affidando un ruolo cruciale all’intelligence e promuovendo non solo una maggiore collaborazione fra settore pubblico e privato ma anche una adeguata cultura cyber. Sebbene la sfida sia solo all’inizio, il tempo a disposizione non è molto ed enormi invece sono i rischi per la sicurezza così come per l’economia. Scuola, università e media sono quindi le armi più sofisticate ed utili per contrastare la minaccia più grande di questo secolo. Cultura è sicurezza. E la conoscenza è ancora lo scudo più forte contro le vulnerabilità, comprese quelle che provengono dalla rete.