“L’uso crescente dell’intelligenza artificiale negli attacchi informatici è evolutivo e non rivoluzionario”, spiega Cameron, a capo del National Cyber Security Centre. Ciò significa che “migliora le minacce esistenti ma non trasforma il panorama dei rischi nel breve termine”. Ma tra due anni…
È “pressoché sicuro” che l’intelligenza artificiale favorirà un aumento, in termini di volumi e di impatto, degli attacchi ransomware, ovvero quei cyber-attacchi che fanno del riscatto l’elemento centrale. È la conclusione a cui è arrivato il National Cyber Security Centre, la struttura britannica per la sicurezza informatica incardinata all’interno del Government Communications Headquarters, agenzia per la signals intelligence.
La conclusione è contenuta in un rapporto sugli impatti a breve termine, ovvero nei prossimi due anni, dell’intelligenza artificiale nel quinto dominio, basato su informazioni di varia provenienza: intelligence classifica, conoscenze del settore, materiali accademici e fonti aperte. Lindy Cameron, che lascerà la guida del centro nelle prossime settimane, ha riassunto così il documento: “L’uso crescente dell’intelligenza artificiale negli attacchi informatici è evolutivo e non rivoluzionario, il che significa che migliora le minacce esistenti, come il ransomware, ma non trasforma il panorama dei rischi nel breve termine”.
Attualmente, l’intelligenza artificiale generativa viene già utilizzata da attori di tutti i tipi – statali e non statali, esperti e meno esperti – per generare un “aumento delle capacità di ricognizione e di social engineering“, rendendo entrambi i compiti “più efficaci, efficienti” ma anche “difficili da rilevare” per la vittima. L’intelligenza artificiale può agevole “lo sviluppo di malware ed exploit, la ricerca di vulnerabilità e il lateral movement, rendendo più efficienti le tecniche esistenti”.
C’è una buona notizia, però, secondo gli esperti britannici. Questi usi più sofisticati dell’intelligenza artificiale per migliorare i cyber-attacchi saranno probabilmente disponibili solo per gli attori più dotati. E anche in questo caso “è improbabile che si verifichino prima del 2025”. Il limite è rappresentato dalla necessità per gli sviluppatori di avere accesso a dati di alta qualità per addestrare i loro modelli. Attualmente, è solo una possibilità teorica “che gli Stati altamente capaci dispongano di archivi di malware sufficientemente grandi per addestrare efficacemente un modello di intelligenza artificiale a questo scopo”.
Ma “dal 2025, man mano che si verificheranno esfiltrazioni di successo, i dati che alimentano l’intelligenza artificiale miglioreranno quasi certamente, consentendo operazioni informatiche più rapide e precise”, avverte il rapporto.