Skip to main content

ChatGpt e sicurezza cibernetica. Strumento di attacco o arma di difesa?

Di Lamberto Ioele

La versatilità di ChatGpt lo ha reso uno strumento da utilizzare in diversi ambiti, tra cui quello della cybersicurezza. L’uso o l’abuso di questa nuova tecnologia dipenderà dalla mano che la impugna. L’analisi di di Lamberto Ioele, senior manager di Cyber Security Services

Lanciato nel novembre 2022 dalla società OpenAI, ChatGPT (Chat Generative Pretrained Transformer) ha conquistato rapidamente internet grazie alla sua capacità di generare contenuti coerenti con un linguaggio a tratti indistinguibile da quello umano, raccogliendo 1 milione di utenti nei primi cinque giorni e raggiungendo i 100 milioni di utenti attivi mensili nel gennaio 2023.

ll prototipo di chatbot basato su Intelligenza Artificiale (IA) generativa e machine learning simula il linguaggio umano e promette di trasformare il modo in cui interagiamo con i computer e automatizziamo i compiti. Una delle caratteristiche più interessanti di ChatGPT è la sua capacità di elaborare l’input e generare risposte coerenti e appropriate in un linguaggio naturale a qualsiasi domanda o istruzione. Tramite algoritmi di apprendimento automatico, ChatGPT è in grado di redigere quasi istantaneamente un saggio, condurre una ricerca, creare un post sui social media o persino eseguire il debug di un codice informatico.

Strumenti digitali come ChatGPT possono creare grandi opportunità per produrre contenuti in vari ambiti, ma mentre molti utenti testano le capacità di ChatGPT generando poesie, messaggi di marketing, scrittura di saggi scolastici e risoluzione di problemi matematici, le aziende iniziano a interrogarsi sui possibili utilizzi più ‘oscuri’ di questo strumento.

Proprio come qualsiasi altra tecnologia, ChatGPT ha i suoi lati positivi e negativi, difatti se da un lato l’intelligenza artificiale ha il potenziale per potenziare le difese informatiche e aumentare le competenze dei team di sicurezza, dall’altro è altrettanto in grado di essere manipolata da criminali informatici e malintenzionati per scopi nocivi.

ChatGPT può essere usato per attacchi informatici?

Il modello linguistico ChatGPT presenta diverse applicazioni che vanno dallo sviluppo di chatbot e risposte a domande alla generazione del linguaggio. Tuttavia, l’ampio uso di ChatGPT ha suscitato preoccupazioni sulle sue potenziali implicazioni per la sicurezza informatica.

Sebbene OpenAI si sia visibilmente impegnata a garantire che la propria tecnologia sia usata adeguatamente, implementando misure di salvaguardia per prevenire gli abusi, le capacità dell’intelligenza artificiale possono essere aumentate anche in modo negativo. Nelle mani sbagliate, infatti, l’intelligenza artificiale può perpetuare crimini informatici avanzati e facilitare gli avversari nella conduzione di attacchi.

ChatGPT può essere utilizzato non solo per creare e-mail di phishing o codici maligni, ma è anche in grado di creare ed assistere nell’organizzazione di Man-in-the Middle Attack (MITM), generare un elenco delle password più comuni utilizzate dagli utenti nel 2023 (Dictionary Attack), script USB Rubber Duck Key, script USB, attuare Spoofing di pagine web, attacchi Denial of Service (DDoS) e molto altro ancora.

Alcune tra le principali modalità per utilizzare l’intelligenza artificiale nel campo degli attacchi informatici sono:

  • Spear phishing automatizzato: ChatGPT può aiutare i criminali informatici a creare in varie lingue e-mail di phishing impeccabili che possono facilmente sembrare essere scritte da una personalità autorevoli, come l’amministratore delegato di un’azienda, imitando anche lo stile ed il tono di persone specifiche.
  • Ingegneria sociale impercettibile: la similarità tra le risposte di ChatGPT e quelle umane può facilitare l’avanzamento e l’automazione delle truffe di social engineering combinando un bot conversazionale ad ulteriori elementi quali le immagini generate dall’intelligenza artificiale, l’impersonificazione di audio e video falsi o la creazione di profili fake sui social media o chatbot.
  • Sviluppo di Malware evasivo e polimorfico: l’intelligenza artificiale può essere utilizzata per sviluppare e migliorare il malware, rendendolo più difficile da rilevare e da eliminare. Usufruendo della capacità di ChatGPT di generare varie tecniche di persistenza, moduli Anti-VM e altri payload dannosi, le possibilità di sviluppo di malware sono numerose, comprendendo anche i malware polimorfici.
  • Caccia alle vulnerabilità: invece di esaminare migliaia di righe di codice, gli attori delle minacce possono sfruttare la capacità di ChatGPT di eseguire il debug del codice per andare a caccia di falle e vulnerabilità nelle applicazioni e nei sistemi.
  • Fake News e diffusione della propaganda: i cyber-attori sponsorizzati dallo Stato e i gruppi d’odio possono adoperare ChatGPT per diffondere fake news, cospirazioni e propaganda molto più velocemente e su scala più ampia rispetto ai bot tradizionali, avvalendosi inoltre delle argomentazioni logiche e convincenti dei bot alimentati da ChatGPT che possono persino facilitare l’impersonificazione di personalità influenti.
  • Pregiudizi umani e manipolazione dell’IA: come ogni strumento basato sull’intelligenza artificiale, ChatGPT dipende interamente dai dati che gli vengono forniti. Sfruttando ChatGPT, attori malintenzionati possono corrompere intenzionalmente i dati di addestramento dell’intelligenza artificiale per inserire pregiudizi palesi e generare risposte false o offensive.
  • Problemi di privacy e sicurezza: se le versioni future di ChatGPT dovessero iniziare a memorizzare e raccogliere le query degli utenti e le informazioni che condividono, potrebbe verificarsi un enorme rischio per la privacy e la sicurezza dei dati riservati, esposti a furto e manipolazione da parte di malintenzionati.

ChatGPT offre essenzialmente più velocità e automazione ai cybercriminali e sebbene al momento non sia in grado di modificare in modo rivoluzionario il panorama delle minacce, offre una maggiore accessibilità anche a persone senza competenze tecniche, che possono trasformarsi in criminali informatici.

Tuttavia, è necessario sottolineare che per condurre con successo qualsiasi attacco dannoso, gli attori delle minacce non devono solo scrivere un’e-mail o creare un codice, ma anche avere le competenze necessarie per distribuire l’intero attacco.

Vantaggi per i professionisti della sicurezza

Così come i malintenzionati possono sfruttare l’intelligenza artificiale a loro favore, analogamente tali strumenti possono essere utilizzati dai professionisti che operano nelle aziende per incrementare la propria postura di cybersecurity.

Il campo di applicazione di ChatGPT è in continua espansione e le possibilità di utilizzo risultano essere sempre maggiori. Nel contesto della sicurezza informatica, l’utilizzo efficace di ChatGPT può facilitare il livello della comprensione delle minacce ed integrare rapidamente il know-how dei ‘difensori’.

In particolare, l’utilizzo di ChatGPT per il supporto alla cybersecurity può presentare i seguenti significativi vantaggi:

  • Debug Codice: ChatGPT non è stato progettato specificamente per il debugging del codice, ma gli sviluppatori lo hanno recentemente utilizzato per identificare errori e vulnerabilità del codice, nonché generare spiegazioni degli errori di codice e suggerire potenziali soluzioni. Con i giusti dati di addestramento, ChatGPT sarà capace di comprendere i concetti di programmazione e la sintassi proprio come i codificatori esperti.
  • Investigazioni Cyberattacchi: ChatGPT può essere utilizzato anche per setacciare grandi quantità di log e altri dati testuali generati durante un incidente di sicurezza per identificare schemi e anomalie associati a un attacco. Può creare istantaneamente riassunti delle sue scoperte per aiutare gli esperti di cybersecurity e gli analisti forensi a comprendere la portata, la tempistica e la natura di un attacco per una rapida riparazione.
  • Rafforzamento Competenze: assistendo in compiti quali la scoperta di vulnerabilità, l’analisi forense e la generazione di report, ChatGPT può potenzialmente aiutare i team di cybersecurity alle prese con la persistente carenza di competenze. I team di sicurezza possono utilizzare ChatGPT per automatizzare alcuni processi, come l’analisi di file di log di grandi dimensioni e la creazione di report esecutivi, per concentrarsi interamente su attività che richiedono, invece, analisi e competenze umane.
  • Automazione Configurazioni: gli strumenti e i sistemi di software e cybersecurity dipendono da configurazioni corrette per funzionare in modo efficiente. Attraverso istruzioni accuratamente realizzate, note anche come prompt engineering, ChatGPT può essere addestrato a configurare automaticamente ed in modo sicuro server, firewall, sistemi di prevenzione delle intrusioni e altri strumenti di cybersecurity.

Dunque, in combinazione con le competenze umane e le architetture di sicurezza, ChatGPT può diventare una risorsa per le organizzazioni che lottano per stare al passo con il panorama della sicurezza e delle minacce alimentate dall’intelligenza artificiale. Essenziale in tal senso è mettere in atto le opportune misure di salvaguardia nell’integrare ChatGPT nelle strategie e nei processi di cybersecurity di un’azienda al fine di mitigarne i vari rischi legati alle persone, ai processi e alla tecnologia.

Conclusioni

Sfruttando la potenza della tecnologia dell’intelligenza artificiale, di cui ChatGPT si può considerare un massimo esponente, le aziende e i privati possono promuovere l’innovazione, migliorare la produttività e i risultati aziendali con nuove e potenti soluzioni. Tuttavia, è importante bilanciare i potenziali benefici con i potenziali rischi e garantire che l’intelligenza artificiale sia utilizzata in modo etico e responsabile.

ChatGPT ha implicazioni significative per la sicurezza informatica, pertanto è importante essere consapevoli dei rischi potenziali e adottare misure per proteggersi. La continua evoluzione della tecnologia richiede un’azione congiunta da parte di tutti gli attori coinvolti per assicurare che l’intelligenza artificiale sia utilizzata per scopi positivi e non per attività dannose.

Seguendo l’esempio di OpenAI, gli sviluppatori di intelligenza artificiale devono garantire che gli algoritmi siano progettati in modo da evitare la discriminazione di qualsiasi tipo. Parimenti, per proteggere i loro beni digitali e le loro persone dai danni, è essenziale che le aziende implementino forti misure di sicurezza e sviluppino quadri etici e regolamenti per proteggere i dati e garantire la privacy delle persone. Tale impegno si deve tuttavia inserire in un contesto regolamentare strutturato e definito dai governi e dalle autorità di regolamentazione chiamate a sviluppare norme che garantiscano la protezione delle persone dagli eventuali rischi connessi all’intelligenza artificiale.

Adottando tale approccio proattivo alla governance dell’intelligenza artificiale, le organizzazioni potranno contribuire a ridurre al minimo i potenziali rischi associati e a massimizzare i benefici per gli utilizzatori e, in senso più ampio, per la Società.

In ogni caso, come per qualsiasi altro strumento, l’uso o l’abuso di ChatGPT dipenderà dalla mano che lo impugna e, pertanto, le aziende dovranno tenersi aggiornate sui nuovi sviluppi tecnologici e normativi al fine di sviluppare efficaci strategie di difesa volte a contrastare le minacce emergenti.

(Photo by Levart_Photographer on Unsplash)

×

Iscriviti alla newsletter