Skip to main content

DISPONIBILI GLI ULTIMI NUMERI DELLE NOSTRE RIVISTE.

 

ultima rivista formiche
ultima rivista airpress

ChatGPT e la sicurezza nell’Intelligenza artificiale. Conversazione con Iezzi (Swascan)

Di Carlo Simonelli

Intelligenza artificiale, cybersicurezza e questione etica. Intervista a tutto tondo di Carlo Simonelli a Pierguido Iezzi, ceo di Swascan

Nei giorni scorsi, l’Offensive security team di Swascan è riuscito a violare il motore etico di ChatGPT, il modello conversazionale di OpenAI, facendolo rispondere a qualunque tipo di domanda, anche su argomenti che non avrebbe dovuto affrontare.

Questo attacco è molto particolare, perché non è stato effettuato con strumenti tecnologici, ma adottando una strategia simile a quella del social-engineering.

In altre parole, non è stato “hackerato” il sistema, modificandone il codice o i parametri di configurazione, ma, dopo una analisi del comportamento, dell’approccio e del flusso logico dell’AI, è stato indotto ad abbandonare le sue regole etiche grazie unicamente a un esercizio di logica e dialettica, così come si fa con gli esseri umani.

Se fossimo nell’Ottocento, diremmo che è stato “irretito”. Ne parliamo con Pierguido Iezzi, ceo di Swascan.

La prima domanda è inevitabile: l’intelligenza artificiale, è sicura?

La criticità che abbiamo identificato noi non è né la prima né l’ultima che è stata trovata in ChatGPT. Trovare falle in una versione beta è normale: si tratta di una componente fondamentale nello sviluppo di qualsiasi tecnologia. Questo prodotto è stato messo on-line perché i cinque milioni di iscritti al sito lo stanno addestrando e, trovando falle o bug, aiutano gli sviluppatori di ChatGPT a correggere gli errori del sistema. Inoltre, l’interazione con gli umani è funzionale anche ad acquisire un dataset ancora più ampio di esperienze e interazioni linguistiche eterogenee che permetta all’AI di migliorare la capacità di comprensione e delle risposte. In sostanza: noi stiamo educando questo sistema di intelligenza artificiale e lo stiamo migliorando. Detto ciò, ogni tecnologia è una medaglia con due facce. Quello che da un lato può essere un servizio che cambia il nostro modo di vivere, di interagire e di lavorare in maniera positiva, da un altro lato può diventare uno strumento utilizzabile o a beneficio di una singola persona o con intenti malevoli. L’innovazione non può essere limitata, deve essere lasciata libera di muoversi, di immaginare e di creare. La questione è che deve essere governata, gestita e normata nel suo utilizzo. Nel caso dell’AI, i possibili utilizzi sono enormi: pensa solo a quello che può fare oggi ChatGBT, una cosa impressionante, incredibile. Questa forma di AI ha segnato uno spartiacque: finora eravamo abituati a vivere e lavorare in un mondo dell’informazione e delle tecnologie, ma ormai parleremo sempre più di una società degli algoritmi, perché è l’algoritmo, quello che oggi comanda. È questo il punto su cui dovremo riflettere.

Però a fronte delle esperienze fatte negli ultimi venti anni sui sistemi Web, c’è un’attenzione alla sicurezza da chi realizza sistemi AI? In sostanza: l’AI è sicura “by design”?

Penso che il livello di attenzione sia più alto. Il vero problema dell’AI è la tutela dell’algoritmo. Se io vado a modificare i parametri di un algoritmo, la tipologia di output può essere di qualsiasi genere, anche devastante.

Anche i parametri di addestramento, però.

Ecco, questo è un punto importante, perché dobbiamo distinguere il concetto di sicurezza dell’algoritmo. Da un lato, c’è la sicurezza dell’asset, che rientra negli standard tipici dei framework di sicurezza, a livello predittivo, preventivo e proattivo, poi però c’è il problema di quali sono le informazioni che vengono fornite in input all’algoritmo perché possa apprendere e infine c’è il problema dei parametri decisionali dell’algoritmo, che determinano il modo in cui “impara” dall’input che gli dai. La situazione è molto simile al percorso di educazione di un figlio. Se tu porti tuo figlio in un museo, il dato di input è positivo, ma se il genitore, davanti ad un quadro di Leonardo afferma: “Vedi che brutta, questa cosa?”, il figlio ha appreso che quella “cosa” è brutta. Ti ricordi la scena del film di Checco Zalone “Sole a Catinelle”, in cui lui è su uno yacht col figlio e gli dice: “Questa non è la felicità, quella è la felicità!”, indicando uno yacht molto più grande? È questo, il passaggio: l’input da cui lui apprende è legato ai dati e al modo in cui è configurato l’algoritmo. Chi valida che il dato di input sia quello corretto? Chi determina i parametri dell’algoritmo? Il rischio è che il proprietario dell’algoritmo possa diventare il proprietario del mondo. Più l’algoritmo è diffuso maggiore sarà la sua capacità di influenzare, manipolare e creare opinioni; che poi è quello che avviene già con le fake-news. Un altro problema è che, se un domani uno strumento del genere potesse interagire direttamente con Internet, potrebbe mettere a rischio la privacy di ciascuno di noi perché avrebbe la possibilità di raccogliere ed elaborare una mole enorme di informazioni. Se io oggi cerco su Google: “Linkedin scraping tool”, ottengo tutta una serie di prodotti software che possono estrarre e-mail e contatti degli iscritti. Un prodotto AI potrebbe raccogliere [e analizzare] tutte quante le informazioni, tutti gli interessi non di un singolo social ma di tutto quello che è presente sul Web. Potrebbe anche scoprire nuove vulnerabilità dei sistemi o criticità delle infrastrutture critiche. Potrebbe essere utilizzato per il cybercrime o per la cyberwar, ma anche dagli attivisti o dai terroristi.

A questo punto, quindi, c’è un altro livello di sicurezza: oltre alla sicurezza informatica dell’asset e a quella dell’algoritmo, c’è il problema della sicurezza della verità. C’è il problema etico di quale sia la verità.

Esatto. Conosci il detto: “Quando il saggio indica la luna, lo stolto guarda il dito”? Ecco, noi oggi stiamo guardando il dito, che è l’AI, mentre dovremmo guardare la Luna, che è l’uomo. Per queste innovazioni tecnologiche, l’uomo dovrebbe essere sempre il centro del modello e non un elemento passivo che subisce l’innovazione. E qui entra il problema dell’etica e della morale nell’utilizzo di questi oggetti. Questo secondo me è un parametro estremamente importante. Questa rivoluzione dell’algoritmo ci deve porre giustamente delle domande che devono spronarci al cambiamento per reinventarci come protagonisti. Einstein ha detto: “I computer sono incredibilmente veloci, accurati e stupidi, mentre gli esseri umani sono incredibilmente lenti, inaccurati e intelligenti.”

Non sempre… alcuni.

Noi, con l’AI, ci stiamo ponendo gli stessi dubbi che ci siamo posti quando è nato il primo computer.
L’innovazione ci costringe sempre a uscire dalla nostra area di comfort, a reinventarci, ed è qui che entra in gioco l’intelligenza dell’uomo. Noi stiamo già cambiando il nostro modo di operare, di interagire con i vari strumenti. La vita potrà essere sicuramente migliore, ma tutto dipende dalla modalità di controllo dei sistemi, dalla loro gestione. L’innovazione non può essere bloccata, deve essere “incoraggiata”, perché avventurarsi nel nuovo, scoprire e conquistare sono parte integrante del nostro modo di vivere. Non è un caso, a mio avviso, se dopo aver conquistato la terra, conquistato il mare, conquistato il cielo, conquistato lo spazio… ci mancava la conquista del digitale ed è nato il Metaverso. Non puoi dire all’uomo: “Non innovare, non pensare”. Deve essere data piena libertà di pensare e creare cose nuove, ma nel momento in cui tu le hai pensate e le hai create, ci dev’essere quell’intelligenza umana che indica le modalità con cui devono essere utilizzate, governate e gestite. Governare non significa censurare, ma gestire nel rispetto del prossimo mio, tuo e del nostro futuro per non dimenticarsi che l’uomo è e deve essere sempre al centro. Questo è il vero punto e cambia il concetto di sicurezza, perché hai una sicurezza dell’asset e dell’algoritmo, poi hai una sicurezza di governance e infine hai una sicurezza etica, cioè, chi determina l’etica e la morale. Per altro, questo è un passaggio molto particolare, perché l’etica e la morale corrispondono a una comunità o a una nazione in cui l’etica e la morale determinano le Leggi. Se tu pensi che all’interno della stessa Comunità Europea abbiamo dei concetti del tutto diversi dell’accoglienza, diventa complicato decidere cos’è etico. Quello a cui poi dobbiamo pensare è che questi prodotti, un domani, potranno essere utilizzati da persone per bene come me e come te, ma anche da criminali, attivisti, terroristi, da nazioni o centri di potere che li sfrutteranno a loro beneficio.

Come il nucleare. Può essere utilizzato per dare energia ma anche per fare una bomba.

Anche il nucleare ha il problema della sicurezza fisica, perché devi proteggere l’asset; poi la governance di chi gestisce quell’asset e poi anche lì hai un problema di etica: lo utilizzi per attaccare una nazione o per generare energia e quindi dare un beneficio? Sono tre elementi che rimarranno sempre costanti perché sono intrinsechi a tutto ciò che è innovazione. Lo dimostra anche il recente ingresso nella Quinta Dimensione del Conflitto.

La stessa cosa vale anche per il fuoco e le schegge di selce affilate. Abbiamo 12.000 anni di esperienza, nel settore.

Ogni volta che parliamo di innovazione, i problemi sono sempre gli stessi. Noi non dobbiamo dimenticarci che siamo arrivati fin qui grazie alla nostra intelligenza. È l’intelligenza che ci ha permesso di gestire il nuovo, perché il nuovo ha sempre un lato oscuro. Oggi parliamo di AI, ma la situazione è identica per il Metaverso. Il problema vero, con questa transizione, lo vivrà la generazione che ha fra i venti e i trent’anni, che è in una situazione di limbo. Questo aspetto dovrà essere gestito in termini di educazione, si dovrà cominciare a ragionare dai ragazzi più giovani, insegnare loro la capacità di adattarsi al cambiamento.

Però, per fare questo, hai bisogno di un ethos, di un’etica comune che noi non abbiamo.

Ce l’abbiamo, è la nostra. Io ho una mia etica, tu hai una tua etica. Se poi ragioniamo come comunità, come Italia o come Comunità Europea, un’etica c’è. È stata in qualche modo scritta, formalizzata.

Su questo non sono d’accordo: noi non abbiamo un’etica condivisa. Lo hai detto tu prima: noi italiani abbiamo una visione sui migranti, i francesi ne hanno un’altra…

Il progetto di regolamento presentato dalla Commissione nell’aprile 2021 è un elemento chiave della politica dell’Ue per promuovere lo sviluppo e l’adozione di un’IA sicura e legale che rispetti i diritti fondamentali.

Il Consiglio Europeo ha recentemente adottato un orientamento generale con l’AI Act che ha lo scopo di garantire che i sistemi di intelligenza artificiale immessi sul mercato dell’Ue e utilizzati nell’Unione siano sicuri e rispettino il diritto vigente in materia di diritti fondamentali e valori dell’Unione.

Fare le regole è semplice, ma poi le devi fare applicare. Pensa alla fatica fatta con il Gdpr…

L’introduzione della Gdpr è stata essenziale per sollevare l’importanza dei nostri dati e dell’identità digitale; il valore in termini di sensibilizzazione è stato enorme. Ha responsabilizzato chi gestisce i nostri dati e noi, oggi, abbiamo un dispositivo legale di tutela. Quando vediamo le altre generazioni, diciamo sempre: “Questi non ce la faranno mai”, che è la stessa cosa che hanno detto i nostri genitori di noi, ma poi, in una maniera o nell’altra, ce la siamo cavata. L’uomo bene o male, si adatta; il problema è come. Il rischio che corriamo è che una generazione possa non cogliere il “vero” della situazione, ma nel corso della nostra storia abbiamo avuto dei momenti bui, che però sono stati lo stimolo per una ripresa sfolgorante. Io sono molto ottimista, nell’uomo, non so se si capisce…

Io un po’ meno. Se non vogliamo finire come nel film “Idiocracy”, dobbiamo educare i giovani, ma chi li educa?

Questo è un altro problema. In realtà, oggi non c’è un educatore. All’epoca nostra [abbiamo superato entrambi la cinquantina, nda] avevamo la famiglia, la scuola e il gruppo di ragazzi che stavano con te per strada e la cosa bella di quel gruppo è che era costituito dal ragazzino di cinque/sei anni fino a quello di diciassette anni, cosa che ci ha aiutato a crescere. Adesso invece escono in gruppi in cui hanno tutti la stessa età, facci caso.

Vero, però noi avevamo la fortuna che quando tornavamo a casa, c’era mamma o comunque c’era qualcuno. Nella tavola calda sotto al mio ufficio trovi i ragazzini delle medie che mangiano tutti insieme perché a casa loro non c’è nessuno. È questo, che mi spaventa.

Io non sono spaventato, io sono preoccupato dal fatto che tutti dicono: “Dobbiamo educare i giovani partendo dalle scuole”, quando in realtà l’educazione dei giovani non è più solo la scuola, non è più solo la famiglia. L’educazione è diventata multicanale: c’è l’educazione dei social, l’educazione dei media, l’educazione fatta da tanti altri elementi. Parlare di educazione a partire solo dalla scuola è anacronistico, dobbiamo pensare a educare su modelli del tutto differenti. Oggi si parla di “multicanalità” su tutto, ma secondo te, il ragazzino di cinque/sei anni non è già educato sul modello della multicanalità? Noi non ci rendiamo conto che il nostro è un Mondo fatto da una serie di diverse sollecitazioni che arrivano da una serie di diversi canali. La scuola non deve seguire questi modelli, ma fornire a studenti e studentesse gli strumenti per esercitare un pensiero libero e critico, capace di orientarli in maniera autonoma nel mare della vita. Dovrebbe abituarli al pensiero lungo, a superare la compulsività, indotta dai ritmi di Internet, che raramente supera i due o tre minuti di attenzione nei confronti di un contenuto; dovrebbe insegnare loro come gestire la complessità. È lo stesso concetto dell’AI: tutto dipende dai canali con cui tu trasmetti l’informazione e dai parametri dell’algoritmo che utilizzi per giudicare i dati di input.

Io dico spesso che se la frase: “Mala tempora currunt” è in Latino vuol dire che le cose sono sempre andate così. Viviamo delle crisi cicliche, ma ogni volta ne usciamo fuori in qualche modo. Però, riassumendo, possiamo dire che il nostro problema, in questo momento, non è la sicurezza, ma l’educazione; quella dell’AI da un lato e quella dei ragazzi dall’altro.

Sì, ma per l’AI è più semplice, perché sei tu che determini l’input e sei sempre tu che determini il parametro, mentre per i ragazzi, i canali di input sono molteplici, canali che non gestisci, e stessa cosa per i parametri di valutazione dell’input. Oggi, formare una AI è molto più facile che educare un ragazzo.

×

Iscriviti alla newsletter