Skip to main content

La Cia si fa la sua versione di ChatGpt per contrastare la Cina

cyber

L’agenzia statunitense sta lavorando a un proprio strumento di intelligenza artificiale per migliorare l’accesso e l’utilizzo delle fonti aperte e rafforzare la posizione di Washington nella competizione con Pechino

“Non posso né confermare né smentire che la Cia stia facendo un lavoro straordinario con l’intelligenza artificiale e il machine learning”. Poi una faccina che sorride. È il commento su LinkedIn firmato da Jennifer Ewbank, che della Cia è vicedirettrice a capo dell’innovazione, a un articolo di Bloomberg secondo cui l’Agenzia starebbe lavorando a un proprio strumento di intelligenza artificiale per migliorare l’accesso e l’utilizzo delle fonti aperte, la cui importanza è testimoniata dal contesto dell’aggressione russa dell’Ucraina. Il tutto, per rafforzare la posizione degli Stati Uniti, e in particolare le sue 18 agenzie d’intelligence, nella competizione con la Cina. “Quello che posso confermare è che la nostra Open Source Enterprise”, cioè l’organizzazione che sotto la sua direzione si occupa di open source intelligence, “lavora sempre al massimo sull’innovazione tecnologica e lo fa nel rispetto della privacy e dell’etica” – una rassicurazione ai cittadini ma anche un messaggio per rimarcare le distanze tra democrazie e autocrazie.

Scherza, Ewbank. Si lascia perfino scappare una risposta a un utente che parlava dei progressi fatti dal Pentagono nel settore: “Mi piace la competizione tra amici”. Bloomberg cita Randy Nixon, che da inizio anno è direttore dell’Open Source Enterprise: “Siamo passati dai giornali e dalla radio, ai giornali e alla televisione, ai giornali e alla televisione via cavo, a Internet di base, ai big data, e così via”, ha spiegato. “Dobbiamo trovare gli aghi nel pagliaio”, ha aggiunto. “La scala di quanto e di cosa raccogliamo è cresciuta astronomicamente negli ultimi 80 anni”, ha continuato. “Tanto che potrebbe essere scoraggiante e a volte inutilizzabile per i nostri utenti”.

Con l’automatizzazione di più fasi del ciclo dell’intelligence, servirà un quadro di riferimento adeguato per la convalida dell’intelligence open source prodotta dall’intelligenza artificiale, in modo tale da affrontare le questioni inerenti ad affidabilità, trasparenza e supervisione. È quanto scrivono Riccardo Ghioni (dottorando all’Università di Firenze), Mariarosaria Taddeo (professoressa all’Oxord Internet Institute) e Luciano Floridi (professore dell’Oxford Internet Institute) in un articolo pubblicato a inizio anno sulla rivista scientifica AI & Society. In caso contrario, osservano, l’opacità dell’intelligence tradizionale è destinata a peggiorare e sarà difficile distinguere i fatti dalla disinformazione e determinare unilateralmente la responsabilità delle decisioni di intelligence.



×

Iscriviti alla newsletter