OpenAI ha avviato una profonda riorganizzazione della propria sicurezza per proteggere le tecnologie emergenti da tentativi di spionaggio industriale, anche alla luce delle accuse rivolte alla start-up cinese DeepSeek. Tra accessi biometrici, restrizioni interne e nuovi dirigenti con background militare, l’azienda californiana si prepara a difendere la sua proprietà intellettuale nel nuovo campo di battaglia dell’innovazione
Lo spionaggio economico e industriale non è affatto una minaccia nuova. Basti pensare che il primo caso noto di spionaggio industriale sponsorizzato da uno Stato risale al VI secolo d.C. e riguarda dei monaci nestoriani che trafugarono uova del baco da seta dalla Cina all’Impero Bizantino, rompendo così i monopoli cinesi e persiani sulla seta. Oggi la portata della sfida è cambiata, con le aziende costrette – da investitori, mercati e responsabili della sicurezza – a ripensare il modo in cui proteggono le proprie invenzioni in un contesto internazionale e interconnesso che mette a rischio la sicurezza ma anche l’innovazione.
E così, racconta il Financial Times, OpenAI ha radicalmente riorganizzato le proprie operazioni di sicurezza per proteggere la propria proprietà intellettuale da tentativi di spionaggio industriale, in particolare dopo le accuse di aver subito un’appropriazione indebita da parte della startup cinese DeepSeek, che a gennaio ha lanciato un modello concorrente a ChatGpt basato sulla “distillazione” dei loro algoritmi. Il cambiamento, avviato già lo scorso anno, è stato accelerato con l’espansione “aggressiva” dei team di sicurezza – sia informatica sia fisica – e con un inasprimento dei controlli sul personale, a cominciare dal rafforzamento delle verifiche sui nuovi assunti.
Tra le misure introdotte spicca la cosiddetta informazione “a tendone” (“tenting”), che limita drasticamente il numero di persone autorizzate ad accedere ai dettagli sui nuovi modelli e prodotti. Durante lo sviluppo del modello o1, noto internamente come “Strawberry”, i dipendenti coinvolti dovevano verificare di far parte del “Strawberry tent” prima di discuterne anche negli spazi comuni. Inoltre, gran parte della tecnologia proprietaria è ora confinata in ambienti isolati e offline, con politiche “deny‑by‑default” per qualsiasi connessione Internet non esplicitamente approvata.
A livello infrastrutturale, OpenAI ha rafforzato la sicurezza biometrica negli uffici (accessi a stanze riservate tramite impronta digitale) e aumentato i controlli fisici nei propri data center. Sono state inoltre create nuove figure di vertice per la sicurezza, con l’ingaggio a ottobre del CISO Dane Stuckey (ex Palantir) e il supporto di Matt Knight, vicepresidente dei prodotti di sicurezza, cui si affianca il generale in pensione Paul Nakasone nel consiglio di amministrazione, con il compito di supervisionare la difesa informatica.
A dare l’idea di quanto OpenAI prenda sul serio la sicurezza: c’è una posizione aperta di “Senior Global Security Investigator”, con sul piatto uno stipendio che può arrivare fino a mezzo milione di dollari all’anno – una paga che difficilmente le agenzie statali possono eguagliare.
Con questi interventi OpenAI mira a presidiare la frontiera dell’innovazione senza esporre a rischi le proprie tecnologie emergenti.