Secondo OpenAI e Anthropic, alcune società cinesi avrebbero usato risposte generate da chatbot americani per addestrare i propri modelli di intelligenza artificiale. Al centro delle accuse ci sono DeepSeek, Moonshot e MiniMax. La tecnica, nota come distillazione, è comune nel settore, ma diventa controversa quando coinvolge sistemi concorrenti senza autorizzazione
Con l’arrivo di DeepSeek sul mercato, nel gennaio 2025, la Cina sembrava aver accorciato la distanza con la Silicon Valley nella corsa all’intelligenza artificiale. La reazione dei mercati, con oltre mille miliardi di dollari bruciati sui listini statunitensi, alimentava il timore che Pechino fosse riuscita a costruire un modello competitivo senza disporre delle stesse risorse finanziarie, infrastrutturali e computazionali dei rivali americani.
Oggi, invece, il successo dei campioni cinesi dell’IA è, secondo OpenAI e Anthropic, responsabile dell’addestramento dei propri modelli sfruttando in modo improprio le risposte generate dai sistemi americani più avanzati. In termini tecnici si chiama “distillazione”, ma a Washington viene ormai descritto come una forma di appropriazione industriale su larga scala.
Le accuse
Come riportato dal Telegraph, in un documento inviato al Congresso degli Stati Uniti a febbraio, OpenAI ha accusato DeepSeek di portare avanti tentativi continui di “free ride” sulle capacità sviluppate dai principali laboratori americani di frontiera. La società guidata da Sam Altman sostiene che soggetti collegati a DeepSeek avrebbero cercato di aggirare le restrizioni di accesso ai modelli statunitensi usando router e canali intermedi per mascherare l’origine del traffico.
Anthropic è andata oltre, indicando tre laboratori cinesi (DeepSeek, Moonshot e MiniMax) come protagonisti di campagne “industrial-scale” per estrarre capacità da Claude. Secondo la società, sarebbero stati creati circa 24.000 account fraudolenti, responsabili di oltre 16 milioni di scambi con il chatbot, in violazione dei termini di servizio e delle restrizioni geografiche.
Le modalità
La distillazione funziona così: un modello “studente” interroga ripetutamente un modello “insegnante” più potente, per esempio ChatGPT, Claude e Gemini, raccogliendone risposte, ragionamenti, soluzioni di codice e capacità di problem solving. Quei dati vengono poi usati per addestrare un sistema più piccolo ed economico, capace di imitare almeno in parte le prestazioni del modello originario.
La distillazione, in sé, non è una pratica illegittima. È infatti usata anche dai grandi laboratori occidentali per creare versioni più leggere e meno costose dei propri modelli. Il punto controverso è l’uso non autorizzato di sistemi rivali, soprattutto quando avviene attraverso reti di account falsi, proxy e infrastrutture progettate per eludere i controlli.
Il nodo
Michael Kratsios, direttore per la scienza e la tecnologia della Casa Bianca nell’amministrazione Trump, ha accusato la Cina di una campagna deliberata per estrarre in modo sistematico capacità dai modelli americani. Anche alcuni analisti di sicurezza nazionale parlano di una nuova forma di spionaggio industriale attraverso l’utilizzo delle stesse piattaforme commerciali occidentali come porta d’ingresso.
Se le aziende cinesi riuscissero a replicare parte delle capacità dei modelli americani senza sostenerne i costi di addestramento, potrebbero ridurre il vantaggio competitivo degli Stati Uniti e aggirare almeno in parte gli effetti dei controlli all’export sui chip avanzati. La Cina, esclusa dall’accesso pieno ai processori Nvidia più potenti, ha infatti puntato su modelli economici, efficienti e facilmente distribuibili. Non è un caso che il tema sia entrato nel dibattito legislativo americano. Alcuni parlamentari repubblicani hanno proposto misure per vietare l’estrazione non autorizzata di dati dai modelli di IA e sanzionare le aziende coinvolte. In parallelo, OpenAI, Anthropic e Google hanno aderito a iniziative di condivisione informativa per individuare e bloccare campagne di distillazione sospette. Anthropic ha dichiarato di aver rafforzato i propri strumenti di rilevamento, anche attraverso tecniche di fingerprinting comportamentale.
La domanda, ora, è se le aziende americane riusciranno davvero a proteggere i propri modelli senza chiuderli del tutto. La forza commerciale dell’IA generativa dipende proprio dalla sua accessibilità, la stessa che rischia di trasformarsi in una vulnerabilità esposta.















