Anthropic ha accusato tre aziende cinesi, tra cui DeepSeek, di aver usato Claude su scala industriale per addestrare i propri modelli di intelligenza artificiale. Le aziende avrebbero creato circa 24.000 account fraudolenti e generato più di 16 milioni di scambi con Claude. Non stiamo parlando di qualche sviluppatore curioso che testa un concorrente.
DeepSeek ha sfruttato Claude per addestrare i suoi modelli AI
La tecnica utilizzata si chiama “distillazione“, che consiste nell’addestrare un modello AI più piccolo basandosi sulle risposte di uno più avanzato. Anthropic riconosce che la distillazione è un metodo di addestramento legittimo, ma sostiene che in questo caso è stata usata per scopi illeciti: acquisire capacità avanzate da altri laboratori in poco tempo e in modo economico.
In pratica: invece di investire anni e un bel po’ di soldi per raggiungere le capacità di ragionamento di Claude, basta fare milioni di domande a Claude, registrare le risposte, e usarle per insegnare al proprio modello a ragionare allo stesso modo.
Secondo Anthropic, DeepSeek ha condotto oltre 150.000 scambi con Claude, prendendo di mira soprattutto le sue capacità di ragionamento. Inoltre, avrebbe anche usato Claude per generare alternative sicure dal punto di vista della censura a domande politicamente sensibili su dissidenti, leader di partito o autoritarismo.
Insomma, DeepSeek avrebbe usato un modello AI americano per imparare a rispondere a domande politiche delicate senza far scattare i filtri di censura del governo cinese. È paradossale che abbiano usato un’intelligenza artificiale di un paese che protegge la libertà di espressione per costruire un’AI che la limita in modo più sofisticato.
La guerra della proprietà intellettuale nell’AI
L’accusa di Anthropic non è isolata. La settimana scorsa, anche OpenAI ha inviato una lettera ai legislatori americani accusando DeepSeek di sforzi continui per sfruttare gratuitamente le capacità sviluppate da OpenAI e altri laboratori americani
. Il fronte si sta compattando, le aziende AI americane stanno dipingendo un quadro in cui i laboratori cinesi usano sistematicamente i modelli occidentali come scorciatoia per colmare il divario tecnologico.
Anthropic ha chiesto all’industria AI, ai fornitori cloud e ai legislatori di affrontare il problema della distillazione illecita, e ha proposto una soluzione: limitare l’accesso ai chip avanzati. In questo modo si ridurrebbe sia la capacità di addestramento dei modelli sia la scala delle operazioni di distillazione. Il sottotesto geopolitico è evidente, la competizione tra Stati Uniti e Cina si sta spostando dal campo tecnologico a quello legale e regolamentare.
Secondo Anthropic c’è anche un altro problema, i modelli distillati in modo illecito difficilmente ereditano le protezioni di sicurezza dell’originale. E quindi possono essere impiegati per operazioni cyber offensive, campagne di disinformazione e sorveglianza di massa.