In un’Europa che cerca con urgenza la sua via alla sovranità – non solo, ma anche tecnologica – risolvere in qualche modo la dipendenza dai modelli AI americani diventa una priorità. Ma è veramente possibile? E i modelli open source, come quelli offerti dalla Cina, possono aiutare? La questione è dibattuta, come osserva Anselm Küsters, analista del Cep Institute (Centres for European Policy Network).
“Qualche giorno fa, The Economist si è espresso a favore di un’apertura pragmatica dell’Europa ai modelli di intelligenza artificiale open source cinesi come DeepSeek. A prima vista, il ragionamento è convincente”, argomenta Küsters: “questi modelli sono quasi potenti quanto i loro concorrenti americani, considerevolmente più economici e sembrano offrire all’Europa una protezione contro l’isolamento del mercato statunitense sotto l’amministrazione Trump. Tuttavia, questa posizione potrebbe rivelarsi pericolosa nel medio termine, non perché l’apertura sia l’approccio sbagliato, ma perché la scelta del partner determinerà questioni fondamentali di politica di sicurezza relative alla sovranità tecnologica europea“.
Insomma, un allentamento della dipendenza dagli Usa di Trump, sempre meno alleato affidabile, potrebbe trasformarsi in una dipendenza da un partner che dovrebbe suscitare altrettanta diffidenza.
Indice degli argomenti
L’Ue alla ricerca di una difficile sovranità nell’AI
“Sebbene i principi open source siano fondamentalmente benvenuti nella politica digitale europea per molte ragioni, questa argomentazione trascura i rischi sistematici per la sicurezza che sono strutturalmente radicati nei modelli cinesi”, afferma l’analista del Cep Institute.
Gli LLM possono essere dotati di backdoor che non possono essere rimosse nemmeno attraverso intense procedure di formazione sulla sicurezza, spiega Küsters. Questi “agenti dormienti” possono rimanere inosservati per anni e rivelare il loro vero comportamento solo quando viene attivato un trigger specifico, “ad esempio nel contesto di una possibile crisi di Taiwan”.
I rischi di sicurezza dell’open source cinese
“Le ricerche attuali dimostrano che i modelli più grandi sono particolarmente sensibili a questo problema”, scrive Küsters. “Paradossalmente, i sistemi infettati da backdoor spesso offrono prestazioni ancora migliori nelle attività ordinarie, rendendone ancora più difficile il rilevamento. Per le aziende europee che controllano infrastrutture critiche o processi produttivi con tali modelli, questo rappresenterebbe un grave rischio per la sicurezza. The Economist sostiene che l’intelligenza artificiale cinese offra una ‘assicurazione’ contro il blocco statunitense. Questo è vero, ma la logica ignora rischi simili in caso di un’escalation a Taiwan”.
Küsters nota anche che il controllo politico dei modelli di intelligenza artificiale cinesi non avviene solo a livello applicativo, ma è profondamente radicato nell’architettura dei dati di addestramento.
“Uno studio di Nature ha rilevato significative incongruenze nei LLM bilingui su argomenti relativi alla Cina: le versioni in lingua cinese presentano sistematicamente narrazioni conformi alla linea del partito, mentre le versioni in lingua inglese sono più critiche”, svela l’esperto. “Questa divergenza è non da ultimo il risultato della rigida censura su Internet in Cina, che distorce il corpus di dati di addestramento”.
Il soft power: usare o no DeepSeek?
Il fornitore cinese open source DeepSeek esemplifica il meccanismo esposto da Küsters: nell’85% dei casi, il modello censura argomenti politicamente sensibili.
“Un’analisi empirica ha dimostrato che DeepSeek-R1 presenta sistematicamente una propaganda cinese aggiuntiva rispetto a ChatGpt, non solo quando si tratta di argomenti esplicitamente politici, ma anche di stili di vita e temi culturali”, osserva Küsters. “Tali distorsioni ideologiche sono strumenti strategici del soft power cinese, parola chiave della Via della Seta Digitale. Ciò significa che i modelli cinesi aperti utilizzati nelle aziende europee potrebbero privilegiare in modo sottile ma sistematico le prospettive cinesi”.
Sovranità Ai, l’Europa ha i suoi modelli open source
Ma c’è anche una buona notizia, conclude l’analisi. L’Europa dispone già di alternative open source tecnologicamente mature e democraticamente legittimate, perfettamente adeguate per la maggior parte delle applicazioni industriali. Küsters cita fornitori come Mistral, che, a suo avviso, “offrono prestazioni sufficienti in questo ambito”.
“L’intuizione di base dell’Economist è corretta”, conclude Küsters: “l’intelligenza artificiale open source è la strada giusta per l’Europa per tornare ad essere competitiva e recuperare terreno nell’intelligenza artificiale”. Tuttavia, l’Europa “non dovrebbe affidarsi ai modelli open source cinesi, ma a quelli europei”.
La ricerca mostra, inoltre, chiaramente che modelli più piccoli, finemente ottimizzati, spesso superano i modelli generici di frontiera per attività industriali specializzate. E tali modelli più piccoli esistono anche in Europa.
“L’intelligenza artificiale open source europea è l’unica risposta sostenibile al predominio cinese in questo settore. Tutto il resto è sottomissione tecnologica sotto forma di open source”, stigmatizza l’esperto.












