TECNOLOGIA E DIFESA

Intelligenza artificiale “al fronte”, Big tech sotto pressione



Indirizzo copiato

Lettera aperta di 600 dipendenti di Google al ceo Sundar Pichai per bloccare l’accordo stretto con il Pentagono che prevede l’impiego dei modelli di AI per progetti “classified”, con possibilità di rimuovere i controlli di sicurezza e nessun potere di veto per Big G. Intanto in Germania scoppia il caso Palantir

Pubblicato il 29 apr 2026

Patrizia Licata

ex alunna dell'Università La Sapienza e attuale alunna dell'Università RomaTre



intelligenza-artificiale-AI
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Punti chiave

  • Oltre 600 dipendenti di Google hanno firmato una lettera a Sundar Pichai chiedendo di bloccare il contratto per fornire AI al Pentagono per usi militari e ‘classified’.
  • L’accordo consente usi governativi (pianificazione, targeting) e modifiche alle salvaguardie; i modelli Gemini su genAI.mil e reti secretate riducono il controllo di Google.
  • Precedenti: il caso di Anthropic che ruppe l’intesa per salvaguardie, le proteste su Maven, e la Germania che ha escluso Palantir per questioni di sovranità e sicurezza dei dati.
Riassunto generato con AI

Se la missione di Google è usare la tecnologia per fare il bene, il contratto per fornire l’Ai al Pentagono va bloccato: è quanto ha spinto oltre 600 dipendenti del colosso tecnologico a firmare una lettera aperta indirizzata al ceo Sundar Pichai.

Nella lettera i lavoratori chiedono all’azienda (che è già fornitore di Ai per il governo) di non stringere un nuovo accordo con la Difesa Usa che prevede la fornitura di modelli di intelligenza artificiale per scopi militari e in contesti “classified”, dove Google non è più in grado di controllare usi e finalità della sua tecnologia.

Nella missiva, diffusa dalla stampa statunitense, il personale di Big G si dice “profondamente preoccupato per le trattative in corso”. “Siamo consapevoli, in qualità di esperti nel campo dell’Ai, che questi sistemi possono accentrare il potere e sono soggetti a errori”, si legge.

L’Ai di Google al Pentagono, la protesta dei dipendenti

Secondo quanto riportato da The Guardian, Google ha già firmato un accordo con il Pentagono per fornire i propri modelli di intelligenza artificiale a uso militare e su reti interne secretate. L’intesa consente al governo statunitense di utilizzare queste tecnologie per “qualsiasi scopo governativo legittimo”, inclusi compiti sensibili come la pianificazione delle missioni e il targeting, e prevede anche la possibilità di modificare i sistemi di sicurezza dell’Ai su richiesta delle autorità.

Pur includendo clausole che vietano l’uso per sorveglianza di massa interna agli Stati Uniti o per guidare armi autonome senza supervisione umana, il contratto non attribuisce a Google alcun potere di veto sulle decisioni operative del governo.

Le ricadute etiche di un’AI “senza freni”

I firmatari della lettera indirizzata a Pichai sostengono che, a queste condizioni – ovvero su reti secretate e per progetti riservati -, sarebbe impossibile controllare come la tecnologia venga impiegata, aumentando il rischio di applicazioni dannose come sorveglianza o armi autonome, in contrasto con l’obiettivo dichiarato di Google di sviluppare l’Ai a beneficio dell’umanità.

La lettera sottolinea anche che l’unico modo per evitare usi aberranti della tecnologia sarebbe quello di rifiutare completamente la collaborazione in progetti militari segreti, che hanno ricadute etiche e reputazionali negative per l’azienda.

Il precedente caso di Anthropic

Uno scontro simile si era già prodotto tra Anthropic e il dipartimento della Difesa, che, lo scorso febbraio, hanno rescisso un accordo sulla fornitura di tecnologie Ai a seguito del rifiuto della startup di Dario Amodei di acconsentire alla rimozione delle clausole di sicurezza, come richiesto dal Pentagono.

Lo scontro tra Anthropic e l’amministrazione Trump è culminato nell’inserimento della startup nella lista di imprese a rischio per la supply chain del Paese. Già in quella occasione, oltre 900 dipendenti di Google, unitamente a 102 lavoratori di OpenAI, avevano firmato una lettera aperta per chiedere alle rispettive aziende di non cedere alle pressioni esercitate dal Pentagono per ottenere un uso dell’Ai scevra da salvaguardie etiche.

Lo scorso marzo, nell’ambito del ricorso legale di Anthropic contro la designazione inflittale dal dipartimento di Pete Hegseth, alcuni dipendenti delle due società avevano sottoposto alla corte una memoria a sostegno della startup che sviluppa Claude.

La collaborazione tra Big tech e Difesa

L’accordo tra Google e il Pentagono si inserisce in un contesto di crescente collaborazione tra aziende tecnologiche e difesa che, ovviamente, non nasce ora. I dipendenti di Google avevano già protestato contro il progetto Maven che prevedeva l’uso della tecnologia di Big G per i droni militari. In quell’occasione, il colosso di Mountain View aveva alla fine deciso di non rinnovare la collaborazione con il Pentagono.

Google fornisce AI alla Difesa Usa, ma l’accordo riguarda l’adozione dei modelli della famiglia di Gemini sulla piattaforma genAI.mil utilizzata dai dipendenti del dipartimento della Difesa, che non gestisce flussi di lavoro secretati.

In Germania no alle tecnologie di Palantir per l’esercito

In un caso simile, la Difesa tedesca ha deciso di escludere dai suoi fornitori l’azienda americana Palantir, che sviluppa software per la difesa e prodotti di data analytics, secondo quanto riportato dal giornale ​Handelsblatt.

“Ci possono interessare le loro funzionalità per il nostro database, ma non è al momento concepibile dare al personale di una società privata accesso al database nazionale”, ha dichiarato Thomas ⁠Daum, direttore della cyber difesa dell’esercito tedesco.

La ragione principale del rifiuto, dunque, riguarda la sicurezza e il controllo dei dati. Questo aspetto è ritenuto incompatibile con i requisiti di sovranità.

Il sistema Ai di Palantir è entrato ufficialmente nei sistemi del Pentagono e supporta il targeting delle armi per l’esercito Usa, come riportato lo scorso mese da Reuters. La Germania vorrebbe, invece, usare l’Ai per analizzare più velocemente i dati dei campi di battaglia.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x