Dipendenti di Google DeepMind dicono No all'AI per uso militare

Dipendenti di Google DeepMind dicono No all'AI per uso militare

I dipendenti di Google DeepMind pretendono l'impegno a non sviluppare armi AI e il diritto di rifiutare progetti per ragioni morali.
Dipendenti di Google DeepMind dicono No all'AI per uso militare
I dipendenti di Google DeepMind pretendono l'impegno a non sviluppare armi AI e il diritto di rifiutare progetti per ragioni morali.

A Londra, nella sede di Google DeepMind, i dipendenti hanno dato alla direzione 10 giorni per riconoscere ufficialmente due sindacati, CWU e Unite the Union, oppure lanciano una procedura legale formale. La ragione? Google ha firmato un accordo confidenziale con il Pentagono per fornire modelli AI all’esercito americano, e i ricercatori, che quei modelli li sviluppano, non vogliono che vengano usati per operazioni militari. Non è una petizione simbolica, è un ultimatum.

Cosa chiedono i dipendenti di Google DeepMind

Oltre al riconoscimento sindacale, che garantirebbe rappresentanza ad almeno 1.000 dipendenti nell’ufficio londinese, i ricercatori di DeepMind chiedono tre cose. Il ripristino dell’impegno abbandonato a non sviluppare armi o strumenti di sorveglianza basati sull’AI; la creazione di un organismo indipendente di supervisione etica; e il diritto individuale di rifiutare di contribuire a progetti per ragioni morali.

Più di 600 dipendenti Google avevano già firmato una lettera chiedendo alla direzione di abbandonare l’idea di fornire modelli AI all’esercito per operazioni classificate, ben prima dell’annuncio dell’accordo con il Pentagono.

L’AI come strumento di difesa

L’accordo con il Pentagono fa parte di un trend sempre più diffuso. Come abbiamo raccontato nei mesi scorsi, diverse aziende AI hanno firmato contratti militari, Anthropic ha vinto un’ingiunzione contro l’amministrazione Trump per un contratto al Pentagono, OpenAI ha preso un contratto che Anthropic aveva perso. Per i dipendenti di DeepMind, la questione è concreta.

Google ha già affrontato una rivolta interna simile nel 2018, quando i dipendenti si sono opposti al Progetto Maven, un contratto con il Pentagono per l’analisi di immagini tramite AI. La protesta portò all’abbandono del contratto e all’adozione di principi etici sull’AI che escludevano esplicitamente lo sviluppo di armi. Quei principi sono stati progressivamente ammorbiditi negli anni successivi.

I dipendenti di DeepMind chiedono esattamente il ripristino di quell’impegno, e il riconoscimento sindacale per avere la forza contrattuale di difenderlo.

Fonte: Utaw
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
6 mag 2026
Link copiato negli appunti