Google e contratto con il Pentagono spingono DeepMind verso il sindacato e riaccendono il dibattito etico
Indice dei Contenuti:
Perché i lavoratori DeepMind si stanno sindacalizzando contro gli accordi militari Google
I lavoratori di Google DeepMind hanno votato in aprile per sindacalizzarsi nel Regno Unito, chiedendo che la direzione riconosca il Communication Workers Union e Unite the Union come rappresentanti ufficiali. La mossa arriva dopo le notizie di un accordo tra Google e il Dipartimento della Difesa Usa, che consentirebbe al Pentagono di utilizzare tecnologie di intelligenza artificiale come Google Gemini per “qualsiasi uso lecito”. I lavoratori, riferisce The Guardian, contestano l’affidabilità del governo statunitense come partner, citando il “capricious Iran war” e il conflitto con Anthropic. Temono inoltre possibili applicazioni militari e di sorveglianza, inclusi utilizzi a supporto delle Israel Defense Forces (IDF), e chiedono garanzie etiche vincolanti sulle tecnologie sviluppate nei laboratori di DeepMind.
In sintesi:
- Lavoratori DeepMind votano la sindacalizzazione e inviano una lettera alla dirigenza Google.
- Al centro le intese di Google con il Pentagono sull’uso militare dell’intelligenza artificiale.
- Timori di possibili impieghi delle tecnologie a favore delle IDF e in conflitti futuri.
- Richiesta di organo etico indipendente e diritto all’obiezione di coscienza sui progetti AI.
Accordi con il Pentagono e timori sull’uso militare dell’intelligenza artificiale
Secondo le ricostruzioni, il Pentagono ha annunciato accordi con diversi grandi player dell’AI, tra cui Google, per l’accesso a modelli avanzati come Google Gemini e altre soluzioni sviluppate dal team unificato di intelligenza artificiale che include i ricercatori di DeepMind. I contratti prevedono che il Dipartimento della Difesa possa impiegare tali tecnologie per “qualsiasi uso lecito”, con esclusione formale della sorveglianza di massa domestica e delle armi autonome prive di “appropriata supervisione e controllo umano”, come riportato da The Information.
Tuttavia, alle aziende tecnologiche non viene riconosciuto alcun diritto di veto su come e dove il governo utilizzerà l’AI, lasciando ampi margini decisionali alla Difesa Usa. Alcuni dipendenti, citati da The Guardian, vedono in questo quadro un rischio strutturale: senza un controllo effettivo, l’AI potrebbe essere impiegata in scenari di guerra, escalation regionale e operazioni opache di intelligence. Le preoccupazioni sono amplificate dal precedente accordo cloud da 1,2 miliardi di dollari firmato nel 2021 tra Google e il governo di Israele, che comprende la collaborazione con le Israel Defense Forces (IDF) per ampliare l’accesso agli strumenti di intelligenza artificiale dell’azienda.
In questo contesto, l’iniziativa sindacale di DeepMind mira a spostare il baricentro decisionale, dando voce strutturata alla base tecnica che progetta e addestra i modelli utilizzati in tali accordi.
Etica, governance dell’AI e nuove forme di potere dei lavoratori tecnologici
I lavoratori di DeepMind intendono usare la sindacalizzazione come leva per ottenere impegni scritti da Google su tre fronti chiave: limitare lo sviluppo di tecnologie “il cui scopo primario è causare danno o lesioni alle persone”; istituire un organismo indipendente di supervisione etica con accesso reale ai progetti sensibili; riconoscere il diritto dei dipendenti a rifiutarsi di partecipare, per motivi morali, a iniziative militari o controverse.
Queste richieste riflettono un’evoluzione del rapporto tra competenze tecniche e responsabilità sociale nell’AI, in un momento in cui gli accordi con governi e forze armate diventano sempre più centrali per il business dei grandi gruppi cloud. Se la piattaforma sindacale di DeepMind dovesse consolidarsi, potrebbe costituire un precedente per altri team AI in Europa e negli Stati Uniti, ridefinendo il perimetro del consenso dei lavoratori su come viene utilizzato il codice che scrivono.
La tensione tra innovazione, necessità di sicurezza nazionale e tutela dei diritti umani diventerà un terreno cruciale di negoziazione non solo per Google, ma per l’intero settore tecnologico nei prossimi anni.
FAQ
Chi rappresenteranno Communication Workers Union e Unite the Union in DeepMind?
Rappresenteranno formalmente i lavoratori di Google DeepMind che hanno votato la sindacalizzazione, negoziando condizioni di lavoro, tutele etiche e procedure di consultazione su progetti sensibili.
Cosa prevede l’accordo tra Google e il Dipartimento della Difesa Usa?
Prevede l’accesso del Pentagono a tecnologie AI come Google Gemini per “qualsiasi uso lecito”, con esclusioni dichiarate per sorveglianza domestica di massa e armi autonome prive di controllo umano.
Perché i lavoratori DeepMind temono l’uso militare dell’intelligenza artificiale?
Temono che, senza reale diritto di veto aziendale, l’AI possa supportare conflitti, escalation regionali e operazioni militari controverse, comprese quelle delle Israel Defense Forces (IDF) e di futuri teatri di guerra.
Quali garanzie etiche chiedono i dipendenti DeepMind a Google?
Chiedono il divieto di tecnologie con scopo primario di nuocere, un organismo etico indipendente e il riconoscimento formale del diritto all’obiezione di coscienza sui singoli progetti.
Quali sono le fonti utilizzate per questo articolo su Google DeepMind?
L’analisi deriva da una rielaborazione redazionale di contenuti e dispacci provenienti da Ansa.it, Adnkronos.it, Asca.it e Agi.it, integrati criticamente.



