I lavoratori non si fidano più. L’Intelligenza artificiale rischia di sconvolgere ulteriormente le loro vite. Il pretesto ufficiale è l’accordo tra l’azienda e l’esercito Usa per l’utilizzo dell’Ia a fini militari. I lavoratori britannici di Google DeepMind, il laboratorio di ricerca sull’Intelligenza artificiale, hanno votato per la sindacalizzazione, chiedendo il riconoscimento di Cwu (Communication Workers Union) e a Unite the Union come rappresentanti del personale. La domanda è stata inviata tramite lettera, visionata in esclusiva dal Guardian, arrivata martedì alla dirigenza, e fa seguito al primo voto per la sindacalizzazione dei dipendenti ad aprile. A preoccupare i dipendenti l’accordo tra Google e il Dipartimento della Difesa, e la disputa della Casa Bianca con Anthropic: segnali che l’amministrazione Usa “non è un partner responsabile”. Le iscrizioni al sindacato nascono in risposta alle preoccupazioni sull’utilizzo dell’Ia per rafforzare l’autoritarismo, con applicazioni militari e di sorveglianza, sia all’estero che sul territorio nazionale, dicono al giornale inglese lavoratori che vogliono restare anonimi. I dipendenti stanno cercando di organizzarsi per far sentire le loro ragioni.
I timori si sono intensificati in particolare dopo che Google, lo scorso anno, ha ritirato la promessa di non sviluppare Intelligenza artificiale a fini militari. Questa decisione è stata una delle principali motivazioni per la creazione del sindacato dei lavoratori di Google DeepMind nel Regno Unito. Sebbene piccoli gruppi di dipendenti di Google si siano già sindacalizzati negli Stati Uniti, i lavoratori del Regno Unito sono i primi di un laboratorio di Intelligenza artificiale “di frontiera” a chiedere il riconoscimento sindacale. Google DeepMind ha sede a Londra, ma possiede una dozzina di uffici tra Nord America ed Europa. Se l’azienda riconoscerà i sindacati, saranno almeno mille i lavoratori rappresentati. I lavoratori che hanno votato per aderire ai sindacati hanno dichiarato di averlo fatto per aumentare la pressione su Google affinché soddisfi le richieste già avanzate da altri dipendenti dell’azienda, tra cui l’impegno a non sviluppare tecnologie “il cui scopo principale sia quello di causare danni o lesioni alle persone”. Molti dipendenti hanno, infatti, accettato con fatica quella che considerano una complicità nella guerra di Israele a Gaza. Google DeepMind ha fornito all’esercito israeliano un accesso sempre maggiore ai suoi strumenti di Intelligenza artificiale fin dai primi giorni della guerra a Gaza, come riportato dal Washington Post lo scorso anno, e nel 2021 ha firmato, insieme ad Amazon, un contratto da 1,2 miliardi di dollari con il Governo israeliano per servizi di cloud computing. “La nostra tecnologia ha aiutato le forze di difesa israeliane. Voglio che l’Intelligenza artificiale sia al servizio dell’umanità, non che faciliti un genocidio”, ha detto una fonte al Guardian. Anche gli investitori, si fa notare, hanno espresso preoccupazioni.
Un gruppo di azionisti che detengono circa 2,2 miliardi di dollari in azioni di Alphabet ha scritto una lettera alla società madre di Google la scorsa settimana, chiedendo un incontro e maggiore trasparenza su Google Cloud e sulle implementazioni di Intelligenza artificiale in contesti “ad alto rischio”. I lavoratori hanno inoltre votato per aderire al sindacato per istituire un organismo indipendente di controllo etico e garantirsi il diritto individuale di rifiutarsi di contribuire a progetti per motivi morali. Qualora l’azienda si rifiutasse, sostengono stanno valutando proteste e scioperi della ricerca, durante i quali il personale si asterrà dal lavoro in ambiti o prodotti strategici come Gemini, il bot di Intelligenza artificiale di Google, magari eseguendo aggiornamenti meno significativi. I dipendenti di Google si sono espressi con sempre maggiore fermezza contro le applicazioni militarizzate della loro tecnologia.
Di recente, in seguito alle notizie sull’imminente accordo con il Pentagono, oltre 600 dipendenti dell’azienda hanno firmato una lettera aperta all’amministratore delegato, Sundar Pichai, chiedendo di non rendere disponibili i suoi sistemi di Intelligenza artificiale per usi classificati. “Vogliamo che l’Ia apporti benefici all’umanità – hanno scritto – non che venga utilizzata in modi disumani o estremamente dannosi. Prendere la decisione sbagliata ora causerebbe danni irreparabili alla reputazione, al business e al ruolo di Google nel mondo”. Tali iniziative, però, potrebbero avere gravi ripercussioni su chi le promuove. Nel 2024, ricorda il Guardian, Google ha licenziato 50 dipendenti che avevano protestato contro il Progetto Nimbus, il contratto del 2021 con il Governo israeliano. Alla Microsoft, che secondo il Guardian ha fornito a Israele servizi di cloud storage utilizzati per la sorveglianza di massa dei palestinesi, i dipendenti hanno occupato un campus aziendale con cartelli che recitavano “No al lavoro per il genocidio”. E proprio in seguito quell’inchiesta, l’azienda ha interrotto la collaborazione con l’esercito israeliano.
Aggiornato il 12 maggio 2026 alle ore 11:14
