Intelligenza artificiale rivoluziona il lavoro umano ma riduce davvero le ore?

Come l’intelligenza artificiale cambia davvero il lavoro in azienda
Uno studio etnografico condotto tra aprile e dicembre 2025 in una società tecnologica californiana di circa 200 persone da due ricercatrici della University of California, Berkeley mostra un quadro controintuitivo. Gli strumenti di intelligenza artificiale generativa – chatbot e assistenti di programmazione inclusi – hanno semplificato molte attività operative, ma hanno anche allungato le giornate lavorative, aumentato il carico cognitivo e indebolito i confini tra tempo di lavoro e tempo personale.
La ricerca, firmata da Aruna Ranganathan e Xingqi Maggie Ye della Haas School of Business, rappresenta oggi uno dei casi di studio più dettagliati sulle trasformazioni “dal basso” prodotte dall’AI negli uffici della tecnologia. I risultati interrogano direttamente manager, responsabili HR e policy maker sulla sostenibilità di questo nuovo modello di produttività accelerata.
Produttività in crescita, ma giornate più lunghe
Nel corso degli otto mesi analizzati, i dipendenti hanno iniziato a usare spontaneamente strumenti come ChatGPT, Gemini e l’assistente di programmazione Claude Code della società Anthropic, messi a disposizione con abbonamenti aziendali B2C. Nessun obbligo formale, nessun cambiamento di mansionario, ma un effetto netto: ritmi più veloci, più attività svolte in autonomia, più ore di lavoro effettivo. L’AI ha permesso di scrivere codice, documentazione e analisi in tempi molto ridotti, ma il tempo “liberato” non è stato restituito ai lavoratori sotto forma di pause o riduzione di orario; è stato riempito da nuove attività, spesso non riconosciute né formalizzate.
Nelle interviste, molti dipendenti hanno descritto l’uso dell’AI come un semplice esperimento, non come vero lavoro, sottovalutando l’aumento complessivo del proprio impegno.
Responsabilità aggiuntive e “lavoro invisibile”
La possibilità di fare più cose più velocemente ha spinto figure come i product manager a produrre direttamente codice e gli ingegneri a farsi carico di revisioni, correzioni e formazione informale sull’uso degli strumenti AI. Attività prima esternalizzate, o che avrebbero potuto giustificare nuove assunzioni, sono state progressivamente assorbite da chi già lavorava in azienda. Questo aumento di responsabilità non è stato percepito come un’estensione contrattuale, ma come “semplici tentativi” con i nuovi strumenti. Il sociologo Antonio Casilli, docente all’Istituto Politecnico di Parigi e autore di Schiavi del clic, interpreta il fenomeno come una nuova forma di “lavoro invisibile”: tecnologie a basso costo o gratuite richiedono agli utenti – in questo caso lavoratori – un surplus di attività non esplicitamente riconosciute come lavoro.
Nel contesto aziendale questo surplus si traduce in mansioni aggiuntive che ridisegnano silenziosamente ruoli e carichi.
I nuovi confini sfumati tra lavoro, pause e vita privata


Lo studio condotto a Berkeley mostra che l’integrazione informale dell’AI porta a un’erosione graduale dei confini tra lavoro e non lavoro. I dipendenti interagivano con i chatbot durante la pausa pranzo, in riunione, nei momenti morti della giornata e persino fuori orario, ad esempio impostando prompt prima di allontanarsi dalla scrivania per ottenere risultati al rientro. L’intelligenza artificiale viene trattata come un “collega sempre disponibile”, ma questo stato di connessione perenne rende più difficile distinguere il tempo davvero libero da quello implicitamente produttivo.
Il risultato è una giornata lavorativa più lunga, fatta di micro-interruzioni e multitasking costante, difficili da misurare ma molto impattanti sul benessere psicofisico.
Multitasking continuo e aumento del carico cognitivo
Molti lavoratori alternavano la scrittura di codice umano alla generazione parallela di codice tramite AI, controllando in background le risposte del chatbot. Questa modalità, apparentemente efficiente, ha creato un flusso di lavoro frammentato in cui i continui passaggi tra attività e verifiche degli output dell’AI hanno aumentato il workload cognitivo. Ogni suggerimento dell’AI richiedeva controlli, correzioni, decisioni rapide. Il guadagno di tempo su singole micro-attività non si è tradotto in un alleggerimento complessivo, ma in una densificazione della giornata lavorativa, con minori pause spontanee e maggiori richieste di attenzione. I lavoratori percepivano di essere “supportati” dall’AI, ma di fatto dovevano supervisionare un flusso informativo più complesso.
Pressioni implicite e nuova normalità della velocità
Le aspettative di velocità sono cresciute senza direttive esplicite. Ciò che l’AI rendeva possibile è diventato rapidamente “normale”: tempi di consegna ridotti, più output nello stesso arco temporale, maggiore disponibilità a intervenire su compiti extra. Le autrici osservano che le pressioni non derivano tanto da ordini diretti, quanto da ciò che è socialmente visibile: se alcuni lavoratori mostrano di produrre di più grazie all’AI, la soglia di performance attesa si alza per tutti. Un ingegnere intervistato sintetizza così il paradosso: «Magari uno pensa che con l’AI sarà più produttivo, risparmierà tempo e potrà lavorare meno. Ma in realtà, non lavori meno. Lavori semplicemente la stessa quantità o anche di più».
La promessa di liberare tempo, in assenza di regole chiare, si trasforma quindi in un’accelerazione strutturale del lavoro.
Rischi per la salute e necessità di governance dell’AI
Le ricercatrici Aruna Ranganathan e Xingqi Maggie Ye avvertono che l’adozione spontanea e non regolata dell’AI nelle aziende può produrre danni cumulativi alla salute mentale e fisica, pregiudicando nel medio periodo anche la qualità del lavoro e la produttività. Affaticamento cognitivo, riduzione delle pause, stress da iper-responsabilità e decisioni prese in condizioni di sovraccarico sono i principali rischi emersi. L’intelligenza artificiale, in questo scenario, non è solo uno strumento neutrale, ma un fattore che riconfigura ritmi, ruoli e relazioni di potere sul lavoro.
Per questo le autrici propongono di affiancare all’innovazione tecnologica un quadro intenzionale di pratiche organizzative condivise.
Buone pratiche: pause obbligatorie e riflessione collettiva
Tra le misure suggerite figurano pause programmate e obbligatorie, momenti strutturati di confronto tra colleghi e rituali organizzativi espliciti per rallentare il “lavoro veloce” mediato dall’AI. L’obiettivo è contrastare gli effetti “debilitanti e individualizzanti” di una produttività percepita come responsabilità esclusiva del singolo. Spazi di discussione periodica sull’uso dell’AI permettono di condividere strategie, limiti, rischi e casi di sovraccarico, rendendo visibile ciò che altrimenti rimarrebbe nascosto nella sfera individuale. In prospettiva, queste pratiche aiutano a ridefinire collettivamente quali compiti spettano all’AI, quali alle persone e come debbano essere riconosciuti gli extra-lavori derivanti dalla nuova tecnologia.
Dal mito della sostituzione al governo dei cambiamenti
Marco Guerci, professore di gestione delle risorse umane all’Università Statale di Milano, sottolinea che lo studio sposta il focus dal timore che l’AI elimini posti di lavoro al modo in cui sta già trasformando il lavoro esistente. Molti cambiamenti emergono in modo non guidato, senza regole o governance, aumentando il rischio di esiti inattesi e negativi per imprese e lavoratori. Gli strumenti di AI vanno letti, spiega Guerci, come «risorsa» ma anche come «domanda» aggiuntiva: migliorano motivazione e possibilità di crescita, ma possono aggravare stress, problemi fisici e disagio mentale. Per orientare questi effetti serve un principio di intenzionalità condiviso, che non può essere lasciato solo alle singole aziende. Anche Antonio Casilli richiama la necessità di un dialogo sociale più ampio: se il datore di lavoro vede che lo stesso output si ottiene in metà tempo, tenderà a riempire lo spazio liberato con nuove mansioni, non a restituirlo come tempo libero.
FAQ
Qual è il contesto dello studio sull’AI condotto a Berkeley?
La ricerca è stata svolta tra aprile e dicembre 2025 in una società tecnologica californiana di circa 200 dipendenti, osservando sul campo l’introduzione spontanea di strumenti di intelligenza artificiale generativa nelle attività quotidiane.
Chi sono le principali autrici e quali competenze hanno?
Aruna Ranganathan e Xingqi Maggie Ye sono ricercatrici in sociologia e management presso la Haas School of Business della University of California, Berkeley, con esperienza specifica nello studio delle dinamiche organizzative e del lavoro.
In che modo l’AI ha modificato carichi e orari di lavoro?
L’uso di chatbot e assistenti di programmazione ha aumentato la velocità e la quantità di lavoro svolto, estendendo di fatto la durata della giornata lavorativa e riducendo le pause, senza una consapevolezza piena da parte dei dipendenti.
Che cosa si intende per “lavoro invisibile” legato all’AI?
È l’insieme di attività aggiuntive – come revisioni, formazione informale, nuovi compiti – generate dall’uso dell’AI ma non riconosciute esplicitamente come lavoro, concetto evidenziato dal sociologo Antonio Casilli.
Quali rischi emergono per la salute psicofisica dei lavoratori?
Lo studio segnala aumento del carico cognitivo, stress, restringimento delle pause e confusione tra tempo di lavoro e tempo personale, con possibili ripercussioni su benessere mentale, lucidità decisionale e salute fisica.
Che ruolo ha la governance aziendale nell’uso dell’AI?
Le autrici raccomandano politiche intenzionali: pause strutturate, linee guida sull’uso degli strumenti, momenti di riflessione collettiva e chiara definizione di compiti e responsabilità, per evitare derive di sovraccarico.
L’AI sostituisce il lavoro umano o lo trasforma?
Secondo Marco Guerci lo scenario attuale è soprattutto trasformativo: l’AI riorganizza ruoli, tempi e metriche di performance, più che eliminare massicciamente posti di lavoro, con effetti ambivalenti su motivazione e stress.
Qual è la fonte originale dei dati e dell’analisi riportata?
Le informazioni sintetizzate in questo articolo provengono da un approfondimento pubblicato da Il Post, che riporta e discute in dettaglio lo studio etnografico condotto alla University of California, Berkeley.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



