AI al lavoro compagno digitale o sorvegliante silenzioso?

Giovanni Di TrapaniGiovanni Di Trapani
| 08/07/2025

 
Una mail redatta in pochi secondi da un assistente virtuale. Un verbale automatico che riassume un’intera riunione. Un prompt ben formulato che genera la bozza di una presentazione strategica. Scene ordinarie ormai, anche negli uffici pubblici o nei reparti operativi delle imprese.

L’intelligenza artificiale è entrata nel mondo del lavoro senza annunci e senza cerimonie, insinuandosi come un supporto discreto, una “mano invisibile” che promette efficienza e alleggerimento. Ma in questa promessa si cela anche un’ambiguità profonda. L’AI si comporta come un compagno di scrivania instancabile, sempre pronto ad assistere. Ma talvolta assume i tratti di un sorvegliante silenzioso, capace di registrare ogni gesto, standardizzare ogni decisione, suggerire scelte con la freddezza di una logica estranea al contesto umano. Siamo davvero di fronte a una nuova forma di collaborazione? O rischiamo di ridefinire il lavoro in una grammatica che esclude la nostra voce?

Ci sono motivi legittimi per accogliere con interesse l’intelligenza artificiale nei contesti produttivi. Nelle mansioni amministrative, nei servizi al cliente, nei processi decisionali interni, i modelli generativi e predittivi stanno alleggerendo carichi di lavoro, accelerando flussi, ottimizzando l’accesso all’informazione. Le attività più ripetitive — la classificazione di dati, la redazione standardizzata di documenti, la gestione preliminare delle richieste — sono sempre più affidate ad agenti intelligenti che rispondono in tempo reale e senza errori di distrazione. Ma l’AI non si limita a fare ciò che l’umano non vuole più fare. In molti casi, stimola la creatività e amplifica la capacità espressiva. Un professionista della comunicazione può utilizzare un LLM per esplorare registri stilistici alternativi. Un analista può generare ipotesi esplorative in pochi minuti partendo da un dataset grezzo. Un project manager può delegare alla macchina l’elaborazione di uno scenario per liberare tempo decisionale. Questa nuova configurazione ha dato origine a figure professionali ibride, come il prompt strategist, il curatore di contenuti AI-driven, il formatore umano di modelli linguistici, fino ad arrivare a ruoli interfunzionali in cui l’essere umano diventa regista, facilitatore e coscienza del sistema. Nel suo volto più luminoso, l’AI si configura dunque come una tecnologia abilitante, capace di liberare l’intelligenza umana dalla zavorra operativa e restituirle spazio creativo, decisionale, relazionale.

Ma c’è un’altra faccia, meno visibile ma già operativa. L’intelligenza artificiale che supporta può anche sorvegliare. I software utilizzati per tracciare la produttività, misurare i tempi di risposta, analizzare i pattern comportamentali all’interno dei flussi lavorativi, si basano sugli stessi principi che animano l’AI generativa. Solo che non generano testi: generano valutazioni. Ogni interazione con un sistema automatizzato produce dati. Ogni dato può essere trasformato in un punteggio, una previsione, un ranking. Così, dal machine learning alla people analytics, si afferma una nuova logica valutativa che non richiede supervisione umana diretta. La macchina osserva, registra, normalizza, suggerisce. E in molti casi, decide. Il rischio non sta solo nella sorveglianza, ma nella standardizzazione della prestazione lavorativa: ciò che non è misurabile tende a scomparire. La creatività non allineata, l’iniziativa fuori schema, la lentezza deliberata, il dubbio — tutto ciò che è umano nella sua imperfezione — rischia di venire marginalizzato. In questo scenario, l’errore non è più una risorsa evolutiva, ma un’anomalia da eliminare. L’intelligenza diventa prestazione, la relazione diventa metrica. Questa cultura silenziosa dell’ottimizzazione genera nuove disuguaglianze: chi ha dimestichezza con i modelli può orientarli a proprio favore; chi non ne ha, viene marginalizzato in modo invisibile ma sistemico.

L’intelligenza artificiale non è solo un insieme di funzioni. È anche un linguaggio, un modello di pensiero, una logica di potere. Quando viene adottata in un’organizzazione, ridefinisce il modo stesso in cui si costruisce la fiducia, si distribuisce la responsabilità, si valuta il merito. Chi accede ai sistemi? Chi ne controlla gli output? Chi ha il diritto di interrogare il modello, correggerlo, disattivarlo? Senza una governance chiara e partecipata, il rischio è che la macchina diventi non un supporto, ma una nuova interfaccia del comando. E se la cultura organizzativa non accompagna l’adozione tecnologica con una riflessione etica, l’AI finisce per rafforzare gerarchie implicite, automatizzare pregiudizi, consolidare disuguaglianze. È qui che emerge il concetto chiave di co-intelligenza: un modello di integrazione tra umano e macchina fondato non sulla sostituzione, ma sulla complementarità consapevole. Co-intelligenza significa distribuire i compiti secondo le rispettive capacità, ma anche assumersi la responsabilità di come e perché si usa l’AI. Significa adottare policy interne chiare, trasparenti, partecipate. Significa riconoscere i limiti epistemici della macchina e i diritti cognitivi e morali del lavoratore. Serve una nuova etica organizzativa, capace di stabilire regole condivise sull’uso dell’AI in ambito professionale. Una sorta di “contratto di intelligenza aumentata”, in cui sia chiaro il ruolo dell’umano e quello del sistema, i criteri di valutazione, le soglie di intervento umano, le tutele contro l’arbitrarietà algoritmica.

L’intelligenza artificiale è già al lavoro. La vera domanda non è più “se” usarla, ma come, per chi, e a quale prezzo. Possiamo scegliere di usarla come un’estensione delle nostre capacità, restituendo valore all’intelligenza umana e all’ingegno relazionale. Oppure possiamo lasciarla operare come un moltiplicatore cieco di produttività, trasformando il lavoro in una sequenza ottimizzata e disincarnata. In un contesto in cui la tecnologia evolve più velocemente delle culture organizzative, serve un nuovo patto tra innovazione e dignità, tra possibilità e senso, tra performance e libertà. Un patto che metta al centro la persona, non come terminale della macchina, ma come soggetto relazionale, consapevole e creativo.

Se il tuo lavoro fosse valutato da una macchina che non conosci, continueresti a sentirlo tuo?

Barberio & Partners s.r.l.

Via Donatello 67/D - 00196 Roma
P.IVA 16376771008

Policy
Privacy Policy
Cookie Policy
Termini e Condizioni
iscriviti alla nostra newsletter
Questo sito è protetto da reCAPTCHA e la Informativa sulla Privacy di Google, nonché i Termini di Servizio sono applicabili.