INTELLIGENZA ARTIFICIALE E SICUREZZA DEL LAVORO: I PRO E I CONTRO

Nina Catizone, Consulente del Lavoro in Torino

Contenuto dell'articolo

Il 19 febbraio 2026, il Ministro del Lavoro ha pubblicato un Documento di 264 pagine intitolato “Verso l’Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro  Raccolta di contributi a supporto dell’avvio dei lavori dell’Osservatorio nazionale sull’adozione dei sistemi di Intelligenza Artificiale nel mondo del lavoro”. Si tratta di un Documento tutto da leggere, destinato a supportare i lavori dell’Osservatorio nazionale sull’adozione dei sistemi di Intelligenza Artificiale nel mondo del lavoro. Dove in particolare si pone efficacemente in risalto che l’IA può essere una fonte di grande miglioramento sia per quanto riguarda le condizioni di lavoro, sia relativamente all’aspetto della gravosità dello sforzo fisico (che potrebbe ridursi con l’ausilio dell’automazione), sia per quanto concerne la progettazione e l’implementazione di sistemi di sicurezza.

Una tappa fondamentale in materia è l’Artificial Intelligence Act, il Regolamento europeo 1689 approvato il 21 maggio 2024. Di qui discende la Legge 23 settembre 2025, n. 132: all’art. 11, prevede, nel comma 1, che l’intelligenza artificiale è impiegata, in particolare, per migliorare le condizioni di lavoro, tutelare l’integrità psicofisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone in conformità al diritto dell’Unione europea e, nel comma 2, dispone che l’utilizzo dell’intelligenza artificiale in ambito lavorativo deve essere sicuro, affidabile, trasparente e non può svolgersi in contrasto con la dignità umana né violare la riservatezza dei dati personali, e che il datore di lavoro o il committente è tenuto a informare il lavoratore dell’utilizzo dell’intelligenza artificiale nei casi e con le modalità di cui all’articolo 1bis del Decreto legislativo 26 maggio 1997, n. 152, concernente l’obbligo del datore di lavoro di informare il lavoratore delle condizioni applicabili al contratto o al rapporto di lavoro. Inoltre, all’art. 12, contempla l’istituzione presso il Ministero del Lavoro e delle Politiche Sociali di un Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro, con il compito di definire una strategia sull’utilizzo dell’intelligenza artificiale in ambito lavorativo, monitorare l’impatto sul mercato del lavoro e identificare i settori lavorativi maggiormente interessati dall’avvento dell’intelligenza artificiale. Osservatorio poi istituito il 15 dicembre 2025.

Proprio al fine di supportare i lavori dell’Osservatorio, il Ministro del Lavoro ha pubblicato il Documento del 19 febbraio 2026.

TRA DATORI DI LAVORO“UMANI”E“NON UMANI”

Proprio nel Documento Ministeriale si segnalano sorprendenti annunci pubblicitari da parte di società di consulenza che propongono software basati sull’intelligenza artificiale per la redazione del documento di valutazione dei rischi, e ne vantano la virtù di consentire di essere sempre pronti alle ispezioni, con valutazioni oggettive e difendibili e di non essere più tenuti a giustificare le decisioni sulle valutazioni agli organi di controllo.

Ben a ragione il Documento avverte che “un simile utilizzo dell’intelligenza artificiale presenta vari profili di incompatibilità con la normativa vigente. Il messaggio per cui la gestione della sicurezza costituisce un mero obbligo burocratico da sbrigare nel minor tempo possibile è in palese contrasto con la cultura della prevenzione che tutta l’attività informativa e promozionale dei soggetti istituzionali è tesa a diffondere. Pur essendo le società di consulenza private estranee a tale ruolo, lo stesso approccio divulgativo è però espressamente richiesto dalla norma ai datori di lavoro sotto forma di una serie di obblighi comportamentali. Oltre l’aspetto prettamente culturale, però, ciò che rileva principalmente è che un DVR “che si aggiorna da solo” è contrario a vari precetti normativi e può dunque configurarsi come un vero e proprio reato”.

In effetti, perlomeno allo stato attuale, è arduo collocare nella lista dei garanti obbligati (e destinatari di sanzioni) soggetti “non umani”, e trarne spunto per esimere da responsabilità soggetti “umani” quali il datore di lavoro, l’RSPP, il medico competente.

I PRO

Ma c’è di più. Proprio nella prospettiva segnata dal TUSL, è indispensabile sottolineare che l’IA può essere in grado di dare supporto all’impresa in vista di una valutazione dei rischi doverosamente completa ed esaustiva. Un supporto, ma anche un ulteriore impegno. Insegna Cass.pen., 4 marzo 2026, n. 8623 che “il datore di lavoro ha l’obbligo giuridico di analizzare, secondo la migliore evoluzione della scienza tecnica, tutti i fattori di pericolo concretamente presenti all’interno dell’azienda”. Né si lasci fuorviare il datore di lavoro da quegli esperti interni ed esterni che lo invitano a non preoccuparsi sul presupposto che l’art. 29, comma 1, D.lgs. n. 81/2008 agevola il datore di lavoro, prevedendo che egli effettui la valutazione dei rischi ed elabori il relativo documento in collaborazione con l’RSPP e con il medico competente. Basta leggere Cass.pen., 28 gennaio 2026, n. 3336: “Il conferimento a terzi della delega relativa alla redazione del documento di valutazione dei rischi, non esonera il datore di lavoro dall’obbligo di verificarne l’adeguatezza e l’efficacia”.

Come non collocare nell’ambito di quella “migliore evoluzione della scienza tecnica” anche l’IA, e non alla stregua di una mera facoltà, bensì di un obbligo? E naturalmente un obbligo indelegabile del datore di lavoro e un obbligo che si ripercuote sui collaboratori del datore di lavoro, dall’RSPP al medico competente.

I CONTRO

Opportunità, dunque, ma anche criticità. Basta leggere il Report mondiale ILO del 2025 “Revolutionizing health and safety. The role of AI and digitalization at work”. Ne desumiamo: sebbene la digitalizzazione offra numerosi vantaggi in materia di SSL, essa può comportare rischi importanti che devono essere prevenuti e gestiti con attenzione. Errori nell’interazione persona-robot, sfide ergonomiche ed esposizione a rischi di rumore e vibrazioni sono alcuni dei potenziali rischi associati all’utilizzo delle tecnologie digitali. I dispositivi indossabili e intelligenti, se progettati in modo improprio, possono causare sforzi fisici, mentre i velivoli senza pilota, come i droni e gli schermi montati sulla testa possono comportare rischi di lesioni, perdita di equilibrio e problemi alla vista. I progressi tecnologici possono anche portare a un’intensificazione del lavoro, all’insicurezza lavorativa e al “tecnostress”, poiché i lavoratori sono sottoposti a una pressione crescente per adattarsi a strumenti e processi in rapida evoluzione. La sfumatura dei confini tra lavoro e vita privata dovuta al lavoro mobile e online può contribuire al burnout, mentre la sorveglianza invasiva e il monitoraggio costante possono violare la privacy e ridurre l’autonomia lavorativa. Man mano che i lavoratori trascorrono più tempo utilizzando strumenti digitali, essi potrebbero essere sempre più esposti al cyberbullismo. I rischi legati al processo decisionale basato sull’intelligenza artificiale sono la frammentazione dei compiti, la perdita di soddisfazione lavorativa e il senso di parzialità, con il rischio di emarginare determinati gruppi di lavoratrici e lavoratori e aggravare le disuguaglianze sul lavoro. Per affrontare queste sfide è necessario un approccio proattivo alla sicurezza e alla salute sul lavoro, garantendo che la trasformazione digitale migliori, anziché compromettere, la sicurezza e il benessere dei lavoratori”.

CHE FARE?

Di queste criticità si fa carico il Documento Ministeriale in termini di controllo dei lavoratori ex art. 4 dello Statuto dei lavoratori. Osserva, infatti, che il lavoro è sempre più supervisionato e coordinato dall’intelligenza artificiale, strumento in grado di registrare dati quali quelli sulla produttività dei lavoratori e sulla loro esatta posizione. Ne trae che la supervisione pervasiva consentita dalle tecnologie digitali di monitoraggio basate sull’intelligenza artificiale può avere un impatto negativo soprattutto sulla salute mentale dei lavoratori, che potrebbero avere l’impressione di perdere il controllo sul contenuto, sul ritmo, sulla pianificazione del lavoro e sul modo in cui lo svolgono, di essere incapaci di interagire in situazioni sociali o di fare una pausa quando vogliono, oltre a ritenere che la loro privacy venga violata. Un possibile utilizzo dei dati, ad esempio per premiare, penalizzare o addirittura escludere i lavoratori, potrebbe causare un senso di insicurezza e di stress.

Come evitare queste criticità? Il Documento Ministeriale considera importante garantire la trasparenza in relazione alla raccolta e all’utilizzo dei dati, così come previsto al comma 3 dell’art. 4 della Legge n. 300/1970 (c.d. Statuto dei lavoratori). E ciò perché nell’ordinamento italiano proprio questa norma stabilisce che “gli impianti audiovisivi e gli altri strumenti dai quali derivi anche la possibilità di controllo a distanza dell’attività dei lavoratori possono essere impiegati esclusivamente per esigenze organizzative e produttive, per la sicurezza del lavoro e per la tutela del patrimonio aziendale”. E ne desume che, a fronte dell’impiego di determinati sistemi che potenzialmente consentono ciò che lo Statuto vieta (il controllo del lavoratore), è necessario che ricorra almeno uno dei suddetti presupposti, poiché il fine è quello di controllare non il lavoratore ma l’attività lavorativa. Nota ancora che l’Ispettorato Nazionale del Lavoro è coinvolto nella valutazione della sussistenza dei presupposti in quanto il comma 1 dell’art. 4 prevede che l’installazione di tali strumenti avvenga previa stipulazione di accordi collettivi sindacali, ma che in mancanza di tali accordi il datore di lavoro debba richiedere autorizzazione della sede territoriale dell’Ispettorato nazionale del lavoro o, in alternativa, nel caso di imprese con unità produttive dislocate negli ambiti di competenza di più sedi territoriali, della sede centrale dell’Ispettorato Nazionale del Lavoro.

In questa prospettiva, il Documento Ministeriale considera necessario individuare quale sia il punto di equilibrio tra il datore di lavoro che intende implementare, nello svolgimento dell’attività lavorativa, gli strumenti che ritiene più opportuni e che gli offrano maggiori possibilità di profitto, e il lavoratore che non deve subire soprusi. Ammette che questo limite, con le nuove tecnologie, è estremamente labile, anche alla luce del fatto che il comma 2 del medesimo art. 4 prevede la non applicabilità del procedimento di autorizzazione per gli strumenti “utilizzati dal lavoratore per rendere la prestazione lavorativa”: si tratta dunque, di volta in volta, di capire se la nuova tecnologia rientri nella definizione di “strumento di lavoro” oppure no.

A questo punto, una domanda s’impone: non è il caso di evitare soluzioni labili mediante un’apposita, specifica disciplina?

Scarica il file

Scarica l'articolo (PDF)