Utilizzo dell’intelligenza artificiale (IA) nei prodotti per la sicurezza sul lavoro
Il tema dell’utilizzo dell’intelligenza artificiale (IA) nei prodotti per la sicurezza sul lavoro, con i connessi aspetti di tutela della privacy, rappresenta un campo emergente e particolarmente delicato, in cui innovazione tecnologica, diritto del lavoro e protezione dei dati personali si intrecciano in modo profondo.
L’interesse è accresciuto dall’evoluzione normativa europea (si pensi all’AI Act e al GDPR) e dalla crescente disponibilità di tecnologie intelligenti impiegate per monitorare, prevenire e intervenire su situazioni potenzialmente rischiose per la salute e la sicurezza dei lavoratori.
1. Intelligenza artificiale e sicurezza sul lavoro: panorama tecnologico
Le applicazioni dell’IA nei contesti lavorativi a fini di sicurezza sono molteplici e in continua espansione. Le principali tipologie comprendono:
a) Dispositivi indossabili intelligenti (wearables)
-
Braccialetti o caschi dotati di sensori biometrici.
-
Rilevazione di cadute, esposizione a sostanze tossiche, affaticamento.
-
Prevenzione di infortuni tramite alert automatici.
b) Robotica collaborativa (cobot)
-
Macchine capaci di adattarsi ai comportamenti dell’uomo in ambienti condivisi.
-
Prevenzione del rischio meccanico tramite rilevamento in tempo reale dei movimenti.
c) Visione artificiale e IA per il monitoraggio ambientale
-
Sistemi video intelligenti che identificano posture scorrette, aree di rischio, assembramenti non sicuri.
-
IA che elabora dati ambientali (rumore, gas, temperatura).
d) Predictive analytics
-
IA che analizza lo storico di infortuni, condizioni fisiche e comportamentali per prevedere potenziali criticità.
-
Strumenti di “manutenzione predittiva umana”.
Obiettivo comune: trasformare la prevenzione da reattiva a predittiva, migliorando la salute psicofisica e la produttività.
2. Aspetti normativi: il dovere di tutela e il ruolo dell’IA
In Europa, i datori di lavoro sono giuridicamente obbligati ad adottare tutte le misure necessarie per garantire la salute e sicurezza nei luoghi di lavoro, ai sensi delle direttive europee e di normative nazionali.
In Italia:
-
Art. 2087 c.c.: obbliga il datore di lavoro a tutelare l’integrità fisica e la personalità morale del lavoratore.
-
D.Lgs. 81/2008 (Testo Unico Sicurezza sul Lavoro): prevede una valutazione dei rischi e l’adozione di misure tecnologicamente idonee.
L’adozione di tecnologie IA può dunque costituire una misura migliorativa, se integrata nel Documento di Valutazione dei Rischi (DVR).
Tuttavia, l’introduzione di IA non è neutrale e può generare nuovi rischi di tipo etico e giuridico, soprattutto in relazione alla sorveglianza dei lavoratori.
3. Il nodo privacy: sorveglianza tecnologica vs dignità del lavoratore
a) Il GDPR e il trattamento dei dati dei lavoratori
L’uso di IA nei luoghi di lavoro implica il trattamento di dati personali e spesso anche dati sensibili (es. dati biometrici o sanitari).
In tal caso, trovano applicazione:
-
Art. 5 GDPR: liceità, minimizzazione, proporzionalità.
-
Art. 6 e 9 GDPR: necessità di base giuridica esplicita (es. obbligo legale in materia di sicurezza o consenso esplicito).
-
Art. 22 GDPR: restrizioni al trattamento automatizzato decisionale, salvo specifiche garanzie.
b) Controllo a distanza e Statuto dei Lavoratori
In Italia, l’art. 4 dello Statuto dei lavoratori (L. 300/1970) vieta il controllo a distanza dell’attività dei lavoratori salvo accordo sindacale o autorizzazione dell’ispettorato, anche se lo scopo è legittimo (es. sicurezza).
È quindi essenziale che l’impiego di sistemi IA non diventi una forma surrettizia di sorveglianza continuativa, ledendo la dignità e la riservatezza del dipendente.
4. Approccio proattivo: come bilanciare innovazione e diritti fondamentali
Per evitare che strumenti concepiti per la sicurezza diventino fonti di tensione e violazione dei diritti, è fondamentale adottare un approccio multidimensionale:
a) Valutazione d’impatto (DPIA) ex art. 35 GDPR
Obbligatoria quando:
-
Si usano tecnologie nuove per trattare dati su larga scala.
-
C’è monitoraggio sistematico o trattamento di dati sensibili.
b) Coinvolgimento delle rappresentanze sindacali
Per concordare:
-
Le modalità d’uso dei dispositivi.
-
La finalità e l’accesso ai dati.
c) Principio di trasparenza e informazione
I lavoratori devono:
-
Sapere quali dati vengono raccolti.
-
Conoscere la finalità e i soggetti che vi accedono.
-
Poter esercitare i propri diritti (accesso, rettifica, opposizione).
d) Design etico dell’IA
Integrare principi come:
-
Privacy by design e by default;
-
Non discriminazione algoritmica (es. evitare bias che colpiscono certi lavoratori);
-
Auditabilià e tracciabilità delle decisioni automatizzate.
5. Esempi concreti e prospettive
Esempi già presenti sul mercato:
-
Exoscheletri intelligenti per ridurre il carico biomeccanico;
-
Sistemi IA per l’analisi dei movimenti nei magazzini (Amazon, UPS);
-
Caschi smart per rilevare sonnolenza o svenimenti in cantiere;
-
IA che monitora stress o burnout tramite vocalità o postura.
Rischi concreti da evitare:
-
Profilazioni indebite.
-
Automatismi che penalizzano o “etichettano” il lavoratore (es. come pigro, rischioso, poco efficiente).
-
Raccolta eccessiva di dati non strettamente necessari.
Conclusione: opportunità e vigilanza costante
L’impiego dell’intelligenza artificiale per la sicurezza sul lavoro costituisce una straordinaria opportunità per rendere i luoghi di lavoro più sicuri, intelligenti e inclusivi. Tuttavia, per evitare che si trasformi in una forma di controllo invasivo, è necessario che datori di lavoro, sviluppatori e autorità di controllo:
-
conoscano i limiti normativi e i principi del GDPR;
-
adottino procedure trasparenti, partecipative e proporzionate;
-
prevedano meccanismi correttivi e garanzie individuali, specialmente nei contesti a rischio (cantieri, logistica, industria pesante).

