L’Intelligenza Artificiale sta entrando prepotentemente nei luoghi di lavoro, portando con sé una trasformazione radicale non solo nei processi produttivi, ma anche nella gestione della salute e sicurezza (D.Lgs. 81/08). A tracciare un quadro dettagliato di questa evoluzione è il recente rapporto “Verso l’Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro” del Ministero del Lavoro, all’interno del quale spicca l’approfondimento curato dall’Ispettorato Nazionale del Lavoro (INL).
L’analisi dell’INL evidenzia come l’IA rappresenti un’arma a doppio taglio: da un lato offre strumenti di prevenzione avanzatissimi, dall’altro introduce nuovi rischi e pone serie sfide normative, in particolare per quanto riguarda la valutazione dei rischi e il controllo a distanza dei lavoratori.
Ecco i punti chiave emersi dal rapporto per i professionisti della sicurezza.
L’IA come strumento di prevenzione e protezione
Le tecnologie basate sull’IA, in particolare quelle legate alla “percezione” avanzata, offrono straordinarie opportunità per ridurre l’esposizione dei lavoratori ad attività pericolose o usuranti. L’INL individua diversi ambiti di applicazione virtuosa:
- ispezioni in ambienti ostili: robot mobili e droni autonomi possono navigare in aree ad alte temperature, con vapori tossici o a rischio esplosione, limitando l’ingresso umano in spazi confinati o insalubri;
- manutenzione predittiva: sistemi di deep learning sono in grado di analizzare rumori e vibrazioni dei macchinari per prevedere guasti prima che si verifichino, riducendo drasticamente i rischi legati agli interventi di manutenzione in emergenza;
- sicurezza nei cantieri edili: l’integrazione di computer vision e sensori indossabili (smart-tag su caschi e giubbotti) permette di rilevare la prossimità tra uomini e mezzi in movimento, lanciando allarmi in tempo reale per prevenire investimenti in ambienti complessi e non strutturati;
- monitoraggio della fatica e della vigilanza: tecniche di analisi facciale possono rilevare micro-espressioni (es. chiusura prolungata degli occhi) legate a stanchezza o colpi di sonno. In settori ad alto rischio (trasporti, macchinari pesanti), questi sistemi possono emettere allarmi o bloccare le apparecchiature prima che si verifichi un incidente.
I nuovi rischi introdotti dalle macchine “intelligenti”
L’introduzione dell’IA non è esente da criticità. L’INL sottolinea come i datori di lavoro e gli RSPP debbano imparare a valutare e gestire rischi del tutto inediti:
- l’opacità degli algoritmi (Black Box): le reti neurali prendono decisioni i cui passaggi logici non sono sempre tracciabili. Se un’IA guida un mezzo pesante in un cantiere, un “punto cieco” algoritmico o un errore nei dati di addestramento può avere conseguenze fatali;
- decadimento cognitivo e over-reliance: un’eccessiva dipendenza dai sistemi automatizzati può portare i lavoratori ad abbassare la soglia di attenzione. Confidando ciecamente nell’infallibilità della macchina, l’operatore rischia di perdere la “consapevolezza situazionale” e la capacità di intervenire manualmente in caso di guasto improvviso;
- robotica collaborativa (Cobot): la condivisione degli spazi di lavoro tra umani e robot richiede valutazioni ergonomiche e psicologiche complesse. Inoltre, emerge il rischio legato alla cybersecurity: un attacco informatico a un cobot connesso in rete potrebbe fargli perdere il controllo, rendendolo fisicamente pericoloso per l’operatore vicino.
Il nodo normativo: l’incompatibilità del DVR redatto dall’IA
Il rapporto dell’INL lancia due moniti fondamentali riguardanti la conformità normativa (D.Lgs. 81/08 e Statuto dei Lavoratori).
L’Ispettorato segnala la diffusione di software basati sull’IA che promettono di redigere e aggiornare automaticamente il Documento di Valutazione dei Rischi (DVR). L’INL ribadisce con forza che un simile utilizzo è incompatibile con la normativa vigente.
Il D.Lgs. 81/08 impone che la valutazione dei rischi sia un processo dinamico, calato nello specifico contesto aziendale e frutto della consultazione tra Datore di Lavoro, RSPP, Medico Competente e RLS. Delegare questa valutazione a un algoritmo svilisce la cultura della prevenzione e viola il principio di indelegabilità della valutazione dei rischi (art. 17 del TUSL), configurando profili di responsabilità penale per il datore di lavoro. L’IA non può sostituire il “fattore umano” e la responsabilità giuridica nella gestione della sicurezza.
Privacy e controllo a distanza
I sistemi intelligenti di monitoraggio (es. smart-tag, telecamere con computer vision), pur essendo progettati per salvare vite umane, raccolgono costantemente dati sulla posizione e sul comportamento dei lavoratori. Questo solleva enormi problemi di privacy e di potenziale stress lavoro-correlato.
L’INL ricorda che l’uso di queste tecnologie deve rispettare rigorosamente l’art. 4 dello Statuto dei Lavoratori. L’installazione di strumenti da cui derivi la possibilità di controllo a distanza richiede la stipula di accordi sindacali o, in mancanza, l’autorizzazione dell’Ispettorato stesso. Il confine tra “strumento di sicurezza” e “strumento di controllo illecito” è sempre più labile e richiede un’attenta valutazione caso per caso.
Conclusioni
L’analisi dell’INL dimostra che l’Intelligenza Artificiale non è una soluzione “chiavi in mano” per la sicurezza sul lavoro. Se da un lato offre potenzialità preventive enormi, dall’altro richiede un approccio etico, una formazione specifica per i lavoratori e, soprattutto, il mantenimento della centralità e della responsabilità umana nelle decisioni critiche.

