Le tecnologie evolute al servizio della salute e della sicurezza sul lavoro

Le tecnologie evolute al servizio della salute e della sicurezza sul lavoro

Copia di Post per AI E HS

Introduzione

Secondo l’Organizzazione Internazionale del Lavoro, ogni 15 secondi un lavoratore muore a causa di un infortunio sul lavoro o di una malattia professionale. Ogni 15 secondi, 153 lavoratori hanno un infortunio sul lavoro [1]. La robotica e le tecnologie più avanzate – in particolare l'intelligenza artificiale (AI) e l’Internet delle Cose (IoT) – possono dare il loro contributo nella riduzione del rischio lavorativo, tanto nella prevenzione degli infortuni quanto nella protezione dei lavoratori. Tuttavia, la diffusione della deep technology potrebbe introdurre nuovi rischi o perpetuare disuguaglianze esistenti. Anche in questo caso, non si tratta di rischi lontani dall’orizzonte attuale, ma concreti e già presenti nelle nostre pratiche.

Le opportunità

Le tecnologie avanzate – AI e IoT su tutte – sono state applicate con successo nel settore della sicurezza sul lavoro.

Nell’ambito della prevenzione e protezione citiamo:

- gli esoscheletri robotici indossabili per mitigare i fattori di rischio da sovraccarico biomeccanico, dotati di sofisticati algoritmi di intelligenza artificiale in grado di regolare in tempo reale l’assistenza sulla base dei movimenti di chi li indossa, diminuendo così lo sforzo fisico fino al 40% e determinando una riduzione di infortuni sul lavoro e malattie professionali croniche [7]

- i tag RFID (Radio Frequency Identification) apposti su scarpe, guanti, caschi da lavoro, mascherine…: l’antenna RFID legge i tag ed è in grado di concedere o meno l’accesso a determinate aree se il lavoratore non è dotato di tutti i DPI previsti [3]

- i sensori applicati su dispositivi indossabili in grado di rilevare parametri vitali quali il battito cardiaco, la saturazione dell’ossigeno, la temperatura corporea… per il monitoraggio dei lavoratori che operano in ambienti pericolosi o in condizioni di isolamento

- IoT e machine learning applicato a macchine e attrezzature: l’algoritmo riceve in continuo i dati e ne monitora il loro funzionamento, così da essere in grado di prevedere un intervento manutentivo appena prima che il guasto si manifesti (IoT predictive maintenance), evitando i pericoli della manutenzione a guasto [4]

- con telecamere dotate di software di riconoscimento facciale e gestuale, l’AI è in grado di monitorare le condizioni ed il comportamento degli operatori, individuando i comportamenti a rischio ed intervenendo per prevenire gli incidenti

Il secondo ambito di utilizzo è quello della formazione. Le tecnologie di realtà virtuale (VR) e realtà aumentata (AR) permettono di mostrare attraverso contenuti multimediali (come modelli 3D, immagini e video) dei contenuti complessi e facilitarne la comprensione rispetto al libro tradizionale. Inoltre, possono simulare laboratori o esperienze pratiche in totale sicurezza, senza la necessità di aver a disposizione particolari risorse o tutor [5]. In letteratura sono stati presentati svariati lavori sviluppati in diversi ambiti lavorativi che hanno dimostrato come queste tecnologie possano essere delle valide alternative agli strumenti di formazione “tradizionali”, per esempio: nel settore delle costruzioni, nella formazione antincendio, in miniera, nei tunnel e gallerie, in ambito navale e per la gestione di catastrofi ed emergenze.

Inoltre, l’AI può trovare impiego nell’apprendimento adattivo e nell’apprendimento personalizzato, dove l'apprendimento adattivo si basa su dati e analisi per fornire raccomandazioni, mentre l'apprendimento personalizzato si basa sulle preferenze degli studenti per modellare la loro esperienza di apprendimento [6]. ChatGPT e le altre applicazioni di AI generativa svolgono questo ruolo soprattutto nella formazione online.

Il terzo ambito è quello del supporto nelle situazioni di emergenza, dove trovano impiego droni e robot, ma la frontiera è quella del machine learning.

I droni sono sensori mobili già da tempo utilizzati per esplorare ambienti pericolosi, fornendo un modello tridimensionale degli ambienti che visitano, ad esempio: impianti nucleari, incendi, vulcani, slavine…; le forme più evolute non hanno necessità di essere teleguidati e sono in grado di trasmettere in tempo reale la propria posizione ed i dati catturati

I robot cingolati dotati di sensori, scanner, telecamere ed AI, sono estremamente utili per intervenire in totale autonomia in zone irraggiungibili tanto dalle persone quanto dai droni, anche in assenza di comunicazione. Data la possibilità di carico, possono intervenire in una grande varietà di situazioni compiendo azioni come il prelievo di campioni, l’attivazione/disattivazione di interruttori, la rimozione di detriti…. [8]

Nelle maxiemergenze, AI e Iot possono fornire un triplice supporto: la raccolta e l’elaborazione dei dati raccolti dai sensori, l’analisi geospaziale e l’individuazione di pattern e tendenze fino a quel momento sconosciuti, per prevedere l’evoluzione della situazione e pianificare gli interventi in modo da ridurre il tempo di risposta e garantire l’impiego efficiente delle risorse.

Le possibili criticità

Come possiamo essere sicuri che i programmi di intelligenza artificiale agiscano in modo etico? Il problema etico più noto riguarda la programmazione dei sistemi di guida autonoma, benché si tratti di un rischio ormai superato dai sistemi di machine learning: le “macchine intelligenti” non hanno più necessità di regole esplicite poiché imparano da sole, sulla base di relazioni statistiche individuate analizzando grandi quantità di dati. Più adeguato sarebbe ascrivere all’ambito etico la perpetuazione di discriminazioni esistenti e la creazione di nuove disuguaglianze, per esempio nelle pratiche di selezione del personale o nella valutazione delle prestazioni influenzate dai pregiudizi.

I sistemi di riconoscimento facciale o i sensori indossabili possono costituire una minaccia per il diritto alla vita privata dei lavoratori, la profilazione una minaccia per il diritto all’autonomia, con il nuovo rischio relativo alla cybersecurity.

L'automazione dei lavori tramite l'IA può portare alla perdita dei posti di lavoro, con gli umani sostituiti da “agenti intelligenti”. L’affermazione di Tim Berners-Lee “I computer possono aiutare se li usiamo per creare macchine sociali astratte sul Web: processi per cui le persone fanno il lavoro creativo e la macchina fa l’amministrazione” [9], sembra piuttosto capovolta nelle applicazioni, con gli esseri umani che svolgono attività di routine e le attività decisionali destinate ai sistemi digitali.

Infine, le reti neurali di deep learning sono considerate "scatole nere": l’algoritmo identifica nelle informazioni in ingresso una struttura logica senza che queste siano state preventivamente etichettate, e la mancanza di trasparenza nella generazione dell’output apre il campo a scenari sconosciuti.

«L’intelligenza è la capacità di un sistema di agire in modo appropriato in un ambiente incerto, dove le azioni appropriate sono quelle che aumentano le probabilità di successo» così l’ingegnere americano James Albus definiva l’intelligenza [2]. In altri termini, un agente che interagisce con l’ambiente per ottenere il proprio obiettivo. Se non è noto l’obiettivo, il movente o la ricompensa del sistema con cui interagiamo, la manipolazione è un rischio concreto: il sistema rielabora i suoi output in modo da orientare in nostro comportamento verso le finalità del sistema. Come nel caso delle reti neurali di deep learning, considerate "scatole nere" proprio per la mancanza di trasparenza nei processi di generazione dell’output - opacità per tutti, inclusi gli sviluppatori [10].

Conclusioni

L'evoluzione dell'intelligenza artificiale, della robotica e della digitalizzazione ha rivoluzionato il modo in cui affrontiamo la sicurezza sul lavoro. Attraverso l'applicazione della deep-tech in ambito occupazionale, siamo in grado di creare ambienti di lavoro più sicuri, riducendo gli incidenti e aumentando la produttività. Ma l’utilizzo delle nuove tecnologie ha anche introdotto nuovi rischi. La domanda da porci non è se adottare l’AI, ma come costruire la convivenza con tali tecnologie, sfruttandone le potenzialità e minimizzandone i rischi e gli effetti collaterali. Convivenza da costruire sui principi di responsabilità e di verificabilità [11]. L’identificazione delle responsabilità per gli effetti di un sistema di AI costituisce il primo passo verso la trasparenza, per garantire una base etica della relazione – correttezza, rispetto, privacy. Sulla base etica si costruisce la fiducia, da verificare tramite ispezioni, check-point, stress test...

Il percorso richiede uno sforzo multidisciplinare, in cui alla tecnologia si affianchino le scienze umane, la sociologia, le scienze naturali. E naturalmente una regolamentazione, come ha iniziato il Parlamento Europeo con l’Artificial Intelligence Act [12], in cui si classificano i sistemi basati sull’IA in base alla categoria di rischio.

[1] OIL – Salute e sicurezza sul lavoro, https://www.ilo.org/rome/approfondimenti/WCMS_579541/lang--it/index.htm#:~:text=Si%20stima%20che%20ogni%20giorno,prolungate%20dal%20lavoro%20per%20malattia.

[2] Albus J.S., Outline for a theory of intelligence, 1991

[3] https://www.internet4things.it/edge-computing/iot/iot-e-wearable-device-per-il-welfare-e-la-sicurezza-dei-lavoratori/ 2021

[4] https://www.suva.ch/it-ch/prevenzione/per-pericoli/macchine-e-attrezzi/manutenzione-agire-in-modo-preventivo-ridurre-gli-infortuni-professionali/manutenzione-pericoli-cause-di-infortuni-e-misure

[5] https://www.dyndevice.com/it/news/realta-virtuale-aumentata-per-la-formazione-sulla-sicurezza-ELN-1792/

[6] https://www.dyndevice.com/it/news/le-differenze-tra-apprendimento-adattivo-personalizzato-ELN-1964/

[7] https://www.inail.it/cs/internet/comunicazione/sala-stampa/comunicati-stampa/com-stampa-esoscheletri-inail-iit-2022.html

[8] https://www.agendadigitale.eu/smart-city/il-ruolo-di-robot-e-droni-nelle-catastrofi-i-principali-casi-internazionali/

[9] Tim Berners-Lee, 1999

[10] https://www.immoderati.it/explainable-ai-e-decisioni-algoritmiche-come-risolvere-la-black-box/

[11] Cristianini N., La scorciatoia, 2023

[12] https://data.consilium.europa.eu/doc/document/ST-5662-2024-INIT/en/pdf 01/2024