Applicazione e sfide dell’AI Act nella gestione delle Risorse Umane

Quali effetti avrà l’AI Act, il regolamento europeo sull’Intelligenza Artificiale, sulla gestione delle risorse umane? Ripercorriamo i punti chiave di uno studio che mette in luce aspetti fondamentali e nodi ancora da sciogliere, delineando sfide e prospettive per lavoratori e operatori del settore.

A cura di Skilla

Skilla-logo

L’AI Act adotta un approccio basato sulla classificazione dei rischi associati alle applicazioni di Intelligenza Artificiale, con livelli che variano da inaccettabile a minimo. Le applicazioni nel settore occupazionale rientrerebbero tra quelle a rischio alto. L’attuazione del Regolamento in quest’ambito apre nuovi scenari di riflessione e coinvolge, oltre ai lavoratori, i produttori di sistemi di IA e i deployer, datori e soggetti impegnati nell’intermediazione e nella gestione dei rapporti di lavoro. Per esplorare queste implicazioni, facciamo riferimento all’analisi della professoressa Silvia Ciucciovino, giuslavorista e docente all’Università di Roma Tre.

L’applicazione dell’AI Act nel campo delle risorse umane

Uno dei primi temi affrontati nella ricerca riguarda come l’AI Act valuti le applicazioni di Intelligenza Artificiale nella gestione delle risorse umane. Ciucciovino osserva che la versione finale del Regolamento ha ridimensionato l’iniziale presunzione di rischio alto per tutti i sistemi di IA utilizzati in questo contesto.

Attualmente, un sistema di IA è considerato ad alto rischio solo se incide significativamente sulle decisioni o comporta potenziali danni alla salute, alla sicurezza o ai diritti fondamentali delle persone. La classificazione “ad alto rischio” non è quindi automatica, ma dipende dalla configurazione e dall’utilizzo del sistema, per cui non tutte le applicazioni di IA nel settore delle risorse umane rientrano necessariamente in questa categoria.

Ad esempio, contrariamente a quanto si potrebbe pensare, non tutti i sistemi completamente automatizzati sono considerati ad alto rischio: se un sistema opera autonomamente ma non incide direttamente sulle decisioni o non minaccia i diritti fondamentali delle persone, non è classificato come rischioso. Al contrario, le applicazioni che comportano la profilazione delle persone fisiche rientrano sempre nella categoria ad alto rischio. Il Regolamento vieta del tutto le applicazioni di IA che rilevano le emozioni sul luogo di lavoro e quelle legate al “social scoring“, ossia sistemi che valutano o classificano le persone in base al loro comportamento o ad altre caratteristiche personali per influenzarne il trattamento. Tuttavia, nonostante il divieto, restano aperti alcuni interrogativi sull’uso di questi sistemi: ad esempio, un sistema di IA che preseleziona candidati basandosi su informazioni estratte dai profili social potrebbe essere considerato una forma di social scoring vietata?

Soggetti coinvolti, ruoli e responsabilità

Ciucciovino sottolinea un aspetto fondamentale: l’obiettivo dell’AI Act è migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme per lo sviluppo, l’immissione sul mercato, la messa in servizio e l’uso dei sistemi di IA nell’Unione. Tali sistemi vengono trattati come prodotti di cui vanno garantiti il corretto funzionamento e la qualità tecnica. Da una prospettiva giuslavoristica, questa impostazione può però risultare insoddisfacente, poiché il Regolamento si concentra sui requisiti tecnici del prodotto e sugli obblighi dei produttori, relegando a un ruolo secondario i deployer.

A questo proposito, Ciucciovino evidenzia un altro elemento rilevante: il Regolamento non considera l’uso dell’IA come strumento di lavoro. In questo caso, la persona che lavora non è più soggetto passivo del sistema, ma parte attiva, un vero e proprio “agente dell’IA”. Questa condizione solleva questioni legate alla necessità di competenze adeguate e alla responsabilità per eventuali usi impropri o interpretazioni errate degli output.

Per quanto riguarda l’uso dei sistemi di IA da parte del deployer, l’AI Act adotta un approccio basato sul rischio, simile a quello della sicurezza sul lavoro e del GDPR. Tuttavia, Ciucciovino evidenzia una differenza sostanziale nella distribuzione della responsabilità: nella sicurezza sul lavoro e nel GDPR, il datore di lavoro o il titolare del trattamento sono direttamente responsabili per la protezione dei dipendenti o dei dati. Con l’AI Act, invece, la responsabilità principale rimane in capo al produttore, anche se l’IA è impiegata per decisioni sul personale, poiché il Regolamento tratta l’IA come un prodotto e non come uno strumento di gestione del personale.

Anche gli obblighi di trasparenza ricadono principalmente sui produttori: per i sistemi ad alto rischio, è loro compito documentare i requisiti operativi e inserirli nella documentazione tecnica, da cui il deployer può attingere in caso di richieste sugli impatti sui diritti fondamentali.

I codici di condotta: uno strumento per facilitare la conformità

Infine, l’AI Act incoraggia l’adozione di pratiche volontarie per promuovere il rispetto spontaneo delle norme, anche da parte di chi utilizza tipologie di IA non considerate ad alto rischio. L’obiettivo è facilitare l’adesione anticipata al Regolamento da parte dei soggetti obbligati e ampliarne il campo di applicazione.

Per incentivare questa conformità volontaria, Ciucciovino propone l’uso di codici di condotta, strumenti che possono essere sviluppati da singoli produttori, deployer o con la partecipazione di altri attori, come la società civile, il mondo accademico e le rappresentanze sindacali. Ciucciovino evidenzia che il coinvolgimento di diversi soggetti è essenziale per raggiungere un equilibrio tra i diritti dei lavoratori e le prerogative dei datori di lavoro. Secondo la sua visione, questa collaborazione può favorire una gestione più efficace dei cambiamenti in un contesto tecnologico in rapida evoluzione e in uno scenario normativo sempre più articolato.

 

 

Di Arianna Meroni

error

Condividi Hr Link