Ancora su AI : riflettiamo
Intelligenza artificiale e selezione del personale: governance degli algoritmi, inclusione e ruolo degli stakeholder
L’intelligenza artificiale sta ridefinendo il profilo della selezione del personale, come emerge dall’interessante articolo a firma di Giampaolo Colletti, pubblicato su Il Sole 24 Ore del 23 aprile 2025, nel quale viene illustrato il quadro tracciato dall’Osservatorio Zucchetti HR 2025. Secondo l’indagine, il 70% dei manager intervistati individua nell’IA una leva strategica per l’automazione dei processi decisionali in ambito lavorativo, in particolare per l’analisi dei dati, la valutazione dei curriculum vitae e la formulazione di suggerimenti formativi. L’IA viene descritta come uno strumento già ampiamente diffuso, in grado di supportare l’efficienza operativa e rafforzare l’allineamento tra gestione delle risorse umane, benessere organizzativo e innovazione. Tuttavia, lo stesso articolo rivela – seppur in modo implicito – una visione tecnocratica della trasformazione digitale, che tende a presupporre un’intrinseca neutralità dell’algoritmo e assegna alla dirigenza HR il compito esclusivo di governarne le applicazioni, con un focus quasi esclusivo sugli esiti aziendali e produttivi.
Ci permettiamo di suggerire invece un’angolazione, dell'esplorazione sul tema, maggiormente orientata ai profili giuridici e sistemici, mettendo in evidenza come l’introduzione dell’IA nei processi di selezione comporti anche un’ineludibile ridefinizione dei rapporti tra tecnologia, diritto e democrazia inclusiva. Laddove l’articolo del Sole 24 Ore delinea gli stakeholder come attori interni all’impresa – in primis i responsabili HR, i dirigenti e i fornitori di soluzioni digitali – la nostra riflessione insiste sull’esigenza di ampliare il perimetro della partecipazione, prevedendo meccanismi di consultazione stabile tra le organizzazioni associative del lavoro e le realtà rappresentative delle categorie più esposte al rischio di esclusione, come le persone con disabilità, i lavoratori migranti o chi presenta percorsi atipici e discontinui.
La differenza di impostazione è significativa: mentre dal contributo giornalistico si evince come il coinvolgimento degli stakeholder appaia funzionale alla personalizzazione delle politiche di benessere e alla fidelizzazione del personale, nell'approccio che suggeriamo, il dialogo tra soggetti eterogenei è inteso come presidio etico e istituzionale per la prevenzione dei bias algoritmici e per la legittimazione democratica dei criteri di selezione. Non si tratta, dunque, di integrare ex post una funzione sociale a un processo già automatizzato, ma di costruire sin dall’origine un sistema trasparente, contestabile e inclusivo, nel quale i criteri di valutazione siano co-determinati anche da chi quotidianamente rischia di essere escluso.
L’AI Act europeo, che ha correttamente classificato i sistemi di IA per la selezione del personale come tecnologie ad “alto rischio”, impone una serie di obblighi formali – come audit, tracciabilità, supervisione umana – che, pur rappresentando un avanzamento significativo, non sono da soli sufficienti a prevenire discriminazioni indirette derivanti da dati incompleti, distorti o selettivamente rappresentati. Un esempio emblematico riguarda le disabilità non dichiarate nei CV, le carriere discontinue dovute a responsabilità di cura o malattie anche rare, invalidanti e progressive, oppure l’uso di linguaggi e format non conformi agli standard professionali dominanti, che l’IA può interpretare come segnali di inadeguatezza.
Per questi motivi, riteniamo che sia necessario promuovere tavoli permanenti di confronto tra professionisti HR, esperti giuridici, enti regolatori e associazioni rappresentative dei gruppi vulnerabili, capaci di elaborare linee guida settoriali e standard comuni in materia di equità algoritmica.
Un confronto aperto e strutturato tra esigenze operative delle imprese e diritti delle persone renderà possibile evitare che l’IA, invece di costituire un’opportunità di democratizzazione dell’accesso al lavoro, diventi un ulteriore strumento di selezione escludete, con conseguenze sociali che oggi non siamo in grado di immaginare se non in minima parte.
Nel modello auspicato, gli stakeholder non sono meri destinatari o regolatori esterni del processo, ma co-protagonisti nella definizione delle metriche, nella valutazione d’impatto e nella gestione delle segnalazioni. A differenza dell’approccio verticale evidenziato nell’articolo, che si affida alla governance tecnica delle imprese e alle dinamiche di mercato, proponiamo una governance dialogica e partecipativa, nella quale il pluralismo sociale venga riconosciuto come risorsa interpretativa e non come ostacolo alla semplificazione algoritmica.
L’intelligenza artificiale applicata alla selezione del personale rappresenta un banco di prova decisivo per la tenuta dei principi costituzionali di uguaglianza e non discriminazione, tanto più nei confronti delle persone con disabilità. In tal senso, la trasformazione digitale non può essere pensata come un’evoluzione neutra dei processi, ma come uno spazio normativo e politico in cui ridefinire, in chiave inclusiva, il significato stesso di “merito”, “potenziale” e “valore professionale”. La sfida che ci attende non è soltanto tecnica, ma, sopratutto, culturale e istituzionale: si tratta di scegliere se delegare agli algoritmi il compito di selezionare i talenti, oppure se costruire collettivamente i criteri con cui la società del lavoro del futuro sarà chiamata a riconoscerli.
Francesco Alberto Comellini
Componente del Comitato Tecnico Scientifico dell'Osservatorio Permanente sulla Disabilità - OSPERDI ETS