L’AI può agevolare i Responsabili HR nella ricerca e selezione del personale: tuttavia, sussiste il rischio di pregiudizi e discriminazioni
Nel corso di questi anni, l’Intelligenza Artificiale ha fatto notevoli passi in avanti. Le aziende hanno iniziato a sfruttarne le potenzialità per velocizzare ed efficientare i processi, compreso quelli di ricerca e selezione del personale. Lo studio Deloitte Human Capital Trends 2020 ha evidenziato che il 70% delle aziende a livello globale sta valutando soluzioni basate sull’AI per garantire maggiore qualità e produttività delle risorse. Nell’attività di recruiting, l’AI può aiutare i Responsabili HR ad estrapolare automaticamente dati dai curriculum e ottimizzare la ricerca dei profili professionali idonei per la propria azienda. Fino ad oggi, queste attività erano svolte manualmente e implicavano una grande quantità di tempo. Con l’Intelligenza Artificiale è possibile accelerare ed efficientare i processi, riducendo le probabilità di errore dovute a stanchezza, negligenza e altri fattori umani.
Tuttavia, questo sistema non è esente da rischi. Nello specifico, infatti, se non appositamente supervisionato, un sistema di recruiting basato sull’Intelligenza Artificiale potrebbe causare pregiudizi e discriminazioni, legate alla scelta degli algoritmi. “La tecnologia fa quello che noi gli chiediamo di fare” ha sottolineato Maria Rita Flasco, vicepresidente di Assintec Assinform, fondatrice e presidente del Gruppo Pragma. “Il tema è culturale prima ancora che tecnologico”. La scelta degli algoritmi deve rispecchiare logiche di parità ed eguaglianza, di genere come di etnia, al fine di evitare un pericoloso effetto boomerang. Ossia, ottimizzare i processi, ma mantenendo inalterate o addirittura incrementando le diversità, riproducendo di fatto gli stessi erronei schemi mentali tipici dell’essere umano.
“Una soluzione importante nella lotta alla discriminazione è diversificare i team di sviluppo” ha sottolineato Linda Serra, co-founder e ceo di Work Wide Women. “Ad oggi, solo il 12% dei team di sviluppo dell’Intelligenza Artificiale è composto da donne”. Allo stesso modo, appare necessario educare la tecnologia a non trattare i dati minori come dati di scarto, ma come dati che devono essere presi in considerazione tanto quanto i dati più rilevanti da un punto di vista numerico. “Educare gli algoritmi ad essere più inclusivi è possibile, basta che lo diventino le persone” ha concluso la Serra.