Autor: Tim AI Trends
Iako se umjetna inteligencija (AI) trenutno često koristi u procesu zapošljavanja za kreiranje opisa posla, evaluaciju kandidata i automatizaciju intervjua, postoji rizik od ozbiljne diskriminacije ako se ne primijeni ispravno.
Ovo je poručio Keith Sonderling, povjerenik pri Komisiji za jednake mogućnosti zapošljavanja SAD-a, koji je govorio na AI World Government događaju koji je održan uživo i virtualno prošlog tjedna u Aleksandriji, Virginia. Sonderling je odgovoran za provođenje saveznih zakona koji jasno zabranjuju diskriminaciju prema kandidatima na osnovu rase, boje kože, religije, spola, nacionalnog podrijetla, dobi ili invaliditeta.
“Misliti da bi AI mogla postati uobičajena u odjelima za ljudske resurse izgledalo je kao znanstvena fantastika prije samo dvije godine, ali pandemija je ubrzala usvajanje AI od strane poslodavaca,” izjavio je. “Virtualno regrutiranje je sada trajno prisutno.”
Ovo je intenzivan period za stručnjake u ljudskim resursima. “Velika ostavka dovodi do velikih zapošljavanja, a AI će imati ulogu kakvu dosad nismo vidjeli,” rekao je Sonderling.
Umjetna inteligencija se koristi već dugi niz godina u regrutiranju—“To se nije desilo preko noći.”—za aktivnosti kao što su razgovore s aplikantima, predviđanje da li će kandidat prihvatiti ponudu, analize kako bi se ocijenilo kakav bi mogao biti radnik, i planiranje obrazovnih i prekvalifikacijskih opcija. “Ukratko, umjetna inteligencija danas preuzima sve odluke koje su nekada donosili stručnjaci za ljudske resurse,” ne označivajući to kao dobru ili lošu stvar.
“Ako je pažljivo osmišljena i pravilno primjenjena, AI ima potencijal učiniti zapošljavanje pravednijim,” rekao je Sonderling. “Ali ako se implementira bez odgovarajuće pažnje, AI bi mogla diskriminirati na način koji nikada ranije nije bio viđen u ljudskim resursima.”
Trenutni setovi podataka za AI modele upotrebljavane u zapošljavanju moraju odražavati raznolike demografije
To je od suštinskog značaja jer AI modeli zavise od skupova podataka za obuku. Ukoliko se koristi trenutna radna snaga kao osnova za obuku, “reproducirat će postojeće stanje. Ako je to uniformna grupa po spolu ili rasi, rezultati će biti slični,” rekao je. S druge strane, AI može pomoći u smanjenju rizika od pristranosti u zapošljavanju povezanim s rasom, etničkim poreklom ili invaliditetom. “Želim videti kako AI poboljšava jednakost u zapošljavanju,” naglasio je.
Amazon je 2014. godine započeo sa razvojem aplikacije za regrutaciju i tokom vremena shvatio da ona ima diskriminatornu prirodu prema ženama u svojim preporukama, jer je model AI treniran na podacima zapošljavanja kompanije iz pređašnjih deset godina, koji su u velikoj meri uključivali muškarce. Programeri Amazona su pokušavali da reše taj problem, ali su na kraju odustali od sistema 2017. godine.
Facebook je nedavno pristao da plati 14,25 miliona dolara kako bi rešio tužbe američke vlade koje su tvrdile da je društvena mreža diskriminisala radnike iz SAD-a i prekršila federalna pravila zapošljavanja, prema izveštaju Reutersa. Ovaj slučaj fokusira se na korišćenje Facebook-ovog PERM programa za radne certifikate. Vlada je otkrila da Facebook odbija zapošljavanje američkih radnika na poslovima koji su bili rezervisani za privremene korisnike viza u okviru PERM programa.
“Isključivanje ljudi iz procesa zapošljavanja predstavlja kršenje,” izjavio je Sonderling. Ako AI program “onemogućava pristup radnim mestima određenoj grupi, lišavajući ih prava, ili ako umanjuje prava zaštićenih grupa, to predstavlja našu nadležnost,” naglasio je.
Zapošljavanje na osnovu procena, koje je postalo standard nakon Drugog svetskog rata, pružilo je značajnu vrednost menadžerima ljudskih resursa, a uz podršku AI tehnologije moglo bi da smanji pristranost u zapošljavanju. “No, to je i dalje podložno kritikama za diskriminaciju, te poslodavci moraju biti pažljivi i ne smeju usvojiti pristup bez angazovanja,” rekao je Sonderling. “Netačni podaci mogu povećati pristranosti u donošenju odluka. Poslodavci se moraju truditi da izbegnu diskriminatorne ishode.”
Preporučio je da istraže rešenja od dobavljača koji proveravaju podatke na rizike od pristranosti povezanih sa rasom, polom i drugim faktorima.
Jedan od primera dolazi iz HireVuea iz South Jordana, Utah, koji je razvio platformu za zapošljavanje u skladu sa Smjernicama Komisije za jednake mogućnosti zapošljavanja SAD-a, posebno dizajniranu da smanjuje nepravedne prakse zapošljavanja, prema izveštaju allWorka.
Post na njihovoj web stranici o etičkim načelima korišćenja umetničke inteligencije navodi, između ostalog, “Budući da HireVue koristi AI tehnologiju u svojim proizvodima, aktivno se trudimo da sprečimo pojavu ili širenje pristranosti prema bilo kojoj grupi ili pojedincu. Nastavićemo da pažljivo procenjujemo skupove podataka koje koristimo u našem radu i osiguramo njihovu tačnost i raznolikost. Takođe nastavljamo raditi na unapređenju sposobnosti praćenja, identifikovanja i smanjenja pristranosti. Nastojimo formirati timove koji dolaze iz različitih sredina sa raznolikim znanjem, iskustvom i perspektivama kako bismo najbolje predstavljali korisnike naših sistema.”
Pored toga, “Naši podaci i psiholozi za industrijska rešenja razvijaju algoritme za HireVue procene umesto u načinu koji isključuje podatke iz algoritma koji mogu doprineti nepovoljnim ishodima bez značajnog uticaja na prediktivnu tačnost procene. Rezultat je veoma validna, pristranosti-smanjena procena koja pomaže u poboljšanju ljudskog odlučivanja, dok aktivno promoviše raznolikost i jednake mogućnosti bez obzira na pol, etničku pripadnost, starosnu grupu ili invaliditet.”
Pitanje pristranosti u podacima koji se koriste za obuku AI modela nije isključivo vezano samo za zapošljavanje. Dr. Ed Ikeguchi, izvršni direktor kompanije AiCure, analitičke AI kompanije koja posluje u oblasti bioloških nauka, istakao je u nedavnim izjavama za HealthcareITNews, “AI je efikasna koliko i podaci kojima se hrani, a validnost tih podataka se sve više preispituje. Današnji AI developeri nemaju pristup dovoljnom i raznolikom skupu podataka za obučavanje i validaciju novih alata.”
Dodao je, “Često se koriste otvoreni podaci, ali mnogi od njih dolaze iz rešenja u kojima su programerski volonteri, koji pripadaju pretežno beloj populaciji. Kada se algoritmi često treniraju na uzorcima podataka iz jednog izvora sa ograničenom raznolikošću, u stvarnim situacijama primena na širu populaciju različitih rasa, polova, starosnih grupa i još, može postati nepouzdana.”
Osim toga, “Treba postojati element upravljanja i stručnog nadzora nad svim algoritmima, jer čak i najčvršći i probani algoritam može doneti neočekivane rezultate. Algoritam nikada ne prestaje da uči—zato se mora kontinuirano razvijati i ažurirati kako bi se poboljšao.”
I, “Kao industrija, trebamo biti skeptičniji prema zaključcima koje donosi umetnička inteligencija i podsticati transparentnost. Kompanije bi trebalo da budu spremne da odgovore na osnovna pitanja, poput ‘Kako je algoritam treniran? Na temelju čega je donet ovaj zaključak?’”
Pročitajte izvorne članke i informacije na AI World Government, iz Reutersa i iz HealthcareITNewsa.