BIZIT plus

Veštačka inteligencija na radnom mestu

Daleko od toga da je futuristički koncept potisnut u oblasti naučne fantastike, upotreba veštačke inteligencije (AI) na radnom mestu postaje sve češća.

PCPress.rs Image

Kako AI sistemi mogu uticati na pravičnost, odgovornost i transparentnost na radnom mestu

Prednosti korišćenja veštačke inteligencije koje se često navode su ušteda vremena i produktivnost. Međutim, ne treba potcenjivati izazove implementacije AI u praksu i procedure ljudskih resursa. AI tehnologije se već koriste u širokom spektru industrija, u svakoj fazi ciklusa zapošljavanja. Od zapošljavanja do otpuštanja, njihova upotreba ima značajne implikacije. Poslednjih meseci, incidenti u kompaniji Meta, Estee Lauder i kompaniji za platne usluge Xsolla, dospeli su na naslovne strane zbog korišćenja veštačke inteligencije prilikom otpuštanja zaposlenih.

Sve tri kompanije su koristile algoritme kao deo procesa selekcije. Za Meta i Xsolla, algoritmi su koristili analizirane performanse zaposlenih u odnosu na ključne metrike da bi identifikovali one koji su bili „neangažovani i neproduktivni“. Ovi zaposleni su naknadno otpušteni. Slično, kompanija Estee Lauder je koristila algoritam kada je tri šminkera učinila suvišnim, koji je procenio zaposlene tokom video intervjua. Softver je izmerio sadržaj odgovora i izraza žena tokom intervjua i procenio rezultate u odnosu na druge podatke o učinku njihovog posla. To je dovelo do njihovog otpuštanja. Tamo gde se algoritmi koriste umesto ljudskog donošenja odluka, oni rizikuju da se repliciraju i odražavaju postojeće pristrasnosti i nejednakosti u društvu. Sistem veštačke inteligencije kreiraju različiti učesnici, od onih koji pišu kod, unose uputstva, onih koji obezbeđuju skup podataka na kojima je AI sistem obučen i onih koji upravljaju procesom.

Pročitajte i:  Veštačka inteligenicja i otpuštanje radnika

U svakoj fazi postoji značajan prostor za pristrasnost. Ako je, na primer, pristrasnost prema regrutovanju muškaraca uključena u skup podataka, ili su žene nedovoljno zastupljene, to će verovatno biti replicirano u odluci AI. Rezultat je AI sistem koji donosi odluke koji reprodukuje inherentnu pristrasnost. Ako se ne adresiraju, te pristrasnosti mogu postati preuveličane jer AI „uči“ postajući sve veštiji u razlikovanju koristeći te pristrasnosti. Da bi ublažili ovaj rizik, HR timovi bi trebalo da testiraju tehnologiju upoređujući AI i ljudske odluke u potrazi za pristrasnošću.

Ovo će biti efikasno u borbi protiv nesvesne pristrasnosti samo ako recenzenti sami čine raznoliku grupu. Ako se otkrije pristrasnost, algoritam se može i treba promeniti. Sisteme veštačke inteligencije poslodavci sve više posmatraju kao efikasan način merenja učinka osoblja. Iako veštačka inteligencija može da identifikuje najbolje performanse na osnovu ključnih poslovnih metrika, njima nedostaje lično iskustvo, emocionalna inteligencija i sposobnost da formiraju mišljenje kako bi oblikovali odluke. Postoji opasnost da bi osoblje sa „lošim učinkom“ moglo biti zanemareno samo na osnovu procene metrike. Pametni zaposleni će verovatno pronaći načine da manipulišu veštačkom inteligencijom u svoju korist na način koji možda ne bi bio tako lak bez tehnologije.

Pročitajte i:  OpenAI i problem kloniranja glasa

Primamljivo je verovati AI da će ograničiti pravne rizike koristeći ga za donošenje odluka. Površno, ovo može biti tačno, ali potencijalne nenamerne posledice bilo kog sistema veštačke inteligencije mogu lako da dovedu do nedostatka transparentnosti i pristrasnosti ekvivalentne onoj kod njegovih ljudskih kreatora. Kada se koriste sistemi veštačke inteligencije, postoji obaveza da se razmotri kako oni mogu uticati na pravičnost, odgovornost i transparentnost na radnom mestu. Takođe postoji rizik da se poslodavci izlože skupim tvrdnjama o diskriminaciji, posebno kada politika korišćenja veštačke inteligencije dovodi u nepovoljniji položaj zaposlenog zbog zaštićene karakteristike (kao što je pol ili rasa) i kao rezultat toga se donose diskriminatorne odluke. Sve dok se AI ne razvije tako da nadmaši ljude u učenju na greškama ili razumevanju zakona, malo je verovatno da će njegova upotreba u međuvremenu ublažiti rizik.

Izvor: Computerweekly

Facebook komentari: