2024年4月30日-5月1日英國(guó)倫敦國(guó)際人力資源技術(shù)展覽會(huì)算法人力資源,將“人力資源”中的“人”去掉?隨著零工經(jīng)濟(jì)的興起,人力資源決策也越來(lái)越由算法而非人力來(lái)做出。這是未來(lái)的趨勢(shì)嗎?您有多嚴(yán)格地遵守指導(dǎo)方針?假設(shè)某人未達(dá)到其月度 KPI 的 3/5,您就會(huì)對(duì)其處以警告。六個(gè)月內(nèi)警告三次,則立即解雇。這是處理績(jī)效不佳的具體且結(jié)構(gòu)化的方法。不過(guò),一些人力資源專(zhuān)業(yè)人士可能會(huì)引入一些回旋余地——如果在其中一個(gè)月份,相關(guān)員工失去了親人怎么辦?或者第三次警告只是剛好低于標(biāo)準(zhǔn)?那么,算法人力資源可能會(huì)將你(和你的回旋余地)排除在外——這是相當(dāng)確定的。
什么是算法人力資源?算法人力資源的概念非常直觀:人力資源部門(mén)可以使用人員分析來(lái)指導(dǎo)他們的選擇,而不是基于主觀意見(jiàn)和人類(lèi)觀察做出決策。這樣,他們就可以對(duì)自己的決策更有信心,因?yàn)樗麄冎肋@些決策是基于客觀數(shù)據(jù)的。這種方法可以用于員工監(jiān)控。如果某人超額完成了目標(biāo),或者經(jīng)歷了特別好的一周,系統(tǒng)可能會(huì)獎(jiǎng)勵(lì)他們一張午餐券或一個(gè)下午的休息時(shí)間。相反,如果銷(xiāo)售人員經(jīng)常遲到,或者打電話的時(shí)間減少,這可能會(huì)觸發(fā)一個(gè)序列,安排他們與直線經(jīng)理會(huì)面討論他們的表現(xiàn)。雖然這聽(tīng)起來(lái)有點(diǎn)悲觀,但它也消除了人為偏見(jiàn);每個(gè)人都會(huì)得到公平對(duì)待。在招聘階段,消除偏見(jiàn)尤其有益。當(dāng)一個(gè)人的技能和經(jīng)驗(yàn)由計(jì)算機(jī)系統(tǒng)評(píng)估時(shí),性別、種族或殘疾等關(guān)鍵特征就再也不會(huì)成為阻礙。一旦人工智能進(jìn)入這個(gè)領(lǐng)域,可能性就會(huì)擴(kuò)大。預(yù)測(cè)模型可以根據(jù)某些數(shù)據(jù)點(diǎn)之間的關(guān)系,找出可能離開(kāi)公司的員工?;诖?,企業(yè)可以確定需要做些什么來(lái)留住這些員工。
缺點(diǎn)算法的好壞取決于它所得到的數(shù)據(jù)。袖珍計(jì)算器可以計(jì)算出圓周率的平方根(順便說(shuō)一下,是 1.7725),但它無(wú)法告訴你你舉起了多少根手指。同樣,算法人力資源對(duì)“什么”的總結(jié)是無(wú)與倫比的,但它對(duì)“為什么”的分析充其量也有限。就拿開(kāi)頭的例子來(lái)說(shuō)吧。如果你的算法沒(méi)有給出一個(gè)人表現(xiàn)不佳的完整背景——也許他們剛生完孩子,累得神志不清——它可能會(huì)建議你把這個(gè)新父母趕出家門(mén)。當(dāng)然,情況可能更糟。它可能會(huì)把它們?nèi)映鋈?。亞馬遜通過(guò) Flex 與許多司機(jī)簽約,這意味著他們無(wú)法獲得與全職員工相同的保護(hù)。最近,亞馬遜遭到抨擊,因?yàn)檫@些工人在沒(méi)有人類(lèi)做出決定的情況下被解雇。相反,亞馬遜使用一款應(yīng)用程序來(lái)監(jiān)控司機(jī)的速度、安全性和完成配額的能力。如果司機(jī)的駕駛速度低于標(biāo)準(zhǔn),他們不會(huì)被叫到辦公室討論此事。相反,他們會(huì)在手機(jī)上收到一條消息,說(shuō)他們不再需要服務(wù)。這個(gè)系統(tǒng)被批評(píng)為冷酷無(wú)情,最糟糕的是,它完全是反烏托邦的。當(dāng)一個(gè)人的生計(jì)取決于一組 1 和 0 的決定時(shí),很難不同意。擁有解雇員工權(quán)力的系統(tǒng)意味著什么?有些人會(huì)認(rèn)為這絕對(duì)公平——你設(shè)定一個(gè)標(biāo)準(zhǔn),那些落后的人就會(huì)被解雇。它消除了人為偏見(jiàn);一個(gè)人被解雇的可能性不會(huì)因他的經(jīng)理有多喜歡他而增加或減少。然而,機(jī)器偏見(jiàn)仍然是一個(gè)值得關(guān)注的問(wèn)題:計(jì)算機(jī)系統(tǒng)并不完美,它們很少(如果有的話)對(duì)自己的錯(cuò)誤負(fù)責(zé)。這自然使得它們很難被爭(zhēng)論。
繼承偏見(jiàn)人工智能讓事情變得更加復(fù)雜,因?yàn)樗鼉A向于遵循訓(xùn)練模式。諷刺的是,這給人工智能植入了許多人類(lèi)潛意識(shí)中的偏見(jiàn)。以 Dall-E 和 Midjourney 等 AI 圖像生成器為例,它們?cè)诂F(xiàn)有藝術(shù)作品上接受過(guò)訓(xùn)練,能夠根據(jù)提示創(chuàng)建圖像。當(dāng)被要求畫(huà)一個(gè)“女人”時(shí),這些程序往往會(huì)默認(rèn)畫(huà)一個(gè)白人女人,除非提示指定了不同的種族。這不是故意為之。相反,這是因?yàn)榛ヂ?lián)網(wǎng)上其他藝術(shù)作品的描述很少會(huì)指明女性是白人時(shí)的種族。然而,如果藝術(shù)作品描繪的是亞洲或西班牙裔女性,這一特征更有可能被指出。藝術(shù)創(chuàng)作中的小問(wèn)題會(huì)成為招聘中的大問(wèn)題。如果你要求人工智能為你提供與你現(xiàn)有團(tuán)隊(duì)“相似”的候選人,結(jié)果會(huì)怎樣?你可能想要一套類(lèi)似的技能,卻沒(méi)有注意到你的小團(tuán)隊(duì)恰好完全由 40 歲以下的男性組成。那么,人工智能可能會(huì)在不知不覺(jué)中排除那些不符合這一表面描述的候選人。就這樣,你就有了一個(gè)反饋循環(huán),它可以以多種方式教條地影響你員工隊(duì)伍的多樣性。
那么,我們?cè)撛趺醋觯?span style="text-indent: 2em;">算法人力資源是一種工具。就像錘子一樣,它既不是善的力量,也不是惡的力量,盡管它可以同時(shí)用于善和惡。事實(shí)上,最好將這些系統(tǒng)視為團(tuán)隊(duì)的支持成員:聽(tīng)取他們告訴你的內(nèi)容,相信他們會(huì)做好自己的工作,但將決策權(quán)留給自己。請(qǐng)記住,對(duì)于他們能夠注意到的每一個(gè)你永遠(yuǎn)不會(huì)注意到的細(xì)節(jié),都有一千條他們不可能理解的背景信息。簡(jiǎn)而言之:使用算法心率作為衛(wèi)星導(dǎo)航。不要讓它駕駛汽車(chē)。
展會(huì)時(shí)間及展會(huì)地點(diǎn):2025年4月30日-5月1日??英國(guó)???倫敦??就業(yè)? ??(意向參展請(qǐng)點(diǎn)擊詢(xún)洽盈拓展覽專(zhuān)業(yè)展會(huì)顧問(wèn))