面對新西蘭19大流行,新西蘭總理Jacinda Ardern和舊金山市長London Breed等女性領(lǐng)導(dǎo)人因其迅速采取的行動而受到認(rèn)可。
但是,人們被選為全世界人數(shù)更多的政府領(lǐng)導(dǎo)人。
這種差距不僅限于政治領(lǐng)導(dǎo)。在2019年,《福布斯》選出100名美國“最具影響力的領(lǐng)導(dǎo)人”,其中99名是男性。
缺乏多樣性不僅限于性別。一個非營利部門的調(diào)查首席執(zhí)行官發(fā)現(xiàn),調(diào)查中87%的被調(diào)查者的自我認(rèn)定為白色。
作為領(lǐng)導(dǎo)中心的執(zhí)行和學(xué)術(shù)主任,我研究就業(yè)歧視和包容性。我已經(jīng)看到,許多組織都希望有一個過程,可以消除識別領(lǐng)導(dǎo)者的偏見。投資者希望投資于擁有不同勞動力的企業(yè),而員工則希望在多元化的組織中工作。
我的研究表明,依靠數(shù)據(jù)分析來消除人選領(lǐng)導(dǎo)者的偏見將無濟于事。
人工智能并非萬無一失
雇主越來越依賴算法來確定誰通過應(yīng)用程序門戶升格到面試。
正如勞工權(quán)利學(xué)者Ifeoma Ajunwa寫道:“算法決策是21世紀(jì)的民權(quán)問題。” 2020年2月,美國眾議院教育和勞工委員會召開了一場名為“ 工作的未來:保護數(shù)字時代的工人公民權(quán)利 ” 的聽證會。
聘用算法會創(chuàng)建一個選擇過程,該選擇過程不會提供透明度并且不會受到監(jiān)控。從申請流程中刪除的申請人-或正如Ajunwa所說的那樣,“在算法上受到了威脅”-幾乎沒有法律保護。
例如,據(jù)報道,2014年,亞馬遜開始開發(fā)基于計算機的程序,以識別提交工作的最佳簡歷。這個想法是使流程自動化并提高效率,就像在其業(yè)務(wù)的其他方面所做的一樣。
但是,通過使用計算機模型觀察提交的簡歷的前10年中的模式以選擇最好的簡歷,計算機自言自語地從男人的簡歷中取而代之,而不是像在婦女俱樂部或組織中那樣包含“婦女”一詞的簡歷。 。據(jù)報道,亞馬遜隨后放棄了該項目。
盡管歷史上的偏見常常無意間被嵌入到算法中并反映出人類的偏見,但 Philip M. Nichols 最近的研究發(fā)現(xiàn),存在潛在地故意操縱底層算法以使第三方受益的另一種威脅。
無意或有意地檢測算法偏差的能力非常困難,因為它可能出現(xiàn)在AI開發(fā)的任何階段,從數(shù)據(jù)收集到建模。
因此,盡管組織可以使用基于對領(lǐng)導(dǎo)力特征的研究和分析而獲得的領(lǐng)導(dǎo)力分析工具,但白人男性領(lǐng)導(dǎo)者的刻板印象卻根深蒂固,甚至有時被自身多樣性的人們所延續(xù)。這不能簡單地通過開發(fā)選擇領(lǐng)導(dǎo)者的算法來消除。
面試后
建立這些算法的數(shù)據(jù)成倍增加。
一項視頻面試服務(wù) HireVue能夠在一次30分鐘的面試中檢測成千上萬的數(shù)據(jù)點,從句子結(jié)構(gòu)到面部動作,以確定與其他申請人的就業(yè)能力。
那么,想象一下,當(dāng)前雇主不斷收集數(shù)據(jù)以確定領(lǐng)導(dǎo)潛力和員工晉升的機會。例如,工作場所中的攝像頭可以整天工作時收集面部表情,尤其是在進出工作場所時。
越來越多的數(shù)據(jù)不僅在工作日或工作期間收集,而且也在下班期間收集。在最近的一篇文章中,Inara Scott教授確定了工作場所計劃,這些工作計劃從Facebook帖子和Fitbit使用情況收集了大量員工的下班行為數(shù)據(jù),例如,這些數(shù)據(jù)的未來使用情況不透明。然后,雇主使用這些數(shù)據(jù)來進行相關(guān)性預(yù)測工作場所的成功。
正如Scott所指出的那樣,大多數(shù)工人“可能會對他們的啤酒品味,對獨立搖滾的熱愛以及對《華盛頓郵報》的偏愛以及成千上萬的其他變數(shù)這樣的觀念感到惱火,這些觀念可用于確定職業(yè)發(fā)展機會,領(lǐng)導(dǎo)潛力和未來職業(yè)成功。”
但是,這種潛力在當(dāng)今的工作場所中仍然存在,法律并沒有趕上那些希望知道雇主支持其員工晉升和領(lǐng)導(dǎo)力投資的雇主收集和使用的大量數(shù)據(jù)。
在許多情況下,員工都同意收集元數(shù)據(jù),而無需全面了解該數(shù)據(jù)可以揭示哪些內(nèi)容以及如何將其用于幫助或阻礙職業(yè)發(fā)展。