機(jī)器是種族主義者嗎? 算法和人工智能具有天生的偏見嗎?Facebook,Google和Twitter是否有政治偏見?這些答案很復(fù)雜。
但是,如果問題在于科技行業(yè)是否在解決這些偏見方面做得足夠,那么直接的回答是“否”。
警告AI和機(jī)器學(xué)習(xí)系統(tǒng)正在使用“不良數(shù)據(jù)”進(jìn)行訓(xùn)練。經(jīng)常被吹捧的解決方案是確保人們使用無(wú)偏數(shù)據(jù)來訓(xùn)練系統(tǒng),這意味著人類需要避免自己偏見。但這意味著科技公司正在培訓(xùn)其工程師和數(shù)據(jù)科學(xué)家以了解認(rèn)知偏差以及如何“應(yīng)對(duì)”偏差。有沒有人停下來問那些給機(jī)器喂食的人是否真的了解偏見是什么意思?
諸如Facebook(我的前雇主),Google和Twitter之類的公司因各種帶有偏見的算法而反復(fù)受到攻擊。為了應(yīng)對(duì)這些合理的恐懼,他們的領(lǐng)導(dǎo)人發(fā)誓要進(jìn)行內(nèi)部審計(jì),并聲稱他們將與這一指數(shù)級(jí)威脅作斗爭(zhēng)。正如無(wú)數(shù)的研究和出版物所表明的那樣,人類無(wú)法完全避免偏見。堅(jiān)持不這樣做是對(duì)一個(gè)非?,F(xiàn)實(shí)的問題的一種理智上的不誠(chéng)實(shí)和懶惰的反應(yīng)。
在Facebook的六個(gè)月中,我被聘為公司業(yè)務(wù)誠(chéng)信部全球選舉誠(chéng)信運(yùn)營(yíng)負(fù)責(zé)人,參與了有關(guān)該主題的眾多討論。我不知道有人故意將偏見納入工作。但是我也沒有找到任何人真正知道以任何真實(shí)和有條理的方式抵制偏見的含義。
在擔(dān)任CIA官員十多年的時(shí)間里,我經(jīng)歷了數(shù)月的結(jié)構(gòu)性方法培訓(xùn)和例行再培訓(xùn),以檢查假設(shè)和理解認(rèn)知偏見。這是情報(bào)人員發(fā)展的最重要技能之一。分析人員和操作人員必須磨練測(cè)試假設(shè)的能力,并在分析事件時(shí)認(rèn)真地評(píng)估自己的偏見,并進(jìn)行不舒服且通常耗時(shí)的工作。他們還必須檢查那些向收藏家提供信息的人(資產(chǎn),外國(guó)政府,媒體,對(duì)手)的偏見。
傳統(tǒng)上,這類培訓(xùn)是為那些需要批判性分析思維的人員而設(shè)的,據(jù)我所知和經(jīng)驗(yàn),在技術(shù)領(lǐng)域這種培訓(xùn)很少見。盡管高科技公司通常會(huì)接受強(qiáng)制性的“管理偏見”培訓(xùn)來幫助解決多樣性和包容性問題,但我沒有看到有關(guān)認(rèn)知偏見和決策領(lǐng)域的任何此類培訓(xùn),特別是與產(chǎn)品和流程的構(gòu)建和保護(hù)有關(guān)的培訓(xùn)。
從我的Facebook同事提出的一些想法來看,我花了多年時(shí)間做的所有事情-結(jié)構(gòu)化的分析技術(shù),權(quán)衡證據(jù),沒有得出結(jié)論,具有挑戰(zhàn)性的假設(shè)-都不是正常的做法,即使在解決問題時(shí)也是如此。他們制造的產(chǎn)品在現(xiàn)實(shí)世界中的后果。在很大程度上,“快速行動(dòng)”文化與這些技術(shù)相反,因?yàn)樵诿媾R重要決策時(shí)需要放慢速度。