確保公司AI符合道德的8種方法

2020-02-04 11:03:08    來源:    作者:

跟上人工智能(AI)和數據隱私的發(fā)展勢不可擋。盡管AI擁有大量的希望和機遇,但人們也擔心數據濫用和個人隱私受到威脅。在我們評估這些主題時以及隨著第四次工業(yè)革命的進行,人們對AI的前景和危險以及組織如何更好地實現其價值提出了疑問。

確保公司AI符合道德的8種方法

對于工程師和開發(fā)人員而言,將“道德規(guī)范”集成到技術產品中可能會變得抽象。盡管許多技術公司正在以具體而切實的方式獨立地研究如何做到這一點,但我們必須打破這些孤島并分享最佳實踐。通過相互協作以相互學習,我們可以提高整個行業(yè)的門檻-一個很好的起點是著重于獲得信任的事物。

許多公司都在發(fā)布有關設計和部署AI產品的方法的高級原則。但是,原則只有在實際實施的情況下才有價值。Workday最近發(fā)布了《道德AI的承諾》,以展示我們如何實施直接建立在客戶服務,誠信和創(chuàng)新的核心價值之上的原則。根據我們的經驗,這是為希望在整個組織中倡導這些原則的技術公司提供的八課:

1.定義“ AI倫理”的含義。對于公司中所有相關的利益相關者,此定義必須是特定的且可采取行動。在我公司,這意味著我們的機器學習(ML)系統(tǒng)反映了我們對道德AI的承諾:我們以人為本。我們關心社會;我們公平行事并尊重法律;我們透明且負責;我們保護數據;并且我們提供了適合企業(yè)使用的機器學習系統(tǒng)。

確保公司AI符合道德的8種方法

2.在產品開發(fā)和發(fā)布框架中構建符合道德規(guī)范的AI。這些不能是為開發(fā)人員和產品團隊帶來更多工作和復雜性的單獨過程。Workday已將我們的原則構建到我們產品開發(fā)的架構中,并創(chuàng)建了可推動持續(xù)遵守這些原則的流程。新的機器學習控制已被納入我們的正式控制框架中,以作為對我們機器學習倫理原則的額外執(zhí)行。我們的開發(fā)團隊通過提出有關數據收集和數據最小化,透明度和價值的問題,以道德的角度審查每一種機器學習產品。我們在隱私領域擁有悠久的歷史,包括設計隱私流程以及根據我們的控制和標準進行的第三方審核。Workday接受了一套針對計算機學習的按道德規(guī)范設計的控件,并建立了健全的審批機制來發(fā)布新技術以及任何新的數據使用方式。我們致力于持續(xù)審查我們的流程,并不斷發(fā)展以納入新的行業(yè)最佳實踐和監(jiān)管準則。

3.創(chuàng)建跨職能的專家組,以指導有關負責任的機器學習和人工智能的設計,開發(fā)和部署的所有決策。在此旅程的早期,Workday建立了一個機器學習工作隊,由來自我們的產品和工程,法律,公共政策和隱私,道德與合規(guī)團隊的專家組成。這些小組研究了我們產品中ML的未來和現有用途。匯集這些多樣化的技能和觀點來討論產品中ML的未來和現有用途非常有效,并且使我們能夠在產品生命周期的早期識別潛在問題。

4.將客戶協作帶入負責任的AI的設計,開發(fā)和部署。在產品開發(fā)生命周期中,Workday會與我們的客戶咨詢委員會合作,該委員會來自我們廣泛的客戶群,在我們的產品開發(fā)生命周期中,它獲得了有關AI和ML相關開發(fā)主題的反饋。通過我們的早期采用者計劃,我們與少數幾個作為設計合作伙伴的客戶緊密合作,通過創(chuàng)新服務來測試新的ML模型和功能,從而使我們能夠盡早了解和解決客戶關于AI和ML的想法和問題我們共同開發(fā)以人為本的ML解決方案。

5.采用生命周期方法來偏向機器學習。機器學習工具提供了一個難得的機會,可以幫助我們的客戶利用數據來增強人類的決策能力。有了這個機會,就有責任建立企業(yè)就緒的工具來維持客戶的信任,這就是為什么我們對道德AI承諾的重點之一就是減輕ML中的有害偏見。我們使用“生命周期方法”,從新產品的最初概念到發(fā)布后階段,我們將通過這種方法執(zhí)行各種偏差評估和審查。

6.要透明。ML對數據的道德使用要求透明。由于ML算法可能非常復雜,因此公司應該在解釋使用什么數據,如何使用數據以及用于什么目的方面超越其他領域。向客戶說明您的機器學習技術如何工作以及它們所提供的好處,并描述為您提供的任何機器學習解決方案提供支持所需的數據內容。在您的機器學習解決方案中向客戶展示責任。

7.授權您的員工設計負責任的產品。我們通過必需的道德培訓模塊,工具包,研討會,員工入職培訓和講習班來做到這一點,以確保對員工進行如何遵守我們的AI道德承諾的培訓。例如,一個以人為中心的設計思想研討會使用不同的場景和角色來幫助Workday員工理解我們對創(chuàng)建道德ML技術的承諾。

確保公司AI符合道德的8種方法

8.分享您所知并向行業(yè)內其他人學習。我們通過參加行業(yè)團體和同行會議(例如世界經濟論壇技術倫理設計和部署指導委員會)來做到這一點,以幫助開發(fā)技術產業(yè)的道德框架。此外,Workday將監(jiān)控和促進新標準和計劃作為優(yōu)先事項。在美國,我們在道德AI方面與立法者和機構官員進行了廣泛接觸,包括制定和參加國會AI核心小組的工作人員介紹“道德AI的行業(yè)方法”的簡報會,并在行業(yè)和決策者之間扮演召集人的角色。多個場所。此外,我們還為美國國家科學基金會(National Science Foundation)對國家人工智能研究與發(fā)展戰(zhàn)略計劃和美國國家標準技術研究院(NIST)的報告,人工智能標準和工具開發(fā)。我們繼續(xù)倡導NIST在AI倫理工具的開發(fā)中發(fā)揮更大的作用。在歐洲,Workday參與了一項試點計劃,以評估歐盟高級專家組的道德準則(HLEG)可信賴的人工智能評估列表。

在我們不斷發(fā)展的道德AI世界中,分享實踐并確定我們在此過程中學到的知識將比以往任何時候都更加重要。我們渴望聽到其他人對擴大規(guī)模和實施有效的方法的意見,我們歡迎分享的機會。實際上,Workday 與世界經濟論壇進行合作的目的是鼓勵其他人加入我們,分享他們在倡導負責任和道德技術方面的最佳實踐。追求負責任,合乎道德的人工智能和技術至關重要-并且比任何一家公司或組織都更大。

我們應當共同努力,通過我們的行動建立善意和信任,使我們能夠認識到這些強大的新技術的好處。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時間聯系我們修改或刪除,多謝。