Munchkinland市長提供了一套嚴(yán)格的標(biāo)準(zhǔn),以確保東方的邪惡女巫真的死了。他希望在法律,道德,道德,精神,身體,積極,絕對,無可否認和可靠的情況下對其進行核實。
對于人工智能結(jié)果來說,這也不是一個糟糕的過濾器。
人工智能已經(jīng)足夠成熟,我們可以用它的首字母縮略詞來稱呼它。IDC的研究人員預(yù)計,未來幾年,政府和行業(yè)對人工智能的支出將以近50%的復(fù)合增長率增長,到2021年達到520億美元。相比之下,他們預(yù)測全球云計算支出將達到1600億美元范圍。也就是說,人工智能與云計算的支出程度相同 - 大。
人工智能滲透到政府,而不僅僅是試點項目。它正在各種代理機構(gòu)中開展實際工作。
由于研究人員和埃森哲(Accenture)和德勤(Deloitte)等主要人工智能服務(wù)供應(yīng)商的共同推廣,人工智能中的道德觀念已經(jīng)成為前沿和中心。使用純粹的技術(shù)方法,AI可以產(chǎn)生準(zhǔn)確但錯誤的結(jié)果 - 根據(jù)算法所采用的數(shù)據(jù)準(zhǔn)確,但在人與世界的現(xiàn)實中是錯誤的。
在這種情況下,道德歸結(jié)為一個簡單的想法:訓(xùn)練你的算法,使其與公正的,知識淵博的人知道或做的事情相匹配。對其進行培訓(xùn),以便產(chǎn)生符合政策的結(jié)果。文獻中充滿了例子。IDC政府的研究主管Adelaide O'Brien給出了一個。對于某些數(shù)據(jù)集,算法可能會得出結(jié)論,所有醫(yī)生都是男性,所有護士都是女性。一個人不會想到這個概念,但是在給定有限訓(xùn)練數(shù)據(jù)的情況下它可以用于AI算法。
從這個意義上講,人工智能就像一頭斗牛犬。如果你瞥一眼,有些人會變成可愛的傻瓜,背上翻身。其他人變得咆哮,咬著殺手。這取決于他們是如何訓(xùn)練的。
IDC建議各機構(gòu)采用基于三種載體的AI方法。首先,每個人都需要參與AI倡議。不要把它扔給IT商店。人工智能的應(yīng)用要求人力資源,法律,政策,當(dāng)然還要讓人們獲得兩分錢。IDC還包括總檢察長,保安人員和中央機構(gòu)管理人員。有那么多的利害關(guān)系。
第二個向量涉及數(shù)據(jù)管理。它要求IDC稱之為“強大的數(shù)據(jù)基礎(chǔ),數(shù)據(jù)治理和分析。”使用不同的數(shù)據(jù)集和相關(guān)數(shù)據(jù)集來訓(xùn)練AI算法。
在解釋人工智能計劃的預(yù)期目標(biāo)及其運作方式時,提出了三個問責(zé)制和透明度要求。代碼執(zhí)行時會發(fā)生什么應(yīng)該是可解釋和可審計的。
所有這些都意味著需要對人工智能系統(tǒng)進行持續(xù)的人為監(jiān)督。無論涉及的自動化程度如何,網(wǎng)絡(luò)安全專家始終保持對網(wǎng)絡(luò)安全鏈中人員的需求。AI也是如此。
AI中的關(guān)鍵詞是人為的,人類的反義詞。“人工智能”一詞背負著古老的內(nèi)涵和科幻小說的色彩; 想想 Robby the Robot和Morborious博士。它是現(xiàn)實,它只是軟件。如果處理不當(dāng),它可以有自己的想法。