59%的科技工作者有從事他們認(rèn)為可能對社會有害的產(chǎn)品的經(jīng)驗(yàn),其中超過四分之一的人感到如此強(qiáng)烈以至于他們辭職它。這與AI產(chǎn)品有關(guān)。另外,63%的受訪者表示他們希望在本周內(nèi)有更多的空間來考慮他們所從事的技術(shù)的影響。樣本量很小,可能沒有代表性,但報告仍然具有指導(dǎo)意義。
這與最近的兩個趨勢有關(guān)。首先,員工激進(jìn)主義在大科技雇主的社會影響方面崛起 - 從亞馬遜工人呼吁公司提出氣候變化戰(zhàn)略(最近被股東拒絕)到#GoogleWalkout運(yùn)動,抗議搜索巨頭處理性行為騷擾,不當(dāng)行為,透明度和其他工作場所問題。其次,人們普遍關(guān)注人工智能的進(jìn)步 - 來自“日常”應(yīng)用的倫理學(xué),例如“間諜”語音助手,破壞自由的面部識別系統(tǒng),以及用于預(yù)測性治療或表面上更公平的算法對根深蒂固的偏見的長期存在招聘對于人工智能系統(tǒng)的潛力(由科幻電影和哲學(xué)啟發(fā)的網(wǎng)絡(luò)游戲傳播)最終導(dǎo)致人類的垮臺。
最近出現(xiàn)的是對這種懷疑主義和誹謗行為的反對 - 其中一些無疑是有道理的; 其中一些更為幻想 - 一直是“人工智能”的概念,這是“技術(shù)為善”運(yùn)動的一個更具體的方面。
“AI for good”趨勢促成了諸如Google AI影響力挑戰(zhàn)等計(jì)劃的制定,通過應(yīng)用人工智能來識別和支持20家創(chuàng)業(yè)公司,從醫(yī)療保健到新聞業(yè)等廣泛領(lǐng)域的挑戰(zhàn),創(chuàng)造積極的社會影響力,能源傳播,教育環(huán)保主義。斯坦福大學(xué)推出了以人為本的人工智能研究所。與此同時,在斯坦福大學(xué),我的同事Jennifer Aaker和 Fei-Fei Li開發(fā)了一門課程 - 設(shè)計(jì)人工智能以培養(yǎng)人類福祉 - 旨在滿足人工智能產(chǎn)品,服務(wù)和企業(yè)對社會利益的需求。
這是關(guān)鍵,因?yàn)闃?biāo)簽“AI for good”有些誤導(dǎo)。它表明有多種類型的人工智能 - 無論是好還是壞 - 而我們應(yīng)該專注于確保“善”被嵌入到人工智能的概念中。例如,將“電力換成電力”稱為電力是沒有意義的 - 電力和基于它的產(chǎn)品和服務(wù)都是好的,即使它們當(dāng)然可以用于壞的目的。電力 - 然后是互聯(lián)網(wǎng)連接 - 成為日常生活的基礎(chǔ),它變成了一種實(shí)用工具,我們正在加速邁向不久的將來,其中AI(或至少由它驅(qū)動的服務(wù)和經(jīng)驗(yàn))將變得同樣重要,日常生活的基礎(chǔ)。
那么,嵌入AI的核心是什么意思呢?正如我之前在討論傳統(tǒng)和社會企業(yè)之間經(jīng)常被誤解的區(qū)別時所描述的那樣,它不僅僅是簡單地將一個積極的應(yīng)用或結(jié)果應(yīng)用于減輕或響應(yīng)其他負(fù)面影響的過程。它是關(guān)于避免完全產(chǎn)生負(fù)面影響,并使積極的社會價值不僅僅是事后的想法或副產(chǎn)品,而是積極的活動目標(biāo)。