紐約大學(xué)研究中心AI Now Institute研究人工智能對(duì)社會(huì)的影響,他說(shuō),隨著這些技術(shù)的廣泛應(yīng)用,負(fù)面影響開(kāi)始顯現(xiàn)。
研究人員寫(xiě)道,這份長(zhǎng)達(dá)93頁(yè)的報(bào)告審查了人們所關(guān)注的問(wèn)題:“從支持AI的工人管理,對(duì)福利和社會(huì)服務(wù)的算法確定,對(duì)移民和代表性不足的社區(qū)的監(jiān)視和跟蹤”。
“顯而易見(jiàn)的是,在不同的領(lǐng)域和環(huán)境中,人工智能正在擴(kuò)大不平等,將信息和控制權(quán)移交給已經(jīng)擁有權(quán)力的人,而進(jìn)一步削弱那些沒(méi)有權(quán)力的人的權(quán)力。”
研究人員說(shuō),“沒(méi)有適當(dāng)?shù)谋U洗胧┗蜇?zé)任結(jié)構(gòu),” 人工智能系統(tǒng)正在醫(yī)療,教育,就業(yè),刑事司法等領(lǐng)域中部署。
報(bào)告說(shuō),政府和企業(yè)應(yīng)“在敏感的社會(huì)和政治環(huán)境中”停止使用面部識(shí)別,直到更好地理解風(fēng)險(xiǎn)為止,并且應(yīng)禁止使用“影響識(shí)別”或計(jì)算機(jī)技術(shù)讀取情緒這一子集。懷疑它是否有效。
報(bào)告稱,“不應(yīng)允許情感識(shí)別在有關(guān)人的生活的重要決定中發(fā)揮作用,例如,面試或雇用誰(shuí),工作,保險(xiǎn)價(jià)格,患者痛苦評(píng)估或?qū)W生在學(xué)校的表現(xiàn)”。
它還呼吁科技工作者“有權(quán)知道自己正在建造什么,并有權(quán)反對(duì)其工作的不道德或有害使用。”
AI Now報(bào)告稱,使用先進(jìn)技術(shù)的醫(yī)療組織需要實(shí)施數(shù)據(jù)保護(hù)政策,并允許人們“肯定批準(zhǔn)”機(jī)會(huì)退出研究或治療,以及使用其醫(yī)療信息退出研究。
研究人員更廣泛地說(shuō),人工智能行業(yè)需要做出“結(jié)構(gòu)性改變”,以確保算法不會(huì)增強(qiáng)種族主義,偏見(jiàn)或缺乏多樣性。
報(bào)告稱:“人工智能行業(yè)非常相似,這在很大程度上是因?yàn)樗鼘?duì)待婦女,有色人種,性別少數(shù)群體和其他代表性不足的群體。”
報(bào)告稱,監(jiān)管AI系統(tǒng)的工作正在進(jìn)行中,但“被政府采用AI系統(tǒng)進(jìn)行監(jiān)視和控制的速度超過(guò)了”。
研究人員寫(xiě)道:“盡管越來(lái)越多的公眾關(guān)注和監(jiān)管行動(dòng),但是面部識(shí)別和其他危險(xiǎn)的AI技術(shù)的推出幾乎沒(méi)有放緩。”
“全球范圍內(nèi)所謂的“智慧城市”項(xiàng)目正在以營(yíng)利為目的的技術(shù)公司鞏固對(duì)公民生活的控制權(quán),使他們負(fù)責(zé)管理重要的資源和信息。”