公眾陷入與大數(shù)據(jù)和人工智能的混亂,愛恨交織的關(guān)系。新聞中令人興奮的新技術(shù)和數(shù)據(jù)輕重重重的影響了雙方。隨著有關(guān)道德和軟件自主性的難題日益迫切,共識仍然難以捉摸。
麻省理工學(xué)院工程系統(tǒng)教授斯圖爾特·馬德尼克(Stuart Madnick)(如圖)說:“道德問題的麻煩在于,他們往往沒有一個很好的明確答案 。” 這是因為幾乎沒有玫瑰在AI中沒有刺,也沒有潛在的陷阱而沒有回報。我們都喜歡預(yù)見下一個問題的應(yīng)用程序中的智能算法。他們需要大量的數(shù)據(jù)集進行訓(xùn)練。普通消費者認為,這對我來說很好,只要這不是我的數(shù)據(jù)即可。
Madnick采訪過 戴夫Vellante表示 和保羅·吉林,theCUBE,SiliconANGLE Media的移動即時串流工作室共同主辦的MIT CDOIQ研討會在劍橋期間。他們討論了面臨AI的制造商和消費者(看到完整的采訪成績單硬倫理問題在這里)。
事實是,根據(jù)Madnick的說法,沒有大數(shù)據(jù)或AI不會損害數(shù)據(jù)隱私或主權(quán)。我們?nèi)匀粵]有經(jīng)驗來判斷可接受的成本效益比。
麥德尼克說:“幾乎我們所做的每項研究都涉及到此類[道德]問題,而且人們都在投票,幾乎總是將其分散在各個方面,因為其中任何一個都是錯誤的決定。” “那么哪個錯誤的決定最不糟糕?”
Madnick指出,除了隱私問題之外,有關(guān)自動駕駛?cè)斯ぶ悄艿膯栴}也越來越多地涉及自動駕駛汽車的方法。在麻省理工學(xué)院,麥尼克(Madnick)向?qū)W生講授技術(shù)倫理學(xué)。自動駕駛的主題提出了一些難題。
例如,效用理論指出,如果汽車必須撞到一個人或多人,則最好撞到最少的人。以自動駕駛汽車中的駕駛員面對可能發(fā)生的碰撞為例。可以將汽車編程為撞到墻上,可能會殺死駕駛員,一名帶嬰兒車過馬路的婦女或成群的三名男子。第一個選擇是殺死汽車駕駛員,第二個選擇是女人和嬰兒,最后一個是三個男人。
Madnick解釋說,全班通常都不會對這種安排感到100%滿意。顯然,在AI中仍有很多道德方面的問題需要解決。