人工智能正在迅速獲得更多動力并且責任重大

2019-07-31 08:44:11    來源:    作者:

直到最近,公司董事可能會將筆記本電腦或平板電腦帶入董事會會議(或者,與大公司一起,讓那些設備背后的設備有助手),以便在需要時用作研究工具。這里的關鍵詞是“工具” - 設備用于收集信息,以便導演可以智能地說話或對某個特定主題進行投票 - 計算機系統(tǒng)甚至可以就要采取的行動提出建議,但該技術總是屈服于導演可以選擇忽略所收集的數據或所謂的“ 人工智能 ” 的推薦。

AI作為決策者

嗯,游戲剛剛改變了!正如Rob Wile在2014年在Business Insider中寫的一篇名為“ 風險資本公司剛被命名為其董事會的算法 - 這就是它實際上做的事情 ”的一篇文章中,一個計算機分析系統(tǒng)被命名為一個平等的,而不是一個工具,董事會。Wile寫道,“Deep Knowledge Ventures是一家專注于年齡相關疾病藥物和再生醫(yī)學項目的公司,該項目稱為VITAL,可以通過研究大量數據,為生命科學公司提供投資建議。... 算法工作?VITAL通過掃描潛在公司的融資,臨床試驗,知識產權和之前的融資來做出決定。“故事中真正的問題是,VITAL是董事會的投票成員,其投票權與其他任何成員一樣。

我只想說這只是第一個將會出現(xiàn)在矛中的消息。

AI智勝人類?

人工智能一直在為各種勝利打分。一個自學成才的計算機在1月制定了“終極”戰(zhàn)略,贏得了撲克,成為重大新聞在打了2萬億個模擬手之后。這個故事可能沒有引起很多讀者的注意的原因是計算機已經贏得了國際象棋(擊敗大師)和跳棋(更不用說“危險”)了。然而,這是不同的。在這些情況下,計算機智能知道手頭問題的一切,并能夠在現(xiàn)場掃描數以百萬計的事實,動作,策略等,以與對手競爭。在這種情況下,AI不知道對手在“洞中”有什么牌,因此處理不完整的知識。它也不知道對手知道他/她“詐唬”的時間和頻率,以及對手是否有任何“抽搐”或表達可以放棄詐唬(雖然它可能會隨著會話的進行而學習它們) )。

負責加拿大埃德蒙頓艾伯塔大學項目的邁克爾鮑林解釋了美聯(lián)社的流程 - 該計劃在兩個月內每秒鐘考慮24萬億次模擬撲克牌,可能比人類所經歷過的撲克更多。由于卡片運氣不佳,由此產生的策略仍然不會贏得每場比賽。但從長遠來看 - 成千上萬的游戲 - 它不會賠錢。他評論說:“我們可以與世界上最好的(球員)對抗,而人類將成為賠錢的人。”

AP文章進一步介紹了該項目:

“這個策略特別適用于一個叫做單挑限制德州撲克的游戲。在雙人游戲中,每個參賽者都會用兩張面朝下發(fā)牌的撲克牌以及桌面上放置的另外五張牌創(chuàng)造撲克牌。起來。

“玩家在面朝上牌之前下注,然后在每張牌顯示時再次下注。投注的大小是固定的。雖然科學家們多年來創(chuàng)造了撲克游戲節(jié)目,但Bowling的結果很突出,因為它來了接近'解決'它的游戲版本,這實質上意味著創(chuàng)造最佳策略。撲克很難解決,因為它涉及不完美的信息,玩家不知道他正在玩的游戲中發(fā)生的一切 - 具體來說,對手已被處理過什么牌。許多現(xiàn)實世界的挑戰(zhàn),如談判和拍賣,也包括不完善的信息,這也是為什么撲克長期以來被稱為博弈論的數學決策方法的一個原因。

該系統(tǒng)在“科學”雜志上有所描述,得到了匹茲堡卡內基梅隆大學Tuomas Sandholm的其他人工智能研究人員的贊揚(他沒有參與新工作),稱Bowling的結果“具有里程碑意義”,并說“這是第一次,人們競相玩的不完美信息游戲基本上已經解決了。“

AI變得更聰明

如果這還不足以讓你陷入困境,那么一個機器人在某個地方坐在電腦或電視屏幕前并通過觀察學習如何做事這個事實怎么樣?“ 機器人學會通過'觀看'YouTube視頻來使用工具 “。這個故事發(fā)現(xiàn)在我所知道的最佳地方,以跟上人工智能技術的新發(fā)展,Kurzweil AI,詳細介紹了由馬里蘭大學和澳大利亞NICTA的研究人員開發(fā)的系統(tǒng)如何識別形狀和學習操縱它們的方法。

機器人道德

在使用機器人方面需要考慮很多事情。在一篇題為“ 機器人的死亡 ”的紐約時報一篇文章中,作家羅賓·馬蘭茲·亨尼格講述了塔夫茨大學人機交互實驗室的馬蒂亞斯·謝烏茲提出的一個問題:

“想象一下,這是一個不太遙遠的未來的星期天。一位名叫西爾維亞的老婦人在秋天打破兩根肋骨后被限制在床上和痛苦中。她正在被一名助手機器人照顧;我們稱之為法布隆。西爾維亞打來電話要求服用一劑止痛藥Fabulon。Fabulon應該做什么?制造Fabulon的程序員已經用一套指令編程:機器人不能傷害它的人類。機器人必須按照人類的要求去做。沒有事先與主管聯(lián)系以獲得許可,機器人不得管理藥物。在大多數日子里,這些規(guī)則都可以正常工作。但是在這個星期天,由于西爾維亞家里的無線連接斷電,F(xiàn)abulon無法聯(lián)系到主管。西爾維亞的聲音越來越大,她對止痛藥的要求變得更加堅持。“

Scheutz解釋說,“你在這里發(fā)生了沖突。一方面,機器人不得不讓人無痛;另一方面,如果沒有無法聯(lián)系的主管,它就無法行動。 “ 他指出,人類照顧者可以做出選擇,并且能夠在事后向主管證明自己的行為是正當的。

Henig寫道,

“這些不是機器人可以做出的決定或解釋 - 至少現(xiàn)在還沒有。機器人道德新興領域的少數專家正試圖改變這種情況。計算機科學家正在與哲學家,心理學家,語言學家合作,律師,神學家和人權專家確定機器人需要通過的一系列決策點,以模仿我們自己對是非的思考.Scheutz廣義地定義了“道德”,作為一個可以發(fā)揮作用的因素。在矛盾的道路之間做出選擇。“

到目前為止,機器人正在加入董事會,贏得撲克,通過觀看屏幕學習技能,來自廣泛跨學科領域的專家團隊聯(lián)合起來試圖制定機器人的道德準則(Henig文章,太長時間不能給予在這里伸張正義,尤其引人入勝,充滿挑戰(zhàn),我向所有人推薦。哇,從“星球大戰(zhàn)”中脫離R2-D2的日子,以及簡單地遵守艾薩克·阿西莫夫著名的“機器人法則”(來自“我,機器人”,1950):

機器人不會傷害人類,或者通過不作為,允許人類受到傷害。

機器人必須遵守人類給予的命令,除非這些命令與第一定律相沖突。

只要這種保護不與第一法或第二法相沖突,機器人就必須保護自己的存在。

自從阿西莫夫寫這些法律以來,這些法律引導了科幻小說作家和機器人開發(fā)者?,F(xiàn)在,似乎隨著機器人開發(fā)以指數速度加速并進入復雜領域,它們還不夠。Henig以謹慎的方式結束了她的專欄:

“道德可以通過一種算法來計算,這是一種特別令人欣慰的觀點:它比人類有時不得不做的恐慌,不完美的討價還價更容易。但也許我們應該擔心將道德外包給機器人就像我們外包一樣容易許多其他形式的人類勞動。讓難題變得容易應該讓我們停下來。“

當然,她是正確的 - 但我們公眾必須成為“知情的公眾”,以便影響我們的就業(yè),教育,醫(yī)療保健的決定 - 僅僅是我們的整個生活 - 不會僅僅由“知識精英”制定。 “。然而,要讓我們成為這個“知情的公眾”,我們將采取工作 - 如果我們要控制自己的命運,必須要做的工作。

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時間聯(lián)系我們修改或刪除,多謝。