加州大學(xué)伯克利分校的一項新研究表明,人工智能的進步已經(jīng)對健康數(shù)據(jù)的隱私造成了新的威脅。這項由工程學(xué)院工業(yè)工程與運籌學(xué)部(IEOR)教授Anil Aswani及其團隊領(lǐng)導(dǎo)的研究表明,目前的法律法規(guī)遠遠不足以在人工智能發(fā)展面前保持個人健康狀況的私密性。
在這項由加州大學(xué)伯克利分校長期網(wǎng)絡(luò)安全中心資助的工作中,Aswani表明,通過使用人工智能,可以通過學(xué)習(xí)步驟數(shù)據(jù)中的日常模式來識別個體(如活動跟蹤器,智能手表和智能手機)并將其與人口統(tǒng)計數(shù)據(jù)相關(guān)聯(lián)。對超過15,000名美國人的兩年數(shù)據(jù)的挖掘得出的結(jié)論是,與1996年的HIPAA(健康保險流通與責任法案)立法相關(guān)的隱私標準需要重新審視和重新制定。
“我們希望使用NHANES(國家健康和營養(yǎng)檢查調(diào)查)來查看隱私問題,因為這些數(shù)據(jù)代表了美國不同的人口,”Aswani說。“結(jié)果指出了一個重大問題。如果您刪除所有識別信息,它并不像您想象的那樣保護您。如果他們有正確的信息,其他人可以回來把它們?nèi)恐匦陆M合起來。“
“原則上,你可以想象Facebook從你的智能手機上的應(yīng)用程序收集步驟數(shù)據(jù),然后從另一家公司購買醫(yī)療保健數(shù)據(jù)并匹配這兩者,”他解釋說。“現(xiàn)在,他們將擁有與名稱相匹配的醫(yī)療保健數(shù)據(jù),他們可以開始基于此銷售廣告,也可以將數(shù)據(jù)出售給其他人。”
Aswani明確表示問題不在于設(shè)備,而在于設(shè)備捕獲的信息如何被濫用并可能在公開市場上出售。
“我不是說我們應(yīng)該放棄這些設(shè)備,”他說。“但我們需要非常小心我們?nèi)绾问褂眠@些數(shù)據(jù)。我們需要保護信息。如果我們能做到這一點,那就是凈利好。“
雖然該研究專門研究了步驟數(shù)據(jù),但Aswani表示,結(jié)果表明對健康數(shù)據(jù)隱私的威脅更大。“HIPAA規(guī)定使您的醫(yī)療保健變得私密,但它們并沒有像您想象的那樣覆蓋,”他說。“許多團體,如科技公司,不在HIPAA范圍內(nèi),只有非常具體的信息才能被當前的HIPAA規(guī)則所共享。有些公司購買健康數(shù)據(jù)。它應(yīng)該是匿名數(shù)據(jù),但他們的整個商業(yè)模式是找到一種方法將名稱附加到這些數(shù)據(jù)并出售。“
Aswani說,他擔心隨著AI的進步使公司更容易獲得健康數(shù)據(jù),公司以非法或不道德的方式使用它的誘惑將會增加。例如,雇主,抵押貸款人,信用卡公司和其他人可能會使用人工智能來區(qū)分懷孕或殘疾狀況。
“理想情況下,我希望從中看到的是保護健康數(shù)據(jù)的新法規(guī)或規(guī)則,”他說。“但實際上,現(xiàn)在甚至?xí)魅醴ㄒ?guī)。例如,HIPAA的規(guī)則制定小組要求就增加數(shù)據(jù)共享提出意見。風(fēng)險在于,如果人們不知道發(fā)生了什么,我們的規(guī)則就會被削弱。事實上,當醫(yī)療保健實際上在增加而不是減少時,我們失去對隱私控制的風(fēng)險。“