微軟科學家說負責任的人工智能取決于模型的可視性

2020-03-24 13:17:00    來源:    作者:

人工智能的興起已經(jīng)警告人們有偏見,欺騙性和惡意的應用程序。

微軟公司高級機器學習科學家和云倡導者弗朗西斯卡·拉澤里(Francesca Lazzeri)表示,但是有一種方法可以避免偏差并確保負責任的AI 。

微軟科學家說負責任的人工智能取決于模型的可視性

“在我們的團隊中,我們有一個稱為“可解釋性工具包”的工具包,它實際上是一種開放機器學習模型并了解不同變量,不同數(shù)據(jù)點之間的不同關系的方式,” Lazzeri說。“這是一種簡單的方法,您可以了解為什么您的模型可以為您提供特定的結果。”

除了在Microsoft工作之外,Lazzeri還是博士的導師。和麻省理工學院的博士后學生。

在佛羅里達州奧蘭多舉行的Microsoft Ignite活動中,她與SCU Miniman 和Rebecca Knight交談,后者是SiliconANGLE Media的移動直播工作室的聯(lián)合主持人。他們討論了負責任的AI的發(fā)展道路以及Microsoft最近在機器學習中發(fā)布的版本。

微軟科學家說負責任的人工智能取決于模型的可視性

Lazzeri說,在AI應用程序中發(fā)現(xiàn)的大多數(shù)偏差問題都始于數(shù)據(jù)。她說:“您必須確保數(shù)據(jù)足以代表您的AI應用程序所針對的總體。” “大多數(shù)時候,客戶只是使用自己的數(shù)據(jù)。查看外部數(shù)據(jù)類型也很有幫助。”

避免問題的另一種方法是與業(yè)務和數(shù)據(jù)專家一起檢查模型。“有時候我們有數(shù)據(jù)科學家在孤島上工作;他們并沒有真正傳達他們在做什么,” Lazzeri指出。“您必須始終確保數(shù)據(jù)科學家,機器學習科學家與數(shù)據(jù)專家,業(yè)務專家以及每個人都在密切合作……以確保我們了解我們在做什么。”

對于剛開始機器學習之旅的公司,第一步是確定必須回答的業(yè)務問題,Lazzeri解釋說:“一旦想到了這個問題,第二步就是了解他們是否擁有正確的數(shù)據(jù)支持該過程所需的內(nèi)容。”

微軟科學家說負責任的人工智能取決于模型的可視性

在那之后,重要的是能夠將業(yè)務問題轉換為機器學習問題。“而且,最后,您始終必須確保能夠部署此機器學習模型,以便為部署以及我們所謂的操作部分做好準備,” Lazzeri說。“這確實是您要在機器學習解決方案中增加業(yè)務價值的時刻。”

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時間聯(lián)系我們修改或刪除,多謝。