Ofcom和Cambridge Consultants合作完成了一份報告,研究了AI支持的在線內(nèi)容審核的有效性。
世界各國政府對社交網(wǎng)絡和通信服務施加越來越大的壓力,要求對發(fā)布在其中的內(nèi)容負責。社會本身正越來越意識到直播恐怖襲擊,網(wǎng)絡欺凌,政治操縱等帶來的危險。
對于某些擁有數(shù)十億用戶的平臺,手動管理發(fā)布的所有內(nèi)容是不可行的。上載非法內(nèi)容后,通常需要有人舉報并等待人類主持人做出決定(這些主持人有時在暴露于此類內(nèi)容后需要接受治療)。
Ofcom和Cambridge Consultants的報告建議,AI可以通過以下幾種主要方式幫助減輕對主持人的心理影響:
改變他們所接觸的有害物質(zhì)的含量和類型。
自動模糊掉部分內(nèi)容,主持人可以根據(jù)需要選擇查看以做出決定。
人們可以“詢問”有關內(nèi)容的AI問題以做好準備,或者知道是否對他們來說特別困難,這可能是由于過去的個人經(jīng)驗所致。
手動審核內(nèi)容的過程緩慢,通常意味著有數(shù)百萬人在刪除有害內(nèi)容之前就將其刪除。盡管當今大多數(shù)AI審核實施仍需要人工監(jiān)督,但內(nèi)容檢測方面的一些進步有助于加快標記和刪除內(nèi)容的速度。
本月早些時候,F(xiàn)acebook擁有的Instagram 公布了對人工智能驅(qū)動的審核系統(tǒng)的改進,以防止發(fā)布麻煩的內(nèi)容。盡管以前只限于評論,但Instagram現(xiàn)在會問用戶“您確定要發(fā)布嗎?” 對于它認為可能對他人造成困擾的任何帖子。
作為英國的電信監(jiān)管機構(gòu),Ofcom的報告應有助于形成可行的政策,而不是政治家的通用要求,而不是真正了解這些事情的工作原理(有人能記得呼吁禁止加密和/或故意創(chuàng)建后門的呼吁嗎?)
該報告實質(zhì)上確定了在可預見的將來,不可能進行有效的全自動內(nèi)容審核。
完全自動化的內(nèi)容審核存在問題的主要原因之一是-雖然可以通過單獨分析來識別一些有害的帖子,但其他內(nèi)容則需要對上下文有充分的了解。例如,研究人員指出,對于當今的AI適度解決方案而言,很難解決國家法律中的地區(qū)和文化差異以及什么在社會上可以接受,但對于本地人類主持人而言卻微不足道。
一些內(nèi)容也比其他內(nèi)容容易分析。照片和預先錄制的視頻可以在發(fā)布之前進行分析,而實況直播則特別困難,因為看似無辜的場景可能會很快變得有害。
劍橋咨詢公司的報告說:“將繼續(xù)要求人類主持人審閱高度上下文,細微差別的內(nèi)容。” “但是,基于AI的內(nèi)容審核系統(tǒng)可以減少人工審核的需求,并減少查看有害內(nèi)容對他們的影響。”