這是一個好問題:既然機器可以學習,它們能忘掉嗎?
很多公司都使用機器學習來分析人們的欲望、厭惡或面孔。研究人員提出了一個不同的問題:我們如何讓機器忘記學習?
機器學習正在尋找如何在人工智能軟件中誘發(fā)選擇性失憶的方法。目標是從機器學習系統(tǒng)中刪除特定人員或數據點的所有痕跡,而不影響其性能。
如果該功能可以實現(xiàn),這個概念可以更好地讓人們控制他們的數據和產生的價值。盡管用戶已經可以要求一些公司刪除個人數據,但他們并不清楚算法是如何調整這些信息。機器忘掉學習卻有可能讓一個人撤回他們的數據和公司獲利的方法。
該方法對于那些想刪除網上分享的內容來說很直觀,但人工健忘癥的概念需要計算機科學方面的一些新想法。
你認為這個想法可以實現(xiàn)嗎?
這些公司花費數百萬美元訓練機器學習算法來識別面孔或對社交帖子進行排名,算法比手動編碼人員可以更快地解決問題。但一旦經過訓練,機器學習系統(tǒng)就不會輕易改變,甚至不會被理解。消除特定數據點影響的傳統(tǒng)方法是從頭開始重建系統(tǒng),這是一項代價高昂的工作。
賓夕法尼亞大學機器學習的教授亞倫羅斯表示“這項研究旨在找到一些中間立場,當他們要求刪除數據時,我們能否消除他們數據的所有影響,同時避免從頭開始重新訓練的全部成本?”
機器取消學習的工作部分是由于人們關注到人工智能可能侵犯隱私的方式。長期以來,世界各地的數據監(jiān)管機構都有權強制公司刪除不良信息。例如歐盟和加利福尼亞州的公民,如果他們對披露的內容改變了主意,他們有權要求公司刪除他們的數據。最近,美國和歐洲的監(jiān)管機構表示,人工智能系統(tǒng)有時必須更進一步:刪除針對敏感數據進行訓練的系統(tǒng)。
“當他們要求刪除數據時,我們能否消除他們數據的所有影響,同時避免從頭開始重新訓練的全部成本?”
去年,英國數據監(jiān)管機構警告,一些機器學習軟件可能會受到 GDPR 權利的約束,例如數據刪除,因為 AI 系統(tǒng)可能包含個人數據。安全研究人員已經表明,算法有時會被迫泄露其創(chuàng)建中使用的敏感數據。今年年初,美國聯(lián)邦貿易委員會迫使面部識別公司 Paravision 刪除了一系列以不當方式獲取的面部照片和用它們訓練的機器學習算法。FTC 專員 Rohit Chopra 稱贊這種新的執(zhí)法策略是一種迫使違反數據規(guī)則的公司“喪失其欺騙成果”的方式。
取消機器學習研究的小領域正在努力解決這些監(jiān)管轉變帶來的一些實際和數學問題。研究人員已經表明,他們可以讓機器學習算法在某些條件下忘記,但該技術尚未準備好。
“對于一個年輕的領域來說很常見,這個領域渴望做的事情與我們現(xiàn)在知道如何做的事情之間存在差距,”羅斯說。
多倫多大學和威斯康星大學麥迪遜分校的研究人員在 2019 年時,提出了一種很有前景的方法是將新機器學習項目的源數據分成多個部分。單獨處理每個,然后將結果組合到最終的機器學習模型中。如果需要忘記一個數據點,則只需重新處理原始輸入數據的一小部分。該方法被證明適用于在線購買數據和超過一百萬張照片的集合。
Roth 和來自賓夕法尼亞大學、哈佛大學和斯坦福大學的合作者最近證明了這種方法的一個缺陷,表明如果提交的刪除請求以特定的順序出現(xiàn),無論是偶然的還是來自惡意行為者,學習系統(tǒng)都會崩潰。并且他們還展示了如何緩解這個問題。
滑鐵盧大學教授 Gautam Kamath 也致力于取消學習,他說該項目發(fā)現(xiàn)并解決的問題是,關于如何使機器取消學習不僅僅是實驗室好奇心的許多懸而未決的問題的一個例子。他自己的研究小組一直在探索通過連續(xù)取消學習多個數據點來降低系統(tǒng)準確性的程度。
Kamath 還對尋找方法讓公司證明——或監(jiān)管機構來檢查——系統(tǒng)真的忘記了它應該忘記的東西?!案杏X好像還有一段路要走,但也許他們最終會為這類事情配備審計員,”他說。
隨著 FTC 和其他機構仔細研究算法的力量,調查解除機器學習可能性的監(jiān)管理由可能會增加。牛津大學研究數據保護的教授魯本·賓斯 (Reuben Binns) 表示,近年來在美國和歐洲,個人應該對其數據的命運和成果有發(fā)言權的觀念越來越多。
在科技公司真正實施機器學習之前,需要精湛的技術工作,讓人們更好地控制其數據的算法命運。即便如此,該技術可能不會對人工智能時代的隱私風險產生太大影響。
差分隱私是一種巧妙的技術,可以對系統(tǒng)泄漏的個人信息進行數學限制,提供了有用的比較。蘋果、谷歌和微軟都對這項技術贊不絕口,但使用相對較少,隱私風險仍然很多。
Binns 說,雖然它確實很有用,但“在其他情況下,它更像是一家公司所做的事情,以表明它正在創(chuàng)新?!彼麘岩蓹C器取消學習可能會證明是相似的,與其說是數據保護的重大轉變,不如說是對技術敏銳度的展示。即使機器學會忘記,用戶也必須記住要小心與誰共享數據。
參考鏈接:
https://www.wired.com/story/machines-can-learn-can-they-unlearn/
本文由AI科技大本營翻譯,轉載請注明出處。
*博客內容為網友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。
濾波器相關文章:濾波器原理
濾波器相關文章:濾波器原理