訂閱
糾錯
加入自媒體

圖片一縮放,AI就把熊貓“認”成長臂猿了,這么傻的AI該如何保護?

2020-08-19 14:58
學術頭條
關注

在實際生活中,我們通常不會期望一個圖像在經過縮小后變成另外一個模樣完全不同的圖像,但這樣奇怪的事情可能會在人工智能領域發(fā)生。

來自德國 Braunschweig 技術大學的研究人員通過大量實驗已經證明,仔細修改數碼照片的像素值可以使照片在縮小尺寸后變成與之前完全不同的圖像,而這些對圖像的修改操作在人工智能算法領域的影響值得被廣泛關注。

圖像縮放技術在人工智能研究領域有著十分重要的地位,但是也存在一些挑戰(zhàn)。其主要的問題就是,惡意攻擊者可以利用這種圖像縮放技術,對用于人臉識別、目標檢測等計算機視覺方向的機器學習模型發(fā)起對抗性攻擊。

其中,對抗性機器學習是一種對數據進行操作的技術,它能在不被人類察覺的情況下改變人工智能算法的行為,而創(chuàng)建對抗性的機器學習示例是一個反復試驗的過程。創(chuàng)建對抗性示例包括對圖像像素進行細微的調整,再通過 AI 算法重新運行該圖像,以查看圖像置信度的變化。通過適當調整后,可以自動化創(chuàng)建一個噪音映射(noise map)來降低一個類的置信度,而提高另一個類的置信度。

在今年 Usenix 安全研討會上發(fā)表的一篇論文中,TU Braunschweig 的研究人員就針對機器學習系統的分級和防止對抗性圖像縮放攻擊進行了深入的回顧。他們的發(fā)現不斷提醒我們,AI 算法許多隱藏的方面和威脅還未被發(fā)現,導致這些影響在我們的日常生活中正變得越來越突出。

對抗性圖像縮放

當在許多實例上訓練時,機器學習模型創(chuàng)建不同類之間相似性程度的數學表達。例如,如果你訓練一個機器學習算法來區(qū)分熊貓和長臂猿,它就會嘗試創(chuàng)建一個統計模型來區(qū)分新圖像中的像素是更像熊貓還是長臂猿。

實際上,這些人工智能算法學習區(qū)分不同物體的方式與人類視覺的工作方式不同。大多數對抗性攻擊利用這種差異,在改變機器學習系統輸出的同時,進行人類肉眼無法察覺的細微調整。

例如,當你讓一個人描述他是如何從圖片中發(fā)現熊貓的,他可能會尋找一些目標的身體特征,比如眼睛周圍的黑色毛發(fā),黑白相間的皮毛以及體型大小。他可能還會給出其他的背景,比如他希望看到熊貓在什么樣的棲息地,會擺出什么樣的動作姿勢等等。

而對于人工神經網絡來說,只要根據公式,通過計算機程序運行圖像的像素值提供正確的答案,就確信所看到的圖像確實是一只熊貓。換句話說,通過正確地調整圖像中的像素值,你也可以讓 AI 誤以為它看到的不是熊貓。

其中的細節(jié)在于,研究人員在圖像上添加了一層人眼幾乎覺察不到的噪聲。

當新的像素值通過人工神經網絡時,會產生從長臂猿的圖像中所期望的結果。而在人眼看來,左右兩幅圖像似乎是同一只熊貓。

研究人員在他們的論文中寫道:“盡管大量研究都在研究針對學習算法的攻擊,但目前為止,幾乎沒有人關注機器學習預處理中的漏洞。”但是,當經典的對抗性攻擊利用人工智能算法內部工作的特性時,圖像縮放攻擊就集中在機器學習流水線的預處理階段。

1  2  3  下一頁>  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號