sponsored links

44種模型,RobustART評測CNN、Transformer、MLP-Mixer誰最魯棒?

機器之心專欄

北京航空航天大學、商湯科技、京東探索研究院等

來自北航、商湯科技和京東探索研究院等機構的研究者提出了第一個在大規模資料集 ImageNet 上面向模型結構和訓練技巧且針對多種噪音型別的模型魯棒性評測基準——RobustART。該 benchmark 全面評測了 44 種經典的手工設計和 1200 種 NAS 取樣得到的模型架構以及 10 餘種模型訓練技巧對於魯棒性的影響。

以深度學習為代表的人工智慧技術,在計算機視覺、語音識別、自然語言處理等方向上已經取得了巨大進展,在我們生活中的多個領域得到了廣泛的應用併發揮了極其關鍵的作用。然而,由於現實應用場景的開放性,以大資料訓練和經驗性規則為基礎的傳統人工智慧(如深度學習)方法面臨著輸入樣本含有噪音的挑戰,如:自然噪音、對抗噪音等。這些微小的噪音對於深度學習模型的魯棒性和安全性產生了很大的挑戰,其對於社會穩定甚至是公共安全都可能產生極大的影響。

哪種模型對於噪音更加魯棒?哪些模型架構和元件對於噪音有更強的抵禦能力?對於這些問題的研究能夠幫助我們更好地認識和理解模型魯棒性的本質,從而幫助研究人員進行更加魯棒的模型架構設計。進一步,這對於推進工業級魯棒模型的評測和落地應用、並最終服務於國家相關智慧模型魯棒評測標準的推進和開展具有十分重大的意義!因此,來自北京航空航天大學、商湯科技和京東探索研究院的研究人員聯合加州大學伯克利分校、牛津大學以及約翰斯 · 霍普金斯大學提出了第一個在大規模資料集 ImageNet 上面向模型結構(ARchitecture Design)和訓練技巧(Training Technique)且針對多種噪音型別的模型魯棒性評測基準——RobustART

benchmark 全面評測了 44 種經典的手工設計和 1200 種 NAS 取樣得到的模型架構以及 10 餘種模型訓練技巧對於魯棒性(對抗噪音、自然噪音、系統噪音等)的影響。並透過海量且深入的實驗探究,得出了大量的有價值實驗結果和眾多啟發性的結論,如:

(1)對於 Transformer 和 MLP-Mixer,對抗訓練可以全面提升其全部噪音魯棒性和任務本身的效果;

(2)在模型大小一致的前提下,對於自然噪音和系統噪音魯棒性:CNN>Transformer>MLP-Mixer,對於對抗噪音魯棒性,Transformer>MLP-Mixer>CNN;

(3)對於一些輕量化的模型族,增加其模型大小或者增加訓練資料並不能提升其魯棒性等。這些分析和結論將對人們認識模型魯棒性機理並設計安全穩固的模型架構產生重要的意義。

RobustART benchmark(1)提供了一個包含 leaderboard、資料集、原始碼等詳實資訊在內的開源平臺;(2)開放了 80 餘種使用不同模型結構和訓練技巧的預訓練模型,以便於研究人員進行魯棒性評估;(3)貢獻了嶄新的視角和大量的分析結論,讓研究人員更好地理解魯棒模型背後的內在機制。

RobustART 將作為核心組成部分,整合到北航團隊先前研發的人工智慧演算法與模型安全評測環境「重明」 系統當中,併發布「重明」2.0 版本(「重明」 是國內領先的智慧安全評測環境,曾受邀在國家新一代人工智慧開源社群 OpenI 啟智開源開放平臺釋出,並榮獲 OpenI 社群優秀開源專案)。在未來,RobustART 將持續為整個社群提供更加完善、易用的開源魯棒性評估和研究框架。同時也將助力於工業級模型的評測和魯棒模型的落地應用,最終也希望能夠服務於國家相關智慧模型魯棒評測標準的推進和任務的開展。

44種模型,RobustART評測CNN、Transformer、MLP-Mixer誰最魯棒?

  • 論文地址:https://arxiv.org/pdf/2109.05211.pdf
  • RobustART 開源平臺網址:http://robust.art/
  • 重明平臺網址:https://github.com/DIG-Beihang/AISafety

一、概要

目前的魯棒性 benchmark 主要聚焦於評估對抗防禦方法的效果,而忽略了模型結構和訓練技巧對於魯棒性的影響。而這些因素對模型魯棒性十分重要,一些細微的差別(如訓練使用的資料增強方法的不同)就可能掩蓋防禦方法帶來的魯棒性影響,從而造成對模型魯棒性的錯誤評估和認識。因此,該論文提出了 RobustART 來全面地評測不同模型結構和訓練技巧對於魯棒性的影響,並在對抗噪音(AutoAttack、PGD 等)、自然噪音(如 ImageNet-A, -O, -C, -P)和系統噪音(如 ImageNet-S)下進行了全面評估。下表給出了在研究的 44 種經典網路模型中,在不同噪音下魯棒性前五名的模型(為了公平比較,所有模型的訓練設定都已對齊):

44種模型,RobustART評測CNN、Transformer、MLP-Mixer誰最魯棒?

二、考慮模型結構和訓練技巧的魯棒性 benchmark

為了更好地探究模型魯棒性的內在本質,該研究將影響模型魯棒性的原因劃分成模型結構和訓練技巧這兩個正交因素,進而構建了一套完整的 benchmark 設定,即(1)對不同網路結構的模型,使用同樣的訓練技巧進行訓練(2)對於同一種網路結構的模型,使用不同的訓練技巧進行訓練。這種細分的消融研究更有助於人們理解某些具體的模型結構或者訓練技巧對於魯棒性的影響。下表分別展示了研究中用到的模型結構、訓練技巧、以及噪音型別。

44種模型,RobustART評測CNN、Transformer、MLP-Mixer誰最魯棒?

針對模型結構這一因素,該研究儘可能多地覆蓋了常用的神經網路模型。對於 CNNs,有經典的大型結構如 ResNet、ResNeXt、WideResNet、DenseNet;輕量化網路如 ShuffleNetV2、MobileNetV2;重引數化的結構 RepVGG;基於神經架構搜尋(NAS)的模型如 RegNet、EfficientNet、MobileNetV3 以及使用 BigNAS 超網取樣得到的子網路;對於非 CNN 網路,有 ViT 和 DeiT,以及最近的基於 MLP 結構的 MLP-Mixer。總計 44 種典型的手工設計的網路模型和 1200 種超網取樣出的子網模型,在實驗中它們的訓練設定都將被對齊。

針對訓練技巧這一因素,該研究選取了較為主流的一些技巧進行探究,有知識蒸餾、自監督訓練、權重平均、權重重引數化、標籤平滑、Dropout、資料增強、大規模預訓練、對抗訓練、不同的最佳化器等。在實驗中選取部分模型結構,透過比較使用某訓練技巧進行訓練和不使用該技巧訓練對模型魯棒性的影響來探究該訓練技巧對魯棒性起到的作用。

為了全面完整地對模型魯棒性進行評估,該研究選用了三種不同型別的噪音來對模型進行測試:對抗噪音、自然噪音、系統噪音。其中,對於對抗噪音選用了 8 種主流的對抗攻擊方法,覆蓋了不同的攻擊強度和黑白盒攻擊:FGSM、PGD-

44種模型,RobustART評測CNN、Transformer、MLP-Mixer誰最魯棒?

、AutoAttack-

44種模型,RobustART評測CNN、Transformer、MLP-Mixer誰最魯棒?

44種模型,RobustART評測CNN、Transformer、MLP-Mixer誰最魯棒?

、以及基於遷移的對抗攻擊;對於自然噪音選用了 4 種主流的資料集:ImageNet-C、ImageNet-P、ImageNet-A、ImageNet-O;對於系統噪音選用了 ImageNet-S 資料集。此外,對於每種噪音都選擇了相應的評估指標進行測評。

RobustART 整體採用了層次化和模組化的框架設計,如下圖所示,底層使用了 Pytorch 作為深度學習框架,並使用了 FoolBox、ART 等對抗工具庫,且提供了多種資料集的支援。使用者介面層次主要分為 Models、Training、Noises、Evaluation 這四大模組,每個模組提供了可呼叫的 API 供使用者使用。透過使用 RobustART 的開源框架,使用者可以(1)方便地使用提供的程式碼復現結果以及進行更加深入的分析;(2)透過提供的 API 新增新模型、訓練技巧、噪音、評估指標等來進行更多的實驗;(3)使用提供的預訓練模型和研究結果進行下游的應用或者作為比較的基線。

44種模型,RobustART評測CNN、Transformer、MLP-Mixer誰最魯棒?

三、實驗結果與分析

3.1 模型結構對於魯棒性的影響

該研究首先選用了來自 13 個模型族的共 44 個典型的網路模型,使用對齊的實驗設定對它們進行訓練,然後對它們進行魯棒性評估。下面兩張圖分別展示了所有模型在各種噪音下模型大小與魯棒性的關係以及在面對遷移性對抗攻擊時的熱力圖:

44種模型,RobustART評測CNN、Transformer、MLP-Mixer誰最魯棒?

44種模型,RobustART評測CNN、Transformer、MLP-Mixer誰最魯棒?

透過圖中各模型間魯棒性的對比,可以看到:

  • 對於幾乎所有模型族(除了 MobileNetV2 等輕量化的模型族),增大模型大小能夠同時提高泛化性以及對於對抗、自然、以及系統噪音的魯棒性。
  • 在模型大小類似的情況下,不同的模型結構可能有著截然不同的魯棒性,這也意味著模型結構對於魯棒性是非常重要的。具體的,ViT、MLP-Mixer 這類非 CNN 的模型在對抗噪音下表現更為優秀,而傳統的 CNN 模型(如 ResNet、ResNeXt)則對於自然噪音和系統噪音更加魯棒。
  • 不同的噪音對於最終魯棒性的評估結果影響很大,對於同一型別的噪音(如對抗噪音),不同的攻擊方法可能導致不同的模型魯棒性結果;甚至對於同一種對抗攻擊,不同的噪音大小也可能會導致魯棒性評估結果的不同。

除了 44 個典型的網路模型,該研究還從 BigNAS 超網中取樣了 1200 個子網,探究子網模型引數(如模型大小、輸入圖片大小、深度、卷積核大小等)對於魯棒性的影響,如下圖所示:

44種模型,RobustART評測CNN、Transformer、MLP-Mixer誰最魯棒?

可以看出模型大小、卷積核大小、模型最後一個 stage 的深度對於對抗魯棒性有著正向的影響,而輸入圖片的大小則對對抗魯棒性有負面的影響。

3.2 訓練技巧對於魯棒性的影響

該研究針對 10 餘種特定的訓練技巧,選取部分模型來評估有 / 無這些技巧對於模型的魯棒性影響,部分結果如下圖所示:

44種模型,RobustART評測CNN、Transformer、MLP-Mixer誰最魯棒?

從實驗結果可以得出較多有意義的結論,如:

  • 對抗訓練:對於 CNNs,對抗訓練提升了模型的對抗魯棒性,然而降低了 Clean 資料集上的泛化性以及對於自然噪音和系統噪音的魯棒性;該研究還首次發現了對於 ViTs 和 MLP-Mixer,對抗訓練顯著提升了 Clean 資料集上的泛化性以及對於所有三種噪音的魯棒性,這對於對抗訓練在真實場景中的實際應用有重大意義。
  • ImageNet-21K 預訓練:該技巧提升了模型對於自然噪音的魯棒性,卻降低了對於對抗噪音和系統噪音的魯棒性。
  • 資料增強:該技巧降低了模型在對抗噪音上的魯棒性,並在大多數情況下提升了模型對於自然噪音的魯棒性。
  • AdamW 最佳化器:相比於基礎的 SGD 最佳化器,該技巧略微降低了 ResNet、RegNetX 等大型模型的魯棒性,卻明顯提升了 MobileNetV3 和 ShuffleNetV2 等輕量化模型在 Clean 資料集上的泛化性以及對於所有三種噪音的魯棒性。

四、展望

在深度學習模型大量應用於人臉識別、自動駕駛等關鍵領域的今天,人們越發意識到人工智慧安全的重大意義,而人工智慧安全相關的研究和標準也亟待進一步推進和落實。本研究所提出的 RobustART 為我們帶來了一個全面、標準的模型魯棒性評估的開源平臺和框架,並在此基礎上進行了大量的實驗研究,得出了大量有啟發性的結論。這將幫助我們進一步認識和理解模型魯棒性與結構、訓練技巧之間的關係,讓我們對魯棒性有了更加全面深入的認識。該研究將與現有的面向防禦的魯棒性 benchmark 互補,共同構建完善的魯棒性基準,推動魯棒性研究生態系統在機器學習社群中的長遠發展。

分類: 科技
時間: 2021-09-17

相關文章

初中數學——最短路徑問題12種模型,都在這裡

初中數學——最短路徑問題12種模型,都在這裡
12個基本問題 例題一: 已知在平面直角座標系中,A(2,-3),B(4,-1). (1) 若點P(x,0)是X軸上的動點,當三角形PAB的周長最短時,求X的值. (2) 若點C.D是X軸上的兩個動點 ...

2457億引數的巨量模型,意味著什麼?
源1.0模型引數規模為2457億,訓練採用的中文資料集達5000GB,相比GPT3模型1750億引數量和570GB訓練資料集,源1.0引數規模領先40%,訓練資料集規模領先近10倍.如此大規模的人工智 ...

融合重力資訊似大地水準面精化模型研究
摘要:以二次多項式模型為基礎,提出融合重力資訊的多項式模型和融合重力資訊的誤差反向傳播(errorbackpropagation,BP)神經網路模型2種似大地水準面精化模型.透過試驗驗證,3種模型的檢 ...

另一種“活著”

另一種“活著”
<花子鎮> 劉玉林 著 山東大學出版社 百餘年前的中國,腐朽的清王朝土崩瓦解,繼而代之的是更加民不聊生的軍閥混戰,日軍侵華,一時間,山河破碎,生靈塗炭,華夏大地哀鴻遍野--作家劉玉林的&l ...

Item2Vec負取樣最佳化基礎上專題地圖產品個性化推薦方法探究
摘要:建立適用於專題地圖產品檢索的使用者偏好推薦模型是提高專題地圖質量的有效方式之一,在專題地圖產品推薦場景中,存在嚴重的內容冷啟動和評論資料稀疏問題,現有的推薦演算法無法為特定類使用者推薦不同特徵的 ...

2021年OPPO秋季釋出會帶來的三大件(一)

2021年OPPO秋季釋出會帶來的三大件(一)
2021年9月16日,OPPO秋季釋出會如期召開.釋出會剛開始,OPPO副總裁.中國區總裁劉波表明了OPPO對於高階的追求,並且表示OPPO已做好準備,中國國內市場除了蘋果和華為之外,OPPO正往著& ...

RepNet:計算影片中的重複次數

RepNet:計算影片中的重複次數
重複過程從自然週期(例如月相或心跳和呼吸)到人工重複過程(例如在生產線或交通模式中發現的重複過程)在我們的日常生活中司空見慣.除了它們的普遍性之外,研究人員還對重複過程感興趣,因為人們可以從中梳理出各 ...

Google釋出帶有 AIST++ 的人工智慧,可以利用不同的音樂生成3D舞蹈

Google釋出帶有 AIST++ 的人工智慧,可以利用不同的音樂生成3D舞蹈
Google釋出的一款人工智慧,可以利用不同的音樂生成不同的3D舞蹈影片 舞蹈是幾乎在所有文化中都能找到的通用語言,也是當今許多人用來在當代媒體平臺上表達自己的一種方式.透過組合與音樂節拍一致的運動模 ...

我們來自“垃圾DNA”?有人從水稻裡發現了“垃圾DNA”的價值:新基因的來源

我們來自“垃圾DNA”?有人從水稻裡發現了“垃圾DNA”的價值:新基因的來源
如果說你來自一堆垃圾, 請不必為此煩惱, 因為人皆如此.現在, 遺傳學家正逐步認識到在你基因組中的這些 "垃圾DNA" 的重要價值. 在遺傳學研究史的大部分時間裡,那些聲名顯赫的遺 ...

動物“出廠”自帶指南針 這種蛋白質或是關鍵
動物"出廠"自帶指南針 這種蛋白質或是關鍵 此次研究第一次用鳥類的Cry4在實驗上驗證了自由基對假說.但其只是驗證了關於動物磁感應的一個假說.一個機制,最多說是探秘,並不是真正的破 ...

球狀閃電到底是不是閃電?

球狀閃電到底是不是閃電?
最近網友拍攝的一段球狀閃電的影片重新引起了人們對這種地球上最神秘的物理現象的興趣. 網友拍攝到的球狀閃電 其實這種物理現象很早就有人記錄,其中最早的記錄是中國宋朝科學家沈括在他的名著<夢溪筆談& ...

帶電粒子在勻強磁場中的運動(十三)——粒子源和動態圓

帶電粒子在勻強磁場中的運動(十三)——粒子源和動態圓
圓的動態變化確實是帶電粒子在磁場中運動的難點所在,這要求小夥伴們有足夠的空間思維能力.我們將主要的三種模型一一呈現給大家. 模型一.如下圖所示,一束帶正電的粒子以初速度v垂直進入勻強磁場,若初速度v方 ...

萬有引力與航天重點規律方法總結

萬有引力與航天重點規律方法總結
一.三種模型 1.勻速圓周運動模型: 無論是自然天體(如地球.月亮)還是人造天體(如宇宙飛船.人造衛星)都可看成質點,圍繞中心天體(視為靜止)做勻速圓周運動. 2.雙星模型: 將兩顆彼此距離較近的恆星 ...

科學家發現肥胖的關鍵不是吃得太多,而是吃得不對

科學家發現肥胖的關鍵不是吃得太多,而是吃得不對
我在減脂塑型訓練營和營養早餐社群裡面經常給想減肥的朋友們強調,"減肥的關鍵不是動,而是吃:吃的關鍵不是吃的量(卡路里),而是吃的對(結構和習慣)."結果,很多同學將信將疑,當然效果 ...

根據霍蘭德職業測試匹配學生的專業

根據霍蘭德職業測試匹配學生的專業
第一部分,霍蘭德職業興趣理論 霍蘭德職業興趣測試由美國著名的職業指導專家霍蘭德編制,主要用於確定被測試者的職業興趣傾向,進而用於指導被測試者選擇適合自身職業興趣的專業發展方向和職業發展方向. 霍蘭德提 ...

他哭任他哭,我看任我看,新育兒觀念?

他哭任他哭,我看任我看,新育兒觀念?
"自然分娩看著就害怕,我要破腹產." "母乳餵養會讓胸部下垂,對我來說醜了." "趁孩子還小不懂事,現在就出去賺更多的錢,未來會更好." & ...

現在人口問題怎麼就到了不能不管的地步了?

現在人口問題怎麼就到了不能不管的地步了?
首先我們來看張圖: 這張圖是中國1950年到2020年人口資料的變化圖. 首先我們想問的是,從2010年到2020年,過去10年裡,中國的人口增長了嗎? 直觀地看資料,從2010年的13.4億到202 ...

《因果學習週刊》第1期:因果學習的分佈外泛化問題
因果學習作為人工智慧領域研究熱點之一,其研究進展與成果也引發了眾多關注.為幫助研究與工程人員瞭解該領域的相關進展和資訊,智源社群結合領域內容,撰寫了第1期<因果學習週刊>. 本期週刊將主要 ...

科學家深入地球“生命禁區”,採集到植物種子,重新整理對生命的認知

科學家深入地球“生命禁區”,採集到植物種子,重新整理對生命的認知
雖然科學家已經發現了4000多顆系外行星,但是由於這些系外行星與我們地球的距離異常遙遠,受限於當前科技的發展水平,我們對這些系外行星的認識還不足,所以在這些系外行星上面是否存在外星生命,暫時不得而知. ...