選單

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

近五年來,AI學術論文的投稿量和接收量都在不斷攀升,包括NeurIPS、AAAI、ACL,ICML、EMNLP等國際頂會。根據權威資料統計,NeurIPS論文收錄量在2019年呈指數級增長,領先AAAI近300篇;而AAAI 在2020年創下歷史新高,達到了1692篇。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

如何在海量論文庫中發現最具影響力的論文,谷歌引用次數是學者們參考的一項重要指標,它在一定程度上反映了論文的質量。

近日,知名外媒《Towards Data Science》按這一指標,統計了近五年來發表在各大國際較高階會上引用量排名前十的論文。

根據統計結果顯示,Top 10 論文引用量較高為67514次,較低6995次,全部出自ICLR、NeurIPSR、NeurIPS、ICML以及《Nature》四家期刊,覆蓋深度學習、機器學、強化學習、視覺處理、自然語言處理等多個領域。其中,智慧體AlphaGo、Transfromer模型、強化學習演算法DQN,以及神經網路最佳化演算法Adam全部在列。

大部分論文所屬研究機構為Google Brain 、Facebook AI Research、DeepMind以及Amsterdam University,作者包括我們熟知的AI大佬Ian J。 Goodfellow,Kaiming He Thomas Kipf 、Ashish Vaswani 等。

下面AI科技評論按引用次數從低到高的順序對Top 10 論文進行簡要整理:

Top10:Explaining and Harnessing Adversarial Examples

作者:Ian J。 Goodfellow, J Shlens, C Szegedy ,收錄於 ICLR 2015,引用 6995次。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

論文地址:https://arxiv。org/abs/1412。6572

該論文介紹了快速生成神經網路對抗性示例的方法,並引入了對抗性訓練作為正則化技術。

一些機器學習模型,包括較先進的神經網路都容易受到對抗攻擊。如對資料集中的示例故意施加微小擾動,模型會對輸入示例進行錯誤分類,從而使得擾動的輸入結果以高置信度輸出不正確的答案。

對於這一現象,早期的處理方法集中在非線性和過度擬合上。在本篇論文中,研究人員提出神經網路模型易受干擾的主要因其線性性質。透過定量實驗,他們發現對抗樣本在模型結構和訓練集之間的泛化,並由此提出了一種簡單而高效的生成對抗性例子的方法,即快速梯度符號法(Fast Gradient Sign Method)。

該方法的主要思想是讓擾動的變化量與梯度的變化方向完全一致,透過增大誤差函式,以對分類結果產生較大變化。他們認為,在構造對抗樣本時更應該關心擾動的反向而不是擾動的數目。經實驗,該方法可以有效減少MNIST資料集上maxout網路的測試集誤差。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

圖注:在ImageNet上用GoogLeNet快速對抗生成的示例

影響力:本篇論文揭示了一個普遍的現象,即攻擊者對輸入進行微小的修改就可以顯著降低任何較精確機器學習模型的效能。這一現象已經在其他任務和模式(如文字和影片)中觀察到,並影響了了大量研究工作。

Top9:Semi-Supervised Classification with Graph Convolutional Networks

作者:Thomas Kipf 、Max  Welling, 收錄於ICLR 2017, 引用7021次

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

論文地址:https://arxiv。org/abs/1609。02907

這篇論文證明了圖卷積網路(GCN)在半監督節點分類任務中效能優越。

論文中,研究人員提出了一種可擴充套件的圖結構資料半監督學習方法,該方法基於一種高效地、可直接操作於圖的卷積神經網路。透過譜圖卷積(spectral graph convolutions)的區域性一階近似來激勵卷積結構的選擇,可使模型在圖的邊數上線性伸縮,並且學習編碼區域性圖結構和節點特徵的隱藏層表示。透過在引文網路和知識圖資料集中的大量實驗,已證實該方法比相關研究有更大的優勢。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

圖注:用圖卷積網路變換圖特徵例項

影響:新型藥物或高效能催化劑的發現需要將分子建模為圖形。圖卷積網路把深度學習的工具帶到了圖領域,並展示了相比於此前占主導地位的手動方法的優越性。

Top8:Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks

作者:Alec Radford 、Luke Metz et al。 收錄於 ICLR 2016, 引用 8681次。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

論文地址:https://arxiv。org/abs/1511。06434

該論文提出了一種深度CNN結構DCGAN,它在影象生成上獲得了前所未有的效果。

近年來,卷積網路(Convolutional Networks ,CNNs )的監督學習在計算機視覺應用中得到了廣泛應用。相對而言,使用CNNs的無監督學習受到的關注較少。在本篇論文中,作者彌合了CNNs在有監督學習和無監督學習方面的差距,提出了一種被稱為深層卷積生成式對抗網路的CNN,即Deep Convolutional Generative Adversarial Networks ,簡稱DCGAN。

DCGAN模型的基本組成部分是用上取樣卷積層替換生成器中的完全連線層。其完整體系結構如下:

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

圖注:用於LSUN場景建模的DCGAN生成器

本質上,DCGAN是在GAN的基礎上提出了一種訓練架構,並對其做了訓練指導,比如幾乎完全用卷積層取代了全連線層,去掉池化層,採用批標準化(Batch Normalization, BN)等技術;將判別模型的發展成果引入到了生成模型中;強調了隱藏層分析和視覺化技術對GAN訓練的重要性和指導作用。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

圖注:透過DCGAN生成的臥室圖示例

DCGAN的網路結構可以作為基礎架構,用以評價不同目標函式的GAN,讓不同的GAN得以進行優劣比較。DCGAN的出現極大增強了GAN的資料生成質量。而如何提高生成資料的質量(如生成圖片的質量)一直是GAN研究的熱門話題。

影響:GANs是一種機器學習模型,它能夠生成人、動物或物體的新影象,GANs的效能決定了機器學習的創造力,以及它在諸多現實場景中的應用能力。就目前來看,該方法仍然是所有目前GAN模型生成影象的基礎。

Top 7:Mastering the game of Go with deep neural networks and tree search

作者:David Silver 、Aja Huang et al。 2016年被《Nature》收錄,引用9621次。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

論文地址:https://www。nature。com/articles/nature16961

這篇論文代表了人工智慧歷史上的一個重要節點,它所描述的分散式AlphaGo第一次在圍棋遊戲中擊敗人類職業選手。AlphaGo是DeepMind公司針對圍棋遊戲而開發的AI智慧體,其在2016年1月首次推出便在行業內引起不小震動。而在此之後,DeepMind不斷最佳化智慧體,AlphaGo又陸續戰勝了世界較高階圍棋選手李世石和柯潔。

圍棋是人工智慧最具挑戰性的遊戲之一。在這篇論文中,作者提出了一種新的計算圍棋的方法,該方法使用“價值網路”評估棋子的位置,使用“策略網路”選擇落子點,透過將兩種網路與蒙特卡羅搜尋樹(MCTS)相結合所形成的搜尋演算法,能夠使AlphaGo達到99。8%的獲勝率。

具體來說,作者採用深度卷積神經網路,將19*19的棋盤看作是一個影象,使用網路構建棋盤每個位置的表示。其中價值神經網路用於棋面局勢評估,策略神經網路用於取樣下一步動作,這兩種網路能夠有效減少搜尋樹的寬度和深度。

接下來再使用管道來組織和訓練神經網路,管道由多個階段的機器學習過程構成。第一階段先構建一個監督學習策略網路, 訓練資料來自人類專家棋手的比賽資料;

第二階段訓練一個快速走子策略, 這個Rollout Policy可以在走子階段快速取樣獲取落子點。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

圖注:AlphaGo採用蒙特卡洛樹搜尋獲取較佳的落子點

第三階段訓練一個強化學習策略網路,透過自我對弈,在監督學習網路最終學習結果基礎上調整最佳化學習目標。這裡的學習目標是贏棋,戰勝監督學習策略網路,而原始的監督學習策略網路預測的是跟專家走法一致的準確率。最後階段訓練一個價值網路,用於預測某個棋面局勢下贏棋的機率。

以上這些離線訓練的策略網路和價值網路能夠有效的和蒙特卡羅搜尋樹(MCTS)結合在一起,進而在線上進行比賽。下圖是分散式版AlphaGo和人類較高階職業棋手FanHui進行的5局對決的終局棋面,AlphaGo以5:0戰勝FanHui。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

AlphaGo之後,DeepMind又陸續推出了第二代、第三代智慧體,其中,

第二代AlphaGoZero,只使用自監督強化學習+無人工特徵+單一網路+蒙特卡羅搜尋

第三代AlphaZero,在AlphaGoZero基礎上做了進一步的簡化,訓練速度更快。

現階段,DeepMind已將AI訓練從圍棋遊戲擴充套件到了更為複雜的即時戰略性遊戲《星際爭霸2》,所推出的智慧體AlplaStar同樣達到了戰勝較高階職業選手的水平。

影響力:計算機程式第一次戰勝人類職業選手,這是人工智慧歷史上的一個重要里程碑。

Top 6:Human-level control through deep reinforcement learning

作者:Volodymyr Mnih 、Koray Kavukcuoglu et al。 2015年被《Nature》收錄,引用13615次。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

論文地址:https://www。nature。com/articles/nature14236

本篇論文提出了一種強化學習演算法Deep Q-Learning,簡稱DQN,它幾乎在所有遊戲上超越了之前的強化學習方法,並在大部分Atari遊戲中表現的比人類更好。

人工智慧領域的從業者對DQN可能並不陌生,它被視為深度強化學習的開山之作,是將深度學習與強化學習結合起來從而實現從感知(Perception)到動作( Action )的端對端(End-to-end)學習的一種全新的演算法。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

圖注:DQN的網路模型

為了能夠實現通用人工智慧,即用單一的演算法解決某個領域的多類挑戰性任務,作者開發了一個深度Q網路(DQN),它是強化學習和深度學習的結合。我們知道,要想模擬現實世界中成功使用強化學習,智慧體必須從高維感官輸入中獲得對環境的有效表示,並利用它們將過去的經驗推廣到新的場景中,而DQN使用端到端強化學習可以直接從高維感官輸入中學習策略。

在深度學習方面,作者表示透過卷積神經網路,使用多層的卷積濾波器模仿感受野的作用——靈感來自於Hubel和Wiesel在視覺迴路的原始前饋處理,因此,它可以挖掘影象中區域性的空間相關的資訊,建立對於視角和比例縮放自然轉換非常魯棒。

透過在Atari 2600款遊戲中的測試表明,僅接收畫素和遊戲得分作為輸入的深度Q網路超越了之前所有演算法的效能,並在49款遊戲中達到與人類玩家相當的水平。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

圖注:DQN演算法(藍色)、SOTA演算法(灰色)以及人類玩家(百分比)在Atari遊戲中的比較

影響力:機器人、智慧製造、智慧物流等領域背後的演算法已經從硬編碼規則轉向強化學習模型。DQN是目前最流行的深度強化學習演算法之一,它在各種應用中表現出了優異效能,而且不需要人工策略的參與。

Top 5:Neural Machine Translation by Jointly Learning to Align and Translate

作者:Dzmity  Bahdanau、KyungHyun Cho et al。 收錄於 ICLR 2015, 引用16866次。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

論文地址:https://arxiv。org/abs/1409。0473

該論文首次提出將帶有注意力機制的神經網路應用於機器翻譯。“注意”表徵的是特定詞,而不是整個句子。

與傳統的統計機器翻譯不同,神經機器翻譯的目的是構建可實現較大化翻譯效能的單個神經網路。現有的神經機器翻譯模型通常屬於編碼器-解碼器家族,編碼器將源句子編碼為固定長度的向量的編碼器,解碼器再根據該固定長度向量生成翻譯。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

在此基礎上,作者提出使用固定長度的向量可以提高編碼器-解碼器體系結構的效能,並且允許模型自動搜尋物件可擴充套件此範圍。後者意味著模型課搜尋與預測目標單詞相關的源句子,而無需進行明確的分割。

實驗表明,該方法達到了與較先進的基於短語的系統相同的表現。此外,定性分析也表明該方法發現的軟對齊方式與我們的直覺一致。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

圖注:英法翻譯的注意矩陣, 較淺的區域代表單詞之間相似性很高

影響:在機器翻譯中,RNN等傳統模型試圖將源語句的所有資訊壓縮成一個向量。而本篇論文提出模型應將每個詞表示為一個向量,然後關注每個詞,這一認識對於神經網路的構建是一個巨大的正規化轉變,不僅在NLP領域,在ML的所有其他領域均是如此。

Top 4:Attention is all you need

作者:Ashish Vaswani 、Noam Shazeer 等人;收錄於NeurIPS 2017, 引用18178次;

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

論文地址:https://arxiv。org/abs/1706。03762

該論文提出了一種有效的神經網路Transformer,它基於注意機制在機器翻譯中取得了優異的效能。

通常來講,序列轉導模型基於複雜的遞迴或卷積神經網路,包括編碼器和解碼器,表現較佳的模型還透過注意力機制連線編碼器和解碼器。基於此,作者提出了一種新的簡單網路架構,即Transformer,它完全基於注意力機制,完全消除了重複和卷積。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

圖注:基於編解碼器的Transformer架構

實驗表明,該模型在機器翻譯任務上表現良好,具有更高的可並行性,所需的訓練時間也大大減少。如在WMT 2014英語到德語的翻譯任務上達到了28。4 BLEU,比包括整合學習在內的現有較佳結果提高了2 BLEU;在2014年WMT英語到法語翻譯任務中,創造了新的單模型BLEU分數41。8,比文獻中較好的模型的訓練成本更小。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

由此證明了Transformer應用於具有大量訓練資料和有限訓練資料的英語解析可以很好的概括其他任務。

影響力:在Transformer模型中引入的多頭注意力是更受歡迎的深度學習模組,也是另一主流語言模型BERT的一部分,它取代RNNs和CNNs,成為了處理文字和影象任務的預設模型。

Top 3:Faster R-CNN: towards real-time object detection with region proposal networks

作者:Shaoqing Ren ,Kaming He et al。收錄於NeurIPS 2015, 引用19915次。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

論文地址:https://arxiv。org/abs/1506。01497

該論文提出了一種用於目標檢測的高效端到端卷積神經網路,包括影象和影片中。

較先進的物體檢測網路依靠區域提議演算法來假設物體的位置,基於此,作者在現有研究基礎上,提出了一種區域提議網路(RPN),該網路與檢測網路共享全影象卷積特徵,從而實現幾乎免費的區域提議。

RPN是一個完全卷積的網路,能夠同時預測每個位置的物件邊界和物件性分數。對RPN進行了端到端訓練,可以生成高質量的區域建議,然後Fast R-CNN再透過這些建議進行檢測。

作者表明透過共享RPN和Fast R-CNN的卷積特徵,具有“注意力”機制的神經網路可將這些特徵合併為一個網路。對於深層VGG-16模型,該檢測系統在GPU上的幀速率為5fps(包括所有步驟),同時在PASCAL VOC 2007、2012和MS COCO資料集上實現了的物件檢測精度(每張圖片有300個建議)。在ILSVRC和COCO 2015競賽中,Faster R-CNN和RPN是多個專案上獲得較佳模型的基礎。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

圖注:在PASCAL VOC 2007測試中,使用RPN可以檢測各種比例和寬高比的物體

影響:更快速是R-CNN是在工業場景中被廣泛應用的主要原因之一。它在安全攝像頭、自動駕駛和移動應用程式中的應用極大地影響了我們對機器的感知。

Top2:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

作者:Sergey Ioffe and Szegedy, 收錄於ICML 2015, 引用 25297次。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

論文地址:https://theaisummer。com/normalization/

該論文提出透過對輸入特徵進行歸一化的方法,可使神經網路訓練更快,更穩定。

訓練深度神經網路是一個複雜的過程,一方面,隨著各層引數的變化,輸入的分佈也會發生改變,而由於引數初始化和較低的學習效率,會導致訓練速度減慢。另一方面,訓練飽和的非線性模型非常困難。

作者將這兩種現象歸結為內部協變數偏移,並提出透過歸一化輸入層來解決。即透過將歸一化作為模型體系結構的一部分,併為每次小批次訓練執行歸一化。這種批處理規範化處理方法可以顯著提高學習率,同時不必對初始化進行任何注意,在某些情況下,也無需進行輟學。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

圖注:批處理規範的說明

論文中指出批歸一化應用於較先進的影象分類模型,能夠以相同精度,減少14倍的訓練速度擊敗原始模型。論文中,作者展示了使用批歸一化網路處理ImageNet分類影象的結果:達到4。82%的top-5測試錯誤,超過了人類評分者的準確性。

影響力:該方法廣泛應用於大多數神經網路體系結構。批處理規範化是現代深度神經年網路獲得較佳結果的原因之一。

Top 1:Adam: A Method for Stochastic Optimization

作者:Kingma and Ba,收錄於ICLR 2015,引用 67514次。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

本篇論文在五年裡引用量較高接近7萬次,它主要描述了一種新型的隨機梯度下降最佳化演算法(Adam),顯著提高了神經網路的快速收斂率,在所有模型訓練中具有普遍的適用性。

基於低階矩的自適應估計的Adam,是一種基於一階梯度的隨機目標函式最佳化演算法。它具有易實現,計算高效,儲存需求小,對梯度對角線縮放無影響的特點,適合處理引數量、資料量較大,非固定目標以及嘈雜或稀疏梯度等問題。作者在論文中分析了Adam的理論收斂性,並提供了與線上凸最佳化框架下的較佳結果相當的收斂。

五年引用量最高的論文:Adam登頂,AlphaGo、Transfromer上榜

圖注:Adam收斂更快

實驗結果表明,與其他隨機最佳化方法相比,Adam在實踐中的效果更好。作者在論文中還進一步探討了Adam的變體,即基於無窮範數的AdaMax。

影響:作為最佳化演算法的預設方法,Adam已訓練了的數以百萬計的神經網路。

參考來源:https://towardsdatascience。com/top-10-research-papers-in-ai-1f02cf844e26