0
| 本文作者: AI研習社 | 2019-09-20 16:25 |

「本周論文推薦精選」是 Paper 研習社推出的全新欄目,展現社友們在研習論文的過程中,推薦自己所閱讀到的優秀論文,幫助大家一起學習、討論每個領域最新、最精彩的學術論文。
①
#卷積 LSTM# #注意力機制##seq2seq模型#
CLVSA:一個基于卷積LSTM和注意力機制的預測金融市場走勢的變分seq2seq模型
推薦理由:1、本文所解決的核心問題:股票市場的預測是金融和計算機相互交叉的一個問題。近年來許多研究人員試圖將深度學習的算法應用于金融市場預測中,通過歷史價格信息、公司基本面信息、研究報告文本等輸入數據,判斷股票、股指期貨的價格走勢。然而由于股票數量的限制、金融市場中的噪音等原因,在圖像和語音識別領域大顯身手的深度學習模型能否在金融市場上取得同樣的成功還有待人們進一步研究。
2、本文的創新點:在這一篇論文中,作者提出了一個混合模型,將卷積LSTM、注意力機制和seq2seq模型結合到一起,通過5分鐘時間間隔的原始的價量信息,預測未來30分鐘之后價格是否會上漲還是下跌。在這個混合模型中,基于KL散度的正則化操作被用于減輕過擬合。為了驗證模型的有效性,作者收集了2010年1月至2017年12月期間,4種商品期貨(原油、黃金、天然氣和大豆)和2種股指期貨(標普500和納斯達克100)的歷史價量數據。通過滾動預測的模式(3年時間作為訓練集,2周用于驗證和測試,以1周為步長滾動訓練和預測),他們驗證了這個混合模型在評級準確率、年化收益率和夏普率上都優于單獨的卷積神經網絡,seq2seq模型和LSTM模型。本文涉及到的數據來自于期貨交易商,作者沒有放出數據。同樣,作者也沒有放出實現模型的代碼。
3、本文的研究意義:通過新模型的提出和驗證,推動了深度學習模型在金融市場預測上的應用。
論文鏈接:https://www.ijcai.org/proceedings/2019/0514.pdf
推薦人:琴???思{ (清華大學信息與通信工程,Paper 研習社特約作者)
②
#計算機視覺#
【大連理工/鵬城/香港城市】MirrorNet:我鏡子呢?
推薦理由一:這是一篇大連理工、鵬城實驗室、香港城市大學合作的論文,已被ICCV 2019接收。鏡子的反光一直是計算機視覺中一個令人頭疼的問題,而已有的算法尚未考慮它的影響,也因此經常被鏡子中反光的圖像迷惑——畢竟鏡子反射的圖像往往和它的周邊環境又很接近,要讓神經網絡區分二者實在是困難。本文則是有史以來第一篇基于計算的方式來處理鏡子語義分割問題的工作。作者首先構建了一個大規模的、涵蓋日常生活各種場景、包含了四千多幅圖像的鏡子分割數據庫——MSD,并提出了一個用于鏡子分割的網絡——MirrorNet。MirrorNet使用了上下文對比特征提?。–CFE)模塊,用于學習鏡子里外上下文的對比,從而分割出各種尺寸的鏡子。實驗表明,使用了CCFE模塊的MirrorNet能夠有效地學習這種上下文對比并在MSD數據集上有最佳的分割效果。
推薦人:林肯二百一十三(奈良先端科學技術大學院大學機器人視覺專業,推薦于 CV 論文討論小組。)
推薦理由二:大連理工、鵬城實驗室和香港城市大學的研究團隊提出了一種從輸入圖像中分割鏡子的新方法。不僅能夠準確識別并分割出場景中的鏡子,還能夠消除由于鏡子反射所導致的對于場景的錯誤理解,并幫助一些計算機視覺任務(例如深度估計和目標檢測)提升魯棒性。他們說,這是首個解決鏡子分割的方法,經過大量的實驗表明,性能表現比最先進的檢測和分割方法都要好。
論文鏈接:https://arxiv.org/pdf/1908.09101.pdf
推薦人:志浩(中國石油大學(華東) 機械工程,ICCV 2019頂會贊助計劃參與者)
③
#深度學習# #卷積網絡#
ICCV2019 | 修復視頻,不需要進行先驗訓練,外觀和光流足矣!
推薦理由:本論文來自斯坦福大學,為ICCV2019接收論文。文章提出了一種新穎的視頻修復算法,該算法同時產生缺失的外觀(appearance)和運動(光流)信息,這種算法建立在最近提出的“深度圖像先驗”(DIP)之上,DIP則是利用卷積網絡架構在靜態圖像中強制執行合理的紋理。在將DIP擴展到視頻時,本文做出了兩個重要貢獻。首先,作者表明無需先驗訓練即可實現連貫的視頻修復。其次,作者表明這樣的框架可以共同產生外觀和光流,同時利用這些互補的方式可以確保相互一致性。
論文鏈接:https://arxiv.org/abs/1909.07957v1
推薦人:賈偉(清華大學物理學,Paper 研習社首席論文推薦官。)
④
#數據挖掘#
圖神經網絡完全綜述,來自Philip S. Yu大佬的鼎力之作
推薦理由:沒得說,這是來自數據挖掘領域的巨擘Philip S. Yu老師的大作!質量和深度毋庸置疑。 具體就不再展開,下面是摘要的中文翻譯: 近年來,深度學習徹底改變了許多機器學習任務,從圖像分類和視頻處理到語音識別和自然語言理解。這些任務中的數據通常表示在歐幾里德空間中。然而,越來越多的應用程序從非歐幾里德域生成數據,并表示為具有復雜關系和對象之間相互依賴性的圖。 圖數據的復雜性給現有的機器學習算法帶來了重大挑戰。最近,出現了許多關于擴展圖形數據的深度學習方法的研究。在本次調查中,我們提供了數據挖掘和機器學習領域中圖形神經網絡(GNN)的全面概述。我們提出了一種新的分類法,將最先進的圖神經網絡劃分為四類,即循環圖神經網絡,卷積圖神經網絡,圖自動編碼器和時空圖神經網絡。我們進一步討論了圖神經網絡在各個領域的應用,并總結了現有算法在不同學習任務中的開源代碼和基準。最后,我們在這個快速發展的領域提出了潛在的研究方向。
論文鏈接:https://arxiv.org/abs/1901.00596
推薦人:賈偉(清華大學物理學,Paper 研習社首席論文推薦官。)
⑤
#深度學習##網絡優化# #網絡訓練#
【三星】AdaptIS:自適應實例選擇網絡
推薦理由:這是Samsung AI Center發表的一篇全景分割論文,已被ICCV 2019接收。本文提出了自適應實例選擇網絡(Adaptive Instance Selection Network),給定圖像和其中任意像素的坐標,AdaptIS即可精準輸出這個像素處任意物體的mask。與目前流行的先檢測后分割的方法不同,AdaptIS直接從像素點出發,達到對任意類別、任意形狀物體的精準分割。AdaptIS不使用COCO預訓練即可在全景分割數據集Cityscapes和Mapillary上達到了state-of-the-art的效果,PQ(Panoptic Quality)指標分別為62.0和35.9,在COCO數據集上也有不錯的效果。本文代碼與模型將開源于:https://github.com/saic-vul/adaptis,目前只是占了個坑,實際代碼還未放出。有興趣的童鞋可以關注一下~
論文鏈接:https://arxiv.org/abs/1909.07829
項目地址:https://github.com/saic-vul/adaptis
推薦人:林肯二百一十三(奈良先端科學技術大學院大學機器人視覺專業,推薦于 CV 論文討論小組。)
???
除了上述的的五篇精選論文推薦,我們還為你精心準備了可以一鍵下載的論文集:
ACL 歷年最佳論文合集
下載地址:https://www.yanxishe.com/resourceDetail/1009?from=leiphonecolumn
ICCV 2019 | 最新公開的51篇 Oral Paper 合集
下載地址:https://www.yanxishe.com/resourceDetail/1010?from=leiphonecolumn
EMNLP 2019 | 10篇論文實現代碼合集及下載
下載地址:https://www.yanxishe.com/resourceDetail/1013?from=leiphonecolumn
ICCV 1998-2017 年最佳論文合集NeurIPS 2019 GNN 論文合集
下載地址:https://www.yanxishe.com/resourceDetail/1002?from=leiphonecolumn
NeurIPS 2019 GNN 論文合集
下載地址:https://www.yanxishe.com/resourceDetail/1006?from=leiphonecolumn
深度學習中記憶結構的設計和使用論文集
下載地址:https://www.yanxishe.com/resourceDetail/1005?from=leiphonecolumn
AAAI (1996-2019)歷年最佳論文合集
下載地址:https://www.yanxishe.com/resourceDetail/991?from=leiphonecolumn
快來下載試試吧!
雷鋒網雷鋒網雷鋒網
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。