【中國智能制造網(wǎng) 企業(yè)動態(tài)】騰訊AI Lab自成立以來,就擔負著人工智能領域研究與發(fā)展的重擔。近日,據(jù)騰訊消息,其人工智能實驗室多篇研究論文入選了三大學術會議,初步展現(xiàn)了在人工智能領域的技術理論實力。
1.CVPR(IEEE計算機視覺與模式識別會議)
CVPR是近十年來計算機視覺領域有影響力、內(nèi)容全面的學術會議,由大的非營利性專業(yè)技術學會IEEE(電氣和電子工程師協(xié)會)主辦。2017谷歌(微博)學術指標(Google Scholar)按論文引用率排名, CVPR位列計算機視覺領域。今年CVPR審核了2620篇文章,終收錄783篇,錄取率29%,口頭報告錄取率僅2.65%。
騰訊AI Lab計算機視覺總監(jiān)劉威博士介紹到,「CVPR的口頭報告一般是當年前沿的研究課題,在學界和工業(yè)界都影響很大,每年都集齊如斯坦福大學和谷歌等高校和科技公司?!?br />
騰訊AI Lab六篇論文入選CVPR
論文一:Real Time Neural Style Transfer for Videos
本文用深度前向卷積神經(jīng)網(wǎng)絡探索視頻藝術風格的快速遷移,提出了一種全新兩幀協(xié)同訓練機制,能保持視頻時域一致性并消除閃爍跳動瑕疵,確保視頻風格遷移實時、高質(zhì)、完成。
論文二:WSISA: Making Survival Prediction from Whole Slide Histopathological Images
論文提出一種全尺寸、無標注、基于病理圖片的病人生存有效預測方法WSISA,在肺癌和腦癌兩類癌癥的三個不同數(shù)據(jù)庫上性能均超出基于小塊圖像方法,有力支持大數(shù)據(jù)時代的個性化醫(yī)療。
論文三:SCA-CNN: Spatial and Channel-wise Attention in Convolutional Networks for Image Captioning
針對圖像描述生成任務,SCA-CNN基于卷積網(wǎng)絡的多層特征來動態(tài)生成文本描述,進而建模文本生成過程中空間及通道上的注意力模型。
論文四:Deep Self-Taught Learning for Weakly Supervised Object Localization
本文提出依靠檢測器自身不斷改進訓練樣本質(zhì)量,不斷增強檢測器性能的一種全新方法,破解弱監(jiān)督目標檢測問題中訓練樣本質(zhì)量低的瓶頸。
論文五:Diverse Image Annotation
本文提出了一種新的自動圖像標注目標,即用少量多樣性標簽表達盡量多的圖像信息,該目標充分利用標簽之間的語義關系,使得自動標注結果與人類標注更加接近。
論文六:Exploiting Symmetry and/or Manhattan Properties for 3D Object Structure Estimation from Single and Multiple Images
基于曼哈頓結構與對稱信息,文中提出了單張圖像三維重建及多張圖像Structure from Motion三維重建的新方法。
2.ACL(計算機語言協(xié)會年會)
ACL是計算語言學里重要的會議,今年是第55屆。會議涵蓋生物醫(yī)學、認知建模與心理語言學、交互式對話系統(tǒng)、機器翻譯等各個領域,今年有194 篇長論文、107 篇短論文、21 個軟件演示及 21 篇主題演講。在2017谷歌學術指標(Google Scholar)按論文引用率排名, ACL是計算機語言學和自然語言處理領域別學術年會。
騰訊AI Lab副主任俞棟認為,「自然語言的理解、表達、生成和轉(zhuǎn)換一直是自然語言處理的核心問題。近年來有很多新的解決思路和方法。今年的ACL涉及自然語言處理的各方面,尤其在語義解析、語義角色標注、基于語義和語法的自然語言生成、機器翻譯和問答系統(tǒng)方向上都有一些有趣的工作?!?br />
騰訊AI Lab主任張潼介紹到,「ACL早期利用語法和規(guī)則分析自然語言,90年代后,隨著以LDC(Linguistic Data Consortium)為代表的自然語言數(shù)據(jù)集建立擴充,統(tǒng)計自然語言方法在計算語言學里作用越來越大并成為主流。2000年后隨著互聯(lián)網(wǎng)高速發(fā)展及以自然語言為核心的人機交互方式興起,自然語言研究被賦予極高應用價值?!?br />
騰訊AI Lab三篇文章入選ACL
論文一:Modeling Source Syntax for Neural Machine Translation
本文提出將句法樹轉(zhuǎn)化為句法標簽序列的輕量級方法,有效將源端句法信息引入神經(jīng)網(wǎng)絡翻譯系統(tǒng),被證實能顯著提高翻譯效果。
論文二:Chunk-Based Bi-Scale Decoder for Neural Machine Translation
本文引入一個額外組塊神經(jīng)網(wǎng)絡層,從組塊到詞的層次生成譯文,幫助實現(xiàn)神經(jīng)網(wǎng)絡翻譯系統(tǒng)短語級別的建模,實驗表明該方法在多種語言上都能顯著提高翻譯效果。
論文三:Deep Pyramid Convolutional Neural Networks for Text Categorization
文章提出了一種能有效表達文本長距離關系的復雜度詞粒度CNN。本文研究了如何加深詞粒度CNN對文本進行全局表達,并找到了一種簡單網(wǎng)絡結構,通過增加網(wǎng)絡深度提升準確度,但不過多增加計算量。實驗表明15層的DPCNN在六個情感和主題分類任務上達到了目前佳結果。
3.ICML(機器學習大會)
機器學習是人工智能的核心技術,而ICML是機器學習重要的兩個會議之一(另一個是NIPS)。ICML源于1980年在卡內(nèi)基梅隆大學舉辦的機器學習研討會,現(xiàn)由機器學習學會(IMLS)主辦。2017谷歌學術指標以「機器學習」關鍵詞排名,ICML位列。
騰訊AI Lab主任張潼博士介紹到,「很多經(jīng)典論文和算法,如CRF,都是在ICML上提出的,這個會議涉及機器學習相關的所有研究,包括近年非常熱門的深度學習、優(yōu)化算法、統(tǒng)計模型和圖模型等。在早期,ICML更注重實驗和應用,而NIPS更注重模型和算法,但近年來兩個會議有些趨同。」
騰訊AI Lab四篇文章入選ICML
論文一:Scaling Up Sparse Support Vector Machines by Simultaneous Feature and Sample Reduction
本文提出了個能在模型訓練開始前,同時檢測和去除稀疏支持向量機中不活躍樣本和特征的篩選算法,并從理論和實驗中證明其能不損失任何精度地把模型訓練效率提升數(shù)個量級。
論文二:GSOS: Gauss-Seidel Operator Splitting Algorithm for Multi-Term Nonsmooth Convex Composite Optimization
本文提出了求解多塊非光滑復合凸優(yōu)化問題的算子分裂新算法,該算法采用Gauss-Seidel迭代以及算子分裂的技巧處理不可分的非光滑正則項,并以實驗證實了該算法的有效性。
論文三:Efficient Distributed Learning with Sparsity
本文提出了一個高維大數(shù)據(jù)中能更有效學習稀疏線性模型的分布式算法。在單個機器訓練樣本足夠多時,該算法只需一輪通信就能學習出統(tǒng)計優(yōu)誤差模型;即使單個機器樣本不足,學習統(tǒng)計優(yōu)誤差模型的通信代價只隨機器數(shù)量對數(shù)曲線上升,而不依賴于其他條件數(shù)。
論文四:Projection-free Distributed Online Learning in Networks
本文提出了去中心化的分布式在線條件梯度算法。該算法將條件梯度的免投影特性推廣到分布式在線場景,解決了傳統(tǒng)算法需要復雜的投影操作問題,能處理去中心化的流式數(shù)據(jù)。
此外,騰訊還受邀參加以下三個會議:8月7日-11日東京舉辦的SIGIR(計算機協(xié)會信息檢索大會),入選論文3篇。8月19日-25日墨爾本舉辦的IJCAI(人工智能聯(lián)合會議),入選論文6篇。及9月7日-11日哥本哈根舉辦的EMNLP(自然語言處理實證方法會議),入選論文7篇。
原標題:騰訊AI Lab多篇研究論文入選三大學術會議