3C科技 娛樂遊戲 美食旅遊 時尚美妝 親子育兒 生活休閒 金融理財 健康運動 寰宇綜合

Zi 字媒體

2017-07-25T20:27:27+00:00
加入好友
允中 發自 凹非寺量子位 出品 | 公眾號 QbitAI今天凌晨,NIPS 2017開始揭榜。作為機器學習領域的頂級會議,NIPS 2017共收到3240篇論文投稿,毫不意外這個數字又創了新高。有678篇論文被選中作為大會論文,比例20.9%。其中有40篇被選中進行口頭報告(oral),112篇選為spotlight進行展示。接收到NIPS 2017入選通知郵件的研究者,紛紛都迫不及待的開始與外界分享這一喜悅。或曰:「登斯NIPS也,則有心曠神怡,寵辱偕忘,把酒臨風,其喜洋洋者矣。」當然也有遺憾被拒的,比方量子位在微博上看到的這一幕:形成對比的兩重天。很多入圍者在慶祝之餘,還附帶了arXiv鏈接。什麼?已經在arXiv上發表?真的可以么?對,沒關係。NIPS 2017要求提交的論文,不能是已經公開/接受出版,或者曾經投遞給其他會議/期刊。但是允許提前發表在arXiv.org上。當然還有很多人並不喜歡這麼做,所以他們入選的論文稍後會公開發布。現在到底有哪些入圍論文已經可以看到了?量子位手動統計了一下目前的情況,數據來自微博、推特、reddit等公開渠道。OralSafe and Nested Subgame Solving for Imperfect-Information Games在NIPS 2017接受的口頭報告展示論文中,我們發現了一篇「明星」論文。來自卡內基梅隆大學博士生Noam Brown和Tuomas Sandholm教授。還記得年初叱吒德州撲克界的AI么?量子位3月還在CMU獨家專訪了這兩位學者。這次的論文,就是他們最新的研究成果總結。摘要簡介:不完美信息博弈問題,雖然不能通過拆解為子博弈解決,但可以通過不相交的子博弈來逼近解決方案,或者改進現有解決方案。論文地址:Toward Goal-Driven Neural Network Models for the Rodent Whisker-Trigeminal System這是另一篇看起來很好玩的論文。第一作者是來自斯坦福的博士生Chengxu Zhuang(庄程旭),其他作者來自MIT、西北大學以及斯坦福。摘要簡介:很大程度上,嚙齒動物(老鼠什麼的)通過鬍鬚「看到」世界。在這次的研究中,我們採用目標驅動的深度神經網路對鬍鬚-三叉神經系統進行建模。首先,我們構建了一個生物物理學實現的老鼠鬍鬚陣列模型。然後,生成一個鬍鬚掃過各種3D對象的大型數據集,包括各種不同的姿勢、角度和速度。接下來,我們訓練了幾個不同架構的DNN來解決這個數據集中的形狀識別任務。最後我們證明,鬍鬚-三叉神經系統的DNN模型值得深入研究。論文地址:TernGrad: Ternary Gradients to Reduce Communication in Distributed Deep Learning這篇論文的作者是杜克大學的博士生溫偉、陳怡然教授等人。摘要簡介:用於同步梯度和參數的高網路通信成本,是眾所周知的分散式訓練瓶頸。在這個研究中,我們提出TernGrad:使用三元梯度來在數據并行中加速分散式深度學習。論文地址:△ NIPS 2017發給陳教授的郵件Robust and Efficient Transfer Learning with Hidden-Parameter Markov Decision Processes這篇論文的作者三位來自哈佛大學,一位來自布朗大學。摘要簡介:這是一個新的隱馬爾可夫決策過程(HiP-MDP)方案,使用貝葉斯神經網路替換之前基於高斯高程的模型。新框架將HiP-MDP的應用範圍擴大到更高維度和更複雜動態的領域。論文地址:End-to-end Differentiable Proving兩位作者分別來自牛津和倫敦大學學院。摘要簡介:這是一個端到端的微分定理證明神經網路,運算基於符號的密集向量表示。具體來說,我們使用徑向基函數內核,基於符號向量表示構建了一個微分計算,用以取代符號統一(symbolic unification)。論文地址:A Linear-Time Kernel Goodness-of-Fit Test作者來自倫敦大學學院、巴黎綜合理工大學、日本統計數學研究所。摘要簡介:我們提出了一種擬合優度的新型自適應測試。我們證明了新的測試,比以前的線性時間內核測試具有更大的相對效率。論文地址:On Structured Prediction Theory with Calibrated Convex Surrogate Losses作者來自法國國家信息與自動化研究所、蒙特利爾大學。摘要簡介:這篇論文提出了一種結構化預測的新見解。對於任務丟失,我們構建了一個可以通過隨機梯度下降優化的凸替代,並證明了所謂「校準函數」的緊界,將過量替代風險與實際風險相關聯。論文地址:SpotlightOvercoming Catastrophic Forgetting by Incremental Moment Matching作者來自首爾國立大學等韓國研究機構。摘要簡介:為了解決災難性遺忘這個問題,我們提出了使用貝葉斯神經網路框架構建的增量矩匹配(IMM)。論文地址:入選oral和Spotlight展示環節的論文,量子位初步找到這些。更多的內容,期待官方統一公布。以下還有一些NIPS 2017接受的論文。其他入選論文Dynamic Safe Interruptibility for Decentralized Multi-Agent Reinforcement Learning分散式多智能體強化學習的動態安全中斷論文地址:Byzantine-Tolerant Machine Learning拜占庭容錯機器學習論文地址:Causal Effect Inference with Deep Latent-Variable Models因果效應推理與深度潛變數模型論文地址:Learning Hierarchical Information Flow with Recurrent Neural Modules用循環神經模塊學習分層信息流論文地址:SVCCA: Singular Vector Canonical Correlation Analysis for Deep Understanding and ImprovementSVCCA:深度理解和改進的奇異向量規範相關分析論文地址:Structured Bayesian Pruning via Log-Normal Multiplicative Noise通過對數正態乘法雜訊構造貝葉斯修剪論文地址:SafetyNets: Verifiable Execution of Deep Neural Networks on an Untrusted CloudSafetyNets:在不可信雲上可信賴的運行深度神經網路論文地址:Working hard to know your neighbor』s margins: Local descriptor learning loss努力學習臨近的邊緣:本地描述符學習損失論文地址:Emergence of Language with Multi-agent Games: Learning to Communicate with Sequences of Symbols多智能體遊戲語言的出現:學習與符號序列進行溝通論文地址:Practical Bayesian Optimization for Model Fitting with Bayesian Adaptive Direct Search貝葉斯自適應直接搜索模型擬合的實際貝葉斯優化論文地址:GitHub地址:On Tensor Train Rank Minimization: Statistical Efficiency and Scalable AlgorithmTensor Train等級最小化:統計效率和可擴展演算法論文地址:好啦,先到這裡。最後,還是恭喜各位。以及,如果有更多關於這次NIPS 2017想說的東西,不管是談談論文,發發感想,做做總結,都歡迎聯繫量子位~— 完 —加入社群量子位AI社群8群開始招募啦,歡迎對AI感興趣的同學,加小助手微信qbitbot3入群;此外,量子位專業細分群(自動駕駛、CV、NLP、機器學習等)正在招募,面向正在從事相關領域的工程師及研究人員。誠摯招聘量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,)對話界面,回復「招聘」兩個字。量子位 QbitAIվ'ᴗ' ի 追蹤AI技術和產品新動態

本文由yidianzixun提供 原文連結

寫了 5860316篇文章,獲得 23313次喜歡
精彩推薦