欢迎来到淘文阁 - 分享文档赚钱的网站! | 帮助中心 好文档才是您的得力助手!
淘文阁 - 分享文档赚钱的网站
全部分类
  • 研究报告>
  • 管理文献>
  • 标准材料>
  • 技术资料>
  • 教育专区>
  • 应用文书>
  • 生活休闲>
  • 考试试题>
  • pptx模板>
  • 工商注册>
  • 期刊短文>
  • 图片设计>
  • ImageVerifierCode 换一换

    华为青年研究员获NeurIPS最佳论文奖:4856篇投稿仅有21%录取率.docx

    • 资源ID:73274237       资源大小:19.87KB        全文页数:9页
    • 资源格式: DOCX        下载积分:14.8金币
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录   QQ登录  
    二维码
    微信扫一扫登录
    下载资源需要14.8金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    华为青年研究员获NeurIPS最佳论文奖:4856篇投稿仅有21%录取率.docx

    华为青年研究员获NeurIPS最佳论文奖:4856篇投稿,仅有21%录取率图片来源于Facebook译者|琥珀出品|AI科技大本营尽管经历了审稿信息泄露、大会名称更换、200多位黑人论文拒签的种种风波但仍然抵挡不住今年度NIPS大会8400名技术人的踊跃前来。本周12月3日-12月8日神经信息处理系统大会NeurIPS2018在加拿大蒙特利尔会展中心举办。作为年度度最大的机器学习盛会之一NIPS最早成立于1986年度并于今年度改名为NeurlPS。截止目前该会议已成功举办32届并成为在数据科学家、研究人员以及学者等人工智能社区中备受瞩目的年度度聚会。据解析NeurIPS2018共收到4856篇投稿创历史最高记录最终录取了1011篇论文论文录取率为21%。其中Spotlight论文168篇Poster论文812篇Oral论文30篇。承受的论文主题中排名第一的是算法其他依次为深度学习、应用、强化学习与规划、概率方法、理论、优化方法、神经网络与认知科学、数据及其他。此次投稿的论文中有69%的论文表示公布代码实际上只有44%的提供了代码或者数据。此次参会注册人数超过9000人。从现场活动值得关注的是女性在机器学习领域的从业者开场逐渐增多。今年度共计有7场主题演讲、9场TutorialSession以及41场Workshop本次会议主题演讲范围覆盖算法、机器学习、强化学习、神经网络等。同样可以看到这些主题也是目前学术界热衷的研究方向。当然最值得一提的是在大会首日的开幕式环节4篇最正确论文奖、1篇时间检验奖等众多奖项悉数揭晓。除了GoogleAI、微软研究院、多伦多大学向量研究所、INRIA等我们所熟知的研究机构或者院校外来自华为诺亚方舟实验室法国成员KevinScaman也榜上有名。根据领英上公布的简历Kevin于今年度1月参加华为此前工作于微软研究院。假如年度龄没估计错的话他今年度应该还不过30岁可谓靠才华吃饭的一枚“小鲜肉。回归此次大会主题4篇最正确论文分别是NeuralOrdinaryDifferentialEquationsOptimalAlgorithmsforNon-SmoothDistributedOptimizationinNetworksNon-delusionalQ-learningandvalueiterationNearlytightsamplecomplexityboundsforlearningmixturesofGaussiansviasamplecompressionschemesNeuralOrdinaryDifferentialEquations神经常微分方程RickyT.Q.Chen,YuliaRubanova,JesseBettencourt,DavidDuvenaud四人均来自多伦多大学向量研究所值得一提的是RickyT.Q.Chen中文名为陈天琪恰与XGBoost开发者华盛顿大学计算机系博士生陈天奇的英文名重名。摘要我们引入了一种新的深度神经网络模型家族。我们并没有规定一个离散的隐藏层序列而是使用神经网络将隐藏状态的导数参数化。然后使用黑箱微分方程求解器计算网络的输出。这些连续深度模型的内存本钱是恒定的并根据输入调整评估策略以及显示地用数值精度换取运算速度。我们构造了连续归一化流一个可以使用最大似然度的方式训练的生成模型无需对数据维度进展分割或者排序。对于训练我们展示了怎样通过任何ODE求解器进展可扩展的反向传播无需访问其内部操作。这使得可以在较大规模内实现端到端的ODE训练。论文地址s:/arxiv.org/pdf/1806.07366.pdfNearlytightsamplecomplexityboundsforlearningmixturesofGaussiansviasamplecompressionschemes利用样本压缩方案学习高斯混合的近似紧样本复杂界限HassanAshtianiShaiBen-DavidNicholasHarveyChristopherLiawAbbasMehrabianYanivPlan来自加拿大麦克马斯特大学、滑铁卢大学、不列颠哥伦比亚大学、麦吉尔大学等摘要我们证明了样本对于学些中的K高斯混合模型是充分且必要的直至整体偏向间隔误差。这改善了该问题已知的上限以及下限。对于轴对准高斯混合我们证明了匹配一个已知的下限是足够的。上限是基于样本压缩概念的分布式学习新技术。任何一类允许这种样本压缩概念的方案可以以通过很少的样本来学习。我们的核心结果是证明了高斯混合类具有有效的样本压缩。论文地址s:/papers.nips.cc/paper/7601-nearly-tight-sample-complexity-bounds-for-learning-mixtures-of-gaussians-via-sample-compression-schemes.pdfOptimalAlgorithmsforNon-SmoothDistributedOptimizationinNetworks网络中非光滑分布优化的优化算法KevinScaman,FrancisBach,SébastienBubeck,YinTatLee,LaurentMassoulié来自华为诺亚方舟实验室、INRIA、微软研究院、华盛顿大学等摘要在这项研究中我们利用计算单元网络的非光滑凸函数的分布式优化。我们两个正那么性假设下研究这个问题1全局目的函数的Lipschitz连续性(2)部分单个函数的Lipschitz连续性。在部分正那么性假设下我们提出第一个最优一阶分散算法多步原对偶算法(MSPD)并给出了相应的最优收敛速度。这个结果的显著影响是对于非光滑函数当误差的主要项在O(1/t)中时通信网络的构造仅影响O(1/t)中的二阶项其中t是时间。也就是讲即使在非强凸目的函数的情况下由于通信资源的限制而导致的误差也会减小。在全局正那么性假设下我们提出了一种基于目的函数部分平滑的分布式随机平滑DRS算法并证明了DRS在最优收敛率的d1/4乘因子内其中d为底层维数。论文地址s:/arxiv.org/pdf/1806.00291.pdfNon-delusionalQ-learningandvalue-iteration非妄想Q学习以及价值迭代TylerLuDaleSchuurmansCraigBoutilier均来自GoogleAI摘要在Q学习Q-learning以及其他形式的动态规划中我们用函数逼近法确定了误差的根本来源。当近似构造限制了可表达的贪心策略的类别时就会产生偏向。由于标准Q-updates对可表达的策略类做出了全局不协调的动作选择因此可能导致不一致甚至冲突的Q值估计进而导致病态行为例如高估/低估、不稳定甚至分歧。为解析决这个问题我们引入了策略一致性概念并定义了一个本地备份流程通过使用信息集来确保全局一致性。我们证明了使用这种备份的基于模型以及无模型的算法可消除妄想delusional偏向进而产生第一种已知算法可在一般条件下实现最优结果。这些算法只需要多项式的一些信息集来自潜在指数的支持。我们建议尝试使用其他启发式方法如Value-iteration以及Q学习减少妄想偏向。论文地址s:/papers.nips.cc/paper/8200-non-delusional-q-learning-and-value-iteration时间检验奖TheTradeoffsofLargeScaleLearning大规模学习的权衡LéonBottouOlivierBousquet分别来自NEC美国实验室以及Google摘要本文建立了一个理论框架将近似优化对学习算法的影响考虑在内。分析说明对于小规模以及大规模学习问题的权衡是明显的。小规模学习问题受到通常的近似估计权衡的影响大规模学习问题受到底层优化算法的非平凡方式的计算复杂性得到了不同程度的权衡影响。论文地址s:/papers.nips.cc/paper/3323-the-tradeoffs-of-large-scale-learning.pdf附上此次大会链接s:/nips.cc/及直播链接s:/facebook/nipsfoundation/本文为AI科技大本营原创文章转载请联络微信1092722531。NEW菜单晋级啦一键直通CSDN会员效劳。你关心的开发问题这里都有答案搜索开发疑难/资源一键查找搜遍CSDN全站会员购置专属VIP购置免积分下载/免广告/获免费课程下载APP安装CSDNAPPCSDN资源随身带个人中心掌上CSDN个人助手专属您的个人空间优选推荐由CSDN学院重磅打造的人工智能工程师实战班来了约用百天时间帮助你成为高端人工智能开发工程师的系统课程更有知名企业推荐就业时机帮你百天挑战薪资翻倍扫码沟通一对一职场规划推荐浏览孟岩对话元道通证经济将在两个方向上闯出新路

    注意事项

    本文(华为青年研究员获NeurIPS最佳论文奖:4856篇投稿仅有21%录取率.docx)为本站会员(安***)主动上传,淘文阁 - 分享文档赚钱的网站仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知淘文阁 - 分享文档赚钱的网站(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于淘文阁 - 版权申诉 - 用户使用规则 - 积分规则 - 联系我们

    本站为文档C TO C交易模式,本站只提供存储空间、用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。本站仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知淘文阁网,我们立即给予删除!客服QQ:136780468 微信:18945177775 电话:18904686070

    工信部备案号:黑ICP备15003705号 © 2020-2023 www.taowenge.com 淘文阁 

    收起
    展开