ICLR 2021录用结果公布,接收率28.7%,Lecun感慨h5指数超过NeurIPS、ICML
ICLR由Lecun,Hinton和Bengio三位神经网络的元老联手发起。近年来随着深度学习在工程实践中的成功,ICLR会议也在短短的几年中发展成为了神经网络的顶会。在ICLR论文结果公布之际,Lecun发推特感慨:
“ICLR的h5指数为203,在所有科学出版物中排名第17,领先于NeurIPS、ICCV、ICML。在过去五年中有203篇论文获得了超过203个引用,这对于一个从2013年才开始的会议来说,进步神速”。
ICLR 会议论文情况一览
在ICLR 2021 的论文 rebuttal 阶段结束的时候,Criteo AI Lab机器学习研究科学家Sergey Ivanov从 ICLR 2021 OpenReview 网页抓取了本次大会的论文数据,并做了可视化呈现,统计了论文主题、评审情况等信息。
作者先统计了提交论文中出现频率排名前 50 的关键词,与往年一样,深度学习、强化学习、表征学习、图神经网络都是非常热门的话题。深度学习提交数量接近250篇。
但与去年会议情况相比,卷积神经网络的热度下降了不少,元学习、表征学习、图神经网络等领域的热度也在稳步上升。
清晰的领域分布以及关键词出现次数,如下词云图所示:
此外,作者还统计了论文得分情况,在这所有论文当中,最高的单项评审得分是9分,然而没有任何一篇论文达到10分。所有论文的平均分数为5.16(中位数为5.25)。如果论文接收率为20%,那么论文平均分数要达到6分以上才能被接收。
如上,在这所有论文当中,最高的单项评审得分是9分,然而没有任何一篇论文达到10分。
所有论文的平均分数为5.16(中位数为5.25)。
这意味着,如果论文接收率为20%,那么论文平均分数要达到6分以上才能被接收。但真实的录取率接近30%,相比本届ICLR仁慈了不少。
此外,Sergey Ivanov还做了一张图,清晰展示了什么样的论文能够得到更高的评分,结果是,论文中有“标准化流(normalizing flows)”、“深度生成模型”。
得分最高的一篇论文是:“How Neural Networks Extrapolate: From Feedforward to Graph Neural Networks”,虽然标题中并未出现“标准化流(normalizing flows)”和“深度生成模型”等关键词,但仍然得到了评委的青睐。
这篇论文的平均得分达到了8.25,全部得分为[8, 9, 9, 7] ,根据AMiner论文主页可知,其第一作者来自MIT,研究内容是:研究通过梯度下降训练的神经网络是如何外推(Extrapolate),即它们在训练的概率分布之外学到了什么。
论文链接:https://www.aminer.cn/pub/5f6dc84991e01153370055fc

精彩评论
相关阅读