顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

2024年02月01日,23时31分31秒 OpenAI 阅读 10 views 次

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位 2024-01-26 15:49:55 来源:量子位

审稿人要求的实验要花50000美元

一项ICLR拒稿结果让AI研究者集体破防,纷纷刷起小丑符号。

争议论文为Transformer架构挑战者Mamba,可以说开创了大模型的一个新流派。

发布两个月不到,就已建立起一个生态,MoE Mamba,多模态Mamba应有尽有。

但面对ICRL给出的如此结果,就连康奈尔副教授Alexander Rush都看不懂怎么回事了,“如果这都被拒了,那我们小丑们还有什么机会。”

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

在评论区和转发区,不少研究者带上小丑面具前来报道。

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位
顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

具体来说,四位审稿人打出8/8/6/3的分数,这样被拒很多人就已经觉得不正常。

其中一位审稿人提的问题是“有没有训练更大的模型,和10b参数的Transformer比较如何?”

对此,有人表示已经开始向审稿人提及实验成本了。

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

ICLR会议创办的初衷正是优化同行评审过程,LeCun作为会议创始人之一,也表达了不满:

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

LeCun还举例自己也有一篇从未被接受、ArXiv独占的论文,现在被引用次数已超过1880次。

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

也有研究者认为,这次很多高分被接受论文与Mamba比起来充其量只能算个增量研究,更令人遗憾了。

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

这届ICLR混乱重重

先来借用给6分审稿人的意见,简单介绍一下Mamba论文的主要贡献。

  • 提出了基于SSM状态空间模型的新架构,可实现 Transformer 质量的性能,同时线性缩放序列长度
  • 提出了一种硬件感知算法,通过扫描而不是卷积来循环计算模型,避免具体化扩展状态以减少内存使用。
  • 将先前的深度序列模型架构简化为同构架构,具有快速推理、线性缩放和改进的长序列性能
  • 在多种模态(语言、音频和基因组学)上都取得SOTA性能,成为跨模态通用序列模型主干的有力候选者。
顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

这位审稿人提出的二次内存需求问题,不少熟悉这篇论文的人都表示不认可。

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位
顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

对此,作者也在Rebuttal中给出了解释,内存需求实际上是随序列长度线性增长的。

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

另外一位打3分的审稿人,还被吃瓜群众指出可能根本不熟悉什么是RNN。

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

作者针对这位审稿人的Rebuttal太长,足足分了4条才发完。

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

然鹅,这位对自己评分给出5级置信度的审稿人,根本没有回复。

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

这就让人更担心会不会影响领域主席的判断了。

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

正如这位研究者所说,这届ICLR出现的争议还不止一例。

8/8/6/3如果被拒还算事出有因,知乎相关讨论上还有得分8/8/8被AC拒,就更离谱了。

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

还有作者和审稿人吵起来,以至于要讨论礼貌问题的。

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

投稿接不接收全靠随机?

这也引发了网友们对整体学术评审现状的讨论。其中一个主要讨论点是评审过程有缺陷“接不接受真的很随机,和论文本身的质量关系不大”:

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

网友也是缓缓打出一个问号:

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

对此,康奈尔副教授Alexander Rush甚至还提出了这样的建议(手动狗头):

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

不只一位学者分享了类似的建议:

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

当然,也有人抱有不同的观点,认为会议作为一种认可,已出名的作品其实已经不需要了,可以给其他未被发掘的论文更多机会,所以已经出名的论文被学术会议拒绝也是完全可以接受的。

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

值得一提的是,还有不少人建议大家转投新生代会议CoLM,Alexander Rush也参与了这个会议的创办:

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

而大家提到的CoLM会议,全称Conference On Language Modeling,专注于语言模型领域。CoLM刚创立不久,第一届大会将在今年10月份举办。

其中七位组织者均是来自业界学界的大佬,其中有三位是华人学者谷歌周登勇、普林斯顿陈丹琦、Meta的Angela Fan。

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

与ICLR类似,CoLM将采用双盲审核,并使用OpenReview管理投稿。

会议征稿主题包括但不限于语言建模及大模型语境下的对齐、数据、评估、社会影响、安全、科学、高效计算、工程、学习和推理算法等17个方向。

据说,CoLM还是在ACL 2024主席公开抨击称“arXiv是科研的毒瘤”而后引发争论的背景下,催生出来的。

顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了 | 量子位

参考链接:
[1]https://twitter.com/srush_nlp/status/1750526956452577486
[2]https://x.com/ylecun/status/1750594387141369891
[3]https://openreview.net/forum?id=AL1fq05o7H

(来源:量子位)

版权所有,未经授权不得以任何形式转载及使用,违者必究。
标签:


用户登录