ACL为什么叫故事汇?

不做nlp,希望得到一些举例以及解答
收藏者
0
被浏览
109

5 个回答

奕夫 LV

发表于 2025-4-9 14:04:40

感觉上面说的什么堆架构换场景然后讲故事都是很初级的玩法了,LLM出来后调教大模型纯调api都可以发acl了
acl现在就这种味自己品品

ACL为什么叫故事汇?-1.jpg


ACL为什么叫故事汇?-2.jpg

沪漂小程序员 LV

发表于 2025-4-9 14:15:10

故事汇,如果简单定义为”paper故事讲得好“的paper越来越多。

  • 故事讲得好,工作solid,好的story减少了读懂工作的认知脑力。
  • 故事讲得好,工作非常一般,但因为简单易懂,更容易被reviewer/follower理解,获得更加多的citation
  • 故事讲得好,只有故事,没有工作,但因为巨大的投稿数,会有那么几个漏网之鱼。
  • 故事讲得差,工作solid,大家读不懂。除非遇到超级良心reviewer,耐心花1h+读懂你的paper,不然大概率被拒
  • 故事讲得差,工作一般,所以大概率被拒稿
  • 故事讲得差,工作也差(=> 学术垃圾)
个人认为,*CL被调侃成“故事汇”,部分原因是因为 2和3 的比例越来越大,甚至有喧宾夺主的趋势。然而,这并不意味着 4 和 5 就应该减少文章的叙事性。换句话说,在文章中加入一个易于理解的“故事”,让读者明白你想解决什么问题,仍然是一个最有效的策略。
并不是”啊现在的reviewer真垃圾,都没读懂我的paper“,而是因为我们的大脑天生喜欢故事、比喻和熟悉的事物。用熟悉的东西来理解陌生的新知识,是大多数人大脑认知的一个基本事实。
只是圈子越来越大,投稿数量越来越大,有重大创新的工作就这么多。大家就陷入了囚徒困境,明明应该把更多心思花在 research上,却因为这个越来越卷的讲故事要求,甚至让”平铺直叙写明问题,没有故事性,简单高效解决问题的solid paper“频频被拒。
-----
当然我觉得故事汇里一个更有意思的例子应该是分布式系统里,图灵奖大神 Lamport 的神作《The Part-Time Parliament》。Paxos 为什么难以理解?
读一下第一节的中文翻译:
公元十世纪初,爱情海上的Paxos小岛是一个繁荣的商业中心。财富导致了政治的复杂化,Paxon的公民采用了议会形式的政府代替了古代的神权政治。但是商业在公民义务之上,在Paxon,没有人愿意将其一生投入到议会当中。Paxon议会需要在议员们不断出入议会的情况下保持工作。
兼职议会面对的问题和当今的容错分布式系统是非常相似的,议员对应于进程,议员离开会议室则对应于分布式系统中的失败(故障)。因此,Paxon的解决方案也许对计算机科学会有借鉴意义。这里简短的介绍Paxon议会协议,然后更简短的介绍它和分布式系统的相关性。
Paxon文明被外国文明入侵破坏,最近考古学家才发掘它的历史。因此,我们对Paxon议会的了解是支离破碎的。尽管我们了解基础的协议,但是并不清楚细节。出于兴趣,我将冒昧的推测Paxons可能做些什么。
估计不少人会觉得非常神神叨叨,如果是一个名不见经传的人发,估计没人会乐意仔细读。而他自己主页的note也说到:
我曾经认为,现在仍然认为,Paxos 是一种重要的算法。我曾成功地用拜占庭将军来描述共识问题,从而将其推广开来,受此启发,我决定将该算法描绘成古希腊岛屿上的议会。Leo Guibas 建议将该岛命名为Paxos。我给希腊立法者提供了在该领域工作的计算机科学家的名字,并在 Guibas 的帮助下将其音译成一种伪造的希腊方言。(Peter Ladkin 建议了这个标题。)写一个失落的文明让我能够消除无趣的细节,并通过说议会协议的一些细节已经丢失来表明普遍性。为了进一步描绘,我以印第安纳琼斯风格的考古学家的身份做了几次演讲,戴着斯泰森帽,带着酒壶。
我试图在这个主题中加入一些幽默,但最终失败了。听过我演讲的人记得印第安纳琼斯,却不记得算法。阅读这篇论文的人显然被希腊寓言分散了注意力,以至于他们不理解算法。在那些声称读过这篇论文的人中,有 Nancy Lynch、Vassos Hadzilacos 和 Phil Bernstein。几个月后,我通过电子邮件向他们发送了以下问题:您能否实现一个分布式数据库,该数据库可以容忍任意数量的进程(可能是所有进程)发生故障而不会失去一致性,并且当超过一半的进程再次正常工作时将恢复正常行为?
没有人注意到这个问题和Paxos算法有什么联系。
所以讲故事是不是好事呢?
Lamport的这个论文其实可能试图“讲一个好故事,让solid的工作更加易于理解”,但是弄巧成拙变成了“故事讲得太多,没怎么讲工作,大家都读不懂”。
如果工作是好的,讲故事是一个为读者着想的presentation skill。有很大一部分的研究者,尤其是没受过什么写作训练的,经常画虎类犬。写paper讲故事的核心是让东西更容易理解,而不是取一个酷炫的标题,加上乱七八糟的emoji。
审稿人/读者大都有叛逆心理,overclaim几次之后,会导致学术性死亡。对于研究人员来说,”学术信用“是一个隐秘但至关重要的代币。如果paper写得太差,没有故事,就会让大家失去对论文的兴趣。尤其你是小透明学者。不过至少对我而言,如果某个人出现了一篇论文只有故事而没有实质性的研究内容,那么它的作者很可能会被我列入”再也不看“的黑名单。
值得读的paper那么多,为什么要盯着辣鸡paper看呢?

pps. 有的时候,虽然概率比较低,你没办法用少量时间证明你认为的”辣鸡“paper,不是跟lamport大神这篇paper性质差不多:因为idea本身过于复杂了,不得不先写个故事来解释这个idea,然后再好多篇重磅文章来解释。所以,有的时候也不要矫枉过正,视一切故事为毒瘤。

该用户在睡觉 LV

发表于 2025-4-9 14:25:51

起初刚入门 NLP 时,觉得一篇长文要有 3 个创新点,才能产生足够的 contribution,因此一直在想该怎么整狠活。
后来,读的论文多了,发现相当一部分 xACL / EMNLP 文章,其实创新点只有一个。但人家故事讲得是真好,一些我认为三句话就可以说明白的 idea,硬是能写满 8 页,整一堆分析与实验,顺带再来两页附录。
同时,为了使 Introduction 最后一段的贡献叙述比较满当,这类文章有一种写作模板:

  • 本文提出了 ...
  • 据我们所知,本文是第一个这么干的
  • 我们在 ... 验证了它的可行性
  • 代码可以在如下链接获取到

tszqc LV

发表于 2025-4-9 14:38:32

几年前读到过一篇文章,当时被做法惊到了。好像是句子中抽取短语的任务,以往的做法往往建模成标注任务,然而作者的做法是把attention map作为输入,多个头作为多通道,每一个token视作像素点,用CNN作为模型,把目标的token作为标签进行训练。
初见只觉惊艳,仔细想想觉得很合理:attention map视为图像,attention值具有丰富的token间词法关系;多头视为多通道,完美的契合两者的特性;可以无视flatten或者嵌套的短语…是我看到过nlp和cv完美的结合。
不管效果怎么样,这种文章就是我心中“意料之外,情理之中”的完美体现,也很符合故事的要求。
<hr/>仔细看了一下是KDD2021,不过也算nlp的任务,不算离题太远,hanjiawei老师组的:
UCPhrase: Unsupervised Context-aware Quality Phrase Tagging

ACL为什么叫故事汇?-1.jpg


ACL为什么叫故事汇?-2.jpg

玛卡巴卡 LV

发表于 2025-4-9 14:50:16

在NLP顶会投稿中,讲好一个故事比你本身得实验和方法更重要。并且在LLM出现以后,各种prompt agent得研究,就变成纯纯测试LLM。60%靠故事,30%靠idea。最后10%才是不重要的方法。比如用LLM玩星际争霸,用LLM模拟一战二战。LLM会有性格吗?已经脱离计算语言了。所以成了纯纯讲故事

您需要登录后才可以回帖 登录 | 立即注册