现在自然语言处理领域,不涉及大模型还能发文章吗?

发现现在nlp的文章基本都沾点大模型,但是组里算力确实不多,实在跑不起来大模型,想发论文不知道该咋办。。。
收藏者
0
被浏览
103

5 个回答

十一月末 LV

发表于 2025-4-9 20:04:22

国际人工智能创新研讨会(ISAII 2025)

现在自然语言处理领域,不涉及大模型还能发文章吗?-1.jpg


会议官网:IS-AII
会议官邮:ISAIIpaper@126.com
会议时间:2025.1.11-14
会议地点:贵阳
会议检索:EI & Scopus
会议主办:贵州师范大学、贵州理工学院
会议承办:黔南民族师范学院
会议协办:长春理工大学、贵州省人工智能学会、贵州省自动化学会

Axuanz LV

发表于 2025-4-9 20:15:35

可以发。

算力不多,搞不了大模型,那可以试着找小模型来做
研究并使用轻量级的预训练模型,这里推荐试试DistilBERT、TinyBERT等。这些模型对计算需求较低,同时又能保持一定的性能。
或者换一种合适的方法:迁移学习、模型剪枝和量化。

  • 前者是利用在大规模数据上预训练的模型,然后在较小的特定任务数据集上进行微调;
  • 后者是通过剪枝减少模型参数数量,或通过量化降低参数的位数,来减少计算量和存储需求。

现在自然语言处理领域,不涉及大模型还能发文章吗?-1.jpg

上面几招都搞不定的话,那直接用AI应用来写文章。(个人觉得这招最快捷方便省事
其实国内外都有蛮多的AI辅助写文应用,创作面都挺广的,专业级别的论文也是可以照写不误~
论文关键词提取☛ExplainPaper
写论文免不了要参考文献,通过AI即可识别论文中的关键词和重要概念,并进行高亮显示,方便我们快速捕捉论文的重点信息。
国外很多研究人员、科研爱好者、学生都喜欢用的论文阅读助手,它可以通过AI技术生成简明扼要的摘要,轻松GET论文核心内容
它可以通过AI技术生成简明扼要的摘要,轻松GET论文核心内容
而论文上传后,无需我们阅读全文,即可用标记关键字或者段落来获取相关信息/解释,快速评估一篇论文。

现在自然语言处理领域,不涉及大模型还能发文章吗?-2.jpg

论文撰写☛迅捷AI写作
论文篇幅长,撰写时最怕没思路、质量不高。这时候就可以用AI工具来激发创作灵感,提供一些文本思路。
之前写论文主要就是靠这个AI工具,它写作类型很丰富,论文、小说、短视频脚本都有涉及,全方位覆盖~
提供对话和专业双写作模式,可以直接对话来生成,也可以自定义写作风格、语气、语言多参数来辅助撰写。操作简单易上手,无需占用什么算力资源。

现在自然语言处理领域,不涉及大模型还能发文章吗?-3.jpg

碰到一些外文文献时,还可以用其“AI助理——英语翻译官”功能来获取中文版文献内容。
复杂专业的学术词汇也无需担心,翻译快速且精准~

现在自然语言处理领域,不涉及大模型还能发文章吗?-4.jpg

论文分析阅读☛Kimi
全篇论文写完后,可以再对其进行总结、提炼或解释特定段落。
而Kimi恰巧最会长文本处理,所以用来阅读论文刚刚好~
进入网站即可导入论文文档来阅读,它会根据我们抛出的问题/需求来提供对应的解析和回答
不仅如此,我们在阅读过程中遇到任何问题,都可以随时与它进行交互,获得即时的反馈和帮助~

现在自然语言处理领域,不涉及大模型还能发文章吗?-5.jpg

论文优化☛Effidit
论文内容理清后,还能再通过AI来进行润色和修改草稿,以此来提高语言表达的准确性。或是让AI来推荐相关的研究文献,扩展阅读范围和深度。
腾讯这个AI应用除智能写作外,还提供了智能纠错、文本润色等多种优化论文质量的工具。
文本输入后,它即可自动分析,并提供语法、拼写和风格的改进建议。辅助纠正错误,拿下更加流畅专业的论文内容。
同时还附带一个广泛的词汇库【超级网典】,可以让我们从中选择更精确生动的词汇来替换原有文本中的词汇,或是查找一些相关的篇章,来提高写作的质量。

现在自然语言处理领域,不涉及大模型还能发文章吗?-6.jpg

分享完毕,可以的话点点关注 @Leo里昂

sjorz LV

发表于 2025-4-9 20:24:53

原文链接

FIT-RAG: Black-Box RAG with Factual Information and Token ReductionFIT-RAG: Black-Box RAG with Factual Information and Token Reduction
原文汉化摘要

由于大型语言模型(LLMs)参数数量异常庞大,在许多应用中,微调LLMs以更新长尾或过时的知识是不切实际的。为了避免微调,我们可以将LLM视为黑箱(即冻结LLM的参数),并通过添加检索增强生成(RAG)系统来增强它,这被称为黑箱RAG。最近,黑箱RAG在知识密集型任务中取得了成功,并获得了广泛关注。现有的黑箱RAG方法通常会微调检索器以适应LLMs的偏好,并将所有检索到的文档连接起来作为输入,但这带来了两个问题:(1) 忽视事实信息。LLM偏好的文档可能不包含给定问题的事实信息,这可能会误导检索器,损害黑箱RAG的有效性;(2) 浪费标记。简单地连接所有检索到的文档为LLMs带来了大量的不必要的标记,降低了黑箱RAG的效率。
为了解决这些问题,本文提出了一种新的黑箱RAG框架,该框架利用检索中的事实信息并减少用于增强的标记数量,称为FIT-RAG。FIT-RAG通过构建一个双标签文档评分器来利用事实信息,该评分器分别以事实信息和LLMs的偏好作为标签。此外,它通过引入自知识识别器和子文档级别的标记减少器来减少标记,使FIT-RAG能够避免不必要的增强,并尽可能多地减少增强标记。FIT-RAG实现了优越的效果和效率,这一点通过跨三个开放域问答数据集(TriviaQA、NQ和PopQA)的广泛实验得到了验证。FIT-RAG可以分别将Llama2-13B-Chat在TriviaQA上的回答准确性提高14.3%,在NQ上提高19.9%,在PopQA上提高27.5%。此外,它可以在三个数据集上平均节省大约一半的标记。
存在的问题

现有的RAG存在的问题:

  • 忽视事实信息
  • 浪费Token

FIT-RAG的5个组件



  • a similarity-based retriever基于相似性的检索器
  • a bi-label document scorer双标签文档评分器(含事实信息与否、大模型偏好)
  • a bi-faceted self-knowledge recognizer双面自知识识别器(过时知识和长尾知识)
  • a sub-document-level token reducer子文档级别标记减少器
  • a prompt construction module提示构建模块

主原理图


现在自然语言处理领域,不涉及大模型还能发文章吗?-1.jpg


判定大模型是否需要外部增强的方法



  • 问题是否与长尾或过时的知识相关
  • 问题的最近邻是否有自我知识


一些概念



  • 稀疏检索,通俗地说就是根据关键词匹配进行检索
  • 稠密检索,通俗地说就是根据Embedding向量相似度进行检索
  • 消融研究(Ablation Study)在深度学习中是一种研究方法,用于分析模型性能中的各个组件或特征的重要性。"消融"这个词来源于医学领域,意指移除某个部分以观察其对整体功能的影响。
RAG的定义

检索增强生成(RAG)。给定一个自然语言问题 qq,一个外部知识语料库 WW 和一个生成式语言模型 MM,一个RAG系统旨在使用检索模型 RR 有效地从 WW 中检索相关文档 D=(d1,d2,d3,...)D=(d1​,d2​,d3​,...),以帮助 MM 为问题 qq 生成更准确和信息丰富的回答。
重要信息


  • 我们发现不同的提示显著影响了LLMs利用外部信息的能力,并影响生成输出的性能。
  • 相关数据集


  • TriviaQA 擅长阅读理解的数据集
  • Natural Questions 擅长开放域的问答的数据集
  • PopQA 开放领域的问题回答数据集,旨在评估大型语言模型对事实知识的记忆能力。擅长评估语言模型在长尾知识上的表现。


未来的研究方向



输出型RAG(Retrieval-Augmented Generation)

跳过的篇幅



  • 4.2

现在自然语言处理领域,不涉及大模型还能发文章吗?-2.jpg


现在自然语言处理领域,不涉及大模型还能发文章吗?-3.jpg


现在自然语言处理领域,不涉及大模型还能发文章吗?-4.jpg

fdsgsg LV

发表于 2025-4-9 20:38:40

能。但是建议都来搞Prompt,加入我P门。一个月就能水一篇,idea好想又好实现。大家一起来搞Prompt。把顶会全部投成拼音作者。安得顶会千万篇,大庇天下硕博俱欢颜。人人有顶会,人人拿大包。

sjorz LV

发表于 2025-4-9 20:52:30

我感觉卷diffusion model for text generation就挺好的啊,故事好讲,做nlp的懂diffusion的人又少,text generation可做的点又多。
人家卷大语言模型,每天N张H100吭哧吭哧训模型,你一张3090搞定实验,还可以大方讲讲自回归范式啥啥啥做得不好,我diffusion这那天下无敌,大家都有光明的未来。
玩笑话讲完了,详细可以参考我的往期文章:
目前有将diffusion model用于文本生成的研究吗?

您需要登录后才可以回帖 登录 | 立即注册