为什么我的 deepseekR1 老是喜欢瞎编,特别是专业学术领域中,一本正经的胡扯,编造数据?

为什么我的 deepseekR1 老是喜欢瞎编,特别是专业学术领域中,一本正经的胡扯,编造数据?
收藏者
0
被浏览
113

5 个回答

南天一柱 LV

发表于 2025-4-22 14:11:27

deepseekR1 的训练使用了强化学习(RL),重点是提升数学、编码和逻辑推理等能力。然而,这种方法可能更注重生成看似合理的文本,而非确保信息的真实性。这意味着模型在面对未知或学术问题时,可能会自行填补知识空白,编造信息以保持生成内容的连贯性。

wlzt LV

发表于 2025-4-22 14:22:21

近日#防止DeepSeek乱编文献的方法#登上热搜——


为什么我的 deepseekR1 老是喜欢瞎编,特别是专业学术领域中,一本正经的胡扯,编造数据?-1.jpg

起因是一名大学生用AI辅助写论文,被导师发现参考文献中出现了根本不存在的期刊和作者。
这场看似荒诞的“学术事故”,恰如一记警钟,敲响了AI时代知识生产的隐忧:
当工具能轻易编织逻辑严密的谎言,我们人类该如何守护认知的底线?
当然了,事件中的AI并非故意作恶,它只是遵循算法逻辑,用海量数据拼凑出看似专业的答案。
就像一位过分热情的助手,你问“ChatGPT的发展历程”,它不仅能列出真实事件,还会“贴心”补充几篇虚构论文——毕竟在它的世界里,语言流畅度优先级远高于事实核查。
这种“幻觉”现象暴露了AI的底层局限:它擅长模仿人类表达,却无法理解何为真实。
训练AI的互联网数据本身充满噪声,从论坛玩笑到未经验证的猜想,AI吸收一切,却无从分辨。
当它将这些碎片重新组合时,输出的可能是学术瑰宝,也可能是精心包装的“瞎说”。  
AI的真诚与荒谬一体两面——它既不懂何为欺骗,也不懂何为真实。  
------------
事件评论区中,不乏“自己偷懒还怪AI”的批评声,但这恰恰掩盖了更深层的问题:
当技术便捷性碾压验证成本,人们极易陷入“理性懒惰”的舒适区。

  • 学生默认“AI生成即正确”,不再追溯原始文献;
  • 研究者依赖AI综述,弱化自主思辨——不思考了;
  • 公众将AI答案视作权威,加剧信息传播的“回音壁”。
这种依赖本质上是一种思维外包。
北京邮电大学教授宋林泽的比喻尤为犀利:
如果把AI输出当作认知终点,就像吃外卖从不检查餐盒——你永远不知道吃下的是营养,还是塑料。
长此以往,人在知识建构中会逐渐退化为“二传手”,丧失最核心的质疑能力与求真本能。
当AI能替我们思考时,我们自己是否也在亲手阉割自己的思想呢?  
------------
从内心讲,我们也认同AI是时代浪潮,势不可挡。
这里,我们与其将AI幻觉视为洪水猛兽,不如将其看作一面镜子,照见人类认知体系的脆弱性。
中国人民大学教授卢家银的观点值得深思:
抵御AI幻觉,本质是一场思维能力的自救运动。
作为一个普通的个体,一个生活在这个大潮中的个人,到底该怎么“自救”?
三个步骤:
1.重构身份 | 从“用户”到“侦探”  
给AI答案打上“暂定”标签,把它视为思维跳板,而非结论。
当AI提供“某研究显示”时——
可以立即启动追问:研究是谁做的?发表在哪儿?其他学者如何评价?
或者触发“反忽悠三连问”:证据在哪?矛盾在哪?漏洞在哪?
2. 重划边界 | 给AI戴上“镣铐”
练习精准提问。用“限定2020-2024年peer-reviewed研究”、“排除模型预测数据”等指令,框定AI作答范围。
还可以进行交叉验证。像论文答辩,要求AI分步呈现“事实”与“推测”,并同步核查权威数据库。  
3. 重塑目标 | 激发思考而非替代
AI的价值不在给出答案,而在暴露问题。
当AI编造出一篇不存在的文献,恰是引导我们追问“这个领域的研究是否存在空白”的契机。
“问题意识”,才是人类相较AI的绝对优势。
其实,真正的智慧不在于知道答案,而在于清醒地知道自己不知道什么。
------------
这场AI幻觉风波,本质上拷问着技术洪流中的人类站位:
当机器能模仿思考的表象,我们更要坚守思考的本质!  
这也提醒我们:
| 要警惕“伪效率”
用AI十分钟生成论文初稿看似高效,但若省去查证环节,可能需十倍时间修正错误——真正的效率包含求真成本。  
| 要拥抱“笨功夫”
文献溯源、数据核验这些“原始”方法,在AI时代反而成了考察思维能力的试金石。  
| 要重视“人性”优势
AI能遍历数据,但人类能追问意义;AI会计算概率,但人类会判断价值——这才是技术无法跨越的护城河。  
当然了,即便我们千防万防,AI生成的幻觉文献或许还会出现在论文参考中,但我们人类文明真正的“参考文献”,始终是——
那颗永不停歇的好奇心,和敢于对一切“完美答案”说“让我再想想”的勇气。
回到本质,与其说我们在防范AI说谎,不如说我们在练习如何更清醒地活着——因为在这个虚实交织的时代,独立思考不是可选项,而是生存的刚需。
而独立思考的基础,是掌握逻辑思维能力,能清晰、准确地分析和处理烦杂地信息。
-----------
关于逻辑思维训练,我创建了一个“知识星球”(原199元/人,现关注+微信 19.9元可加入),分享了一套基础的“形式逻辑”知识,总共21节(已更完)。

每小节内容6000字左右,都是训练逻辑思维的干货。21节内容的分布是这样的——

为什么我的 deepseekR1 老是喜欢瞎编,特别是专业学术领域中,一本正经的胡扯,编造数据?-2.jpg

素材资料已准备就绪(下面是部分内容的展示)——

为什么我的 deepseekR1 老是喜欢瞎编,特别是专业学术领域中,一本正经的胡扯,编造数据?-3.jpg


为什么我的 deepseekR1 老是喜欢瞎编,特别是专业学术领域中,一本正经的胡扯,编造数据?-4.jpg


为什么我的 deepseekR1 老是喜欢瞎编,特别是专业学术领域中,一本正经的胡扯,编造数据?-5.jpg

感兴趣的朋友可以私我,只要花点时间,一定能从质的层面提升你的逻辑思维能力,养成理性思考的习惯。

cyx1689 LV

发表于 2025-4-22 14:36:54

不只是你的,哈哈哈哈,大家都是的,deepseek毕竟只是工具,更多的需要使用者靠指令去约束,我整理了很多关于ai指令的内容,包括deepseek,kimi,豆包,心流等等
有需要的话你可以看看,没有费用就是单纯分享,持续输出干货
点击这里:科研实用技巧指令大全
我是本命搞科研的小舒学姐,会持续分享一些科研经验和吐槽贴,我们一起努力吧!

cyx1689 LV

发表于 2025-4-22 14:45:22

不是针对你的deepseek R1,而是所有人的deepseek R1都是。。。
我就拿deepseek R1来写文章/小说,一本正经的胡说八道也可以很好看那种;专业学术领域那可是一点也不敢用。
这问题在AI领域叫做“幻觉”,各家AI大语言模型为了解决幻觉问题都付出极大的努力,deepseek  才刚开始,不着急,等明年肯定就会好很多了。

jik1756 LV

发表于 2025-4-22 14:56:57

是因为你问的问题没有明确的答案,或者说DeepSeek并不知道正确的答案
毕竟AI不是真的全知全能,它有很多不知道的东西
但是除非AI在训练过程中通过SFT的标注样本明确告诉它,哪些事它是不知道的,否则AI不会觉得自己不知道,它会无论如何都给出一个答案,这个答案是它在所有的可能性中挑选了一个可能性比较大的,但是这个可能性最大的依然是错的,由于AI生成内容的过程是个迭代过程,后面的内容是根据前面的内容预测出来的,所以当第一个词就错了之后,后面的只会更加离谱。
解决这种问题的方法是:
好好组织你的问题,把问题写清楚,让它尽可能有明确的答案
在一个专业的小众领域里,AI的预训练语料是不充分的,在推理时要给AI参考文献,利用RAG技术提高AI的知识水平。
多问几个不同的AI模型,正确的答案都是相似的,错误的答案各有各的瞎编和幻觉。

您需要登录后才可以回帖 登录 | 立即注册