sexbobo LV
发表于 2025-4-13 06:44:54
ChatGPT的底层逻辑可以这样通俗理解。
首先是大规模的数据收集 。研发团队收集了海量来自互联网上各种各样的文本 ,包括书籍、文章、网页内容、对话等等 。这些数据就像是一个巨大的知识宝库。
然后是基于Transformer架构。这是一种能高效处理序列数据(文本就是按顺序排列的字符序列)的模型结构 。它可以很好地捕捉文本中前后文之间的关系 。比如,一个句子中前面提到的内容和后面要说的有什么关联,它能分析出来。
接着是进行无监督学习 。用这些海量数据让模型学习语言的模式、规律 。比如单词怎么组合成句子,不同语境下词语的含义等等 。它通过不断预测下一个可能出现的单词来学习,就像猜谜语一样 ,猜对了就得到一定奖励(降低损失值),猜错了就调整自己的参数,不断优化 。
之后还会用到有监督微调 。研发人员准备一些有正确答案标注的特定数据 ,让模型在这些数据上进行学习 ,对之前学到的知识进行调整和优化 ,让它在特定任务上表现更好。
最后是强化学习 。通过一个奖励模型 ,根据模型给出回答的质量高低给予奖励或者惩罚 。模型根据这些反馈进一步调整自己 ,让生成的回答更加符合人类期望的高质量标准 。简单说 ,就是不断让模型变得更会 “聊天”、给出更好的回答。 |
|