omygod LV
发表于 2025-4-22 15:26:34
这两天国产大模型可真是提前过年了,DeepSeek R1 和 Kimi k1.5 同一天发布,且都放出了详实的论文报告,震惊国外 AI 社区。
DeepSeek R1 的成绩完全对标 OpenAI o1,与之前的 DeepSeek V3 相比大幅提升。实际测下来 R1 在一些题目上确实能打 o1,但也有一些场景缺陷较大。不过在绝对的开源和性价比面前,这些都不是问题,否则 o1 还混不混了。
更重要的是,R1 的论文表明,纯强化学习可以赋予 LLMs 很强的推理能力,而无需大量监督微调。这篇论文大家要抽空读一下,里面有很多具体的训练历程(包括试错的过程),价值很大。
现在,如果想体验满血 R1,只需要登录 DeepSeek 网页版或者 App,选中深度思考即可使用:
拿一道 o1 同款解密题来做测试,DeepSeek R1 在思考了 74 秒之后,成功给出了正确答案:
除了在线免费体验外,DeepSeek 也同步上线了 R1 模型的 API,价格相当良心,大约只是 o1 模型的 5%:
想要调用 R1 API 的话,只需要在下面的代码中更改 DeepSeek API Key 即可,大多数参数都兼容了 OpenAI API,对开发者来说迁移起来非常方便:- from openai import OpenAI
- client = OpenAI(api_key=&#34;<DeepSeek API Key>&#34;, base_url=&#34;https://api.deepseek.com&#34;)
- # Round 1
- messages = [{&#34;role&#34;: &#34;user&#34;, &#34;content&#34;: &#34;9.11 and 9.8, which is greater?&#34;}]
- response = client.chat.completions.create(
- model=&#34;deepseek-reasoner&#34;,
- messages=messages
- )
- reasoning_content = response.choices[0].message.reasoning_content
- content = response.choices[0].message.content
复制代码 可以说,以 DeepSeek R1 的性能和成本,对开发者们是重大利好。现在想要做 AI 应用真的很简单,R1 甚至可以帮助我们生成大多数代码,只需要补充一定的 AI 基础知识,了解大模型的技术原理和 AI 的能力边界,就可以开发出属于自己的 AI 应用。
对于有一定编程基础的程序员来说,这其实并不难,而且是不错的机会。如果你想要转行大模型开发,又缺少相关基础知识,我推荐听一下知乎知学堂的「大模型全栈开发课程」,由业内专家授课系统讲解大模型应用开发的基础知识,带大家快速掌握大模型的技术架构和业务落地场景。现在两天的直播课限时免费,点击下面卡片就能领取↓↓↓
DeepSeek 官方还开源了 R1-Zero 和 R1 两个 660B 的模型,不过这俩模型尽管开源,绝大多数人自己肯定是运行不起来的。但 DeepSeek 非常良心地提供了基于 Qwen/Llama 的 1.5B~32B 多个蒸馏小模型,7B/14B 模型就能得到近似于 OpenAI o1-mini 的效果:
只需要端侧 7B 模型获得 o1-mini 级别的模型,这放在一个月前都是不敢想象的。Ollama 上也已经放出了这些模型的量化权重[1]:
只需要一条命令,就能在自己的电脑本地下载并运行 DeepSeek-R1 模型:- ollama run deepseek-r1:7b
复制代码 在输出中可以看到,模型的推理思考过程会被<think>标签括起来,7B 模型的输出效果已经非常不错了:
不过,Ollama 自身交互是命令行的,不太直观。但 Ollama 会同时在后端启动一个本地的 API 服务,我们可以将 DeepSeek R1 接入到其他服务中。
比如在本地搭建部署 LobeChat 客户端后,就可以在设置-语言模型中找到 Ollama,检查连接通过后刷新模型列表,选中deepseek-r1:7b即可:
这样我们就获得了一个可以和本地 R1 模型对话的图形界面,并且可以保存对话历史:
7b 模型不说一定能打 o1-mini,超 GPT-3.5 问题肯定不大,一些场景能达到 4o 水平。要知道这可是量化后的 7B 模型,而不是 70B 模型。
DeepSeek 证明了 RL 的潜力,展现了国产开源大模型的实力,而且这才刚刚年初,距离 o1 发布也不过 4 个月,国产大模型追赶的速度越来越快,今年未必不能实现真正的超越,期待那一天早点到来! |
|