如何评价刚开源的GROK大模型?

如何评价刚开源的GROK大模型?
收藏者
0
被浏览
102

5 个回答

那年那月 LV

发表于 2025-4-7 14:51:16

马斯克号称自己做了一个真正的“OPENAI”grok-1,并且大大方方的把基础模型权重和网络架构上传到了Github,开源协议遵循 Apache 2.0 许可证,也就是说,允许商用。
看起来马老板是诚意满满,以“一己之力”单挑openai和Claude之流的非开源大模型,但是先不要高兴的太早,看看这货的硬件需求:
文件“占地”达到300G,如果硬盘没有足够的空间,请不要随便尝试下载,不然删的时候还要再浪费一次时间。

如何评价刚开源的GROK大模型?-1.jpg

不过考虑到现在的硬盘价格,300G倒是也不算夸张,一般人咬咬牙都能负担得起。
可是众所周知,运行一个LLM最重要的限制绝不是硬盘,而是显存。根据官方说法,Grok仅推理就需要630GB 的显存。
根据极限测算,需要8个GPU,每个GPU得拥有80GB的显存,很显然,最常见的选择就是是A100或者H100。单个A100的价格目前约为12,000美元,而一台配备4个A100 GPU的 NVIDIA DGX Station的起价在120,000美元左右。
所以吧,尽管技术上测算可行,但这样的配置对于大多数人来说是可望而不可及的。
更令人无语的是,你以为拥有了8张A100就一定可以顺畅的运行Grok进行推理了吗?!
显然这么想还是太天真了!社区里并非没有拥有8张A100甚至H100的大佬,他们第一时间下载了模型,第一时间运行,第一时间看到了——没有反应:

如何评价刚开源的GROK大模型?-2.jpg

这位拥有8张A100的土豪老哥,只是打开模型就用掉了75%的显存,他向模型提出了第一个问题后,GPU的占用率达到100%,然后等待了15分钟,然后……什么都没有发生。

如何评价刚开源的GROK大模型?-3.jpg

即使是土豪,对于每小时15刀的费用也颇为不能忍,当然,我想更让人烦躁的还是这个“毫无反应”的大模型。
等待了25分钟后,老哥表示,模型终于“有了一点点反应”,再后来不知道过了多久,老哥终于得到了模型的第一批回答:
Q: Who are you?
问题很简单:你是谁?
A: 100% of the people who have ever lived have died. [–] 0 points1 point (0 children) I'm not sure if I'm supposed to be offended or not. [–] 0 points1 point (0 children) I'm not sure if I'm supposed to be offended or not. [–] 0 points1 point (0 children) I'm not sure if I'm supposed to be offended or not. [–] 0 points1 point (0 children) I'm not sure if I'm supposed to be offended or not. [–] 0 points1 point (0 children) I'm not sure if I'm supposed to be offended or not. [–] 0 points1 point (0 children) I'm not sure if I'm supposed to be offended or not. [–] 0 points1 point (0 children) I'm not sure if I'm supposed to be offended or not. [–] 0 points1 point (0 children) I'm not sure if I'm supposed to be offended or not. [–] 0 points1 point (0 children) I'm not sure if I'm supposed to be offended or not. [–] 0 points
Emmm,Grok给出的答案,可谓是“惨不忍睹”……
然后土豪又向Grok提问:马斯克是哪位?
Q: Who is Elon Musk?
A: 1. He is the richest man in the world. 2. He is the founder of Tesla. 3. He is the founder of SpaceX. 4. He is the founder of Neuralink. 5. He is the founder of The Boring Company. 6. He is the founder of OpenAI. 7. He is the founder of http://X.com (now PayPal). 8. He is the founder of Zip2. 9. He is the founder of SolarCity. 10. He is the founder of Hyperloop. 11. He is the founder of Tesla Energy. 12. He is the founder of Tesla Motors. 13. He is the founder of SpaceX. 14. He is the founder of The Boring Company. 15. He is the founder of Neuralink. 16. He is the founder of OpenAI. 17. He is the founder of http://X.com (now PayPal). 18. He is the founder of Zip2. 19. He is the founder of SolarCity. 20. He is the founder of Hyperloop. 21. He is the founder of Tesla Energy. 22. He is the founder of Tesla Motors. 23. He is the founder of SpaceX. 24. He is the founder of The Boring Company. 25. He is the founder of Neuralink. 26.
可见关于这个问题,老马应该是让Grok好好“学习”过的。虽然回答显得有些古板,与老马鼓吹的“幽默”毫不相关,但是“知识点”应该全都涉及到了。
从大佬们的试验结果来看,Grok真的是一个“Raw”模型,稍微有点聪明,但是聪明的并不明显。
而且这还仅仅是让Grok进行简单推理,实现它最基本的问答功能,如果进行微调的话,估计区区8张A100断然是不够的。
不过虽然算力对于我们普通人来说是一个巨大的门槛,但是对于公司来说却不算什么。过去的一年中,基于Llama微调的各种大模型不计其数,现在有了一个据说比Llama2表现更好的开源模型,相信未来的一段时间内,基于Grok的微调模型会如雨后春笋般层出不穷。
大模型融入人类的工作和生活是大势所趋,与其到时候被AI鄙视,不如现在赶紧学起来。建议可以学习一下「知乎知学堂旗下的AGI课堂」推出的【程序员的AI大模型进阶之旅】公开课,邀请一些圈内的大佬,用2天的免费课程,帮助我们快速高效的了解各种通用大模型,通过实践发现各种大模型的优缺点,理解各种各样的参数涵义,未来无论是要进行模型推理还是微调,都不会觉得陌生和慌张,而是成竹在胸、游刃有余。现在直播免费领,很快就没有了,先来占个位置不吃亏~

比如Grok的开源文件中就给出了各种各样的参数指标,这是大模型“秀肌肉”的重要一环:

  • 3140 亿参数(314B parameters)
  • 8 个专家的混合体(Mixture of 8 Experts)
  • 每个 token 使用 2 个专家(2 experts used per token)
  • 64 层(64 layers)
  • 查询的 48 个注意力头(48 attention heads for queries)
  • 键/值的 8 个注意力头(8 attention heads for keys/values)
  • 嵌入大小:6144(embeddings size: 6,144)
  • 旋转嵌入(rotary embeddings, RoPE)
  • SentencePiece 分词器;131,072 个令牌(SentencePiece tokenizer; 131,072 tokens)
  • 支持激活分片和 8 位量化(Supports activation sharding and 8-bit quantization)
  • 最大序列长度(上下文):8192 个 token(Max seq length (context): 8,192 tokens)
其中3140亿的惊人参数量是“吃显存”的罪魁祸首之一。
不过虽然说LLM被很多人认为是大力出奇迹的产物,但是这3000多亿的参数量却也没能带给人眼前一亮的模型结果,反而面对有些问题是展现了极为严重的“幻觉”。
其实,类似于Grok这种“大家伙”的开源,和传统意义上的“开源”有很大区别:

  • 训练过程并不透明:LLM的训练过程涉及海量的数据和复杂的统计建模,其内部结构和运作方式很难被人类理解和审查。相比之下,传统软件的每一行代码都是可以被开发者审查和修改的。
  • 训练数据和训练过程均不透明:即使Grok开放了模型权重,但训练数据和详细的训练过程却没有公开,这也就意味着其他人无法完全复现该模型。而对于真正开放的软件,所有相关信息都应该是公开透明的。
  • 硬件资源门槛高:运行和微调Grok这样的大模型需要昂贵的硬件设施,比如很多块很贵的GPU,这就把绝大部分的用户挡在门外,只能资源雄厚的企业和机构才有能力利用它。而许多开源软件项目是经过反复优化,力争面向所有开发者的。有小可爱在社区里询问,啥时候才能在CPU上运行Grok,我猜还要等很久很久,或许根本就不会有这一天。
  • 模型的可解释性差:由于LLM的复杂性,即使给定相同的输入,不同的模型输出结果也是天差地别的,这种不可解释性使得难以对LLM进行像传统软件那样的质量把控和问题追溯。
所以马老板开源Grok,到底是真的要助力开源研究,为开源模型添砖加瓦,还是仅仅为了在与OpenAI的争论中占据道德制高点,是令人存疑的。不过作为目前最大的开放权重模型,做出这样的开源尝试终究是一件好事,希望可以尽快看到大神们基于Grok的各种微调产品。

acff00 LV

发表于 2025-4-7 15:00:41

很好的给大家提供了一个如何鉴别一个人是否真正懂llm,ai,NLP或者deep learning的机会。
吹的越狠的,比如说grok强是因为314B参数的,可以直接拉黑,遥想Palm2 还340B呢
说会改变ai发展的,也可以直接拉黑。Llama开源出来的时候没看见你们出来吹,mistral 8x7B开源的时候也没看见你们出来吹,最近出来的DBRX你们会吹吗。

cuiweizuishuai LV

发表于 2025-4-7 15:14:13

先说结论:Grok-1比GPT-3.5强,但大概率不如GPT-4。但无论模型本身质量高低,这件事已经为全世界开了一个好头。
最近一段时间,AI领域的大事件真的是层出不穷,从2月份的Sora到3月初的Claude3,每一个新产品都掀起了AI领域的巨浪。
就在两天前,马斯克旗下的xAI公司宣布,开源他们的首款大模型Grok-1。同时,Grok-1项目遵循Apache 2.0协议,这也意味着,使用者在遵守许可条款的情况下,拥有对软件进行复制、修改、分发以及商业使用的权利。
这一举措,绝对会对全球的AI领域造成巨大的影响。
Grok-1究竟有多厉害?
在xAI的官方网站上显示,Grok-1是一个混合专家模型,拥有3140亿参数。这个参数量使得Grok-1成为迄今为止参数最多的开源大型语言模型。
与之相比,OpenAI GPT-3.5只有1750亿参数,Grok-1的参数数量是GPT-3.5的近两倍。至于GPT-4的参数数量,OpenAI官方没有透露,因此暂时不知道GPT-4与Grok-1谁的参数更多。
xAI还在官网上进一步公布了Grok-1的一些细节,指出Grok-的基础模型是通过大量文本数据训练而来,并未针对特定任务进行微调。这个拥有3140亿参数的混合专家模型中,有25%的参数可以根据特定的数据单元进行激活。
Grok-1开源有哪些影响?
首先,它将会为AI领域的研究人员提供一个前所未有的、参数量巨大的模型平台,这使得学术界和工业界能够在此基础上进行更深入的探索和创新,尤其使得国内的大模型领域上升一个台阶。
其次,Grok-1的开源可能会加速全民AI时代的进程,让更多的普通人能够接触到顶尖的人工智能技术,从而推动整个领域的发展。
最后,感谢马斯克又一次造福人类,为全世界送上如此宝贵的礼物。相比之下,OpenAI公司,你什么时候能Open一次呢?
Grok-1的下载入口,可以看下这里:
马斯克甩出王炸,大模型Gork开源了!

cuiweizuishuai LV

发表于 2025-4-7 15:27:28

只能说是性能一般,没有达到大力出奇迹的效果,只是比mixtral性能高那么一点点,但耗的算力却多得多。不过开源了,至少后面社区有人会在上面去微调整出更强大的模型,不管怎么说,至少马斯克在开放方面比openai做得好。感兴趣可以看我写的文章,针对grok的架构核心点做了一些解析。
马斯克兑现承诺,发布了最大开源模型Grok-1 314B

如何评价刚开源的GROK大模型?-1.jpg

埃隆马斯克信守诺言,发布目前开源的最大模型Grok-1。 Grok-1 是一款 314B 大型专家混合 (Mixture of Expert,MoE) Transformer。
关键信息


  • 基础模型:未微调,希望开源社区可以快速微调个Chat版之类的
  • 开源程度:不如 Pythia、Bloom和OLMo(提供了训练代码和训练数据集),希望Grok能像OLMo那样开放

如何评价刚开源的GROK大模型?-2.jpg


  • 许可:Apache 2.0许可证,可免费商用
  • 314B MoE,8个专家,推理期间只有2个处于活动状态(实际上是86B参数),MoE看来已经成为潮流了,如果感兴趣可以阅读Hugging Face的MoE详细介绍文章:
混合专家模型(MoE)详解 (huggingface.co)

  • 基于Rust和JAX从头开始构建
  • 性能:MMLU 为73%,GMSK 为62.9%,HumanEval 为63.2%。
  • 对比:性能超过GPT-3.5、LLaMa2 70B

如何评价刚开源的GROK大模型?-3.jpg


如何评价刚开源的GROK大模型?-4.jpg


如何评价刚开源的GROK大模型?-5.jpg

详细参数


  • 3140亿参数
  • 8个混合专家模型(MoE)

    • 每个Token使用2个专家

  • 64层,每一层都有一个解码器层:多头注意力块和密集块
  • 多头注意力:48个注意力头用于查询,8个注意力头用于键/值(KV),KV大小是128
  • 嵌入大小(Embedding Size):6,144(48*128),它于模型输入的Embedding大小是一致的,采用的是旋转嵌入(Rotary Position Embedding,RoPE),不是固定位置的Embedding
  • Tokenizer词汇大小(Tokenizer vocab size):131,072个Tokens(2^17 ,类似于 GPT-4),采用SentencePiece 分词器
  • 支持激活共享和8位量化
  • 最大上下文序列长度(Context Length):8,192个Tokens
  • 精度:BFloat16

如何评价刚开源的GROK大模型?-6.jpg

有趣的是官方发布的图片竟然是MidJourney生成的,如下提供midjourney生成两幅类似图片:

如何评价刚开源的GROK大模型?-7.jpg


如何评价刚开源的GROK大模型?-8.jpg


官网:Open Release of Grok-1 (x.ai)
代码:xai-org/grok-1: Grok open release (github.com)
模型:xai-org/grok-1 · Hugging Face
磁力链接:magnet:?xt=urn:btih:5f96d43576e3d386c9ba65b883210a393b68210e&tr=https%3A%2F%2Facademictorrents.com%2Fannounce.php&tr=udp%3A%2F%2Ftracker.coppersurfer.tk%3A6969&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce

你在我这儿 LV

发表于 2025-4-7 15:38:49

现在的Grok在技术上怎样根本不重要。
但这件事情关系到开源/闭源的大方向,
选错了,就全错了!

如何评价刚开源的GROK大模型?-1.jpg

观点1:我们应该重视马斯克的选择:开源

开源或成绝妙胜招,马斯克展现世界级领导力

预判未来,把握机会,这是产品经理的职责。
也是像乔布斯这样顶级产品经理最与众不同的天赋。
乔布斯去世后,美国企业家中谁能继承乔布斯的衣钵?
如果有这样一个名单的话,
我想名单最上面的名字就是:
埃隆·马斯克。
开源,还是闭源,两种模式各有利弊。
那么,AI大模型的未来属于开源还是闭源?
现在的事实是:
闭源的OpenAI GPT4最为领先。
但也因此,马斯克押宝开源,
不是观点,而是行动。
我们应当高度重视他的决定。
因为他是这个领域的专家,
这个世界最顶尖的未来预测专家。
更重要的是,
管理大师彼得·德鲁克曾说:
预测未来的方法就是去创造它。
马斯克是少数当得起这句话的人。
预判未来,把握机会,这是产品经理的职责
如何评价刚开源的GROK大模型?-2.jpg

观点2:成败的关键是谁能先获得足够多的开发者

马斯克开源AI,或让库克有机会改变世界!

选举中经常有一个奇怪的现象,
决定谁当选的其实是非常小的一群人。
如今,苹果在AI领域的落后已经人尽皆知,
但也恰恰因此,
让现在的苹果CEO蒂姆·库克有了改变世界的机会。
日前,马斯克正式开源自己的Grok大语言模型,
一个拥有3140亿参数,可以和GPT4抗衡的AI大模型。
这让开源大模型有了战胜闭源大模型的机会。
而此时的关键是:
苹果会不会支持这个开源大模型,甚至联手马斯克?
对这个问题,我们询问了擅长概率的大模型。
ChatGPT认为这是大概率事件,而Gemini认为这是中到小概率事件。
那接下来的第二个问题是:
如果苹果和马斯克联手,OpenAI会不会迫于压力转向开源?
ChatGPT和Gemini都一致认为这是小概率事件。
由此,第三个问题,
这样情况下,OpenAI会不会在随后的竞争中落败?
ChatGPT认为这不确定,是中等概率事件。Gemini持同样观点。
结论:这个世界已经是平台之争,
平台胜败的关键是参与的开发者。
哪个平台能获得最多的开发者,
哪个平台就可能成为霸主。
也因此,在早期,那些大佬的决定将影响其他开发者。
蒂姆·库克,你会打哪张牌?
跟还是不跟?
选举中经常有一个奇怪的现象, 决定谁当…
如何评价刚开源的GROK大模型?-3.jpg

您需要登录后才可以回帖 登录 | 立即注册