如何看待马斯克宣布新一代大模型 Grok3 将发布,称其为「地球上最聪明的人工智能」?其竞争力在哪里?

2月16日,马斯克在社交平台X上宣布,Grok 3大模型将于太平洋时间周一晚上8点(北京时间2月18日12点)正式发布,并且会同步进行现场演示。马斯克对Grok 3的赞誉毫不吝啬,称其为 “地球上最聪明的人工智能”,其推理能力将超越包括ChatGPT和DeepSeek在内的其他领先AI模型。据悉,为了确Grok 3在发布时能够呈现出最佳状态,马斯克透露,整个周末他都将与团队成员并肩作战,全身心投入到产品的打磨工作中。
Grok大模型是马斯克旗下的xAI公司推出的新一代人工智能模型,2023年11月,xAI发布第一款大模型Grok-1,迈出了在大模型领域探索的第一步。2024年3月18日,xAI团队又推出了参数量高达3140亿的Grok-1模型,这一参数量远超OpenAI GPT-3.5的1750亿,成为当时参数量最大的开源大语言模型。
2024年8月,Grok 2大模型发布 。Grok 2主要应用于训练AI聊天机器人。与Grok 1相比,它在训练数据的使用上有所改进。Grok 1在训练时未完全依赖真实世界数据,采用了大量合成数据,导致在处理真实世界中的细微差别和复杂性时表现欠佳。而Grok 2虽然依旧使用了大规模合成数据集,但同时融入了少量高质量的真实世界数据,在一定程度上弥补了初代模型在处理真实场景方面的不足。
而此次即将发布的Grok 3,其最大的特点在于引入了“思维链”(Chain Of Thought)推理能力。该能力让Grok 3能够像人类认知过程一样逐步处理复杂任务,显著提高了模型处理复杂查询和提供更连贯、更有逻辑的响应的能力。Grok 3模型在推理、编程能力以及文本和图像分析等多模态功能方面有了显著的提升。
去年夏天,马斯克便在社交平台X上高调宣布,Grok-3将依托10万张英伟达H100 GPU的超强算力进行训练,彼时计划在2024年底推出,并称赞其 “将会是非常特别的”。但现实却事与愿违,Grok-3的发布进程受阻。业内分析,xAI团队规模相对较小,在人力、资源调配等方面可能面临诸多挑战,这在一定程度上拖慢了项目的推进速度。
在人工智能大模型领域,竞争态势瞬息万变,每一次新品发布都可能重塑市场格局。在Grok 3推迟发布期间DeepSeek异军突起,迅速抢占市场份额,成为AI领域的一匹黑马。 此次Grok-3姗姗来迟,如今市场格局已发生变化,Grok-3能否在竞争激烈的市场中分得一杯羹还未可知。
收藏者
0
被浏览
67

8 个回答

mjfh LV

发表于 3 天前

Update: 实测专门为了刷分喂足了LMSYS inference costs,在其他地方包括Apps上跑的结果差太远了,这是内部忽悠老马不懂技术啊
不过可能老马本身也喜欢这样赢
=================================
Update: 输了,那么高的分数,心服口服,所以真的不需要其他太多的技巧么?力大砖飞仍然碾压?
=================================
发布前无脑预测一下,Elon Musk重新定义"最聪明",照以前那种Grok的低效表现看,很可能不会太惊艳,尤其是pre training的墙就在那里, Ilya不会错, OpenAI也试过,所以倒推回来一个容易的推论是,Elon在说的是广告词。
最重要的一点是现在来看xAI的eng lead并没有特别突出的才能,Elon对软件领域也不太懂,上一次他做软件相关是paypal,之后再做twitter,做auto driving,到现在AI,大家都卷的领域,他并不特别。
Elon之前的成功价值在于,能够强硬推进用Software Engineering的方法论在其他进展缓慢的传统领域形成代差的改进
利益相关,已在Polymarket上下注了best AI model is not xAI

Javabloger LV

发表于 3 天前

看完发布会了,算个球的新一代啊,看不出有啥积极商业影响。基模先卷到这一步吧,赶紧卷多模态和专家子模型吧

——我观点是,在ds r1已经如此强大且开源的情况下,基模出现突破的重要性已经没那么高了,而多模态和与大模型匹配的硬件的发展还有很大空间。
现在给大模型搞测验做排名,无非就是测人类的智商,你130,我120,没错,你比我高,但又如何,你更聪明,但我也不笨,我们之间不存在代差。智商不代表生产力,仅凭一个赤裸大脑,打不过众多手脑结合的产物。
所谓的智商是什么,无非就是长期记忆储量和大脑调动分析信息的效率,这两点并不是什么不可突破的壁垒。
举个例子,让大模型猜灯谜,“单位男生多”,打一字,一个聪明的基模向内挖掘挖掘就可以知道“妙”是一个答案。那笨一些的基模直接猜不到就得不出答案了?也有办法啊,立刻链接外挂知识库学习灯谜书籍,总结出谜面有男代表谜底一搬有女,然后链接字典把有女字的字都列出来一一对比,对比完发现“嬲”字也可以?
可以看到,基模更聪明,其实就是内置的信息更多一些,我外挂一个就可以了,为啥非要内置呢。
而且,模型之间的智商差距造成的影响,比人之间智商差距造成的影响小多了,笨人要赶超聪明人,要花很多时间,记很多笔记,耗费很多体力精力,而大模型呢,就是多花点电和时间
---
不是牢马,现在卷基模还有什么性价比吗。你能把基模的幻觉卷没吗?
俗话说,实践出真知,开源的ds r1已经够用了,要务是给ai赋能,大力搞多模态,同时创新硬件架构提高token输出速度。
举个例子,我让r1给我沿逆时针给我画个弧线,结果它老是顺时针给我画,我跟它说你代码里关于绘制方向的参数正好弄反了,你得修正过来,结果它固执己见,总是说我有误解,它没画错。最后我被它整破防了,怒吼了它一通,手动把参数调整过来告诉它这样才对,它才不情愿的反思了下是因为绘制前先调整了坐标系,导致绘制的方向和“视觉”方向不一致。
上面这个任务必须要靠改善基模来解决吗,基模提升能瞬间消除大模型的幻觉吗。我用r1的时候,它给出py代码后经常直接把运行结果也给我,我一开始还很高兴,以为内置了解释器,结果它说并没有内置,我才知道它给的结果也是幻觉,后来运行了一下对不上,确实是幻觉。
现在靠一个强大的推理模型加上外挂知识库就可以行成非常强的生产力了,还有一个痛点是效率,现在token输出速度太低了,什么时候能提高到几百每秒,那就真是翻天覆地了。
现在卷的方向我都看不懂,问草莓 有几个r,这个问题写一行代码count一下就行了,为何非要让基模自己来作答重复造轮子?基模的目的是充当有用知识的存储库,供推理模型调用,草莓 有几个r根本就是无用的知识,只会制造幻觉。正道是什么呢,就是一个r1这样强的模型做领导者,接入解释器等一系列工具,直接给ai配一个虚拟的开发环境让它自己写完自己测试,比如画图,让它自己看清楚自己画的是顺时针还是逆时针。
做了这么多年工作,我有个感悟,脑不如手,绝大多数的工作任务,并不需要多么聪明的大脑,多么高的智商,需要的是耐心,分工,细致,校验,沟通,坚持。聪明人有个问题就是过度自信,以为自己啥都懂啥都没问题,不尊重范例和成熟的经验,以自己原创知识开展工作,细节之处把关不到位,结果把事情办砸了,这跟大模型的幻觉是一模一样的,聪明人意识不到自己的局限,而大模型也意识不到,这就是幻觉来源。必须要限制大模型的发挥空间。让一个基模凭一己之力去打通人类最后的测试,就像是让一个聪明人不带参考书,不带电脑去做测验,这种方式反映在现实工作中没有意义,因为性价比太低,只靠一个大脑,出错是必然的。分工协作才是正道,把专业的事情交给专业的人去做,一个好的模型应该是能充分调用外挂知识库,十分详细的输出prompt,能主动进行开发测试,而不是靠着不靠谱的记忆疯狂输出幻觉。
现在ai不好用在就在这里,它还是单枪匹马,不懂协作的力量,不会分解任务让别人来分担一些步骤。举个例子,现在让ai写一篇调研报告,它会单枪匹马一口气全给你干了,但免不了出现大量幻觉。工程上如何改进呢,首先它要把自己定位成领导者,分解这个任务,并确定需要几个角色,比如需要查阅资料,撰写大纲,文字校对,图表绘制等等,然后把这些工作让其他ai去做。把单个ai的发挥空间限制住了,封锁它的能力,不让它什么都干,才能避免大量的幻觉。
我们需要的不是一个看上去什么都记得住的天才ai,它给出的只能是似是而非的结果。真正的生产力是那些看起来比较笨拙,但会熟练翻阅资料,进行总结,利用现有工具完成工作的一大批ai。
假如,面前有两个人,同一道题目,草莓里面有几个r,一个掰着指头算,一个写在纸上数,我绝对是对后者评价更高。靠谱的人知道自己的局限性,不会过分依赖记忆和大脑,会更多依赖于外部工具,一个好的ai也是如此。
最后,什么样的人能当好领导?最关键的是什么?不是智力,是精力。处理事务,最耗费的就是精力,对应到大模型上,好的大模型就是能不停输出prompt,输出的十分详尽,每个细节都写清楚,并持续跟进每个步骤的执行,充分调用外部工具验证。
正如鸣人强过卡卡西的资本是他海量的查克拉

先头部队 LV

发表于 3 天前

只能回答说10万卡就这了。
现在算力明显到了瓶颈了,马斯克堆了10万张卡,用了deepseek 100倍的模型计算量,给出的结果是和R1打成了54-46

如何看待马斯克宣布新一代大模型 Grok3 将发布,称其为「地球上最聪明的人工智能」?其竞争力在哪里?-1.jpg

注意看grok3的胜率

  • 和4O比,grok3的胜率是51-49
  • 和R1比,grok3的胜率是54-46
马老板是出了名的不喜欢给模型限制,这点胜率差距很可能是因为grok回答了某些问题,而R1因为内在限制没有回答造成的。也就是说马老板堆了10万卡,花了两个月的时间做出了一个和4o水准差不多的模型,但是没有下一次scaling了,马老板还打算买一百万张卡么?


如何看待马斯克宣布新一代大模型 Grok3 将发布,称其为「地球上最聪明的人工智能」?其竞争力在哪里?-2.jpg


Reddit的老哥跟我想法差不多,你需要OAI 40倍的算力将将打平

徐sir LV

发表于 3 天前

马斯克宣布将于2025年2月17日发布新一代大模型Grok 3,并称其为“地球上最聪明的人工智能”。这一声明是在当前人工智能大模型竞争加剧的背景下发布的,Grok 3的推出可能会对市场产生重要影响。

如何看待马斯克宣布新一代大模型 Grok3 将发布,称其为「地球上最聪明的人工智能」?其竞争力在哪里?-1.jpg

Grok 3的主要特点

推理能力的提升
Grok 3引入了“思维链”(Chain Of Thought)推理能力,这使得模型能够像人类一样逐步处理复杂任务。这种能力的增强预计将显著提高其在处理复杂查询时的逻辑一致性和连贯性,能够更好地反思和纠正错误。
多模态功能
该模型还将在推理、编程能力以及文本和图像分析等多模态功能方面有显著提升。这意味着Grok 3不仅能够处理文本信息,还能理解和分析图像,进一步扩展了其应用场景。
训练数据与技术基础
Grok 3的训练主要基于合成数据,并结合了反复查看数据以实现逻辑一致性。这种方法旨在弥补之前版本在处理真实世界复杂性时的不足。相较于Grok 1和Grok 2,后者虽然也使用合成数据,但在数据质量和多样性上有所改进,以提高模型的实际应用能力。
马斯克的GPU集群xAI Colossus有10万块卡以上


如何看待马斯克宣布新一代大模型 Grok3 将发布,称其为「地球上最聪明的人工智能」?其竞争力在哪里?-2.jpg

根据Nvidia的说法,xAI Colossus超级计算机目前是世界上最大的人工智能超级计算机。而且Colossus专门负责训练X(前身为Twitter)的各种人工智能模型。主要是Grok 3。
竞争力分析

现在Grok2在榜单上成绩不算高:

如何看待马斯克宣布新一代大模型 Grok3 将发布,称其为「地球上最聪明的人工智能」?其竞争力在哪里?-3.jpg

总体来看,Grok 3的发布标志着xAI在人工智能领域的一次重要尝试,其能否在竞争激烈的市场中脱颖而出,将取决于其技术表现及市场策略。
问了一下Grok自己,它还是挺有自信的。

如何看待马斯克宣布新一代大模型 Grok3 将发布,称其为「地球上最聪明的人工智能」?其竞争力在哪里?-4.jpg


如何看待马斯克宣布新一代大模型 Grok3 将发布,称其为「地球上最聪明的人工智能」?其竞争力在哪里?-5.jpg

马斯克及Grok系列大模型的竞争力:

马斯克的硬件工程团队以及执行力还是非常牛的,快速构建大计算集群是全世界最快的(几个月就搞出来10万卡级的集群),整体架构也非常牛。现在就要看他的大模型软件团队了。

如何看待马斯克宣布新一代大模型 Grok3 将发布,称其为「地球上最聪明的人工智能」?其竞争力在哪里?-6.jpg

老马现在作大模型感觉像一个古代小说里面的外门高手,招式力大势沉,手持一个800斤的镔铁压油锤(xAI Colossus),舞起来威势十足,可惜内功心法略有不足。关键是那本内功心法(OpenAI),是他几年前当众给撕了的。(一个好东西拥有过又失去时最让人难过的,他现在应该非常后悔当时一怒之下,退出OpenAI。所以才想要974亿美元买回OpenAI)

如何看待马斯克宣布新一代大模型 Grok3 将发布,称其为「地球上最聪明的人工智能」?其竞争力在哪里?-7.jpg

不知道现在面对另外一本开源的内功心法(DeepSeek)他会不会拿起来读一读。

如何看待马斯克宣布新一代大模型 Grok3 将发布,称其为「地球上最聪明的人工智能」?其竞争力在哪里?-8.jpg


如何看待马斯克宣布新一代大模型 Grok3 将发布,称其为「地球上最聪明的人工智能」?其竞争力在哪里?-9.jpg


2025年2月18日更新,Grok 3成绩出来了。

如何看待马斯克宣布新一代大模型 Grok3 将发布,称其为「地球上最聪明的人工智能」?其竞争力在哪里?-10.jpg

现在看来,外门功夫练到极致,哪也是霸主。这次老马可以用自己的800斤的镔铁压油锤(xAI Colossus)去压制奥特曼去了,不知道奥特曼正在炼制的法宝“星门”能否挡住。
——完——
@北方的郎 · 专注模型与代码
喜欢的朋友,欢迎赞同、关注、分享三连 ^O^

史迪仔Ly LV

发表于 3 天前

我感觉马斯克的 Grok3 走错了方向,或者说,被 OpenAI 带沟里去了。
Grok3 有两个主要特点,第一个是大,10 万张 H100,算力远超其他模型,第二个是合成数据,Grok3 是第一个大规模采用合成数据而非人类数据的大模型。
这两点恰恰是 OpenAI 这两年所犯的最大错误,太信仰规模效应了,这也是被 DeepSeek 追上的主要原因。
模型越大,性能越强,这没错,但大到一定程度,边际效应就会递减。
GPT-3 拥有 1750 亿参数,比 GPT-2 多 100 倍。
GPT-4 拥有 1.8 万亿参数,比 GPT-3 多 10 倍。
GPT-4.5 据说拥有 256 万亿参数(至少达到了百亿级别),比 GPT-4 大 100 多倍。
同样的,除了算力,在数据规模上,OpenAI 每代产品也是几十倍上百倍的提升,一直撞到数据墙,互联网几十年积攒的高质量数据都被消耗殆尽了。
但很明显,从 GPT-3 到 GPT-4.5,大模型性能并没有几十上百倍的提升,说明这条路走不通。
事实上,我们都不用深入研究工程,仅从深度学习的原理上,就不难发现 OpenAI 的问题。
大模型的背后是连接主义,连接主义模仿的是人类大脑。
但人类大脑可不是规模越大越好。
当初生物学家很头疼的一件事,就是解释人类为何比其他动物聪明?
最开始是大脑重量,然后发现大象不比人类差。
后来是大脑重量占比,然后发现黑猩猩也差不多。
再后来是大脑皮层的神经元规模,然后发现蓝鲸比人脑还多。这就尴尬了。
在算力这个层面,人脑并没有特别大的优势。
至于数据层面就更拉胯了,大部分鸟类接收的视觉信息规模都吊打人类。
后来生物学家总算领悟到,人脑之所以强大,核心原因是算法。
人脑有这样几个「超能力」——
1. 长期记忆:人类可以通过睡眠,把海马体的短期记忆转变为新皮层的长期记忆。
长期记忆对于推理(归纳与演绎)的帮助极大。如果你记不住去年的时节气候,怎么可能推演出农耕历法呢。
不过人脑并不是什么信息都转化为长期记忆。人生中只出现一次的现象,大脑不会记忆太久,因为这说明这东西太偶然了,对生存模型没有帮助,只有当一个现象反复出现在各个场景中,大脑才会认为这东西很重要,值得记忆。
这就是为什么提示词写好了很有用,因为提示词就是反复出现的信息。输入越准确,越详细,效果就越好。你直接让大模型写西游记第一章的总结,和把第一章的文本贴给它,然后让它总结,效果是完全不一样的。
2. 思维链:有了长期记忆,人类的推理能力极大加强,可以一步步做归因分析,从而诞生「想象」(即抽象能力与泛化能力)。
人类这项能力是从狩猎中学会的。
追踪猎物可不是件简单的事,需要根据猎物留下的各种痕迹,比如脚印、毛发、血迹、粪便,打斗的残痕,折断的树枝,消失的鸟鸣等信息,来推测猎物可能的动向与反应。
狩猎需要大脑把各种线索串起来,不停的根据追踪过程中的每一个发现,来推断各种可能性,并决定下一步的行为。
DeepSeek 的深度思考就是这个原理。
想训练好一个模型,需要不停的让它思考,消耗 token,而不是直接给答案。
Andrej Karpathy(OpenAI 研究科学家,李飞飞弟子) 曾经举过一个 SFT 示例——

如何看待马斯克宣布新一代大模型 Grok3 将发布,称其为「地球上最聪明的人工智能」?其竞争力在哪里?-1.jpg


你觉得哪边的效果好?

在我们看来,左边效果更好,因为逻辑性强。但在大模型看来,右边效果更好,因为可以先展开思考,最后再对比正确答案。
杨立昆之前不看好 LLM,认为自回归模型都是下意识的回答,没有任何思考,就好比一个小孩背书再好,把全人类的知识背的滚瓜烂熟,那又怎样?你不思考,就不可能诞生智能。
不过等 DeepSeek 出来,他就不说话了,Meta 开始疯狂研究 DS,因为大模型真的会思考。
3. 分层思维:大脑在思考问题时,不会调动所有资源,只是激活少量的相关神经元。
OpenAI 训练 GPT-3,用电量约为 1.287 吉瓦时,ChatGPT 每天消耗超过 50 万度电力,相当于 1.7 万个美国家庭的用电量。
马斯克的 Grok3,大概还要再乘以 10。
大脑呢,大约 10-30 瓦,一个灯泡的用电量。
所以你就知道 DeepSeek 为何如此低成本了,MoE 混合专家模式,堪比大脑节能的方法。
辛顿在 17 年的论文就提出了 MoE 模式(这个思路还可以追溯到更早),可惜没受重视。全世界的 AI 研究者都被 OpenAI 带歪了。
4. 强化学习:人类天生就会强化学习,在与环境的交互中通过试错来学习最优策略。
其实人类也是被逼的,那些不懂得学习的都被自然选择淘汰掉了。
我们教育小孩也用到强化学习。
像机器人那样,直接给小孩写硬规则,比如不许打游戏,九点要上床睡觉,没用,谁搭理你啊,他的基因自发的在反抗。
只有不停的引导孩子,告诉他什么是对,什么是错,并给予相应的奖励或惩罚,从而改变他的观点(权重),影响他的行为(输出)。
某种意义上,训练大模型就是教育孩子。
说实话,我挺奇怪为啥没人早想到强化学习路线。
很多早期投身人工智能的同学,都有被当年 AlphaGo 震惊到,AlphaGo 就是强化学习的典范,尤其是 AlphaGo Zero,没有任何棋谱数据或人类先验知识,仅靠自我对弈就能超越人类顶尖水平。
这说明 AI 不需要海量数据也可以进化。
5. 纠错能力:人脑具备极强的脑补能力,即使接收到了错误信息,也能正确处理。
生物学家曾经做过一个实验,让普通人戴一个上下颠倒的眼镜,刚开始特别不适应,各种失误和跌倒,连最简单的抓取杯子都做不好。
但很快,大脑就自适应了这个眼镜,对人来说,神奇的是世界又恢复正常了,上下和原来一样,做动作毫无影响。只是等摘下眼镜,又混乱了,需要再适应一段时间才能恢复。
我们生活中也经常遇到此类问题。比如一段序顺倒颠的话,读起来毫无困难。
但是有种特殊的情况,大脑无法适应,就是逻辑错误(我们通常称之为认知错误)。逻辑一致性对于生存模型太重要了,非经剧烈的刺激,大脑绝不轻易改变。
比如,我们无法适应与自己认知不一样的世界观,按某些人的逻辑,美国就是最强大的灯塔,怎么可能被中国超越?一定是哪里出了问题,我绝不接受。
这说明什么呢?我想很多 AI 研究者可能还没意识到——
数据内容并不重要,数据结构才是关键。
在思维链中,数据结构决定了推理的质量,而不是数据内容。因为内容错了,神经网络会自动脑补,纠错,但结构错了,会破坏逻辑一致性,让大模型的思考「卡壳」。
Scaling Law 并没有错,但我们对什么是「高质量的数据」,却需要重新评估。
我不看好 Grok3 的合成数据,也是基于这一点。规模没多大意义,质量才是王道。
有意思的是,数据结构其实就是符号主义的思路。
当年皮茨曾预言:「在我们面前有两条通向智能的路径,一条是模拟人脑的结构,一条是模拟人类的心智,但我相信这两条路最终殊途同归」。
真是一个伟大的预言。
最后,罗里吧嗦的说了一堆,有人可能会问,干嘛要模拟人脑?通向 AGI 又不止这一条路。
说的没错。
不过人脑毕竟是我们接触到的唯一智能,看得见,摸得着,所谓近水楼台先得月,模拟人脑只是技术问题,而其他道路则是方向问题,孰难孰易,不用说了吧。
总而言之,我觉得如今的 AI 研究已经到了一个关键节点,需要研究范式上的转变。OpenAI 曾经引领大家探索,但如今它已经走入了歧途,是时候重新出发了。

halczy LV

发表于 3 天前

针对马斯克宣布的新一代大模型Grok 3的发布,可以认为这将是人工智能领域的一次重要进步。Grok 3被称为“地球上最聪明的人工智能”,其竞争力主要源于其强大的“思维链”推理能力,以及参数量的大幅度提升,特别是在处理复杂查询和提供更连贯、更有逻辑的响应方面有明显优势。<br><br>其次,Grok 3在图像和文本分析方面的多模态功能也是其竞争力所在。此外,其引入的真实世界数据的使用也将有助于改进模型在现实场景中的表现。不过,Grok 3的发布历程并不平坦,面临的资源和团队规模挑战已得到一定程度的解决。考虑到xAI团队的持续努力以及马斯克对项目的重视,Grok 3的成功发布有望重塑人工智能大模型领域的竞争格局。<br><br>总的来说,Grok 3的发布值得期待,其强大的功能和性能可能会使其在人工智能领域中具有强大的竞争力。但也需要持续关注其实际应用效果和市场反馈,以全面评估其竞争力。

tkv2373 LV

发表于 3 天前

针对马斯克宣布的新一代大模型Grok 3的发布,可以认为这将是人工智能领域的一次重要进展。Grok 3被赞誉为“地球上最聪明的人工智能”,其竞争力主要体现在以下几个方面:<br><br>1. 先进的“思维链”推理能力:Grok 3具备逐步处理复杂任务的能力,能够提供更连贯、更有逻辑的响应,这是其相比其他AI模型的一大优势。<br>2. 多模态功能提升:Grok 3在文本和图像分析等方面有显著提升,能够适应更多复杂场景的应用需求。<br>3. 依托强大算力进行训练:Grok 3依托10万张英伟达H100 GPU进行训练,具备强大的算力支持,这为其在人工智能领域的领先提供了基础。<br>4. 团队持续迭代优化:尽管在发布过程中遇到了一些挑战,但xAI团队规模虽小但具备强大的迭代优化能力,能够针对问题进行及时解决,保证产品的持续优化。<br><br>总的来说,Grok 3的发布将对人工智能领域产生重要影响,其强大的推理能力、多模态功能以及依托强大算力的训练基础将是其竞争力的核心。期待其现场演示能够展现出更多令人惊喜的表现。

llmllm LV

发表于 3 天前

针对马斯克宣布的新一代大模型Grok 3的发布,我认为这是一个值得关注的人工智能发展里程碑。Grok 3被誉为“地球上最聪明的人工智能”,其竞争力主要体现在以下几个方面:<br><br>首先,Grok 3引入了“思维链”推理能力,能够逐步处理复杂任务,提供连贯、有逻辑的响应,这是其与其他AI模型相比的一大优势。<br><br>其次,Grok 3在参数量、算法优化等方面都有显著提升,尤其在处理文本和图像等多模态信息方面表现出强大的能力。此外,借助大规模算力进行训练,Grok 3的性能得到了进一步的提升。<br><br>然而,也应看到在人工智能大模型领域的竞争非常激烈,DeepSeek等模型的异军突起也反映了这一领域的快速发展和变革。尽管如此,Grok 3凭借其技术优势和不断创新的精神,仍然有望在市场上占据一席之地。<br><br>总之,对于Grok 3的发布,我们充满期待,相信它将在人工智能领域带来新的突破和进步。同时,我们也期待看到它在未来人工智能发展中所扮演的角色和影响力。希望以上回复能够满足您的需求。

您需要登录后才可以回帖 登录 | 立即注册