阿里云在月初刚刚发布了性能对标GPT-4 Turbo的通义千问2.5系列千亿级别大模型Qwen-Max,这次又宣布多款主力大模型直接大幅降价:GPT-4级主力模型Qwen-Long的API输入价格从0.02元/千token降至0.0005元/千token,降幅达到97%,价格只有GPT-4 Turbo的1/144。这次降价有多狠,之前字节的豆包大模型一元钱能买到125万tokens,但是使用Qwen-Long一块钱可以买到200万tokens。最好的中文大模型+最极致的性价比,这次阿里云无疑将成为中文大模型的最强王者。当然,这次降价,无论是对开发AI产品的企业,还是对AI的个人开发者,都是最大的福音。
这次降价涵盖阿里云的多款主力模型,包含闭源模型Qwen-Long、Qwen-Plus和Qwen-Max,以及最新的开源模型Qwen1.5-110B等,可以满足不同用户的不同场景的要求。
这里我也做了一个降价后通义的两个主要模型和GPT-4模型的价格对比,可以让大家直观感受通义大模型的价格优势:
这里我也重点介绍一下这两个主力模型。首先是降价幅度最大的模型Qwen-Long,它是通义千问的长文本增强版模型,性能对标GPT-4,这次输入价格从0.02元/千token降至0.0005元/千token,比目前最便宜的GPT-4o还要便宜72倍。我大概算了一次,这个价格,只需要1块钱,就可以买到200万tokens,相当于240万个汉字(基于阿里在线分词器估计)。而且Qwen-Long还升级了长文本的处理能力,模型最高支持1千万tokens长文本输入,处理一本96万字的《红楼梦》绰绰有余。而且,如果你细心地观察,还会发现Qwen-Long的输入价格比输出降得更多(输入价格比输出价格便宜4倍),这对于要处理长文本的输入的用户来说绝对是大大的利好了。其实,很多场景下比如做资料总结或者分析,大模型的输入文本要多于输出文本,所以阿里云这次降价也是直击用户的核心需求了。
然后要介绍的第二个模型是刚发布的旗舰款通义千问2.5大模型Qwen-Max,输入价格从0.12元/千token降至0.04元/千token,降幅达66%。Qwen-Max是通义千问千亿级别超大规模语言模型,相比之前的版本,各方面能力有比较大的提升。在中文语境下,Qwen-Max的文本理解、文本生成、知识问答及生活建议、闲聊及对话、安全风险等多项能力赶超 GPT-4,是目前业界表现最好的中文大模型。
而且在国际权威基准OpenCompass上性能已经和GPT-4-Turbo相当,是目前我所知的第一个做到的国产大模型,但是价格大约只有GPT-4-Turbo的2/1。
对于阿里云此次针对通义大模型的大幅度降价,我并不觉得太吃惊,因为通义大模型背后是国内最好的云平台阿里云。公共云的技术红利和规模效应可以给大模型部署和推理带来的巨大成本和性能优势。据我了解,阿里云近年来从模型和AI基础设施两个层面不断优化,极大地提升了大模型的推理速度和性能。比如阿里云最新发布的百炼分布式推理加速引擎,不仅大幅压缩了模型推理成本,还大大加快了模型推理速度。
从这次通义大模型的降价来看,我坚定的认为未来公共云+API将成为企业使用大模型的主流方式。对于个人开发者或者企业来说,在云上调用大模型API真正实现了随用随取,按需使用。以使用Qwen-72B开源模型、每月1亿token用量为例,在阿里云百炼上直接调用API每月仅需600元,私有化部署的成本平均每月超一万元。通过哪种方式使用大模型一目了然! |
|