硬AI 05-26
大模型卖“白菜价”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

这个 5 月,大模型的 " 价格战 " 进入到白热化阶段,曾经 " 按分计价 " 的时代一去不返,迎接我们的是 " 直接降价 97%" 的按厘计价时代。

5 月 25 日,华福证券发布报告称,自知名私募巨头幻方量化旗下大模型 Deepseek-V2 率先降价开始,国内诸如豆包、腾讯、阿里、讯飞等厂商纷纷跟进,截至目前共有 7 家企业共计 21 款大模型参与降价。从降价模型级别来看,轻量级及次主力级模型降价显著,但 GPT-4 级别的主力模型也有一定程度的降价。

华福证券认为,随着大模型价格的进一步降低,B 端客户,特别是云厂的现有客户将加速大模型产品的推进过程,商业化落地有望加速。

国产大模型迎降价潮

华福证券在报告中表示,Deepseek 打响国内第一枪后,其他大厂纷纷跟进:

5 月 6 日,Deepseek-V2 率先降价,每百万 Tokens 的输入、输出价格分别为 1 元、2 元。从模型性能来看,V2 对标 GPT-4,但价格仅有 GPT-4 的 1%,性价比极高。随后,智谱、豆包、通义、腾讯、讯飞等厂商纷纷跟进,目前参与的企业共计 7 家,涉及 21 款模型。大模型正式迎来降价潮。

华福证券指出,在本次降价潮中,从轻量模型到主力模型均有不同程度降价:

虽然说当前免费的模型大多为轻量模型及次主力模型。但国产主力模型当前的价格也有了显著的降低。以 GPT-4 级主力模型 Qwen-Long 为例,API 输入价格直降 97%,约为 GPT-4 价格的 1/400,输出价格也降 90% 至每百万 tokens 2 元,1 元钱能够买 200 万 tokens。且该模型支持最高一千万 tokens 的长文本输入,适用于很多的 B 端统计分析类的应用场景。而在 OpenCompass benchimark 上追平 GPT-4 Turbo 的 Qwen-Max,输入价格降幅 67%,亦有较大幅度降价。

为何会降价?

对于降价的原因主要有三:首先是成本下降,其次是为了扩大市场份额的商业考量,还有当前各大模型尚未拉开差距,同质化问题比较严重。

多家企业在宣布大模型降价时,都提到了技术进步带来的成本下降。百度董事长兼首席执行官李彦宏曾表示,与一年前相比,百度旗下文心大模型的推理性能提升了 105 倍,推理成本则降到了原来的 1%。字节跳动旗下火山引擎总裁谭待也提到,该公司可以通过混合专家模型(MoE)、分布式推理等技术手段,优化豆包大模型的推理成本,不会走用亏损换收入的道路。

不过,企业级 AI 解决方案供应商创新奇智首席技术官张发恩表示,技术进步可帮助推理成本每年下降到原来的 1/2 左右,大模型的降价幅度却是以 10 倍来计算的。技术进步不是游戏规则改变的主要原因,商业决策才是本次降价的根本原因。企业希望尽快获得更多客户,占据更多市场份额,未来业务规模做大了,再去想办法挣其他的钱。他还认为,当前大模型技术的场景渗透率还很低,价格战并不明智。

而对于各家不同的降价策略,已经有一些质疑声音称一些降价的模型本身吞吐量就低,高性能模型并没有降价。并且还有很多细节条款会让最终企业用起来没有宣传的那么便宜。

归根结底,能形成价格战的连锁反应,也是当前各大模型的能力放在可用的场景中,尚未拉开差距,用户甚至有免费开源的产品可以用。

大模型商业落地按下加速键

本次大模型降价潮势必将对整个行业产生深远影响。

阿里云智能集团资深副总裁、公共云事业部总裁刘伟光就表示,阿里云这次大幅降低大模型推理价格的目标是希望推动 AI 应用的爆发,加速商业落地的进程。阿里云方面公布的最新数据显示,通义大模型通过阿里云服务企业超过 9 万、通过钉钉服务企业超过 220 万,已在 PC、手机、汽车、航空、天文、矿业、教育、医疗、餐饮、游戏、文旅等领域落地应用。

华福证券认为,随着大模型价格的进一步降低,B 端客户,特别是云厂的现有客户将加速大模型产品的推进过程,商业化落地有望加速。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

智慧云

智慧云

ZAKER旗下新媒体协同创作平台

相关标签

腾讯 百度 讯飞 字节跳动 首席执行官
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论