流量公园 08-12
Kimi 开始回本了
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

作者 | 陶然     编辑 | 魏晓

to C 业务狂飙大半年的 Kimi,开始在 B 端发力了。

八月尚未过半,两则直接关联其商业化进程的消息,在市场中传开:

二日,Kimi 母公司月之暗面官宣 Kimi 企业级 API 正式发布。相较于覆盖 to C 需求的通用模型,企业级模型推理 API 有着更高等级的数据安全保障和并发速率,用以支持企业内部的复杂工作流和大规模的数据处理需求。

五天后,公司再次放出商业化动作,宣布 Kimi 开放平台的上下文缓存 Cache 存储费用降低 50%,由 10 元 /1M tokens/min 降低至 5 元 /1M tokens/min,价格生效时间为 2024 年 8 月 7 日。

这项技术实际上早在在 7 月 1 日就已通过开放平台启动公测,通过预存那些可能会被反复引用、频繁请求的文本或数据等信息来给模型推理过程 " 降本增效 "。

Kimi 现今在 B 端谋求 AI 变现的动作,绝非此前应用内上线 " 打赏功能灰度测试 " 那般仍有试探意味:

从企业级解决方案,到具体场景优化,再到价格调整,月之暗面显然是有备而来。

大模型应用,向钱看

圈内关于大模型应用的立场,在技术落地日渐密集的 2024 年清晰分成了两派。

七月初在上海举行的世界人工智能大会(WAIC)上,手握目前国内最大规模 AI 应用访问量的百度 CEO 李彦宏在演讲中谈及了他对大模型应用的看法:C 端当然要做,但大模型更有成果的应用场景仍在 B 端。

图源 /AI 产品榜

李彦宏认为,在 AI 时代," 超级能干 " 的应用,即那些能够深刻影响产业、显著提升应用场景效率的应用,其价值或许更为重大,它们所创造的整体价值远超移动互联网时代的某些 " 超级应用 "。

未来在医疗、金融、教育、制造、交通、农业等领域,都会依据自己的场景的特点、独特经验、行业规则及数据资源等,定制化地开发出做出各种各样的智能体。将来会有数以百万量级的智能体出现,形成庞大的智能体生态。

这种打法,可以算作现阶段 BAT 等科技大厂的代表。

从硅星人统计的大模型相关项目中标情况来看,百度今年中标了包括医疗、金融、能源、环保和交通等多个领域的共计 17 个项目,其中不乏大型国企以及各行各业的头部公司,金额也基本在百万甚至千万级别。

而初创公司代表,像百川智能王小川、月之暗面杨植麟,过去给外界的印象一直是坚定的 To C 支持者。

AI 助手百小应的发布会上王小川就曾表示,to B 业务并非百川主要仰赖的商业模式,在美国做 to B 是好生意,但国内市场 C 端比 B 端 " 大十倍 "。

月之暗面创始人杨植麟虽然没有在公开场合过多谈及公司的变现,但也在几个月前上海创新创业青年 50 人论坛的演讲中表示,得益于 Transformer 架构的提出、半导体产业发展,以及互联网为 AI 积累下来的大量数据,在世界上可能 " 第一次出现了这种 AI to C 的机会。"

对于是把 Kimi 做成 to C 的 AI 超级应用,还是把名号打响后多点布局,杨植麟留过活扣:我们 to B 倒也不是说完全不做,但是我们可能最主要的肯定还是会去聚焦和发力这个 C 端。

大概是研判时机已到,坚持 to C 许久的月之暗面,终于对 to B" 真香 " 了。

  Kimi to B:

技术和市场都已成熟

从最浅表的层面来说,做 to B 解决方案和之前在 C 端的 Kimi 相比,需要解决的首先一个问题就是:

对于付费玩家,你的服务器不能有事没事就宕机。

算力规模是个绕不开的话题:月之暗面用一年时间,把 Kimi 干到了大模型赛道内流量和使用量的顶流(部分统计显示,七月份 Kimi 和文心一言是国内唯二月活超过千万的主流大模型),但毕竟仍是初创公司,资源比起大厂不会特别富裕是显而易见的。

很少听说文心一言、通义千问出现用户高峰导致算力不足的情况,但经常用 Kimi 的用户想必或多或少都被算力墙挡住过几个回合的问答(最近似乎好些了)。

而企业客户如果将 Kimi 作为常用的生产力工具,那么企业级 API 的服务器就必须保证的稳定性和可靠性,确保在高负载情况下可以正常运行。

结合此番降价的上下文缓存技术来看,除了随着业务体量按需扩大服务器规模之外,Kimi 将另一项中心放在了对现有模型推理的 " 降本增效 " 上。

这项技术的费用,通常是因平台或服务提供商维护和提供缓存服务而对客户收取。以网购类比,如果用户经常使用同一个购物网站、App,那么这个网站 /App 很可能就会在系统中单独创建一个数据集,将用户 ID、购物车内容、偏好设置信息存储其中。

而在大模型的使用场景中,如果用户向系统提交了一个请求,比如询问一系列问题,或者给 Kimi 甩过去一篇万字长文本要求生成报告,大模型在处理请求时就需要理解用户的查询上下文,包括之前的问题、相关话题或者某些领域的特定信息。

这部分推理出的中间结果和计算出的关键信息往往在用户后续的问答中会被反复提及(调用),将他们缓存起来以便后续请求时可以快速访问,是一个相对节省算力资源的选择。

并非是浏览器那种为了方便用户登录而记录用户名和密码,这种缓存首先降低的是模型反复阅读、推理所消耗的资源量,对结果生成效率也会有一定程度提升。利用缓存的上下文信息,大模型可以快速生成响应或推荐内容,而不需要从头开始重新计算。从而对用户提出相关问题或需要相关信息加速响应,减少浪费时间的等待。

这种有助于提高系统的响应速度和处理效率,同时保持对话或文本生成的连贯性和准确性的缓存机制,对于提供流畅的用户体验和优化资源使用来说会相当关键。

尤其在未来可能面对来自 B 端、更多的用户和更集中的数据处理请求时,快速响应并高效处理的价值可能进一步突出。

One More Thing

to B 动作频频的月之暗面,近期还喜提一笔来自鹅厂的大额融资。

市场消息显示,腾讯参与了月之暗面最新一轮 3 亿美元融资,完成后将使得公司市值升至 33 亿美元,成为国内大模型初创企业中估值最高的一家。

月之暗面并未对此事做出回应,但据称有接近腾讯方面的消息源表示参投属实。

至此,被誉为 " 新 AI 四小龙 " 的智谱 AI、MiniMax、百川智能和月之暗面,四家公司背后的投资阵营都已有了腾讯及阿里巴巴的参与。

BAT 中百度更多选择做好自己,AT 则继续在通过创投多点下注。

初创公司忙于卷技术做应用,而大厂们似乎已经将注意力的一部分,放在了投资回报率,亦或是未来行业格局的话语权上。

Lanmeih/ 今日话题

你最常用的大模型,是哪一款?

咱们评论区聊聊 ~

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

逗玩.AI

逗玩.AI

ZAKER旗下AI智能创作平台

相关标签

kimi ai 王小川 百度 医疗
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论