快科技 3 月 9 日消息,从超算互联网官微获悉,本周,超算互联网平台上线阿里巴巴开源推理模型 QwQ-32B API 接口服务,现在用户可获得免费的 100 万 Tokens。
据了解,基于国产深算智能加速卡以及全国一体化算力网,平台支持海量用户便捷调用 QwQ-32B、DeepSeek-R1 等国产开源大模型的接口服务。
用户无需下载本地,只需一键启动 Notebook 功能,即可在平台快速开发 QwQ-32B 模型,或引入专有数据进一步私有化部署。
QwQ-32B 是阿里 Qwen 团队最新发布的推理模型,基于 Qwen2.5-32B+ 强化学习构建。
据官方公示的基准评测结果,在测试数学能力的 AIME24 评测集上,以及评估代码能力的 LiveCodeBench 中,QwQ-32B 表现与 DeepSeek-R1 相当,远胜于 o1-mini 及相同尺寸的 R1 蒸馏模型。
QwQ-32B API 调用服务具体步骤如下:
1、用户在超算互联网商城首页中搜索 QwQ-32B,点击 "QwQ-32B 接口服务 " 商品,购买完成后,点击 " 去使用 "。
2、进入 API 接口信息页面:点击 " 去使用 " 后会进入 API 接口信息页面。
3、按需选择访问形式,有三种访问形式可选:使用 Postman、Apifox 等 http 工具访问;使用 python 代码访问;以及在终端页面直接访问。
目前,超算互联网除提供 QwQ-32B 模型 API 接口服务外,近期还上线有 DeepSeek-R1 全家桶、最高 671B 满血版的 API 部署与 AI Web 应用服务。
QwQ-32B API 接口服务:点此进入
模型快速开发:点此进入
3 月 6 日,阿里巴巴通义千问最新开源模型 QwQ-32B 正式发布,拥有比 DeepSeek 更小的尺寸,性能却可比肩全球最强开源推理模型。
据了解,通过大规模强化学习,千问 QwQ-32B 在数学、代码及通用能力上实现质的飞跃,整体性能比肩 DeepSeek-R1。
而且在保持强劲性能的同时,千问 QwQ-32B 还大幅降低了部署使用成本,在消费级显卡上也能实现本地部署。
目前,阿里已采用宽松的 Apache2.0 协议,将千问 QwQ-32B 模型向全球开源,所有人都可免费下载及商用。
登录后才可以发布评论哦
打开小程序可以发布评论哦