快科技 3 月 8 日消息,今年除夕当天阿里发布了千问 Qwen 3.5 系列大模型,之前发布的是高端大尺寸系列,前几天发了四个小尺寸模型 Qwen3.5-0.8B/2B/4B/9B。
玩过 Qwen 模型的网友都知道,小尺寸的 AI 模型是它们的灵魂,本地部署的吸引力是无法抵挡的,而 Qwen 3.5 系列这次不仅小,性能也够强,其中 9B 版性能就媲美 gpt-oss-120B。
实际表现可能还要出乎大家的意料,N8 Programs 日前实际测试了一下验证官方所说的 4B 版跟 GPT-4o 一样好的说法。

先说结论,大多数情况下还是这样,Qwen 3.5-4B 在测试中跑赢了 GPT-4o 这样的主力大模型。
他使用了 WildChat 数据集里的 1000 个随机问题,让两个大模型都做答,然后用目前最强的大模型 Opus 4.6 做判断,最终 Qwen 3.5-4B 在 1000 个问答中赢了 499 个,输了 431 个,平局 70 个,可见千问官方还是很实在的宣传。
要知道 Qwen 3.5-4B 就是个 40 亿参数量的小模型,而 GPT-4o 还是很多人的主力模型,其参数量高达 2000 亿(具体数字 OpenAI 官方没提过,微软论文证实过),Qwen 3.5-4B 只用了后者 2% 的参数量就做到了性能略强。
Qwen 3.5 这几个小模型当然不可能什么都超过目前的顶流模型,但本地部署的话非常合适,理论上 8GB 显存就能跑 4B 模型,实际推荐 16GB 显存,然后再量化优化下,网上有很多教程,感兴趣的网友可以去玩玩。

下面的内容是千问发布时的介绍和性能对比:
0.8B / 2B:极致轻量,端侧首选
特点:体积极小,推理速度极快。
场景:非常适合移动设备、IoT 边缘设备部署,以及低延时的实时交互场景。
4B:轻量级 Agent 的强劲基座
特点:性能强劲,多模态基座模型,适合 Agent。
场景:适合作为轻量级智能体的核心大脑,完美平衡了性能与资源消耗。
9B:紧凑尺寸,越级性能
特点:结构紧凑,但性能媲美 gpt-oss-120B,让人惊艳。
场景:适合需要较高智力水平但受限显存资源的服务器端部署,是性价比极高的通用模型选择。



登录后才可以发布评论哦
打开小程序可以发布评论哦