自从深度求索发布 DeepSeek 开源大模型以来,开源这一股风就席卷了全球,就连曾经一直高叫着 " 开源其实是一种智商税 " 的百度 CEO 李彦宏,也在 DeepSeek 爆火之后坦言 "DeepSeek 让我们明白要将最优秀的模型开源。" 最近,开源这股风刮到了韩国。
昨日,LG 旗下的人工智能研究中心 "LG AI Research" 宣布推出韩国首个开源 AI 推理模型—— EXAONE Deep,其团队宣传其擅长数学和代码编程。值得一提是,EXAONE Deep" 满血版 " 的体积十分小巧,仅有 320 亿参数(32B),而 DeepSeek-R1" 满血版 " 则拥有 6710 亿参数(671B),此外 EXAONE Deep 还拥有两个轻量化模型,分别为 EXAONE Deep-7.8B、EXAONE Deep-2.4B。
虽然参数少,但是胆子大啊。开发团队进行了多项测试,依据测试结果宣称 EXAONE Deep 拥有 3 大显著优势:
1、EXAONE Deep-2.4B 优于同等规模的其他模型。2、EXAONE Deep-7.8B 不仅优于同等规模的开放权重模型,还优于专有推理模型 OpenAI o1-mini。3、EXAONE Deep-32B 表现出与领先的开源模型相比的性能。
在第一组测试中,EXAONE Deep-32B 对比了深度求索开发的 DeepSeek-R1 ( 671B ) 、DeepSeek-R1-70B、DeepSeek-R1- 32B 以及阿里最新开发的 QwQ-32B。
测试结果显示,EXAONE Deep-32B 的数学推理能力较强,在 AIME 2024/2025(美国数学邀请赛)中和其他模型不相上下,在 CSAT Math 2025(韩国大学修学能力考试)中,甚至超过了 DeepSeek-R1" 满血版 ",不过在 GPQA Diamond(跨学科博士级测试钻石组)和 LiveCodeBench 编程测试中则要明显弱于 DeepSeek-R1" 满血版 "。
在第二组测试中,开发团队使用的是 7.8B 参数的小模型,同步对比了 DeepSeek-R1-7B 和 8B,也加入了 OpenAI-o1-mini 模型,结果显示 EXAONE Deep-7.8B 均胜过参数量相近的其他模型。
目前 EXAONE Deep 已经正式发布,可通过 Ollama 之类的框架工具进行部署,因为体积较小,大家可以本地部署实测一下。
登录后才可以发布评论哦
打开小程序可以发布评论哦