驱动之家 03-20
AI存储时代 Arm准备好了!三管齐下 软硬兼施
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

近日在深圳举办的 MemoryS 2025 闪存峰会上,存储行业的众多龙头企业纷纷登台亮相,Arm 的出现则可能让很多人感到意外。

事实上,Arm 作为全球领先的计算平台公司,不仅仅服务于移动计算行业,更是以开放生态为核心,切实推动 AI 与存储技术的深度融合,推动从云端到边缘端的智能化转型。

本届峰会上,Arm 物联网事业部业务拓展副总裁马健发表演讲,系统性地阐述了 Arm 在 AI 计算与存储领域的技术创新、生态共建、未来战略,并在会后接受了快科技的采访。

马健指出,近 30 年来,Arm 架构产品一直是数据存储与网络控制的基石,为全球存储控制器和设备提供高性能、低功耗、安全可靠的解决方案。

- Cortex-R 系列实时处理器:拥有最快的中断延时和实时反应速度,广泛应用于诸多存储设备。

- Cortex-M 系列嵌入式处理器:后端闪存和媒体控制的热门选择,支持自定义指令,客户可以针对不同闪存进行深度优化。

- Cortex-A 系列应用处理器:高吞吐量流水线设计,支持最高处理性能,同时拥有机器学习、数据处理软件、丰富操作系统的广泛生态支持。

- Ethos-U AI 加速器:Transformer 原生加速可高达每秒 2048 MACs,让存储控制器本身变得更智能。

- Neoverse 基础设施平台:为数据中心量身定制,CXL 采用 Arm CMN ( 一致性网格网络 ) 与 Neoverse 组合,实现可 " 组成式 " 内存扩展,并结合近存储计算,减少数据搬运。

其实,大量我们熟悉的存储类产品,幕后都是 Arm 在默默支撑。

比如,Solidigm 首发的全球最大容量 122.88TB SSD D5-P5336,其主控就采用了 Arm Cortex-R CPU。

慧荣科技的新一代 PCIe 5.0 SSD 主控芯片 SM2580,用的就是 Arm Cortex-R8、Cortex-M0 CPU,业界首款车用 PCIe Gen4 主控芯片 SM2264XT-AT,同样基于 Arm CPU 架构。

AI 的快速发展,对基础算力提出了新的要求,包括高性能、低功耗、灵活扩展性等,而传统的标准通用芯片在处理计算密集型的 AI 工作负载时,往往显得力不从心。

在此背景下,Arm 计算平台为新一代 AI 云基础设施带来了 Neoverse CSS 平台解决方案、Total Design 生态项目、CSA 芯粒系统架构,具有高效、灵活、可扩展的显著优势,也帮助合作伙伴可以快速打造差异化的产品,满足 AI 新需求。

同时,为了应对边缘侧对 AI 计算需求的增长,Arm 还发布了全新的边缘 AI 计算平台,包括基于 Armv9 架构、拥有超高能效的 Cortex-A320 CPU 处理器,以及原生支持 Transformer 网络的 Ethos-U85 AI 加速器。

该平台实现 CPU 处理器与 AI 加速器的深度配合,具备强大的计算能力,是边缘侧 AI 设备运行大模型、复杂任务的理想解决方案,可运行 10 亿以上规模参数的大模型。

在马健看来,生成式 AI 和大模型从爆发到现在虽然才短短三年时间,但已经得到了广泛而深入的行业规模部署,边缘计算也在进入 AI 时代后发生了显著的变化。

一是计算能力大幅提升,软硬件协同优化。

边缘计算节点正突破传统的 " 小型网关 + 通用 CPU" 模式,向智能化方向加速演进。通过深度集成 GPU、FPGA、NPU 等异构计算单元,边缘设备已经实现了更强的并行计算性能,同时具备更强的 AI 推理加速能力。

同时,边缘设备的软件栈也日益完善,越来越多厂商针对 AI 推理场景提供轻量化推理框架,比如 ExecuTorch、TensorFlow Lite、ONNX Runtime、飞桨 PaddleLite 等等,从而在资源受限的环境下,运行高效的模型推理。

二是从 " 数据传输中心 " 转变为 " 实时智能中心 "。

早期的边缘计算主要承担数据预处理和缓存功能,大量原始数据需要输送至云端,再进行分析和训练。

现在,AI 模型尤其是推理部分,正越来越多地在边缘设备上实现本地化执行,以满足实时性、隐私合规等需求。

边缘节点不再只是数据 " 传输管道 ",而是进化为提供实时智能服务的中心节点,这不仅有效减轻了云端的带宽与存储负担,还使得决策过程更贴近实际应用场景,实现了毫秒级的快速响应。

三是模型生命周期管理与协作深化。

云边之间的协作更加紧密,云端负责大模型的训练及更新,边缘侧则专注轻量化推理与在线更新。

在此过程中,对边缘侧模型的部署与运维变得尤为重要,包括模型分发、滚动升级、A/B 测试等。

为此,需要依赖自动化的 MLOps 平台在边缘侧发挥关键作用,确保整个模型生命周期的高效管理与无缝协作。

针对边缘计算的未来发展趋势,Arm 正从硬件、软件、生态三个方面协同发展,释放边缘 AI 的重要价值。

硬件方面,就是刚才说过的全新边缘 AI 计算平台。

软件方面,Arm 去年推出了 Kleidi 软件库,首先用于智能手机和服务器市场,现已扩展到了汽车和物联网领域。

这是一套专为 AI 框架开发者设计的计算内核,可以在 Arm CPU 上获取最佳性能,支持包括 Neon、SVE2 等在内的 Armv9 架构的关键特性,大幅提升了 AI 计算效率。

Kleidi 已集成到多个主流 AI 框架,包括 Llama.cpp、ExecuTorch、LiteRT,可以加速 Llama 3、Phi-3 等主流 AI 大模型

生态方面,Arm 已将 Armv9 架构 Cortex 处理器系列全面的性能和生态引入智能物联领域,包括极致性能的 Cortex-X925,以及适合低成本、低功耗大规模智能部署的全新 Cortex-A320,因此无论边缘 AI 设备的需求如何,都能找到最合适的处理器方案。

例如,Cortex-A320 支持多种操作系统 , FreeRTOS/Zephy 等实时操作系统 ( RTOS ) ,Linux、Android 等功能丰富操作系统,都能提供高效支持。

Arm 在边缘计算领域一直有着广泛的布局,不仅涵盖 CPU、GPU、NPU 等 IP 核产品线,还深入软件工具链、标准化平台、安全解决方案等多个维度。

随着 AI 技术在边缘侧应用的迅猛发展,如智能制造、智慧城市、车载计算、智能家居等,Arm 正在三个方面重点发力:

一是打造 CPU+GPU+NPU 三大引擎组成的异构计算 IP。

CPU 方面,Cortex 系列将不断强化通用算力,具备卓越性能和能效的 Cortex-A/R/M 系列,超高性能 Cortex-X 系列,以及专为基础设施设计的 Neoverse 系列,可以满足更广泛的算力需求。

比如 Neoverse 优化了多核心多线程、虚拟化,非常适合边缘服务器、智能网关等场景,保持功耗优势的同时提供高吞吐性能。

比如超高能效 Cortex-A320,非常适合大规模、低成本、低功耗的智能部署。

GPU 方面,Mali 系列在移动端、智能终端市场应用广泛,未来将继续增强通用计算能力,兼顾图形渲染和部分 AI 推理需求,支持流畅、自然、直观的人机交互体验。

NPU 方面,Ethos 系列 AI 加速器已原生支持 Transformer 神经网络,可与 CPU、GPU 协同构建异构计算平台,支持运行超过 10 亿参数小模型。

Ethos 可在有限面积与功耗下提供高效 AI 算力,适合在智能物联网、智能视觉、智能可穿戴、工业控制等边缘场景中,部署轻量化或中等规模的深度学习推理。

二是云 - 边 - 端协同的软件赋能。

从云基础设施、边缘 AI 计算平台到终端 AI 处理,Arm KleidiAI 都能为开发者提供基于 Arm 计算平台的一致体验,实现从云到端的无缝衔接。

在国内,KleidiAI 已集成到腾讯混元大模型中,加速端侧 AI 推理的速度。

阿里通义千问 Qwen2-VL-2B-Instruct 模型同样集成了 KleidiAI,可以在基于 Arm CPU 的移动设备上,运行多模态 AI 工作负载。

未来,Arm 计划推出更多软件库、计算内核、引擎集成,持续在 Arm 平台上构建新的 AI 赋能。

三是强化安全与信任。

安全与隐私保护是边缘 AI 大规模部署的重点,也是 Armv9 架构处理器和边缘 AI 计算平台的主要发展方向。

在硬件级安全方面,Arm 在架构层面强化了 TrustZone、TEE 等安全机制,Armv9 架构支持 Secure EL2、指针验证 / 分支目标识别(PACBTI)、 内存标记扩展(MTE)等安全指令,并符合 PSA Certified 规范。

在软件可信堆栈方面,针对边缘环境 OTA 在线升级、远程管理的需求,Arm 将持续与各类操作系统或云平台合作,完善从 Bootloader 到应用层的安全链条。

马健强调,随着边缘 AI 的快速发展,将会有更多、更复杂的 AI 工作负载,转向边缘设备进行处理。

Arm 重点始终是面向市场、面向合作伙伴,提供满足当下和未来各个领域 AI 应用工作负载的解决方案。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

arm ai 闪存 芯片
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论