IT 之家 1 月 21 日消息,软银公司宣布旗下 Infrinia 团队正式开发完成面向未来 AI 数据中心的软件平台 "Infrinia AI Cloud OS"。
软银指出,随着生成式 AI、自动化机器人、仿真计算、药物研发以及新材料开发等领域对 GPU 加速算力的需求持续快速增长,当下 AI 计算的使用场景和需求形态正变得愈发多样和复杂。为应对这些挑战,软银旗下 Infrinia 团队开发了 Infrinia AI Cloud OS,目标是在充分释放 GPU 性能的同时,实现先进 GPU 云服务的快速部署与高效运维。

具体来说,Infrinia AI Cloud OS 可帮助 AI 数据中心运营方在多租户环境中以较低成本构建 AI 服务体系,相应软件平台将率先部署在公司自有的 GPU 云服务中,未来计划将其推广至海外数据中心和云环境,推动在全球范围内的落地应用。
在功能层面,Infrinia AI Cloud OS 提供完整的 Kubernetes 即服务能力,可在包括英伟达 GB200 NVL72 在内的 GPU 平台上,对从 BIOS、RAID、操作系统、GPU 驱动、网络,到 Kubernetes 控制器与存储在内的整个技术栈进行自动化管理,大幅降低基础设施和平台层的运维复杂度。
同时,该系统支持基于软件定义的动态物理互联与内存重构能力,能够在用户创建、更新或删除集群时,按需实时调整连接方式和跨节点内存配置,并依据 GPU 拓扑结构与 NVLink 域进行自动节点分配,以降低延迟并最大化 GPU 间带宽,适用于大规模分布式 AI 任务。
官方同时强调,Infrinia AI Cloud OS 还针对多租户场景提供了高安全性与高可运维性设计,通过加密的集群通信与隔离机制实现租户级安全防护,并对系统监控、故障切换等运维工作进行自动化。同时平台还提供了 API 接口,便于与 AI 数据中心门户、客户管理系统以及计费系统对接。


登录后才可以发布评论哦
打开小程序可以发布评论哦