当前,以大模型为代表的人工智能(AI)技术正在深刻重塑生产生活方式和科技创新模式。春节期间,国产大模型 DeepSeek 横空出世,颠覆了传统的人工智能创新模式,推动 AI 技术加速向千行百业渗透。
随着技术深度应用,AI 大模型所面临的安全挑战也日益严峻。
为此,中国基金报记者采访了第十四届全国政协委员、全国工商联副主席、奇安信董事长齐向东。
作为第十四届全国政协委员,今年全国两会,齐向东主要关注两方面的话题是 AI 安全和软件产业的健康发展。
齐向东透露,近期,针对 DeepSeek 的网络攻击烈度有所下降,但攻击行为仍未完全停止。
齐向东向记者指出,随着 AI 技术的深度应用,AI 发展正面临三个方面的安全问题,包括 AI 大模型自身的安全问题、利用 AI 开展网络攻击的问题,以及通过攻击 AI 引发的 " 网络攻击大爆炸 "。对此,要从技术保障、制度保障、成果应用三方面入手,系统提升安全能力,以确保 AI 安全发展。
今年两会主要关注
AI 安全和软件产业的健康发展
中国基金报:今年两会将重点关注哪些问题?为何格外关注这些领域?
齐向东:今年两会我主要关注两方面的话题,一是 AI 安全,二是软件产业的健康发展。
首先,在 AI 安全方面,当前,以大模型为代表的 AI 技术正在深刻重塑生产生活方式和科技创新模式。
春节期间,国产大模型 DeepSeek 横空出世,引发广泛讨论,它颠覆了传统的 AI 创新模式,将推动 AI 技术加速向千行百业渗透。不过,随着 AI 技术的深度应用,大模型所面临的安全挑战也日益严峻。
奇安信是网络和数据安全领域的领军企业,保障 AI 时代的网络空间安全是扛在我们肩上的重任。所以,这次两会我重点关注这方面内容,期待能够用一些切实可行的举措,为 AI 安全发展贡献新力量。
其次是软件产业的健康发展。软件产业是支撑新技术发展的关键,也是助推数字经济发展的重要力量。但目前我国软件产业的高质量发展遇到了不小的挑战。
一方面,软件产业是 " 内卷式 " 竞争的重灾区,招投标 " 低价恶斗 "、技术评分体系有缺陷、项目转包现象等,都拖慢了软件产业的创新步伐。
另一方面,我们软件产业的市场价值被严重低估,这不利于软件产业的持续创新发展。所以,这次两会我希望能为软件产业的健康发展出力献策。
针对 DeepSeek 的网络攻击仍未完全停止
中国基金报:不久前,DeepSeek 线上服务受到大规模恶意攻击。从奇安信 XLab 实验室监测到的最新情况来看,近期对 DeepSeek 的网络攻击是否仍在继续?
齐向东:近期,针对 DeepSeek 的网络攻击烈度有所下降,但攻击行为仍未完全停止。
除夕当天,奇安信独家发布报告,针对 DeepSeek 攻击事件做出预警。大年初一,攻击烈度果然激增,作为职业打手的僵尸网络开始下场,DeepSeek 服务器遭到重击。春节期间这波攻击峰值过后,针对 DeepSeek 的攻击有所下降,但依旧时有发生。2 月 10 日,我们检测到一个新的僵尸网络 moobot 曾短暂参与过攻击,但并未造成实质影响。
2 月初,我们通过持续跟踪监测发现,针对 DeepSeek 的仿冒网站、钓鱼网站数量已经超过 2000 个,并且在快速增加。于是,我们再次发布预警,提醒用户保持警惕,DeepSeek 官方也对此事作出回应。
此外,我们发现,目前活跃运行 DeepSeek 等大模型的服务器有九成没有采取安全措施。这种 " 裸奔 " 状态会导致任何人不需要任何认证即可随意调用、在未经授权的情况下访问这些服务,极有可能造成数据泄露和服务中断,甚至可以发送指令删除所部署的 DeepSeek、Qwen 等大模型文件,存在严重的安全隐患。
中国基金报:DeepSeek 的横空出世,对 AI 行业意味着什么?
齐向东:DeepSeek 的产生,打破了美西方在 AI 行业长期以来近乎垄断的市场格局,动摇了美西方对 AI 发展的单方面主导地位;其重磅公布开源策略,则推动 AI 行业走向更加开放、合作的崭新时代。
不过,DeepSeek 一问世,针对性的高强度网络攻击也同时爆发,这给 AI 行业敲响了坚守安全底线的警钟。
我们发现,现在越来越多的企业、个人开始搭建 DeepSeek 大模型私有化部署,而将近 90% 的服务器都没有采取安全措施,服务运行和数据安全岌岌可危。未来随着 AI 大模型的基础设施地位越来越突出,针对性的恶意手段和风险场景也将激增,伴生的数据隐私、认知安全、基础设施等安全风险超乎想象。对于整个 AI 行业来说,平衡技术创新与安全风险必将成为重要课题。
从三方面确保 AI 安全发展
中国基金报:目前 AI 的发展面临哪些安全问题?怎么才能提升 AI 的安全能力?
齐向东:在我看来,AI 发展面临的安全问题大致可以分三类。
第一类是 AI 大模型自身的安全问题。
开发风险、应用风险、数据风险和基础环境风险这四大安全风险比较突出。开发方面,开源大模型要重点防范代码缺陷和预留后门等问题;应用方面,要防 " 内鬼 " 对训练数据投毒,进行模型篡改、配置篡改;数据方面,要小心内部配置错误和弱口令等造成的数据库暴露;基础环境方面,要重点关注云、API、传统设备漏洞等。
目前,已有团队发现 DeepSeek 存在严重漏洞,并可借此获取后端隐私数据、API 密钥、操作元数据,尽管漏洞很快被修补,但根据我们的经验,新漏洞会不断被挖掘出来。
第二类是利用 AI 开展网络攻击的问题。
AI 促进了网络攻击手段的更新迭代," 饱和式 " 攻击成为可能,攻击者可以瞬时发动海量攻击打垮已有的网络安全体系。
AI 还提升了 " 以假乱真 " 的能力,深度伪造、认知战、钓鱼等威胁加剧。攻击者可利用 AI" 换脸变声 " 输出虚假信息,开展网络诈骗,或输出背离主流价值观的内容危害认知安全。
第三类是通过攻击 AI 引发的 " 网络攻击大爆炸 "。
未来 AI 会成为社会的基础设施,当大模型嵌入智慧城市、工控系统、智慧政务等关键领域时,会放大漏洞等传统安全威胁,一旦 AI 大模型遭到攻击,可能会牵一发而动全身,引发社会服务中断、生产停滞、隐私数据泄露等安全事件。
针对这些安全问题,要从技术保障、制度保障、成果应用三方面入手,系统提升安全能力,确保 AI 安全发展。
第一,建立适配大模型的纵深防御体系,筑牢 AI 的安全根基。
第二,制定大模型安全强制合规要求,夯实 AI 安全发展的制度保障。
第三,推广 "AI+ 安全 " 创新成果落地,走好提升安全能力的必经之路。
近两年,奇安信安全产品全面 AI 化进展显著,奇安信安全智能体也已经深度接入 DeepSeek 大模型。随着 AI 应用的进一步铺开,要鼓励更多产业用上、用好 "AI+ 安全 " 创新成果,提高千行百业的网络安全防护效能。
在政策方面,建议通过出台大模型网络数据安全强制合规要求等文件,对企业做好 AI 时代的安全防护工作给予清晰指引;鼓励产业内定期开展网络和数据安全 " 体检 ",帮助企业进行安全能力的查漏补缺,实现安全能力的持续提升;设立专项基金促进 "AI+ 安全 " 创新成果落地,推动各领域头部企业与专业的网络安全企业开展联合创新,提升智慧城市、智慧能源、智慧金融等新兴场景的安全防护效能。
来源:中国基金报
登录后才可以发布评论哦
打开小程序可以发布评论哦