安徽京准电钟电子科技有限公司
Anhui Jingzhun Clock Electronic Tcehnology Co., Ltd.
The time synchronization product supplier beside you only cares for your accurate data and makes your data more meaningful, which is the value of our existence!
您身边的时间同步产品供应商,只为用心呵护您的精准数据,让您的数据更有意义,才是我们存在的价值!
点击了解更多>>
时间服务 与您同步
    AHJZ TIME    
AI安全焦点追踪丨我国人工智能安全标准体系加速构建
来源:新华社 | 作者:新华社 | 发布时间: 2026-04-13 | 69 次浏览 | 🔊 点击朗读正文 ❚❚ | 分享到:
新华社北京4月7日电 《经济参考报》4月7日刊发记者叶健、吴蔚采写的文章《AI安全焦点追踪丨我国人工智能安全标准体系加速构建》。文章称,随着我国“人工智能+”行动的深入推进,各类智能体及AI应用广泛渗入生产生活场景。而近期频发的AI安全事件,不仅引发公众关注,也成为产业界与学界协同攻坚的重要方向。近日,全国网络安全标准化技术委员会(以下简称“网安标委”)正式组建“人工智能安全标准工作组”(WG9),标志着我国人工智能安全标准体系建设进入系统性推进阶段。

新华社北京4月7日电 《经济参考报》4月7日刊发记者叶健、吴蔚采写的文章《AI安全焦点追踪丨我国人工智能安全标准体系加速构建》。文章称,随着我国“人工智能+”行动的深入推进,各类智能体及AI应用广泛渗入生产生活场景。而近期频发的AI安全事件,不仅引发公众关注,也成为产业界与学界协同攻坚的重要方向。近日,全国网络安全标准化技术委员会(以下简称“网安标委”)正式组建“人工智能安全标准工作组”(WG9),标志着我国人工智能安全标准体系建设进入系统性推进阶段。

  AI安全事件频发 攻防之战升级

  近期,全球人工智能行业安全事件频发。3月底,人工智能公司Anthropic旗下AI编程工具Claude Code源代码泄露,这一事件被视为AI行业首次核心代码泄露事件。

  奇安信安全专家章磊认为,综合各类公开信息以及Anthropic的官方回应分析,此次源代码泄露是典型的发布流程中的人为失误,属于供应链安全事故。“好比原本只该给顾客成品,结果把全套制作图纸一起送出去了。”

  “产品的核心逻辑和防护底线一旦公开,整个产品的运作方式就变得透明。竞争对手可以直接研究它的架构、功能设计、智能体逻辑,能快速模仿、追赶甚至优化。同时,安全规则暴露后,也更容易被人找到漏洞、绕过约束、破解使用限制。”章磊表示。

  今年以来爆火的智能体工具OpenClaw(俗称“龙虾”)也接连被曝出存在多重安全隐患。4月3日,国家信息安全漏洞库(CNNVD)发布通报称,自3月10日至4月2日,共采集OpenClaw漏洞155个,其中超危漏洞11个、高危漏洞53个,OpenClaw多个版本受到漏洞影响。

  “我们只花了一个下午,就攻破了OpenClaw。”国内知名白帽安全团队DARKNAVY安全创新总监陆晨表示,目前,国内主流的“龙虾”方案分为两类:一类是在OpenClaw基础上套壳提供对话框,另一类是提供服务器供用户自行配置。相比较而言,前者风险更高,一旦被攻破,黑客就能直接获取服务器权限,甚至访问内网大模型。

  上海交通大学安泰经济与管理学院副院长刘少轩透露,近期一家制造业企业因为仓促上马OpenClaw,导致产线停产72小时,直接损失可能超过2000万元。还有一家法律服务企业,因为没有做好风险防范和数据安全,导致大量客户隐私数据泄露。

  亚信安全相关负责人也指出,当前网络攻击正在向智能化、自动化演进,黑客利用AI实现勒索软件载荷的动态生成、高仿真钓鱼内容制作,使得攻击效率与隐蔽性大幅提升。AI自主攻击智能体、基于深度伪造的商务诈骗,将成为2026年最紧迫的安全挑战。

  AI安全供给发力 需求创造机遇

  国资委1月底发布的数据显示,中央企业已在工业制造、能源电力、智能网联汽车等重点领域,打造了超过1000个AI应用场景,AI赋能产业转型的态势日益明显。与此同时,AI安全问题引发的行业担忧,也催生了全新的安全需求,推动AI安全供给侧持续发力。

  对此,东莞证券认为,近期OpenClaw等智能体技术快速落地,催生全新安全需求场景,叠加网络安全领域政策利好持续释放,行业有望迎来新的增长机遇。

  长江证券则预测,2026年国内网络安全市场规模有望突破1500亿元,2030年可达3000亿元,年复合增长率达18%至20%,行业正处于发展黄金期。

  同时,AI安全新品与服务也在持续发布。近日,上海人工智能实验室推出高安全产业级智能体平台SafeClaw,聚焦高安全需求的产业智能化转型,以推动行业从“事后安全”迈向“内生安全”的路径。同时,上海人工智能实验室还开源了能快速诊断风险的智能体守卫模型,并探索将安全准则内嵌至智能体决策层的“内生进化”治理框架。

  “最危险的并非已知风险,而是‘没有想到的危险’,因此,当前的核心任务是,在AI能力飙升的同时,前瞻性地构建内生安全体系。”上海人工智能实验室领军科学家胡侠表示,“这些工作旨在将安全能力深度融入AI发展全链条,为智能体时代的‘内生安全’提供系统性解决方案。”

  AI治理持续完善 安全标准加速制定

  随着人工智能被广泛应用,人工智能治理也越发受到重视。今年政府工作报告明确提出“完善人工智能治理”,全国人大常委会工作报告提出“加强人工智能领域立法研究”。

  在此背景下,人工智能安全标准正在加快制定。3月25日,工信部公开征求《人工智能安全治理模型上下文协议应用安全要求》等行业标准计划项目意见。

  4月初,人工智能安全标准工作组(WG9)表示,将重点推动《网络安全技术 人工智能安全能力成熟度评估方法》《网络安全技术 人工智能应用安全分类分级方法》及《网络安全技术 人工智能技术涉及未成年人应用安全指南》等核心标准的落地实施。同时,在全国网安标委统一部署下,集中力量攻坚内生安全与数据基座、新形态与服务安全、系统与应用安全及科学评测等领域的国家标准。

  “针对AI带来的新型风险,需从政策法规、技术标准、实施机制三个层面协同推进。”奇安信副总裁张勇认为,展望未来,第一,安全将从“可选配”升级为“必标配”,安全合规将从推荐性转向强制性,可以设定“AI安全投入不低于AI应用总投入15%”这样的行业基准;第二,网络安全从“单点防护”走向“全链条协同”,实现“一处发现攻击,全网自动免疫”;第三,从“人防”走向“技防+智防”,AI对抗AI成为攻防常态;第四,从“被动应急”走向“主动免疫”,构建韧性防御体系,实现“即使遭受攻击也能快速恢复、核心数据不丢失”。