点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

随着AI大模型、智能体等关键技术的快速迭代与规模应用,人工智能这一人类发展新领域,也面临安全治理的现实挑战。在4月14日举行的2026年世界互联网大会亚太峰会人工智能安全治理论坛上,多国与会人士围绕人工智能治理思路、技术风险防范、国际协作机制等议题开展交流,推动完善全球人工智能安全治理体系。

2026年世界互联网大会亚太峰会人工智能安全治理论坛现场。潘迪、赵金悦/摄
人工智能正从“感知智能”迈向“决策智能”,风险也随之复杂化、智能化、隐蔽化。中国工程院院士、中关村实验室主任、清华大学讲席教授吴建平坦言,AI安全治理不仅是技术问题,更是战略抉择,需在创新与规范、发展与安全间找到动态平衡。他提出,要筑牢技术根基,让AI决策可知、可感、可解释;要汇聚创新资源,联合攻关安全难题;要深化系统思维,形成多元共治格局;要强化开放合作,贡献亚太治理智慧。
“安全需要被精准度量,没有科学严谨的评测机制,人工智能大模型安全治理便无从谈起。”清华大学计算机系教授、科研院院长、技术转移院院长、互联网司法研究院院长刘奕群提出,要以场景化测试赋能人工智能安全,以“评测即治理”的思路破解大模型安全治理难题。
中科院计算所副所长、教授、博士生导师程学旗则提出以“可信、可监管、可控”为核心的治理框架,推动AI安全从“超级对齐”转向可测量的实践治理,通过数据透明、模型鲁棒、测试时推理三大技术方向,实现风险可观测、可恢复。
智能体时代,安全治理需升级为系统思维。香港科技大学助理教授、香港生成式人工智能研发中心主任特别助理及大模型部主任韩斯睿表示,智能体已成为社会信息网络的“行动者”,风险将从单点失误演变为协同放大。
深信服科技集团股份有限公司副总裁杜智伟主张,为AI打造“安全刹车系统”,以零信任管控、最小权限、熔断机制,平衡行业应用中的安全与生产力需求。
德国赫尔蒂行政学院数字治理中心研究员、中国科学院访问教授托尔斯滕·耶利内克认为,AI治理重心要从“模型对齐”走向“系统对齐”,管控工具权限、执行逻辑与运行环境,以端到端防护守住系统安全。
面向产业应用,中国电信集团有限公司网络和信息安全管理部总经理谷红勋指出,“无安全不智能”,企业要构建全生命周期AI安全防护体系。赛尔网络有限公司总经理王岩表示,面对智能体风险溯源难、责任界定模糊等问题,可借鉴互联网治理机制,为智能体分配唯一网络标识,实现可识别、可追责、可管理。
硬件是AI安全的末端防线。海光信息技术股份有限公司副总裁应志伟提到,算力爆发式增长与安全防护滞后形成落差,需强化机密计算等硬件能力,实现数据全链路加密,从底层守护模型与数据安全,为AI筑牢硬件安全底座。
网络安全全球挑战还需协同破局。巴基斯坦信息安全协会主席阿玛尔·贾弗里认为,传统被动安全模型已失效,AI让主动防御成为可能,面对勒索软件、供应链攻击等威胁,全球必须实时协同、跨国联动,协同合作是应对网络安全未知挑战的关键。
作为国际都市,香港正以灵活的框架平衡AI创新与监管。香港特区政府署理数字政策专员张宜伟提到,当地已发布伦理AI框架与生成式AI应用指南,并将通过普及AI素养、联动相关国际组织等多元举措,筑牢本地安全防线。
AI安全治理需要清晰的框架指引。CNCERT/CC处长贺敏在会上发布了《人工智能安全治理框架2.0》。该框架统筹发展与安全,将AI风险分为技术内生、应用、延伸三大类,覆盖全生命周期技术应对与综合治理措施,还明确人工智能分级分类原则与八项可信准则,为全球治理提供中国方案。(记者 张晨昊 孔繁鑫)
