Total Quality. Assured.
 
 
 
锚定 AI 监管新要求 Intertek推出人工智能系统风险管理评估服务
 

当前,人工智能技术规模化落地应用持续提速,AI 系统自身的复杂性与不确定性,使其潜藏的各类风险愈发突出。根据 ISO/IEC 22989:2022《信息技术 人工智能 人工智能概念和术语》 ,AI系统被定义为一种工程系统,能够根据人类定义的一组目标,生成诸如内容、预测、推荐或决策等输出。与传统确定性逻辑软件不同,当前主流的依托机器学习技术构建的 AI 系统具备显著概率性特征,运行高度依赖底层数据与应用环境,也由此催生数据漂移、概念漂移等专属风险隐患。 

若缺乏健全有效的风险管理机制,AI 系统潜在风险将引发多维度负面影响。对企业机构而言,易造成经济损失、品牌声誉受损,甚至引发法律诉讼;对个人层面,可能出现智能决策不公、隐私泄露、人身安全受威胁等问题;放眼社会层面,还或将对社会文化价值观及自然生态环境产生不良影响。  

AI服务

因为上述多维度的风险挑战,全球针对人工智能风险管理的监管日益趋严,行业治理正从伦理倡议全面迈入强制合规新阶段。以《欧盟人工智能法案》为代表,法规对高风险人工智能系统划定清晰硬性合规要求,明确系统提供者必须建立、落地执行、留存记录并长效维护风险管理体系。该体系需以持续迭代的运作模式,贯穿高风险 AI 系统全生命周期布局实施,通过定期系统性复盘更新,全面识别并缓释系统在正常应用及可预见误用场景下,对公众健康、安全及基本权利产生的各类潜在风险。

此外,法案还规定高风险系统还必须在数据与数据治理、技术文档与记录保持、系统透明度、人工监督、以及准确性、鲁棒性和网络安全等核心环节,严格满足相关强制性要求。 

为助力企业从容应对全球 AI 监管挑战,搭建科学完善的 AI 风险治理体系,Intertek 正式推出人工智能系统风险管理评估服务。本服务严格参照 ISO/IEC 23894:2023《信息技术 人工智能 风险管理指南》标准打造,为组织开展内部 AI 风险识别、体系治理提供标准化、结构化参考工具。

服务通过对标国际标准开展系统化核查,帮助企业完整梳理从内外部环境研判到 AI 系统专项影响分析的全流程工作,协助企业优化完善风险应对方案,在保障人工智能技术持续创新发展的前提下,将系统风险管控至合理可接受范围。

服务边界及免责声明

为保障评估结果规范合理应用,特此明确本服务能力边界:

本服务定位为一项内部参考的评估服务,不构成正式的合规性审计、法律审查或第三方认证,评估结论不代表受评系统已完全符合《欧盟人工智能法案》等特定法律法规的强制性要求。此外,鉴于AI系统的概率性特征及其表现会随运行环境或持续学习发生动态改变,评估结论仅对评估发生时的特定系统版本、数据样本及应用环境有效。风险管理的目的是降低风险而非消除所有风险,即使严格执行处置方案,系统仍可能存在剩余风险;对此类剩余风险的接受与持续监测,需由组织管理层承担最终的决策与管理责任。 

拨打Intertek热线电话 400 886 9926,了解更多Intertek AI服务详情。

 

 
点击查看详情
 
Globe Icon 联系我们

400 886 9926
service.china@intertek.com
 
img 官方微信