随着人工智能 (AI) 用途的不断扩大,人们越来越需要有效的风险管理来处理从技术(例如算法故障)到道德(包括决策中的偏见)等问题。人工智能有可能彻底改变许多行业并改善我们的日常生活,但必须仔细考虑和管控风险。
一项新的 ISO/IEC 标准为在其系统或流程中使用人工智能的各种规模和类型的组织提供了风险管理的重要指导。ISO/IEC 23894向用户展示了如何有效管理与 AI 相关的风险,以实现目标并提高绩效。
制定人工智能标准的 IEC 和 ISO 联合委员会主席 Wael William Diab 表示:“虽然人工智能系统在许多方面与传统 IT 系统相似,但它们也呈现出新的方面,例如它们的学习能力”。
“SC 42 采用了开发框架的新颖方法,该框架采用围绕风险管理的成熟技术。ISO/IEC 23894 提供了一种全面和主动的方法来管理与人工智能相关的风险,其目标是使用户能够有效地管理风险以充分利用人工智能的潜力。”
风险管理框架
新标准调整并制定了 ISO 31000 中描述的风险管理指南和一般原则。它描述了一个风险管理框架,该框架要求用户建立背景,并识别、分析、评估、处理、监控和审查风险。
建立背景需要定义组织的目标和可能影响这些目标的风险,以及将受到风险影响的利益相关者的需求和期望。识别风险是指识别可能影响组织目标的潜在风险,包括与组织活动、过程和外部因素相关的风险。
分析风险意味着评估已识别风险的可能性和影响,以及每个风险的潜在后果。评估意味着根据风险的可能性和潜在影响,决定哪些风险值得应对,并确定对每种风险的适当应对措施。
处理风险涉及实施选定的风险应对措施,这可能涉及避免风险、降低风险的可能性或影响、将风险转移给另一方或接受风险。监控和审查涉及持续监控风险以确保它们得到有效管理,并审查风险管理流程以确定可以进行的任何改进。
结构化方法
ISO/IEC 23894 的工作组召集人 David Filip 表示:“实施这一新国际标准不仅可以帮助组织确保人工智能系统安全、公平地运行,还可以帮助他们避免潜在的风险和负面后果。它可以帮助组织确保他们对人工智能技术的使用是安全的、合乎道德的,并且符合他们的目标和价值观”。
ISO/IEC 23894 提供了一种结构化的风险管理方法,可以帮助组织以主动有效的方式识别、评估和解决风险。它提供了一个框架和原则,以确保人工智能系统安全、公平地运行,同时避免潜在的风险和负面后果。它可以确保他们对 AI 技术的使用是安全的、合乎道德的,并且符合他们的目标和价值观。
“ISO/IEC 23894 是为不断发展的技术而设计的,”ISO/IEC 23894 项目负责人 Peter Deussen 说,“它强调了不断审查、识别和应对潜在风险的重要性。”
ISO/IEC JTC 1/SC 42
Deussen 先生在两年一度的第二届ISO/IEC 人工智能研讨会上介绍了 ISO/IEC 23894 。活动涵盖的主题包括 AI 应用、受益 AI、新 AI 标准化方法以及新兴的 AI 技术趋势和要求。
SC 42 负责制定人工智能国际标准。其独特的整体方法通过着眼于技术能力和非技术要求,例如业务和法规和政策要求、应用领域需求以及道德和社会问题,顾及了整个 AI 的生态系统。
SC 42 目前正在与IEC TC 65合作制定人工智能的新功能安全标准。目的是确保即使出现故障或错误的情况下,依然可以依赖人工智能技术的系统、设备和装置安全运行。
TC 65 负责制定IEC 61508系列标准,其中涵盖安全措施的设计和实施,以防止事故发生并最大限度地降低对人员、财产和环境的风险。