ISO/IEC 38507:2022
Information technology - Governance of IT - Governance implications of the use of artificial intelligence by organizations
发布时间:2022-04-08 实施时间:


随着人工智能技术的不断发展,越来越多的组织开始使用AI来提高效率、降低成本和改善服务质量。然而,AI的使用也带来了一些风险和挑战,例如数据隐私、算法偏见和责任问题。因此,组织需要确保其使用AI的过程中,考虑到了道德和社会影响,并采取适当的治理措施来管理风险。

ISO/IEC 38507:2022提供了一种框架,帮助组织评估其使用AI的风险,并确定适当的治理措施。该框架包括以下步骤:

1. 确定AI的使用目的和范围
2. 评估AI的风险和影响
3. 确定适当的治理措施
4. 实施和监督治理措施
5. 审查和改进治理措施

在执行这些步骤时,组织需要考虑以下因素:

1. 道德和社会影响:组织需要确保其使用AI的过程中,考虑到了道德和社会影响。例如,组织需要确保其使用AI的过程中,不会歧视某些人群或削弱他们的权利。
2. 透明度和可解释性:组织需要确保其使用AI的过程中,是透明和可解释的。例如,组织需要确保其使用AI的过程中,能够解释算法的决策过程和结果。
3. 责任和追溯性:组织需要确保其使用AI的过程中,有责任和追溯性。例如,组织需要确保其使用AI的过程中,能够追溯算法的决策过程和结果,并承担相应的责任。
4. 安全和保护:组织需要确保其使用AI的过程中,是安全和保护的。例如,组织需要确保其使用AI的过程中,能够保护数据隐私和安全。
5. 人类监督和控制:组织需要确保其使用AI的过程中,有人类监督和控制。例如,组织需要确保其使用AI的过程中,能够识别和纠正算法的错误和偏见。

除了提供框架外,ISO/IEC 38507:2022还提供了一些指导原则,帮助组织确保其使用AI的过程中,考虑到了道德和社会影响。这些指导原则包括:

1. 尊重人权和自由:组织需要确保其使用AI的过程中,尊重人权和自由。例如,组织需要确保其使用AI的过程中,不会歧视某些人群或削弱他们的权利。
2. 透明和可解释:组织需要确保其使用AI的过程中,是透明和可解释的。例如,组织需要确保其使用AI的过程中,能够解释算法的决策过程和结果。
3. 责任和追溯性:组织需要确保其使用AI的过程中,有责任和追溯性。例如,组织需要确保其使用AI的过程中,能够追溯算法的决策过程和结果,并承担相应的责任。
4. 安全和保护:组织需要确保其使用AI的过程中,是安全和保护的。例如,组织需要确保其使用AI的过程中,能够保护数据隐私和安全。
5. 人类监督和控制:组织需要确保其使用AI的过程中,有人类监督和控制。例如,组织需要确保其使用AI的过程中,能够识别和纠正算法的错误和偏见。

总之,ISO/IEC 38507:2022是一项关于组织使用人工智能(AI)的治理标准。该标准提供了一种框架和指导原则,帮助组织确保其使用AI的过程中,考虑到了道德和社会影响,并采取适当的治理措施来管理风险。

相关标准
- ISO/IEC 27001:2013 信息技术 - 信息安全管理系统 - 要求
- ISO/IEC 27701:2019 信息技术 - 安全技术 - 个人信息管理系统 - 扩展隐私管理
- ISO/IEC 38500:2015 信息技术 - 治理IT
- ISO/IEC 27018:2019 信息技术 - 云计算 - 个人信息保护 - 个人信息管理体系
- ISO/IEC 29100:2011 信息技术 - 个人信息保护 - 框架和要求