ISO/IEC TR 24027:2021
Information technology - Artificial intelligence (AI) - Bias in AI systems and AI aided decision making
发布时间:2021-11-05 实施时间:


人工智能系统和人工智能辅助决策已经广泛应用于各个领域,包括医疗、金融、教育、交通等。然而,这些系统和决策往往存在偏见,这可能导致不公平、不准确或不可靠的结果。例如,在招聘过程中,人工智能系统可能会偏向某些人群,而忽略其他人群。在医疗诊断中,人工智能系统可能会忽略某些病症,而导致错误的诊断结果。因此,减少人工智能系统和人工智能辅助决策中的偏见是非常重要的。

ISO/IEC TR 24027:2021提供了一些指导,帮助人们识别和减少人工智能系统和人工智能辅助决策中的偏见。这些指导包括以下几个方面:

1. 识别偏见:人们应该了解人工智能系统和人工智能辅助决策中可能存在的偏见类型,例如性别、种族、年龄、地域等。人们还应该了解这些偏见可能对结果产生的影响。

2. 数据收集和处理:人们应该收集和处理多样化的数据,以避免数据偏见。例如,在招聘过程中,人们应该收集不同性别、种族、年龄、地域等人群的数据,以避免偏向某些人群。

3. 模型开发和评估:人们应该开发和评估多样化的模型,以避免模型偏见。例如,在医疗诊断中,人们应该开发不同性别、种族、年龄、地域等人群的模型,以避免忽略某些病症。

4. 透明度和可解释性:人们应该提高人工智能系统和人工智能辅助决策的透明度和可解释性,以便人们了解系统和决策的运作方式和结果。例如,在招聘过程中,人们应该告知应聘者人工智能系统的使用方式和结果。

5. 监督和反馈:人们应该监督人工智能系统和人工智能辅助决策的运作,并提供反馈,以便改进系统和决策。例如,在医疗诊断中,人们应该监督人工智能系统的诊断结果,并提供反馈,以便改进系统的准确性。

除了以上指导,ISO/IEC TR 24027:2021还介绍了一些方法和工具,可以帮助人们评估和管理人工智能系统和人工智能辅助决策中的偏见。这些方法和工具包括:

1. 偏见评估:人们可以使用偏见评估工具,评估人工智能系统和人工智能辅助决策中的偏见。例如,在招聘过程中,人们可以使用偏见评估工具,评估人工智能系统是否偏向某些人群。

2. 偏见管理:人们可以使用偏见管理工具,管理人工智能系统和人工智能辅助决策中的偏见。例如,在医疗诊断中,人们可以使用偏见管理工具,管理模型中可能存在的偏见。

3. 透明度和可解释性工具:人们可以使用透明度和可解释性工具,提高人工智能系统和人工智能辅助决策的透明度和可解释性。例如,在招聘过程中,人们可以使用透明度和可解释性工具,告知应聘者人工智能系统的使用方式和结果。

4. 监督和反馈工具:人们可以使用监督和反馈工具,监督人工智能系统和人工智能辅助决策的运作,并提供反馈。例如,在医疗诊断中,人们可以使用监督和反馈工具,监督人工智能系统的诊断结果,并提供反馈。

总之,ISO/IEC TR 24027:2021提供了一些指导、方法和工具,帮助人们识别和减少人工智能系统和人工智能辅助决策中的偏见。这些指导、方法和工具可以帮助人们开发更加公平、准确和可靠的人工智能系统和人工智能辅助决策。

相关标准
ISO/IEC 23894:2020——人工智能可解释性
ISO/IEC 29184:2021——人工智能系统的可信度
ISO/IEC 30107-1:2019——生物识别——可信度评估——第1部分:概述
ISO/IEC 27001:2013——信息技术——安全技术——信息安全管理系统
ISO/IEC 27701:2019——信息技术——安全技术——个人信息管理系统