当前位置:首页 > 动态信息

动态信息

英国竞争和市场管理局就人工智能监管发布政策文件

来源:武大知识产权与竞争法 发布日期:2022-08-25 阅读:118

编者按:

  英国竞争和市场管理局(以下简称CMA)于2022年7月20日公布了《建立有利于创新的人工智能监管方法》政策文件。该政策文件介绍了CMA有关人工智能监管的行动纲要、监管范围、面临的挑战、监管方法创新、监管原则、实践操作和国际格局等。本期知竞团队翻译了该政策文件的人工智能监管原则,欲获取更多内容,请点击文末阅读原文。

  CMA于2022年7月20日发布的《建立有利于创新的人工智能监管方法》列明了以下六点监管原则:

  一、确保人工智能的安全使用

  人工智能的应用范围十分广泛,其中不乏可能会严重危害安全的功能——尽管这种风险在医疗保健或关键基础设施等特定领域更加明显,但当前无法预见的安全影响也有可能出现在其他领域。

  虽然安全是监管的核心因素,但监管机构在评估人工智能可能对所在行业或领域的安全构成风险时,必须基于特定背景、采取适当的方法来监管这种风险。确保人工智能使用的安全性需要采取新的思维方式和新的监管方法,但这些监管要求应与实际风险具有相称性。

  二、确保人工智能采取安全技术,并按设计运行

  人工智能正在迅速引入新功能,并降低现有业务功能和流程的成本。人工智能系统应采取安全的技术,并保证在正常使用的条件下能够顺利地按设计运行。系统的功能、复原力和安全性必须经过测试和证明,培训和部署中使用的数据应具有相关性、代表性和背景性并保持高质量。

  三、确保人工智能具有适当的透明度和可解释性

  在技术层面实现人工智能系统的可解释性仍然具有一定的挑战性。目前,人工智能系统中的逻辑和决策制定并不总是能够以一种可理解的方式进行有意义的解释。尽管在大多数情况下这并不构成实质性风险,然而在某些情况下,公众、消费者和企业可能会期待并受益于人工智能运行的透明度,因为这种透明可以加深公众对人工智能所做决策的理解。在某些高风险情况下,监管机构认为应该禁止人工智能无法解释的决策——例如在法庭上,消费者有权质疑人工智能制定决策的逻辑。

  考虑到保护机密信息和知识产权的需要,人工智能透明度要求相关机构和个人主动或追溯提供以下相关信息:1、相关人工智能的性质和目的,包括与任何特定结果相关的信息;2、正在使用的数据和与数据相关的信息;3、人工智能做出决策的逻辑和过程,以及支持决策可解释性的相关信息;4、人工智能产出的任何特定结果的责任制度。

  四、考虑人工智能使用中的公平性

  在许多情况下,使用人工智能的结果会对人们的生活产生重大影响,如保险、信用评分或求职申请。这种影响重大的结论以及得出相关结论所使用的数据应该是合理的,而不是任意的。

  为了确保监管是适度且利于创新的,监管机构应评估人工智能使用中的公平性。因此,在任何行业或领域,CMA都希望监管机构:1、将对“公平性”的理解与其所在行业或领域联系起来;2、考虑公平性在哪些背景和特定情况下是重要的;3、设计、实施和执行适用于其监管实体的“公平”治理要求。

  五、界定法人对人工智能治理的责任

  人工智能系统可以高度自主地运行,也就是说该系统可能以一种尚未明确编程甚至无法预见的方式以实现某个特定目标——这可能会引发后续问题并产生外部效应。因此,对人工智能产生的结果以及相应的法律责任必须始终由已确定或可确定的法人承担。

  六、阐明补救或异议途径

  人工智能系统的使用可能对人们的生活产生重大影响,但也可能带来风险,例如,相关的培训数据会将其本身的偏差问题传递到其产生的结果中去。在考虑到背景和相称性的情况下,人工智能的使用不应剥夺受影响的个人或群体对结果提出质疑的权利。因此,CMA希望监管机构实施相应的措施,以确保在相关监管情况下使用人工智能的结果具有可异议性。