摘要
近年来,人工智能技术迅猛发展,在科技、金融、教育、医疗、文化等各个领域得到了广泛应用。伴随着人工智能技术的日新月异,人工智能应用引发的歧视、偏见、安全风险、隐私泄露、数字鸿沟等伦理风险也因此显现。为了应对人工智能伦理风险和关切,促进合乎人权和基本自由、价值观的研究和创新,世界各国都加快了立法脚步,努力实现发展与治理并重。在此背景下,企业人工智能伦理合规体系建立的需求应运而生。本文主要立足于当前我国的立法现状以及行业相关规范建立情况,提出企业人工智能伦理合规体系构建的具体思路,具体而言:一是应当明确企业人工智能伦理合规管理的责任主体,依法设立企业科技伦理(审查)委员会;二是应结合伦理审查、监督管理、保密管理、档案管理、应急管理等环节,从制度规范、工作规程、利益冲突规制等维度,构建企业人工智能伦理合规体系制度框架;三是应当规范审查程序;此外,还应积极履行其他合规义务,如依法开展伦理合规业务培训及知识技能培训、进行伦理合规认证、及时登记与报告、建立投诉与举报机制等。企业伦理合规体系的建立,将有力地保障企业人工智能伦理审查的合规、透明、可追溯,充分发挥人工智能技术进步对增进人类福祉、实现社会可持续发展等的积极作用。
关键词:人工智能、伦理风险、企业伦理合规体系构建
01
构建企业人工智能
伦理合规体系的时代要求
(一)人工智能技术发展需求
近年来,人工智能技术迅猛发展,在科技、金融、教育、医疗、文化等各个领域得到了广泛应用。由于技术发展日新月异,人工智能暂无准确的定义。联合国教科文组织(UNESCO)在《人工智能伦理问题建议书》中将“人工智能系统视为有能力以类似于智能行为的方式处理数据和信息的系统,通常包括推理、学习、感知、预测、规划或控制等方面。”具体而言,“人工智能系统是整合模型和算法的信息处理技术,这些模型和算法能够生成学习和执行认知任务的能力,从而在物质环境和虚拟环境中实现预测和决策等结果。”诚然,人工智能作为具有创造性和革命性的新领域,对推动社会进步意义深远,但其所涉及的伦理问题,诸如偏见歧视、数字鸿沟、对人类生命安全、人格尊严、基本权利和自由的潜在影响、责任归属等,引发了世界各国的共同关切。
1.人工智能伦理内涵
“人工智能伦理与数据伦理、机器人伦理、信息技术伦理等应用伦理学分支关系密切。”作为一项前沿科技,人工智能对全社会及全行业都在深度赋能,对人工智能的伦理思考因此也需要回归到科技伦理的分析框架下。《人工智能伦理治理标准化指南(2023版)》在总结了国际社会对人工智能伦理问题的主要关注点后,提出人工智能伦理的内涵应当包含三方面:一是人类在开发和使用人工智能相关技术、产品及系统时的道德准则及行为规范;二是人工智能体本身所具有的符合伦理准则的道德编程或价值嵌入方法;三是人工智能体通过自我学习推理而形成的伦理规范。
2.人工智能伦理风险与挑战
随着人工智能技术的进步,其应用场景也在不断扩展,日益深刻地嵌入人类社会的不同领域,人工智能的伦理问题也由此显现。特别是近两年Chat GPT (全名:Chat Generative Pre-trained Transformer)经过快速迭代,展现出了强大的学习能力,不仅能真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码、写论文等任务。基于此,关于人工智能的伦理风险在全社会引发了更为热烈和深入的讨论。人工智能系统基于大量的数据采集,通过整合模型以及算法驱动形成自动化决策,可以形象地理解为,“数据是人工智能的阳光、氧气、土壤与食粮,是人工智能存在的前提。”而算法则可以视为光合作用机制,将数据进行转化从而为人工智能系统提供养分。因此,人工智能的风险最主要来源于数据和算法两个方面:
(1)数据伦理风险。人工智能在学习训练过程中,需要大量的数据“投喂”。一方面,数据采集过程对于个人信息、隐私保护等带来了严重冲击,个人信息泄露、数据盗用等情况频繁发生。最近发生的孟加拉国国家电信监测中心(NTMC)数据泄露事件,引起了国际社会的广泛关注。据报道,NTMC孟加拉国国家电信监测中心,一家负责收集通信数据的情报机构,因配置错误暴露了大量个人信息。这些信息包括个人的姓名、职业、血型、电话数据、车辆登记、护照详情等极为敏感的个人数据。另一方面,大量数据用于算法训练,数据本身的质量也间接影响了人工智能的价值判断。如果数据本身充满了偏见、歧视等,则会形成所谓的“毒树之果”。例如,“2017 年,微软在 Twitter 推出的人工智能聊天机器人 Tay通过与 Twitter 网友对话进行自我学习,进而通过模仿其他网友的内容来接近人类的表达。但在上线短短一天的时间内,Tay 就演变成为一个满嘴脏话,集种族主义、父权歧视、仇视犹太人于一身的机器人。2020 年韩国推出的少女聊天机器人 Luda 遭到了用户持续的语言性骚扰,以至于 Luda 迅速学会了歧视少数群体、女性和残疾人的表达。”而各种影视作品中,人工智能具有人类情感与意识的假定,也使得公众对于人工智能伦理风险问题产生深深的担忧。
(2)算法伦理风险。算法伦理风险可能发生在几个层面:一是因为模型不成熟或技术漏洞引发的安全风险,例如模型参数泄露、被篡改等;二是因为算法决策不透明或无法被解释,即“算法黑箱”引发的公众信任风险;三是基于算法驱动的自动化决策不可预见性可能会导致的算法偏见,从而引发的公平风险等。较为常见的,如无人驾驶引发的出行安全问题。目前无人驾驶技术取得了长足进步并且已经在大量投产使用,无人驾驶技术从最初的L1级别的辅助驾驶,逐渐迭代到了L3级别的有条件的自动驾驶、L4级别的高度自动驾驶。但近些年来,因自动驾驶造成的安全事故总能冲上热搜,这无疑体现了公众对于人工智能或可能威胁人类生命安全而产生的焦虑与恐慌。同时,对于自动驾驶安全事故的责任承担,也是伦理问题中重点讨论的对象。此外,人工智能决策也嵌入了企业简历筛选、人事管理等诸多方面,人工智能算法偏见等问题严重挑战了人类的就业权、劳动权,引发了一系列社会公平风险。
(3)其他伦理风险。人工智能的逐渐发展,还会产生其他风险,例如人为因素导致的算法歧视,可能导致歧视、不平等、数字鸿沟和排斥,并对文化、社会和生物多样性构成威胁;以及数字鸿沟导致的世界各地国家内部及世界各国间的不平等加剧等风险。
(二)人工智能伦理规制要求
智能时代已然来临,尽管人工智能存在着诸多伦理风险与挑战,也不应成为创新和发展的阻碍。因此,探寻正确价值观引导下,合乎伦理规范的研究与创新才是重中之重。为了能够建立更为健康融洽的人机关系,各国在立法与规制层面也加快了脚步。
1.国际立法层面
世界各国和地区高度重视人工智能健康全面发展,本着发展与治理并重的原则,积极推进人工智能伦理相关的政策制定、规范文件等的发布,将伦理治理纳入人工智能发展体系,通过控制人工智能伦理风险,保障人工智能系统的健康、稳定、可持续发展。
(1)2021年11月23日,联合国教科文组织(UNESCO)通过了《人工智能伦理问题建议书》,该建议书作为全球首个针对人工智能伦理制定的规范框架,明确规定了 “尊重、保护和促进人权和基本自由以及人的尊严”、“环境和生态系统蓬勃发展”、 “确保多样性和包容性”、“生活在和平、公正与互联的社会中”四项价值观以及十项伦理原则,并从伦理影响评估、伦理治理和管理、数据政策、发展与国际合作、环境和生态系统、性别、文化、教育和研究、传播和信息、经济和劳动、健康和社会福祉共十一项政策领域提出了政策建议。
(2)2019年4月,欧盟AI高级专家组(AI HLEG)正式发布《可信赖人工智能伦理指南》,指出要实现可信赖的人工智能,必须将尊重人的自主权、无害化、公平性、可解释性等四项基本原则转化为可实现的具体要求,用于参与人工智能系统生命周期的各个利益相关方以及更广泛的社会层面。2020年10月,欧盟委员会通过《人工智能、机器人和相关技术的伦理框架》决议,该框架的针对潜在高风险人工智能相关技术,多个方面规范了伦理相关义务。
(3)2019年6月,美国国家科学技术委员会发布《国家人工智能研究与发展战略规划》。2019年10月,美国国防创新委员会(DIB)发布《人工智能准则:美国国防部(DoD)人工智能伦理使用推荐性规范》,提出负责任、公平、可追溯、可靠性以及可治理五项伦理原则。
(4)2017年5月,日本人工智能学会发布了《日本人工智能学会伦理准则》,提出了日本人工智能学会会员应当遵循尊重隐私的原则。
▲(图片来源:《人工智能伦理治理标准化指南(2023 版)》)
2.国家立法层面
(1)2017年7月,国务院印发的《新一代人工智能发展规划》提出“分三步走”的战略目标,明确提出要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”。
(2)2019年6月,中国国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南,提出和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八条原则。
(3)2021年9月25日,国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》,该规范提出了6项基本伦理原则,以及人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求。
(4)2022年3月20日,国务院办公厅印发《关于加强科技伦理治理的意见》,该意见提出应加强科技伦理的治理要求、明确科技伦理原则、健全科技伦理治理体制、加强科技伦理治理制度保障、强化科技伦理审查和监管以及深入开展科技伦理教育和宣传。
(5)2023年10月9日,中华人民共和国科技局发布《科技伦理审查办法(试行)》,从健全体系、规范程序、严格标准、加强监管等方面提出了一系列措施并作出了相关规定。
3.行业协会层面
(1)2023年3月,国家人工智能标准化总体组、全国信标委人工智能分委会等发布了《人工智能伦理治理标准化指南(2023版)》,该指南以人工智能伦理治理标准体系的建立和具体标准研制为目标,重点围绕人工智能伦理概念和范畴、人工智能伦理风险评估、人工智能伦理治理技术和工具、人工智能伦理治理标准体系建设、重点标准研制清单,以及展望与建议等6个方面展开研究,为落实人工智能伦理治理标准化工作奠定了坚实基础。
(2)2023 年 7 月,同济大学上海市人工智能社会治理协同创新中心研究团队发布了《人工智能大模型伦理规范操作指引》,内容主要包括 AI 大模型全生命周期的技术与伦理要素、大模型的研发与应用的伦理原则、大模型技术研发的伦理实践指南三部分内容,提出了尊重人的自主权、保护个人隐私、保障公平公正、提高透明度和可解释性、负责任的创新等五项大模型伦理原则,以及七项大模型伦理操作建议,包括:公平性、透明性、隐私、安全性、责任、人类的监督与控制、可持续性等。
02
企业人工智能
伦理合规体系的构建思路
随着各国在人工智能伦理治理领域的深入研究,相关政策与规范的相继出台为企业伦理合规体系建立提供了切实可参考的思路。
(一)企业人工智能伦理合规体系构建的基本原则
1.国际层面
(1)联合国教科文组织(UNESCO)在《人工智能伦理问题建议书》中提出了十项人工智能伦理原则,包括:相称性和不损害、安全和安保、公平和非歧视、可持续性、 隐私权和数据保护、人类的监督和决定、透明度和可解释性、责任和问责、认识和素养、多利益攸关方与适应性治理和协作。
(2)2020年10月,欧盟委员会通过《人工智能、机器人和相关技术的伦理框架》决议,该框架的针对潜在高风险人工智能相关技术,提出了以人为本,安全、透明、可问责,无偏见、无歧视,社会职责、性别平等,可持续发展,尊重个人隐私和补救权益七项原则。
(3)2019年10月,美国国防创新委员会(DIB)发布《人工智能准则:美国国防部(DoD)人工智能伦理使用推荐性规范》,该推荐性规范主要基于现有美国宪法和战争法以及国际条款中的伦理参考框架,共提出负责任、公平、可追溯、可靠性以及可治理五项伦理原则。
(4)2017年5月,日本人工智能学会发布了《日本人工智能学会伦理准则》,要求日本人工智能学会会员应当遵循并实践尊重隐私的原则。
2.国家层面
(1)2021年9月25日,国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》,该规范提出了6项基本伦理原则,包括:增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养。
(2)2023年10月9日,中华人民共和国科技局发布《科技伦理审查办法(试行)》,提出了“开展科技活动应坚持促进创新与防范风险相统一,客观评估和审慎对待不确定性和技术应用风险,遵循增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明的科技伦理原则”,科技伦理审查应坚持“科学、独立、公正、透明原则”,公开审查制度和审查程序,客观审慎评估科技活动伦理风险,依规开展审查,并自觉接受有关方面的监督。涉及国家安全、国家秘密、商业秘密和敏感事项的,依法依规做好相关工作。
正如前文所述,科技伦理是一般化的人工智能伦理,本文针对企业所探讨的伦理合规体系建立也主要立足于当前国内关于科技伦理规制立法现状,基于《科技伦理审查办法(试行)》(以下简称“《办法》”)提出的相关要求,思考企业人工智能伦理合规体系的建立路径。
(二)企业人工智能伦理合规体系构建的具体内容
1.明确责任主体
(1)明确伦理合规义务的责任主体,是相关制度得以有效实施,并进行有效监督的必要先决条件。《办法》第四条明确,高等学校、科研机构、医疗卫生机构、企业等是本单位科技伦理审查管理的责任主体。
(2)组织设立科技伦理(审查)委员会。为了保证伦理审查活动开展的科学、独立、公正、透明,《办法》还要求“从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应当设立科技伦理(审查)委员会。其他有科技伦理审查需求的单位可根据实际情况设立科技伦理(审查)委员会。”具体到企业而言,首先应当识别自身是否属于涉及科技伦理敏感领域以及《办法》所强调的从事科技活动的特殊主体。对于特殊主体,则必须要建立科技伦理(审查)委员会,并配备必要的工作人员、提供办公场所和经费等条件,并采取有效措施保障科技伦理(审查)委员会独立开展伦理审查工作。非特殊主体,可以根据实际情况决定是否设立科技伦理(审查)委员会。但随着人工智能的普及应用,为明确权责划分,落实主体责任,笔者建议有科技伦理审查需求的企业都能够设立科技伦理(审查)委员会,或至少配备专人负责人工智能伦理合规管理工作。
科技伦理(审查)委员会的主要职责包括:
(一)制定完善科技伦理(审查)委员会的管理制度和工作规范;
(二)提供科技伦理咨询,指导科技人员对科技活动开展科技伦理风险评估;
(三)开展科技伦理审查,按要求跟踪监督相关科技活动全过程;
(四)对拟开展的科技活动是否属于本办法第二十五条确定的清单范围作出判断;
(五)组织开展对委员的科技伦理审查业务培训和科技人员的科技伦理知识培训;
(六)受理并协助调查相关科技活动中涉及科技伦理问题的投诉举报;
(七)按照《办法》第四十三、四十四、四十五条要求进行登记、报告,配合地方、相关行业主管部门开展涉及科技伦理审查的相关工作。
2.伦理风险评估
根据《办法》第九条的规定,“开展科技活动应进行科技伦理风险评估。科技伦理(审查)委员会按照本办法要求制定本单位科技伦理风险评估办法,指导科技人员开展科技伦理风险评估。”
(1)识别伦理风险。开展伦理风险评估的前提,首先要识别伦理风险。如前所述,人工智能系统的伦理风险主要来源于数据、算法、系统、人为因素等。另一方面,伦理风险贯穿于企业人工智能应用的全流程。因此可以从数据、算法、系统、人为因素四方面,以及设计开发、验证测试、部署运行、维护升级、退役下线五维度进行系统性风险识别,确定相关伦理风险属性。
(2)伦理风险分析方法。“人工智能伦理风险来自人工智能技术经过工程转化并进入具体场景形成人工智能技术应用后对人工智能伦理准则的冲击”,根据《人工智能伦理治理标准化指南(2023版)》提出的实操建议,人工智能伦理风险责任主体根据国家《新一代人工智能伦理规范》具体分为技术主体(对应研发活动)、应用主体(对应供应活动和使用活动),以及管理主体。结合《指南》第三章节对人工智能伦理准则的分析,可以形成人工智能伦理风险分类识别与分析矩阵,如图所示。同时,《指南》选取了自动驾驶、智能媒体、智能医疗、智能电商、智能教育和科学智能等6个典型场景,具体展开说明了对相关场景中人工智能技术应用的伦理风险进行分析的方法,为人工智能伦理风险发生的预判、规避和化解提供了切实可参考的路径。
▲(图片来源:《人工智能伦理治理标准化指南 (2023 版)》)
3.伦理合规审查机制及制度规范建立
根据《办法》的相关要求,人工智能伦理合规审查机制与制度规范的建立,是企业科技伦理合规体系的重要组成部分。具体而言,可以结合合规审查、监督管理、保密管理、档案管理等环节,从制度规范、工作规程、利益冲突规制等维度,构建企业人工智能伦理合规体系框架,并制定科技伦理应急审查制度,明确突发公共事件等紧急状态下的应急审查流程和标准操作规程,完善伦理合规审查机制。同时,对于涉及数据和算法的科技活动,《办法》明确要求,数据的收集、存储、加工、使用等处理活动以及研究开发数据新技术等应符合国家数据安全和个人信息保护等有关规定,数据安全风险监测及应急处理方案应当得当;算法、模型和系统的设计、实现、应用等应遵守公平、公正、透明、可靠、可控等原则,符合国家有关要求,伦理风险评估审核和应急处置案应当合理,用户权益保护措施需要全面得当。人工智能伦理合规管理制度的执行与落地,有赖于严格的合规审查程序以及密切地动态跟踪管理。
4.人工智能伦理合规审查程序
同时,《办法》明确了科技伦理审查的基本程序,确定了伦理审查内容和审查标准,明确了需要开展伦理审查复核的科技活动清单内容及调整更新机制。在此不展开赘述。
5.其他合规要求
(1)伦理合规业务培训及知识技能培训。人工智能伦理合规人才的培养以及企业普遍合规意识的建立,对于企业而言至关重要。《办法》也提出了科技伦理合规实践中,应当组织开展科技伦理审查业务培训和科技人员的科技伦理知识培训。
(2)伦理审查认证。《办法》明确,国家推动建立科技伦理(审查)委员会认证机制,鼓励相关单位开展科技伦理审查认证。相信对于科技伦理合规认证的相关政策与规范也将逐步跟进落地。而当下人工智能伦理合规审查机制与规范的建立,也是为企业未来进行伦理合规认证夯实基础。
(3)登记与报告。另外,《办法》第四十三条、四十四条、四十五条,要求单位应在设立科技伦理(审查)委员会后30日内,通过国家科技伦理管理信息登记平台进行登记。登记内容包括科技伦理(审查)委员会组成、章程、工作制度等,相关内容发生变化时应及时更新。单位应在纳入清单管理的科技活动获得伦理审查批准后30日内,通过国家科技伦理管理信息登记平台进行登记。登记内容包括科技活动实施方案、伦理审查与复核情况等,相关内容发生变化时应及时更新。单位应于每年3月31日前,向国家科技伦理管理信息登记平台提交上一年度科技伦理(审查)委员会工作报告、纳入清单管理的科技活动实施情况报告等。
(4)投诉举报机制。根据《办法》第四十六条,对科技活动中违反科技伦理规范、违背科技伦理要求的行为,任何单位或个人有权依法向科技活动承担单位或地方、相关行业主管部门投诉举报。而对于企业内部而言,同样应当畅通投诉与举报途径,建立企业内部人工智能伦理合规问题投诉举报机制。
03
结语
随着人工智能的不断发展,其体现出的伦理风险与挑战也日益复杂多变,面对责任强化、加强监管的大趋势,企业对于人工智能伦理问题的治理思路也需要转变为进行积极地合规管理,建立完备的、体系性的合规管理网络,形成事前预防、事中控制、事后补救的完整链条,并进行有效的动态跟踪,保障人工智能伦理审查的合规、透明、可追溯,充分发挥人工智能技术进步对增进人类福祉、实现社会可持续发展等的积极作用。
参考文献
[1]《人工智能伦理问题建议书》,联合国教科文组织,2022年。
[2]《人工智能伦理治理标准化指南(2023 版)》,国家人工智能标准化总体组、全国信标委人工智能分委会,2023年3月。
[3][美]罗纳德·K.L.柯林斯,[美]大卫·M.斯科弗:《机器人的话语权》,王黎黎,王琳琳译;彭诚信主编,上海人民出版社,2019年出版。
[4]《西方人工智能的数字伦理规制:困境与进路》,王沛楠编译:载青年记者,2022年7月上
[5]张俊彦:《智能时代人机关系的伦理困境及其对策研究》,北京邮电大学2022年硕士论文
[6]晓瑗:《人工智能继续升温 国家力量站上前台》,载《人民邮电报》2020年01月15日
[7]《人工智能大模型伦理规范操作指引》,同济大学上海市人工智能社会治理协同创新中心,2023年7月
[8]《大模型合规白皮书》,金杜律师事务所、上海人工智能研究院、华为技术有限公司、上海昇思AI框架&大模型创新中心,2023年11月
律师介绍
韩菲律师
北京市京师(深圳)律师事务所高级合伙人、新媒体法律事务部主任、数字经济法律事务中心副主任、业务指导委员会秘书长、深圳市律协数据合规法律专业委员会委员。著有《新媒体运营:法律的规制与保护》,法律出版社,2022年1月出版。
业务领域:
数据合规法律服务、新媒体法律服务、复杂民商事争议解决。