引言
随着人工智能深度学习能力的不断强化,人工智能技术大幅发展,ChatGPT、Bard等大模型的陆续推出,人工智能技术开始被广泛地应用于人们日常生活的方方面面。不过,正如过去诸多科幻类作品所展示的那样,现实中,人工智能的发展带来的科技伦理问题也逐步显现。例如,当人工智能使用的训练数据本身存在虚假、错误信息时,或人工智能被用于炮制虚假、错误信息时,人工智能将助推虚假、错误信息的传播。再如,尽管人工智能技术研发的初衷是使得人们得以从一些简单重复的工作中脱离出来进而从事更具有创造性的工作,人工智能自动生成的绘画、诗句、文章展现出的出乎人们意料的创造力,引发了社会对于人工智能取代人类的忧虑以及对就业市场的巨大冲击。在近期的好莱坞编剧罢工事件中,为了避免被AI取代,好莱坞编剧们提出了AI生成的文学材料不得被视为人类撰写的文学材料、禁止利用编剧的劳动成果来训练AI等一系列诉求。再如,人工智能系统可能包含强化或固化歧视或偏见的应用程序和结果,这将加剧社会中已有的歧视、偏见与成见。此外,人类为使用人工智能提供的服务,也将涉及向人工智能提供生理信息、行为偏好、兴趣偏好等个人隐私信息,如前述信息被不当收集和利用,人工智能将极有可能成为窥探个人隐私、侵扰个人生活的工具。
为了应对上述人工智能带来的伦理问题,联合国教育、科学及文化组织于2021年11月23日通过《人工智能伦理问题建议书》(Recommendation on the Ethics of Artificial Intelligence,“《建议书》”),提出了人工智能系统生命周期的所有行为者应尊重的价值观和原则以及落实前述价值观和原则的政策行动,建议会员国在自愿基础上适用《建议书》的各项规定,根据本国的宪法实践和治理结构并依照国际人权法在内的国际法采取适当步骤,包括进行必要的立法。目前,欧盟、美国和英国等国家和地区均已出台了一系列监管规则,与此同时,我国科学技术部会同教育部、工业和信息化部、国家卫生健康委等十部门联合印发的《科技伦理审查办法(试行)》正式明确了我国的科技伦理审查体系。
本文重点内容包括:
s 全球各地区的人工智能伦理治理体系的概述性介绍;
s 我国最新出台的《科技伦理审查办法(试行)》的要点解读;
s 结合我国的监管要求,对于大模型服务提供者的人工智能伦理治理责任的梳理;
s 大模型服务提供者提供应对人工智能加速突破和应用所带来的伦理风险与挑战的可行路径探索。
一、 国外AI伦理治理监管体系概述
目前欧盟、美国及英国均已出台了与人工智能相关的监管规则,科技伦理的治理是其中的重点。具体如下:
(一) 欧盟
《人工智能法案》(Artificial Intelligence Act)作为欧盟人工智能监管体系的核心,在经历了一系列修正之后,目前将进入欧盟委员会、议会和成员国三方谈判协商的程序从而确定最终版本。《人工智能法案》是欧盟首部有关人工智能的综合性立法,其以人工智能的概念作为体系原点,以人工智能的风险分级管理作为制度抓手,以人工智能产业链上的不同责任主体作为规范对象,以对人工智能的合格评估以及问责机制作为治理工具,从人工监管、隐私、透明度、安全、非歧视、环境友好等全方位监管人工智能的开发和使用,详细规定了人工智能市场中各参与者的义务。
在伦理治理方面,《人工智能法案》强调,人工智能应该是一种以人为本的技术,不应该取代人类的自主性,也不应该导致个人自由的丧失,而应该主要服务于社会需求和共同利益,因此应提供保障措施,以确保开发和使用尊重欧盟价值观和《欧洲联盟基本权利宪章》(Charter of Fundamental Rights of the European Union)的道德嵌入式人工智能。对于AI系统的风险分级标准,《人工智能法案》将伦理风险作为考量因素,将下述类型的AI系统归为“存在不可接受风险的AI系统”,在欧盟成员国内将完全禁止该等AI系统投入市场或者交付使用:
采用潜意识技术或有目的的操纵或欺骗技术;
利用个人或社会群体的弱点(例如已知的人格特征或社会经济状况、年龄、身体精神能力);
利用人的社会行为或人格特征进行社会评分;
在公众场所的“实时”(包括即时和短时延迟)远程生物识别系统。
此外,在评估AI系统是否属于“高风险AI系统”时,《人工智能法案》要求考量AI系统对《欧洲欧盟基本权利宪章》所保护的基本权利造成的不利影响的程度,该等基本权利包括:人的尊严、尊重私人和家庭生活、保护个人数据、言论和信息自由、集会和结社自由以及不受歧视的权利、受教育权、消费者保护、工人权利、残疾人权利、性别平等、知识产权、获得有效补救和公平审判的权利、辩护权和无罪推定、良好管理的权利。“高风险AI系统”投放市场及交付使用均受到严格的管控并需履行评估及备案等一系列要求。
(二) 美国
美国在联邦层面尚未通过一部完整且专门的针对AI系统的法案,而是试图通过调整政府机构的权利,在现有的立法框架及监管规则内对人工智能进行规制。在伦理治理方面,目前联邦层面的合规重点主要涉及反歧视、保护数据隐私等要求。例如:
1. 《2022年算法问责法案》(Algorithmic Accountability Act of 2022)
2022年2月,美国众议院颁布了《2022年算法问责法案》,要求使用自动化决策系统做出关键决策的企业研究并报告这些系统对消费者的影响,其内容包括是否会因为消费者的种族、性别、年龄等生成对消费者有偏见或歧视性的自动决策等。该法案形成了“评估报告—评估简报—公开信息”三层信息披露机制。此外,联邦贸易委员会还将建立可公开访问的信息存储库,公开发布关于自动化决策系统的有限信息。
2. 《人工智能权利法案蓝图》(Blueprint for an AI Bill of Right)
2022年10月,美国白宫科技政策办公室(OSTP)颁布了《人工智能权利法案蓝图》,提出了指导人工智能的设计、使用和部署的五项原则:技术的安全性和有效性、防止算法歧视、保护数据隐私、告知及解释义务以及人类参与决策,并在技术指南部分针对五项原则中的每一项均解释了原则的重要性、原则所指引的期望以及各级政府到各种规模的公司等多种组织为维护原则可以采取的具体的实施步骤、原则的实践案例。
3. 《美国数据隐私和保护法案》(the American Data Privacy and Protection Act,“ADPPA”)
2022年6月,美国参众两院共同发布了ADPPA,ADPPA规定,如人工智能所使用的数据集涵盖个人信息、数据与隐私,则构成“覆盖算法”;使用“覆盖算法”的大数据持有人,如果对个人或群体构成相应伤害风险,并单独或部分使用“覆盖算法”来收集、处理或传输覆盖数据,则应当根据ADPPA规定的评估标准进行隐私影响评估。另外,ADPPA还对隐私政策的告知与退出机制、反偏见等内容做出了规定。ADPPA规定,企业或代表企业的服务提供商需要告知个人有“选择退出”的权利,即拒绝企业对其个人数据的收集、处理或传输。
4. 《关于通过联邦政府进一步促进种族平等和支持服务不足社区的行政命令》(Executive Order on Further Advancing Racial Equity and Support for Underserved Communities Through the Federal Government)
2023年2月,拜登签署了《关于通过联邦政府进一步促进种族平等和支持服务不足社区的行政命令》,规定人工智能大模型应避免由于大量输入训练数据中存在的对种族、性别、年龄、文化和残疾等的偏见而导致训练结果输出内容中存在偏见。联邦政府在设计、开发、获取和使用人工智能和自动化系统时,各机构应在符合适用法律的前提下,防止、纠正歧视和促进公平,包括保护公众免受算法歧视。
(三) 英国
2021年5月,英国中央数字与数据办公室、人工智能办公室与内阁办公室联合发布了《自动决策系统的伦理、透明度与责任框架》(Ethics, Transparency and Accountability Framework for Automated Decision-Making,“ETAF”),对人工智能涉及的算法和自动化决策的伦理治理要求进行规定。ETAF强调,算法和自动化决策在上线之前应该进行严格的、受控的和分阶段的测试。在整个原型和测试过程中,需要人类的专业知识和监督来确保技术上的弹性和安全,以及准确和可靠的系统。测试时,需要考虑自动化决策系统的准确性、安全性、可靠性、公平性和可解释性。ETAF规定,企业必须对算法或自动决策系统做一个平等影响评估,使用高质量和多样化的数据集,发现和抵制所使用数据中明显的偏见和歧视。ETAF指出,算法或计算机系统应该被设计为完全可以负责和可被审计的,算法和自动化的责任和问责制度应该明确。
二、 我国与AI伦理治理相关的法律法规和行业规范概览
(一) 法律法规
在我国,2017年,国务院印发《新一代人工智能发展规划》并在该规划中提出了制定促进人工智能发展的法律法规和伦理规范的要求,之后《中华人民共和国科学技术进步法》、《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》、《网络安全标准实践指南—人工智能伦理安全风险防范指引》等一系列法律法规和相关规定相继对于AI伦理治理的要求予以规定。2022年中共中央办公厅、国务院办公厅发布了《关于加强科技伦理治理的意见》,该意见是我国首个国家层面的、专门针对科技伦理治理的指导性文件,提出了科技伦理治理原则以及基本要求。2023年10月新发布的《科技伦理审查办法(试行)》对于科技伦理审查的基本程序、标准、条件等提出统一要求,标志着我国AI伦理治理监管体系建设进入了新阶段。我们在下表中梳理了我国与AI伦理治理相关的法律法规及其主要内容:
| 序号 |
名称 |
位阶 |
生效日期 |
AI伦理治理相关要求 |
| 1. |
《中华人民共和国科学技术进步法》
|
法律 |
2022.01.01 |
要求科学技术研究开发机构、高等学校、企业事业单位等应当履行科技伦理管理主体责任,按照国家有关规定建立健全科技伦理审查机制,对科学技术活动开展科技伦理审查,禁止危害国家安全、损害社会公共利益、危害人体健康、违背科研诚信和科技伦理的科学技术研究开发和应用活动,否则相关单位、直接负责的主管人员和其他直接责任人员将受到行政处罚。
|
| 2. |
《新一代人工智能发展规划》
|
行政法规 |
2023.08.15 |
提出人工智能伦理规范和政策法规建设的战略目标,以及制定促进人工智能发展的法律法规和伦理规范的要求。
|
| 3. |
《互联网信息服务算法推荐管理规定》
|
部门规章 |
2022.03.01 |
算法推荐服务提供者应当落实算法安全主体责任,建立健全算法机制机理审核、科技伦理审查、用户注册、信息发布审核、数据安全和个人信息保护、反电信网络诈骗、安全评估监测、安全事件应急处置等管理制度和技术措施,制定并公开算法推荐服务相关规则,配备与算法推荐服务规模相适应的专业人员和技术支撑;此外,还应当定期审核、评估、验证算法机制机理、模型、数据和应用结果等,不得设置诱导用户沉迷、过度消费等违反法律法规或者违背伦理道德的算法模型。
|
| 4. |
《互联网信息服务深度合成管理规定》
|
部门规章 |
2023.01.10 |
深度合成服务提供者应当落实信息安全主体责任,建立健全用户注册、算法机制机理审核、科技伦理审查、信息发布审核、数据安全、个人信息保护、反电信网络诈骗、应急处置等管理制度,具有安全可控的技术保障措施。
|
| 5. |
《生成式人工智能服务管理暂行办法》
|
部门规章 |
2023.08.15 |
提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德,遵守以下规定: (一)坚持社会主义核心价值观,不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、损害国家形象,煽动分裂国家、破坏国家统一和社会稳定,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情,以及虚假有害信息等法律、行政法规禁止的内容; (二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视; (三)尊重知识产权、商业道德,保守商业秘密,不得利用算法、数据、平台等优势,实施垄断和不正当竞争行为; (四)尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益; (五)基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。
|
| 6. |
《科技伦理审查办法(试行)》
|
部门规章 |
2023.12.01 |
详见下文 |
| 7. |
《网络安全标准实践指南—人工智能伦理安全风险防范指引》
|
其他规范性文件 |
2021.01.05 |
将AI伦理安全风险总结为以下五大方面:(1)失控性风险,如AI的行为与影响超出服务提供者预设、理解和可控的范围,对社会价值等产生负面影响;(2)社会性风险:不合理使用AI而对社会价值等方面产生负面影响;(3)侵权性风险:AI对人的基本权利,包括人身、隐私、侵权性风险财产等造成侵害或产生负面影响;(4)歧视性风险:AI对人类特定群体具有主观或客观偏见,影响公平公正、造成权利侵害或负面影响;(5)责任性风险:AI相关各方行为失当、责任界定不清,对社会信任、社会价值等方面产生负面影响。
|
| 8. |
《关于加强科技伦理治理的意见》
|
其他规范性文件 |
2022.03.20 |
提出“科技伦理是开展科学研究、技术开发等科技活动需要遵循的价值理念和行为规范,是促进科技事业健康发展的重要保障”,并明确了以下五大类科技伦理原则:增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险和保持公开透明。
|
(二) 行业规范
除前序法律法规和相关规定以外,在《新一代人工智能发展规划》等政策指引下,各机构、行业也积极响应,陆续发布了一系列AI伦理治理相关的行业规范,包括国家新一代人工智能治理专业委员会制定的《新一代人工智能治理原则——发展负责任的人工智能》、《新一代人工智能伦理规范》、国家人工智能标准化总体组等制定的《人工智能伦理治理标准化指南》、同济大学上海市人工智能社会治理协同创新中心研究团队编制的《人工智能大模型伦理规范操作指引》、中国社会科学院国庆调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》课题组编制的《人工智能法示范法1.0(专家建议稿)》,提供了相关行业的AI伦理治理建议。下表梳理了我国与AI伦理治理相关的行业规范及其主要内容:
| 序号 |
行业规范 |
编制机构 |
发布时间 |
主要内容 |
| 1. |
《新一代人工智能治理原则——发展负责任的人工智能》 |
国家新一代人工智能治理专业委员会 |
2019.06 |
提出了人工智能治理的框架和行动指南,治理原则旨在更好协调人工智能发展与治理的关系,确保人工智能安全可控可靠,推动经济、社会及生态可持续发展,共建人类命运共同体。治理原则突出了发展负责任的人工智能这一主题,强调了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八条原则。
|
| 2. |
《新一代人工智能伦理规范》 |
国家新一代人工智能治理专业委员会 |
2021.09 |
旨在将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题。《新一代人工智能伦理规范》的适用主体为从事人工智能管理、研发、供应、使用等相关活动的自然人、法人和其他相关机构。在此基础上,《新一代人工智能伦理规范》明确了人工智能的基本伦理规范,包括增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养。同时,《新一代人工智能伦理规范》提出了一系列人工智能应用管理规范、研发规范、供应规范和使用规范。
|
| 3. |
《人工智能伦理治理标准化指南》 |
国家人工智能标准化总体组 |
2023.03 |
共分为六章,以人工智能伦理治理标准体系的建立和具体标准研制为目标,重点围绕人工智能伦理概念和范畴、人工智能伦理准则、人工智能伦理风险分析、人工智能伦理治理的技术解决方案、人工智能伦理治理标准体系建设以及展望与建议等六个方面展开研究。
|
| 4. |
《人工智能大模型伦理规范操作指引》 |
同济大学等 |
2023.07 |
主要包括AI大模型全生命周期的技术与伦理要素、大模型的研发与应用的伦理原则、大模型技术研发的伦理实践指南三部分内容,提出了尊重人的自主权、保护个人隐私、保障公平公正、提高透明度和可解释性、负责任的创新等5项大模型伦理原则,以及公平性、透明性、隐私、安全性、责任、人类的监督与控制、可持续性等7项大模型伦理实践操作建议。
|
三、 《科技伦理审查办法(试行)》要点
(一) 适用范围
2023年10月8日,科学技术部、教育部、工业和信息化部等多部门联合发布《科技伦理审查办法(试行)》(“《科技伦理审查办法》”),该办法将于2023年12月1日起正式实施。该办法对于涉及以人为研究参与者的科技活动,包括利用人类生物样本、个人信息数据等的科技活动,或不直接涉及人或实验动物,但可能在生命健康、生态环境、公共秩序、可持续发展等方面带来伦理风险挑战的科技活动进行的科技伦理审查和监管做出了明确的规定,由此可见,该办法的适用范围几乎涵盖所有科技活动,包括人工智能相关的科技活动。
(二) 审查主体
在审查主体方面,《科技伦理审查办法》明确要求从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。其他有伦理审查需求的单位可根据实际情况设立科技伦理(审查)委员会。单位应在设立科技伦理(审查)委员会后30日内,通过国家科技伦理管理信息登记平台进行登记,登记内容包括科技伦理(审查)委员会组成、章程、工作制度等,相关内容发生变化时应及时更新,并在每年3月31日前,向国家科技伦理管理信息登记平台提交上一年度科技伦理(审查)委员会工作报告。科技伦理(审查)委员会的主要职责包括:
制定完善科技伦理(审查)委员会的管理制度和工作规范;
提供科技伦理咨询,指导科技人员对科技活动开展科技伦理风险评估;
开展科技伦理审查,按要求跟踪监督相关科技活动全过程;
对拟开展的科技活动是否属于《需要开展伦理审查复核的科技活动清单》范围作出判断;
组织开展对委员的科技伦理审查业务培训和科技人员的科技伦理知识培训;
受理并协助调查相关科技活动中涉及科技伦理问题的投诉举报;
按照主管部门要求进行登记、报告,配合地方、相关行业主管部门开展涉及科技伦理审查的相关工作。
在科技伦理(审查)委员会的人员组成方面,科技伦理(审查)委员会人数应不少于7人,设主任委员1人,副主任委员若干;委员任期不超过5年,可以连任。委员会成员应由具备相关科学技术背景的同行专家以及伦理、法律等相应专业背景的专家组成,并应当有不同性别和非本单位的委员,民族自治地方应有熟悉当地情况的委员。由此可见,科技伦理(审查)委员会的设立具备一定门槛,根据《科技伦理审查办法》,如单位或个人涉及开展需进行科技伦理审查的科技活动,但单位未设立科技伦理(审查)委员会或个人无单位的,应书面委托其他单位的科技伦理(审查)委员会开展伦理审查工作。
(三) 审查程序
根据《科技伦理审查办法》,科技伦理(审查)委员会开展科技伦理审查的流程如下:
科技伦理审查流程图示
根据《科技伦理审查办法》,针对纳入科技部发布的《需要开展伦理审查复核的科技活动清单》的科技活动,通过科技伦理(审查)委员会的科技审查后,除非国家实行行政审批等监管措施且将符合伦理要求作为审批条件、监管内容的,还需由科技活动承担单位(即开展科技活动的单位)报请所在地方或相关行业主管部门组织成立复核专家组 [1] 开展专家复核,并由负责该等科技活动的科技审查的科技伦理(审查)委员会根据专家复核意见作出科技伦理审查决定;前序科技伦理(审查)委员会应在纳入清单管理的科技活动获得伦理审查批准后30日内,通过国家科技伦理管理信息登记平台进行登记,登记内容包括科技活动实施方案、伦理审查与复核情况等,相关内容发生变化时应及时更新,并在每年3月31日前向国家科技伦理管理信息登记平台提交上一年度纳入清单管理的科技活动实施情况报告。根据科技部于2023年10月8日附随《科技伦理审查办法》发布的《需要开展伦理审查复核的科技活动清单》,“具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发”、“面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发”均属于需要开展伦理审查复核的科技活动。因此,人工智能相关科技活动除通过科技伦理(审查)委员会的科技审查以外,极有可能还需在复核专家组进行伦理审查复核。
(四) 审查内容
根据《科技伦理审查办法》,针对所有需要依法进行科技伦理审查的科技活动,科技伦理审查的具体内容包括:
拟开展的科技活动应符合增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明的科技伦理原则,参与科技活动的科技人员资质、研究基础及设施条件等符合相关要求;
拟开展的科技活动具有科学价值和社会价值,其研究目标的实现对增进人类福祉、实现社会可持续发展等具有积极作用。科技活动的风险受益合理,伦理风险控制方案及应急预案科学恰当、具有可操作性;
所制定的利益冲突申明和管理方案合理。
针对利用人类生物样本、个人信息数据等的科技活动在内的涉及以人作为研究参与者的科技活动,还需审查下述内容:
所制定的招募方案公平合理,生物样本的收集、储存、使用及处置合法合规,个人隐私数据、生物特征信息等信息处理符合个人信息保护的有关规定,对研究参与者的补偿、损伤治疗或赔偿等合法权益的保障方案合理,对脆弱人群给予特殊保护;
所提供的知情同意书内容完整、风险告知客观充分、表述清晰易懂,获取个人知情同意的方式和过程合规恰当。
针对涉及数据和算法的科技活动,还需审查下述内容:
数据的收集、存储、加工、使用等处理活动以及研究开发数据新技术等符合国家数据安全和个人信息保护等有关规定,数据安全风险监测及应急处理方案得当;
算法、模型和系统的设计、实现、应用等遵守公平、公正、透明、可靠、可控等原则,符合国家有关要求,伦理风险评估审核和应急处置方案合理,用户权益保护措施全面得当。
四、 国内大模型服务提供者的AI伦理治理责任
如我们在《大模型合规之现实初探》一文中所述,向境内公众提供大模型服务的大模型服务提供者,包括平台运营方和技术支持方,均属于生成式人工智能服务提供者,从而均应当承担相应的AI伦理治理责任,具体而言:
在程序层面,在《科技伦理审查办法》正式生效以后,如大模型服务提供者涉及开展《科技伦理审查办法》适用范围内的科技活动,需自行设立科技伦理(审查)委员会或委托其他单位的科技伦理(审查)委员会对于所涉科技活动进行科技伦理审查,如涉及“具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发”、“面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发”,还需报请所在地方或相关行业主管部门组织开展专家复核,亦即,科技伦理审查将成为算法备案以及安全评估以外大模型服务上线前的另一前置程序。
在实体层面,目前尚未出台法律法规对于不同类型的大模型服务提供者的AI伦理治理细则予以规定,尽管如此,一方面,如前文所述,目前《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》均要求大模型服务提供者履行伦理治理方面的合规义务;另一方面,与AI伦理治理相关的国家标准、团体标准以及行业标准均在制定过程中,其发布和施行指日可待。因此,大模型服务提供者可以参照前述《新一代人工智能伦理规范》等行业标准,按照技术主体(即从事人工智能相关的科学研究、技术开发、产品研制等研发活动的主体)、应用主体(即从事人工智能产品与服务相关的生产、运营、销售等人工供应活动和使用活动)进行自我定位,明确自身的AI伦理治理责任。
结语
人工智能技术的大幅进步提高了生产效率,为人类进行创造性智力活动提供了更加便捷的环境,同时,人工智能也对人类社会的伦理道德造成了挑战。《科技伦理审查办法》的颁布,标志着我国对人工智能技术的监管将逐步走向规范化,我们将持续在AI伦理审查和治理等诸多方面助力人工智能领域的企业向以人为本的人工智能时代迈进。
[1] 《科技伦理审查办法》第二十八条规定,地方或相关行业主管部门组织成立复核专家组,由科技活动相关领域具有较高学术水平的同行专家以及伦理学、法学等方面的专家组成,不少于5人。科技伦理(审查)委员会委员不得参与本委员会审查科技活动的复核工作。复核专家应主动申明是否与复核事项存在直接利益关系,严格遵守保密规定和回避要求。





沪公网安备 31010402007129号