首页> 报告> 文稿> 经济> 正文

卢阳旭:加强科技伦理治理 推进科技强国建设(4)

四、我国加强人工智能伦理治理体系和治理能力建设的实践

人工智能是新一轮科技革命和产业变革的重要驱动力量。近年来,随着人工智能技术的快速发展,与医疗、教育、文娱、制造和交通等场景加速融合,对社会生产力和生产关系都产生了广泛而深刻的影响。但是,人工智能的快速发展和广泛应用,也引发了一系列的伦理问题。围绕人工智能系统研发和应用所产生的伦理问题的治理已成为当前全球科技伦理治理的热点议题。

党的十八大以来,党中央把发展人工智能提升到战略高度,强调加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题,人工智能的发展将为我国构建现代化经济体系、实现高质量发展提供重要支撑。党中央、国务院也高度重视人工智能伦理治理问题。2017年7月,国务院发布《新一代人工智能发展规划》,要求必须高度重视人工智能可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险。2018年10月,习近平总书记在主持十九届中央政治局第九次集体学习时强调,要“加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德”。

什么是人工智能伦理?虽然在不同文化背景下,人们对不同伦理原则的排序以及对特定伦理原则的具体理解仍然存在差异,但从各国和国际组织发布的人工智能伦理原则来看,全球人工智能伦理原则呈现明显的趋同趋势。关于人工智能伦理的研究也出现了类似的变化,研究者关注的问题正逐渐从必要性讨论、伦理准则讨论向实施机制讨论延伸,致力于缩小“是什么”和“怎么做”之间的鸿沟。

在这个过程中,人们对于人工智能伦理问题的界定有了更为丰富的层次,至少包括以下三个层面:一是人工智能系统开发过程中的伦理问题。人工智能系统由算法、数据和算力三个核心要素构成,在讨论人工智能伦理时,首先要考虑的三个问题是,算法本身是否符合伦理规范,数据采集、存储、传输和利用是否符合伦理规范,以及算力建设和使用过程是否符合伦理规范。具体而言,在讨论算法的伦理合规性时,人们普遍关注算法是否存在歧视和偏见,是否会造成技术红利和风险的不公正分配等;在讨论数据的伦理合规性时,人们普遍关注数据采集、存储、传输和利用是否符合个人信息保护等伦理规范等;在讨论算力的伦理合规性时,人们普遍关注算力建设和使用过程中的环境伦理问题(比如能源消耗)等。二是人工智能产品和服务使用场景中的伦理问题。近年来,人们越来越关注医疗、教育、自动驾驶、新闻和社交媒体、市场营销等重点领域人工智能技术应用的伦理问题,比如人工智能技术引发了医疗安全、医疗责权归属、患者自主权以及诊疗过程中的歧视等一系列伦理争议。三是人工智能治理中的伦理问题,主要包括:一方面,如何让人工智能治理实践符合伦理规范,比如以各种方式开展的人工智能社会实验、人工智能沙盒监管试点等都会涉及伦理问题;另一方面,人工智能治理如何与促进人工智能技术发展和应用目标保持适当张力。

总之,在当前的人工智能伦理研究和政策实践中,需要人工智能技术研发、应用和监管主体应充分关注伦理议题的丰富性和复杂性,既要对人工智能领域的科技创新活动和技术应用活动进行伦理规范,也需要对人工智能治理活动本身持续进行伦理反思,充分考虑价值理性和工具理性、目的和工具之间的关系及伦理意涵。

什么是人工智能伦理治理?从治理角度看,人工智能伦理治理概念与其他新兴技术的伦理治理概念没有实质性差别,要素上都包括治理主体、治理规则、治理对象、治理工具等要素,主要任务上都要处理好风险和收益的平衡、治理机制和治理工具箱的开发与迭代等基本问题。但需要注意的是,每项新兴技术的伦理治理既有共性,也至少存在三个方面的异质性:一是技术的异质性,在技术特点和应用场景方面,人工智能技术与基因编辑技术和纳米技术等新兴技术存在很大差异;二是影响生成和传导机制的异质性,比如人工智能技术伦理风险生成机制与基因编辑技术的伦理风险生成机制存在很大差别;三是治理活动的发生情境的异质性,新兴技术的伦理治理活动都是发生在特定的社会文化和制度情境当中,而这会直接影响人们对技术发展和应用的风险与收益的判断、特定治理工具的有效性等。因此,当人们讨论人工智能伦理治理时,需要同时关注人工智能技术的特点、应用场景、影响的类型及生成机制,以及治理活动展开和治理工具使用的社会情境。

在厘清上述两个概念后,我们再来看近年来我国在推进人工智能伦理治理方面的实践和进展,大致可从法律法规体系构建、组织机构和工作机制建设、治理工具开发和国际交流合作等四个方面来梳理:一是成立国家科技伦理委员会及人工智能伦理分委员会。2019年7月,中央全面深化改革委员会第九次会议审议通过了《国家科技伦理委员会组建方案》;2019年10月,中共中央办公厅、国务院办公厅印发通知,成立国家科技伦理委员会,随后建立了国家科技伦理委员会人工智能伦理分委员会。

二是推动人工智能伦理治理相关法律法规体系建设。近年来,我国一方面构建起了以《网络安全法》《数据安全法》和《个人信息保护法》等为主架构的法律体系,为人工智能伦理治理提供了重要的法律依据;另一方面以分散式立法的方式,加强了对个人数据、电子商务、智能金融、自动驾驶等与人工智能发展紧密相关领域的修法和立法工作。一些行业监管部门也陆续出台了一系列部门规章,以适应本领域人工智能应用监管需要,比如2023年11月,中国人民银行正式印发《人工智能算法金融应用信息披露指南》,提出了人工智能算法在金融领域应用过程中的信息披露原则、信息披露形式和信息披露内容等要素;2024年5月,国务院办公厅发布《国务院2024年度立法工作计划》显示,人工智能法草案被列为“预备提请全国人大常委会审议”。

三是持续探索人工智能伦理治理新工具和新方法。人工智能伦理规范的明确化和相关技术的发展,促进了确保人工智能系统的行为与人类价值观保持一致的各种技术和方法的发展。在技术层面,快速发展的人工智能对齐技术、红队测试、安全评测等为提高人工智能系统的鲁棒性、可解释性、可控性和合伦理性提供了机会,越来越多的机构开始把这类技术嵌入到人工智能研发和应用全生命周期当中。在治理机制层面,科技部、市场监管总局、工业和信息化部等多部门开展了诸如人工智能社会实验、沙盒监管等新的监管机制探索。2019年,科技部发布《国家新一代人工智能创新发展试验区建设工作指引》,明确将开展人工智能社会实验作为四项重点任务之一。2022年,市场监管总局、工业和信息化部、交通运输部、应急部、海关总署五部门联合发布《关于试行汽车安全沙盒监管制度的通告》,共同启动汽车安全沙盒监管试点工作。

四是积极参与全球人工智能伦理治理交流合作。近年来,我国广泛参与全球人工智能伦理治理合作,比如积极参与并签署联合国教科文组织2021年发布的《人工智能伦理问题建议书》,2023年11月受邀出席首届全球人工智能安全峰会并签署《布莱切利宣言》。2023年10月,我国发布《全球人工智能治理倡议》,提出坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,形成人工智能伦理指南,建立科技伦理审查和监管制度。2023年11月,中美两国元首同意建立人工智能政府间对话,并于2024年5月在瑞士举行了首次会议。2024年5月,中国和法国签署《中法关于人工智能和全球治理的联合声明》。2024年7月,联合国大会通过了中国主提的《加强人工智能能力建设国际合作决议》,特别强调人工智能系统应安全、可靠和值得信赖,其生命周期包括前期设计、设计、开发、评价、测试、部署、使用、销售、采购、运行和淘汰等阶段,这些系统必须以人为本、可靠、可解释、符合道德、具有包容性,遵循人工智能造福所有人的原则,符合以人为本、具有包容性、面向发展的信息社会的愿景。

责任编辑:王瑱校对:张一博最后修改:
0

精选专题

领航新时代

精选文章

精选视频

精选图片

微信公众平台:搜索“宣讲家”或扫描下面的二维码:
宣讲家微信公众平台
您也可以通过点击图标来访问官方微博或下载手机客户端:
微博
微博
客户端
客户端
事业单位事业单位标识证书 京公网安备京公网安备 11010102001556号