“三期交叠”是我国推进科技伦理治理体系和治理能力建设的大背景,人工智能伦理治理同样是在这一大背景下展开。首先,当前处于人工智能技术快速发展期,人工智能技术发展的不确定性给人工智能伦理治理带来了不确定性。人工智能技术正处于快速发展过程当中,技术发展仍具有很大不确定性,这给伦理治理的议题设定和工具设计带来了很大挑战。中短期看,人工智能技术不确定性至少有两个来源:一是人工智能模型在鲁棒性、可解释性方面存在的不足——近两年取得突破的大模型技术同样存在这些问题。二是人工智能技术发展方向和速度的不确定性。不同技术方向下,对数据、算力和能源等的需求以及应用领域和方式都会存在很大差异,相应伦理问题和治理方式也会有所不同。比如,大模型技术路线对算力和训练数据的巨量需求,使得它碰到了环境、个人信息保护方面的伦理问题,而在其他路线下,这些问题可能不一定特别突出。
其次,当前处于经济高质量发展关键转型期,经济社会发展的多目标属性对人工智能伦理治理提出更高的“平衡”要求。作为一种通用型、赋能型技术,人工智能正在快速渗透到各个产业、工作和生活场景,产生了越来越深刻的影响,涉及多重经济社会发展目标之间的调整和平衡以及背后深刻的伦理问题。人工智能伦理治理扮演的是“方向盘”和“刹车”的角色,目标是要为人工智能技术发展和应用提供伦理规范和安全护栏,而不是要阻碍人工智能发展。但在实践中,伦理治理确实存在不利于人工智能研究和应用的风险。中央全面深化改革委员会第二十三次会议在审议《意见》时特别强调,“要避免把科技伦理问题泛化,努力实现科技创新高质量发展与高水平安全的良性互动”。国外的实践同样面临这方面的挑战,比如围绕欧盟2024年3月通过《人工智能法》的争论,核心关注就是会不会给人工智能技术的发展和合理应用造成意想不到的负面影响。总之,实现更充分、更平衡的发展,要求人工智能伦理治理不能限于一域,要综合考虑各方面的影响,要善于处理不同目标和逻辑之间的平衡。
最后,当前处于国际秩序深度调整期,大国博弈给人工智能伦理治理加入了新变量。虽然加强人工智能伦理治理全球合作是国际社会共识,但各国为掌握更大话语权而激烈竞争,以及全球人工智能治理仍处于“碎片化”状态也是客观事实。在全球技术-地缘政治加速重构,科技、贸易等领域国际规则深刻调整的大背景下,各国对“主权人工智能”的追求将使得人工智能伦理治理问题与全球技术、贸易、媒体等领域监管规则复杂地交织在一起。我国人工智能治理的理念、规则和能力建设都必须充分考虑国际秩序深度调整和大国博弈这一关键变量。2023年,中央网信办发布《全球人工智能治理倡议》,提出发展人工智能的11条原则,比如“应坚持‘以人为本’理念,以增进人类共同福祉为目标,以保障社会安全、尊重人类权益为前提,确保人工智能始终朝着有利于人类文明进步的方向发展”,对于加强全球人工智能伦理治理合作有很强的针对性。
在人工智能伦理治理活动中,上述三重因素处于相互交织、动态演化的状态,给我国人工智能伦理治理实践带来以下三方面的具体挑战:一是影响识别难题。影响的识别和评估是人工智能伦理治理的前提,但我国在这方面面临很大挑战,比如经济和社会系统高度复杂,很难准确评估人工智能技术应用的影响;影响的广度和深度取决于人工智能技术自身的发展和应用状况,而技术发展本身又有很大不确定性;影响具有很大的社会建构性,这给人工智能的影响评估方法以及各种类型影响的比较和权衡增加了很大的不确定性,对于与价值观念、风险感知、社会偏好高度相关的伦理议题更是如此。
二是人工智能伦理治理“无人区”难题。当前,新一代人工智能对全世界来说都是一个新事物,在人工智能伦理治理方面没有现成经验,在很多应用场景中,我国实际上已经扮演先行先试角色,与之相关的伦理问题及治理活动也进入了“无人区”。在这种情况下,基于中国情境的人工智能伦理问题识别、评估和治理的知识生产变得非常重要。需要指出的是,如同其他新兴技术治理一样,人工智能伦理问题识别和治理所需的知识既包括技术知识更包括大量社会性知识。但从目前情况来看,我国人工智能伦理治理所需知识的生产迫切需要解决几个突出问题,比如人工智能技术开发者和技术使用者之间的信息不对称、人工智能技术开发者和使用者与监管部门之间的信息不对称,以及专家和公众之间的信息不对称。
三是伦理治理体系的有效性难题。近年来,我国在人工智能伦理治理领域已经开展了富有成效的探索,人工智能伦理治理领域的“硬法”和“软法”逐渐增多,形成了各式各样的治理机制和工具。但随之而来的一个问题,是把各种机制和工具之间的关系理顺,找到合适的平衡点。当一般性问题,在不同的“硬法”和“软法”中采取了不同的平衡点时,它们的伦理意涵是不一样的——这也是人工智能治理必须进行伦理反思的重要理由。
新时代,加强我国人工智能伦理治理体系和治理能力建设,一方面要全面认识人工智能伦理问题的内涵以及影响伦理治理实践的关键因素,确保治理体系和治理能力建设符合规律要求、符合实际情况;另一方面要突出问题导向,抓住治理体系和治理能力建设中的关键点、改革工作的突破点,着力提升工作的针对性和可操作性。具体而言,可从以下六个方面发力:
一是健全人工智能伦理治理法律法规体系。一方面,以法律法规的形式明确人工智能伦理问题的边界、不同主体在人工智能研发和应用过程中的权责划分,并根据实际情况,适时对其进行动态调整;另一方面,为人工智能伦理治理实践提供法律法规依据和约束,确保伦理治理实践符合法律规定和伦理规范。
二是健全人工智能伦理审查机制。加快健全人工智能伦理审查机构体系和伦理审查规范体系;通过业务培训等多种方式,加强伦理审查专业人才队伍建设;通过规范审查机构人员构成和审查流程等关键环节,加强伦理审查机构的能力建设,提高伦理审查质量;优化人工智能伦理风险分级分类标准,并建立与之相匹配的伦理审查和监管工作机制;进一步增加伦理审查工作的透明度,更好发挥伦理审查的导向作用。
三是建立人工智能伦理问题多元监督机制。进一步优化政府监管、行业自律、公众监督等多种监督方式的分工协作机制,增强监督工作的及时性和有效性、提高监督效率;支持人工智能企业和研发机构联合制定、共同遵守行业伦理准则,发挥自我约束机制的作用。
四是加强人工智能伦理教育。支持从事人工智能技术研发的机构及其他相关机构面向人工智能产品和服务研发人员开展人工智能伦理培训,鼓励人工智能产品和服务提供机构与用户就特定应用场景中的伦理规范加强沟通;加强人工智能伦理知识的普及教育,提高公众对人工智能伦理问题的关注度和理解力,增强公众有序参与人工智能伦理治理的能力。
五是加强人工智能伦理问题及治理效果研究。前瞻性地开展人工智能社会实验,支持政府和来自学术界、产业界的各类主体在人工智能经济社会影响识别、政策干预效果评估等方面共同开展系统性的研究;支持在各个应用场景中开展差异化的伦理治理机制探索和工具创新,增强伦理治理体系的敏捷性和韧性。
六是积极参与全球人工智能伦理治理。推动以联合国为中心的全球人工智能伦理治理对话与合作;围绕人工智能伦理治理问题,积极开展双多边交流合作,共享最佳实践、共同支持相关研究、共同制定治理规则,与各国携手推动全球人工智能伦理治理体系和治理能力建设。
(根据宣讲家网报告整理编辑,
未经许可,不得印刷、出版,转载请注明出处,违者追究法律责任。)
已有0人发表了评论