AIGC:以高效治理推动健康发展

AIGC:以高效治理推动健康发展

[中图分类号] TP18 [文献标识码] A [文章编号] 0529-1445(2023)06-0049-03

ChatGPT向世人展现了人工智能技术在文本处理领域的极致效率和巨大潜力,使得AIGC(Artificial Intelligence Generated Content,即人工智能生成内容)这一赛道受到各国广泛关注,头部公司蜂拥进入,训练并推出自己的AIGC应用。AIGC在本质上是一种生产方式的变革,推动内容生产方式从“作坊式”走向“流水线”。今后,熟练掌握各个AIGC产品使用方式的人,就像一个指挥官,通过发送指令的方式指挥AI产出不同的内容。

当前,从图像、语音、文本、视频、设计、音乐、代码、数字人、游戏等多个方向看,AIGC技术已经在各个领域得到广泛应用和发展。未来两三年,AIGC的初创公司和商业落地案例将持续增加。目前由人工智能生成的内容占所有内容的比例不到1%,根据Gartner预测,到2025年,这一比例将达到10%。鉴于AIGC爆发出来的巨大生产力,人工智能生成的内容占所有内容的比例将会呈现指数型增长。

AIGC技术应用潜藏多种风险

AIGC技术在通过大数据学习赋能各领域发展的同时,其自带的风险及被恶意使用的后果也可以带来毁灭性的影响。AIGC技术系以大数据学习作为基础并通过相应算法不断优化而成,因此其自身风险首先体现在数据和算法的使用上。

数据安全问题首当其冲。目前,ChatGPT并未公开其训练数据的来源和具体细节,而其他公司也将预训练时所使用的数据作为商业机密未向社会公开,不禁让人质疑其所使用的训练数据是否为合法方式获取,是否获得相关权利人的授权。同时,用户在使用ChatGPT过程中,会被收集个人信息或其他资料,因此,存在泄露个人信息、商业秘密或国家秘密的风险。前不久,韩国某公司就爆出三起因员工使用ChatGPT,导致该公司的半导体设备测量数据、产品良率等内容传输到ChatGPT训练数据库的事件。

算法歧视和偏见需要重视。已有实例表明,ChatGPT存在一定的歧视性因素。美国加州大学计算机认知科学家对ChatGPT进行测试,发现输出结果存在种族偏见和性别偏见问题。比如,ChatGPT在对话中表示,只有白人男性才会成为科学家。此外,研究表明ChatGPT具有政治倾向和立场,这可能会对普通人的思维模式和认知产生影响,引发不同阶层的对立和日常矛盾的激化。

自然人人身权利易受侵害。随着AIGC技术在绘画、声音等与人身权利密切相关的领域大放异彩,许多人便动起了歪心思。在北京互联网法院审理的“AI陪伴”案件中,用户可以通过涉案软件,使用原告的姓名、肖像创设虚拟人物,同时还可以与该AI角色设定身份关系,设定任意相互称谓,通过制作素材“调教”角色,从而获得与原告近乎真实的互动体验。法院经审理认定,被告未经同意使用原告的姓名、肖像,设定涉及原告人格自由和人格尊严的系统功能,构成对原告姓名权、肖像权、一般人格权的侵害。

学术规范风险凸显。自2022年底发布以来,ChatGPT被许多学生用于完成作业或撰写论文,对学术研究工作造成了重大冲击。利用ChatGPT完成学习任务可以很好地避开论文查重等问题,且质量效率远超此前许多商家开发的解题软件,对学生极具诱惑力。考虑到在教育科研领域可能引发的问题,许多学校、组织陆续发出声明,禁止或严格限制学生使用ChatGPT进行论文写作。

对社会运行的冲击不容忽视。随着AIGC技术被不断深挖,并与教育、医疗、绘画等领域相融合,可以预见在不久的将来,各行各业都将接入AI大模型。这势必导致行业内原本从事较为简单和重复性工作的劳动岗位被取代,同时也会加剧不同层次人员之间的信息差。

堵与疏的抉择

对于ChatGPT技术的发展,不同国家采取了不一样的监管措施。2023年3月31日起,意大利禁止使用ChatGPT,德国、加拿大等国也表示出于数据保护方面的考虑,将禁止使用ChatGPT或对人工智能采取更加严格的监管。

早在2021年,欧盟为积极应对人工智能的高速发展,提出《欧洲议会和理事会关于制定人工智能统一规则》,这是世界范围内最为系统的人工智能立法探索,该法案已经经历多轮讨论和修改。其最新草案提出,应该严格禁止“对人类安全造成不可接受风险的人工智能系统”,包括有目的地操纵技术,利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等。该草案还要求人工智能公司对其算法保持人为控制,提供技术文件,并为高风险应用建立风险管理系统。

美国于2022年秋季公布《人工智能权利法案蓝图》,确定五个原则,涉及系统的安全有效性、算法歧视的保护、数据隐私问题、通知和解释问题以及人工替代方案、考虑和退路等方面,意在指导规范人工智能系统的设计、使用和部署。2023年1月,美国发布《人工智能风险管理框架》,将可信度考量纳入设计、开发、使用和评估AI产品、服务和系统中,并基于其他机构的AI风险管理工作,要求确保制定过程公开、透明。

事实上,我国一直高度重视人工智能技术的发展和治理,从2017年国务院发布《新一代人工智能发展规划》,到2022年《最高人民法院关于规范和加强人工智能司法应用的意见》,我国人工智能治理各级文件中均提出了“安全可控”的治理目标,具体制度层面均提到建立公开透明的制度体系、建立相应问责机制、加强技术和应用全流程监管等。2023年4月,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称《管理办法》),面向社会公开征求意见。《管理办法》共21条,对生成内容、责任主体、训练数据、算法设计、用户管理等方面均制定了监管要求。

发展与监管并驾齐驱

科技治理为科技创新保驾护航,人工智能治理已成为重要的国际科技竞争力。我国是最早对人工智能进行监管治理的国家之一,对于如何通过制度设计平衡科技发展和风险防范之间的关系,至今仍是摆在我们面前迫切需要解决的难题。

大力发展人工智能基础设施建设。人工智能技术的发展离不开三个核心要素:数据、算法、算力。AI大模型的训练离不开大量合法、优质的数据;AI大模型输出优质的内容离不开优秀的算法;AI大模型进行大规模运算离不开强大的算力支持。对于基础设施建设,必须在体制机制、人才培养、资金投入方面共同发力,同时鼓励企业将相应的产品商业化,反哺企业的科研创新。

确定人工智能技术发展的元规则。人工智能的迅猛发展以及可能给人类社会带来的颠覆性改变是可以预见的,开发者在编程之初应提前做好规范设计。人工智能作为人类的生产工具,其所产出的内容不得损害人类发展,因此需要对损害国家安全、社会公共利益、个人权利的内容进行限制。可控性与伦理性应当作为规范人工智能技术发展中的元规则,这样才能避免开发者为了自身利益盲目无序地开发人工智能技术,对人类社会产生不可逆的损害后果。

建立数据登记、流转制度。人工智能技术的发展水平,很大程度上取决于其进行预训练的数据规模和质量。除公开可查阅的数据外,大量优质的数据掌握在不同的公司手中,如何确定其权属、权利类型以及公司是否享有使用权、能否进行流转,目前尚未明确规定。建立数据登记制度,一方面可以审核数据来源的合法性、安全性,另一方面可以明确数据的权利方。建立数据流转制度,是解决人工智能科技公司合法合规获取优质数据问题的有效途径,能够提高优质数据的利用程度。

构建完备的治理机制。对于人工智能技术的监管,需要从源头进行严格把关,在确保数据的合法性、安全性之外,还应确保所运行的算法安全可靠、符合人伦常理等要求。《管理办法》第6条对算法备案提出要求,即对进入市场的大数据模型严格把关。此外,还需要建立健全投诉反馈机制,以公众监督方式提升对大数据模型运行过程的监管力度,对于利用AI大模型进行违反法律法规活动的开发者和使用者,应予以相应处罚,从而构建起一套事前备案、事中监督、事后惩罚的治理机制。

厘清责任主体。当前,大多数人工智能公司为了规避风险,在服务协议中将生成内容的权益和责任转移给用户,这似乎符合权责利相统一的原则。但由于ChatGPT算法模型的复杂性和“算法黑箱”的存在,普通用户难以充分理解其运行逻辑,对生成内容缺乏相应的预期。在此背景下,要求用户对ChatGPT生成内容承担全部责任,有失公平。因此,在侵权行为发生后,如何划定开发者和使用者的责任,是立法、执法、司法部门需要共同面对的挑战。

AI生成内容须标识。当前AI大模型在文本、绘画、声音等方面生成的内容,人类已经难以分辨,甚至在某些特定场景下超出了一般人的创作能力。而随着AI大模型的开发,其所创造的内容势必将远超一般人的辨别能力。对于AI大模型生成的内容进行标识已经取得共识,《管理办法》第16条要求,对生成或者编辑的信息内容采取技术措施进行标识。但目前对于标识方式还没有具体规定,市场上大部分AI大模型生成的内容也没有进行标注,需要有关部门基于内容市场流转及治理的考虑,进一步出台更加细致的规范性文件。

[参考文献]

[1]国家互联网信息办公室.生成式人工智能服务管理办法(征求意见稿)[EB/OL].http://www.cac.gov.cn/2023-04/11/c_1682854275475410.htm.

(作者简介:李绪青,北京互联网法院综合审判一庭法官助理;朱阁,北京互联网法院综合审判一庭副庭长)

责任编辑:王梓辰校对:翟婧最后修改:
0

精选专题

领航新时代

精选文章

精选视频

精选图片

微信公众平台:搜索“宣讲家”或扫描下面的二维码:
宣讲家微信公众平台
您也可以通过点击图标来访问官方微博或下载手机客户端:
微博
微博
客户端
客户端
事业单位事业单位标识证书 京公网安备京公网安备 11010102001556号