人工智能时代的风险隐忧和制度防范

人工智能时代的风险隐忧和制度防范

【摘要】人工智能技术在工业和商业领域蓬勃兴起,为现代社会注入新动能。与此同时,人工智能技术也存在伦理责任主体缺失、社会失业人数增加、个人信息和隐私泄露、智能技术失控等问题。对此,应建立人工智能技术伦理规制,加强算法权力法律规约,完善专业人才队伍建设和相关业务培训,对确保人工智能技术符合人类共同利益和普遍价值的发展方向尤为必要。

【关键词】人工智能时代 风险隐忧 制度防范 【中图分类号】D035 【文献标识码】A

随着大数据、云计算和神经网络等技术快速发展,人工智能技术已经渗透到社会各个角落,对人们生产、生活和思维方式产生了深远影响。以网络神经元为支撑的深度学习系统正深入各个行业和场景,为经济社会发展注入强大动力。同时也要看到,一旦人工智能技术达到超级模仿、无限放大的程度,将会危及人类切身利益,并引发一系列问题,如失业问题、道德风险、社会伦理问题等。全面认识人工智能的潜在风险,深入分析人工智能技术与社会风险的内在联系,提出规范人工智能技术的有效举措,对维护社会根本利益和人民长远利益具有重要意义。

人工智能时代的到来

长期以来,人类对人工智能发展和前景都存有极大的好奇和憧憬,并试图通过各种不同机器程序来模拟人类思维,希望将人类从繁重的体力劳动中解放出来。2016年3月,AlphaGo和韩国棋王李世石在韩国首尔进行一场比赛,AlphaGo在大数据和深度学习技术的支持下,凭借出奇制胜的算法和谋略,以总比分4比1击败了李世石,让各方大跌眼镜。从AlphaGo身上可以看到,新一代人工智能已经基本具备人类智能,其凭借强大的学习能力和算法技术支持,在不远的将来完全有可能超越人类,并对社会生产生活各个方面产生深刻影响,这在人工智能发展史上具有划时代意义。更为要害的是,人工智能技术具有以往技术不曾具有的内在特质,颠覆了人类获取知识的传统模式,并对思想观念、价值理念、行为方式产生革命性影响。

第一,以个性化社会生产方式推动人们思想观念、价值判断的多重变革。人工智能技术实现了对以往机器技术和智能化功能的升级改造。新一代智能系统变得更加聪明,更加善解人意,成为人们日益亲密的合作“伙伴”,摆脱了旧式分工的束缚,把人们从繁重单调的工作中解放出来。人工智能技术不是刻板地模拟人类的大脑结构,也不是简单地模仿人脑工作原理,而是一种创造性的模拟。它通过海量数据分析和科学推断,为人类提供个性化服务,有力地支撑了人类思维创新和产品创新。人工智能系统被赋予“丰富的知识”“敏捷的思维”“冷静的态度”等多面的外在表征,通过分析海量数据来帮助人们观察社会变迁,全面把握社会发展变化趋势,为科学认识世界和改造世界提供指导。

第二,以神经网络模型为原理的深度学习推动社会相关行业和领域的技术变革。在诸多人工智能学习模式中,神经网络学习是借鉴人类大脑结构及功能的学习模型,通过神经元节点连接组成的网络,模拟大脑信息处理、知识表征和学习过程,从而完成处理海量信息的任务,这是人工智能技术强大的关键所在。深度学习的特殊之处在于它在面对复杂对象时,能够通过多层提炼、分析总结,在没有预设性条件下实现自我学习和自我创新。近年来,深度学习在图像识别、语音识别、自动驾驶、机器翻译等方面的突破性进展,引起了较大的社会反响。

第三,人工智能技术在商业领域广泛应用,延伸社会产品服务链、产业链和价值链。新一代人工智能技术,无论是在社会适用范围上,还是在自动化、智能化水平上,都达到前所未有的程度。随着人工智能技术被广泛运用到自动驾驶、生物识别、医疗健康、保险投资等多个领域,其内在社会价值和商业价值逐步彰显。目前,人工智能技术以全方位、多领域的方式改变着人类社会的生存方式和运行结构,并很快形成了巨大的经济效益和社会效益。

人工智能时代的风险隐忧

在智能技术产生之前,所有技术和发明创造都可以看作是人类身体器官的投影或放大。第一代和第二代人工智能也不过是利用数据和技术工具对人脑思维能力无限放大、延伸或投影的尝试。人工智能潜在风险可能会蕴含于人类新技术产生之中,也可能会内嵌于社会制度风险中。由于时代变化和不可预测性,加上不同民族、文化、经济等条件的影响和制约,它不仅具有复杂性、综合性的特点,而且带有全球性和区域性共存、自然地理特征与文化融合的特征。

人工智能技术带来的伦理风险。在人工智能伦理规约设计中,技术设计目标与技术行为后果陷入不相协调的两难境地:一方面,人们希望通过科技发展给人们生产生活带来更多便利;另一方面,他们又不希望技术发展僭越伦理规范预设的行为边界。人工智能风险的独特性和现行规制的局限性加剧了技术风险爆发的可能性。目前,人工智能已经造成难以应对的各种风险,如与大数据技术结合后的人工智能技术,以及对复杂问题的分析带有种族主义和性别歧视。自动驾驶、无人驾驶技术的应用使人类时常面临着意想不到的道德困境。在这种情况下,人工智能伦理责任界定成为了不可回避的现实问题。

人工智能时代面临的社会结构性失业。2013年9月,牛津大学研究者卡尔·弗瑞(Carl Benedikt Frey)及迈克尔·奥斯本(Michael A. Osborne)发表了《就业的未来》研究报告,调查各项工作在未来20年被计算机取代的可能性。根据算法估计,美国有47%的工作有很高风险被计算机取代。麻省理工学院教授迈克斯·泰格马克(Max Tegmark)针对如何分析未来职业被计算机取代的可能性提出了三条判断标准,即该工作是否需要与人互动?该工作是否涉及创造性?该工作是否需要在不可预测的环境下进行?根据分析,对于教师、护士、科学家、企业家、程序员、艺术家等具有更多创造性,需要与人打交道的工作,相对比较安全;对收银员、货车司机、厨师等职业,这些具有高度重复、结构化以及可以预测的工作看起来不久将要被机器自动化取代。

人工智能技术可能引发个人信息泄露和隐私权侵犯问题。人工智能系统本质是通过从外部输入涉及个人、商业、政府等大量信息的海量数据来训练学习算法,然而所涉及大量数据无法通过传统数据分析软件和程序对数据有效地分析、摄取和管理,这些信息一旦泄露会给政府和个人带来极大风险。2018年3月18日,剑桥数据分析公司就被爆出对Facebook上5000万个人用户资料进行不当分析,并干扰2016年的美国大选。为此,美国国会和欧盟议会要求Facebook就个人隐私数据泄露接受质询并追究其责任。

人工智能时代隐含着技术失控风险。据专家估计,根据目前人工智能系统发展态势,21世纪中叶极有可能出现“具有人类思维水平的机器智能”,甚至出现能够相互学习、相互作用、自我完善而不断升级的“超级智能组织”。但是,具有自主意识的超级智能很有可能突破设计者预先设定的临界点而走向“失控”,进而反过来对人类进行控制和统治。

人工智能社会的制度防范

面对人工智能技术的迅猛发展,不应采取消极甚至排斥的态度,将其置于人类社会发展的对立面,而是应当从伦理层面展开反思,慎思技术开发和运用的制度性规范,严格约束责任主体的行为,以积极行动解决人工智能技术发展过程中面临的难题。

建立人工智能技术的伦理规制。建立过程中要考虑人类整体利益和最高利益,建立人机共生协作的密切关系,在人工智能设计和运用中坚持人类的基本价值原则。坚持人类基本价值原则,最为根本的是坚持人本原则、公开原则和责任原则。人本原则就是要坚持以人为本的原则,满足人工智能造福人类的崇高目的。既不能像反对技术的浪漫主义那样拒斥、放弃人工智能造福人类社会的机会,也不能放任自流,给人类带来技术失控的风险。公正原则,是指让更多人获得益处,成果让多数人共享的同时,防止“资本逻辑”的横行,并建立健全社会福利保障体系,对弱势群体、落后地区进行扶持,切实维护各方的尊严和合法权益。责任原则,是指人工智能研发、应用和管理过程中,必须确定不同道德主体的权利和义务,一旦人工智能系统出现破坏性后果,不同责任主体必须及时作出回应并采取相应措施。

加强算法技术权力的法律规约。人工智能技术发展程度受制于算法权力变量,然而算法权力过大会引发资本和权力操控的风险,带来人工智能技术异化倾向。应合理界定算法技术的权力,调整不同社会资本利用分配,避免因受到特定集团利益支配而导致的算法权力滥用。现代社会算法技术的研发应用主要依托物联网企业,算法权力遵循市场逻辑,在利益诱导下呈现出一定的歧视性和偏好性。人工智能算法结果并不单纯是技术自动化的结果,而是遵循着人工编译的运算规则和程序规范,蕴含着程序设计者的价值导向和意识形态观念。要确保智能技术在良性轨道上运行,需要在人工智能算法程序中赋予一定的权力限制。通过完善法律规范,将法的价值和理念融入算法程序,将算法技术驯化为服从人类根本利益和普遍价值的工具。从人工智能算法权力运行程度看,应不断完善算法技术的程序,完善算法程序设计的监督环节,细化算法计算相关法律条文,追究因技术失范带来的法律责任。

建立可信任的人工智能发展制度。人工智能技术在现实层面上还面临不少难题,要加强对人工智能技术的法律规制,既要考虑到人工智能技术创新需要一定的发展空间,也需要考虑到用法律制度来保障人工智能技术应用的合理性。如果因人工智能可能带来风险而对智能技术开发责任设置严格法律限制,或者因人工智能技术水平不够成熟为此降低门槛,都会影响到人工智能企业健康发展。这其中的界限需要监管部门和专业人士开展深入合作,从专利制度、侵权责任和政府管制等方面进行综合考虑。

完善人工智能技术人才支撑。加强人工智能伦理教育和技术培训。将符合特定伦理价值的伦理规范融入教育培训内容中,增强全社会对人工智能技术的共识,根据不同教育对象因材施教。在学校系统教育中,侧重对学生开展人工智能的伦理道德教育,提高对人工智能道德规范认识,增强人工智能技术安全意识。加强职业技术培训,提高解决人工智能技术应用问题的能力。在政府培训中,政府公职人员作为政策的制定者、执行者,需要准确理解未来人工智能的相关政策。加强人工智能技术实际应用知识学习,提升科学素养、伦理素养以满足人工智能社会发展要求。在社会开放教育中,开展人工智能知识普及教育,通过网络、电视、互联网等多种公众媒体全方位加强人工智能知识的宣传教育,消除公众对人工智能的恐惧感和陌生感,增强人工智能的人性化、科学化的知识教育,努力创造有温度、有力度的社会伦理教育环境。

(作者为齐鲁工业大学(山东省科学院)马克思主义学院讲师,山东大学政治学与公共管理学院博士后)

【注:本文系山东省社会科学规划项目“基于人与自然和谐共生的现代化研究”(项目编号:19CXSXJ14)及2020年山东省人文社会科学项目“高校专业课和思政课同向而行的内在机理和实现路径研究”(项目编号:2020-ZXGJ-04)研究成果】

【参考文献】

①[美]哈里·亨德森著、王华等译:《人工智能之路》,上海:科学技术文献出版社,2019年。

②李恒威、王昊晟:《人工智能威胁论溯因》,《浙江学刊》,2019年第2期。

③何清、李宁等:《大数据下的机器学习算法综述》,《模式识别与人工智能》,2014年第4期。

责任编辑:吴成玲校对:刘宇同最后修改:
0

精选专题

领航新时代

精选文章

精选视频

精选图片

微信公众平台:搜索“宣讲家”或扫描下面的二维码:
宣讲家微信公众平台
您也可以通过点击图标来访问官方微博或下载手机客户端:
微博
微博
客户端
客户端
事业单位事业单位标识证书 京公网安备京公网安备 11010102001556号