段伟文:人工智能的道德代码与伦理嵌入(2)

段伟文:人工智能的道德代码与伦理嵌入(2)

走向可计算的机器伦理与智能体伦理嵌入

回到人工智能的现实发展,随着无人机、自动驾驶、社会化机器人、致命性自律武器等应用的发展,涌现出大量人可能处于决策圈外的智能化自主认知、决策与执行系统,这迫使人们在实现强人工智能之前,就不得不考虑如何让人工智能体自主地做出恰当的伦理抉择,试图将人工智能体构造为人工伦理智能体。从技术人工物所扮演的伦理角色来看,包括一般的智能工具和智能辅助环境在内的大多数人工物自身往往不需要做出价值审度与道德决策,其所承担的只是操作性或简单的功能性的伦理角色:由人操作和控制的数据画像等智能工具,具有反映主体价值与伦理诉求的操作性道德;高速公路上的智能交通管理系统所涉及的决策一般不存在价值争议和伦理冲突,可以通过伦理设计植入简单的功能性道德。反观自动驾驶等涉及复杂的价值伦理权衡的人工智能应用,其所面对的挑战是:它们能否为人类所接受,在很大程度上取决于其能否从技术上嵌入复杂的功能性道德,将其构造为人工伦理智能体。

让智能机器具有复杂的功能性道德,就是要构建一种可执行的机器伦理机制,使其能实时地自行做出伦理抉择。鉴于通用人工智能或强人工智能在技术上并未实现,要在智能体中嵌入其可执行的机器伦理,只能诉诸目前的智能机器可以操作和执行的技术方式——基于数据和逻辑的机器代码——就像机器人三定律所对应的电位一样,并由此将人类所倡导或可接受的伦理理论和规范转换为机器可以运算和执行的伦理算法和操作规程。机器伦理的理论预设是可以用数量、概率和逻辑等描述和计算各种价值与伦理范畴,进而用负载价值内涵的道德代码为智能机器编写伦理算法。论及伦理的可计算性,古典哲学家边沁和密尔早就探讨过快乐与痛苦的计算,而数量、概率、归纳逻辑和道义逻辑等都已是当代伦理研究的重要方法,机器伦理研究的新需求则力图将“可计算的伦理”的思想和方法付诸实践,如将效益论、道义论、生命伦理原则等转换为伦理算法和逻辑程序。不得不指出的是,用数量、概率和逻辑来表达和定义善、恶、权利、义务、公正等伦理范畴固然有失片面与偏颇,但目前只能通过这种代码转换才能使人的伦理变成程序化的机器伦理。

在实践层面,机器伦理构建的具体策略有三:其一是自上而下,即在智能体中预设一套可操作的伦理规范,如自动驾驶汽车应将撞车对他人造成的伤害降到最低。其二是自下而上,即让智能体运用反向强化学习等机器学习技术研究人类相关现实和模拟场景中的行为,使其树立与人类相似的价值观并付诸行动,如让自动驾驶汽车研究人类的驾驶行为。其三是人机交互,即让智能体用自然语言解释其决策,使人类能把握其复杂的逻辑并及时纠正其中可能存在的问题。但这些策略都有其显见的困难:如何在量化和计算中准确和不走样地表达与定义伦理范畴?如何使智能体准确地理解自然语言并与人进行深度沟通?

鉴于机器伦理在实践中的困难,人工智能体的伦理嵌入不能局限于智能体,而须将人的主导作用纳入其中。可行的人工伦理智能体或道德的智能机器的构造应该包括伦理调节器、伦理评估工具、人机接口和伦理督导者等四个环节。伦理调节器就是上述机器伦理程序和算法。伦理评估工具旨在对智能体是否应该以及是否恰当地代理了相关主体的伦理决策做出评估,并对机器伦理的道德理论(如效益论、道义论等)和伦理立场(如个性化立场、多数人立场、随机性选择等)等元伦理预设做出评价和选择。人机接口旨在使人与智能体广泛借助肢体语言、结构化语言、简单指令乃至神经传导信号加强相互沟通,使机器更有效地理解人的意图,并对人的行为做出更好的预判。伦理督导者则旨在全盘考量相关伦理冲突、责任担当和权利诉求,致力于厘清由人类操控不当或智能体自主抉择不当所造成的不良后果,进而追溯相关责任,寻求修正措施。

对人类文明而言,人工智能将是一个好消息还是坏消息,最终取决于我们的伦理智慧。在中国推出新一代人工智能发展规划的今天,我们更要悉心体味孕育了巧夺天工精神和天工开物情怀的中国思想,审天人之性,度万物之势,以探求人机和谐、文明通达之道。

(作者:段伟文,系中国社会科学院哲学所研究员)

责任编辑:蔡畅校对:刘佳星最后修改:
0

精选专题

领航新时代

精选文章

精选视频

精选图片

微信公众平台:搜索“宣讲家”或扫描下面的二维码:
宣讲家微信公众平台
您也可以通过点击图标来访问官方微博或下载手机客户端:
微博
微博
客户端
客户端