人工智能带给我们的变革是全领域、全方位的,这个时代的人们,正在见证一场新的产业革命。我们面临的问题之一,是如何让这个被制造出来的未来既是友好的,也是体面的,这需要我们设定一些规则的“护城河”。因此,要加强对人工智能伦理的前瞻性研究——虽然不能一劳永逸地保证永远正确,但至少可以为人工智能的有序发展提供一些可控的防御机制。那么,具体到科技领域,该做些什么准备呢?
我们需要清醒地意识到,随着科技的发展与技术迭代的加速,人工智能会展现出更多的机会与不确定性。在刚刚结束的2025世界人工智能大会上,诺贝尔物理学奖得主杰弗里·辛顿直言,AI已无法消除,人类所能做的只是:培养不会从人类手中夺权的“好AI”。
在AI“军备竞赛”早已展开的当下,作为深度学习领域资深专家的辛顿对于人工智能略带悲观的论点,绝非危言耸听。这里,我们要谈到一个现象——技术脱域。所谓“技术脱域”现象,是指技术脱离人类的控制。这一点在AI上表现得极为明显,GPT-4、AlphaGo等技术软件是一个又一个黑盒子,输出的信息与做出的决定,就是基于各种不透明而又极其复杂的微小信号链。
面对新技术革命的到来,单纯的悲观与乐观都于事无补,为人类共同的未来考虑,必须未雨绸缪设计一些规范来引领人工智能的发展。这其中,充满困难与挑战。
比如,伦理规则的滞后性。伦理规则制定的理想状态是先于技术迭代,但遗憾的是,人类社会中规则的变化总是慢于科技的变化。这就不可避免地会出现“伦理代差”,尤其是针对以AI为代表的高科技,这种滞后性愈发凸显。因此,将不可避免地在某些领域出现“伦理失灵”与“伦理真空”现象,对于全局性的技术而言,这种可能性大大增加。而其一旦发生,或许将付出整个社会难以承受的代价。
比如,难以达成共识。伦理规则的制定需要共识基础。但在AI伦理的制定中,一个非常困难的点在于,由于每个人/群体都要受到特定历史、认知、偏好与价值观等因素的影响,要在规则内容上达成共识非常困难。人与人之间的价值对齐尚且如此困难,目前的研究显示,人—机、机—机之间的价值对齐就更加困难。瑞士社会学家海尔格·诺沃特尼曾提到,苏黎世联邦理工学院的研究团队分析了84份来自世界各地的企业、专家团体、政府、国际组织关于AI发布的伦理文件,约半数来自私营部门,另外半数来自公共机构。研究人员惊讶地发现,竟然没有一条伦理原则是每份文件都提过的。这个结论足以反映,当下社会各界在人工智能科技伦理方面,还只能达成一些有限共识。
尽管有这样那样的问题,但伦理规则设计与“人工智能+”同行甚至先行,是我们的目标,是AI健康发展的必要生态。
笔者认为,人工智能的伦理规则,一个最基本的出发点就是:它应是基于原则而非基于利益的。
宏观上,相关管理部门、科技界应该肩负起更大责任,不能将AI伦理规则的制定完全让位于企业。笔者发现,目前很多AI伦理规则都是AI头部企业率先推出的。而企业本能地会基于其自身利益制定规则,因而可能存在巨大伦理隐患。如一些人工智能产品的算法黏性问题。美国麻省理工学院最新研究表明,长时间用ChatGPT写作,会让大脑“变傻”。而从长远看,一项能让人乐此不疲自愿变傻的技术显然是不道德的。但,主要责任归谁呢?更有甚者,研发者在算法中植入偏见,被指数级扩散后,将可能制造社会的分裂。
针对这种伦理的脆弱性,最直接的解决办法就是公开算法。为避免个人认知的局限性,甚至可以采用算法民主化——只有大多数人都同意的规则,才更有普遍性,才能最大限度地遏制伦理风险的发生。
具体而言,AI伦理的制定可围绕以下四个问题切入:公正问题、责任问题、隐私问题与安全问题。围绕这四个问题,我们可以组织力量牵头制定出一套可以被世界广泛接受并具有普遍性的长效伦理规则。
可以说,在未来AI的发展中,伦理规则竞争的影响力将更长久。因为规则的话语主导权一旦形成,很难转移。从这个意义上说,借助于“人工智能+”的东风,构建基于原则而非利益的AI伦理规则,恰逢其时。
(作者分别系上海交通大学科学史与科学文化研究院教授;博士研究生)
已有0人发表了评论