首页> 报告> 文稿> 综合> 正文

段伟文:人工智能时代的价值反思与伦理调节(2)

三、智能算法的伦理审计与争胜性策略

那么,面对以上的情况,我们应该怎么办呢?我这里提出一个概念,叫“伦理审计”,就好像我们财经上的审计,大抵就是这个意思。我们要知道,现在有很多东西可以通过数据洞察去发现它们的差异性。比如说大学生的饭卡可以用来打开水,现在有一种统计,有人通过统计有一种数据洞察,就是一般来说,打开水打得多的孩子,他学习一般是比较勤奋的,成绩一般是比较好的。而那些完全不打开水的孩子他很可能有孤独症,很可能是游戏上瘾,或者有这样那样的问题。

还有标签,以往我们要从科学上进行一种绝对的分类是很困难的,但是现在可以用一种大众的分类法来分类。比如说他是有宝马车的,他是开奔驰的,他是开桑塔纳的,然后还有各种各样的不同的习惯,可以根据各种标签来断物识人,因为人本身是看不清楚的。另外,还有一种内容推荐,你买了这个书,他会告诉你买了这些书的人还买了一些什么书等等信息。还有根据人群来分,有一种算法推荐,像现在的今日头条,还有抖音、快手都是这样。

当然它也会带来一些问题。比如说重复推荐、立即推荐,甚至会推荐一些你反感的内容。因为它只是对你进行一种揣测,所以有时候可能也是一种负面诱导,往往诱导你产生一些负面的情绪。再就是它会使你的偏见增加,还可能导致你生活在一个自己的小圈子里。

比如,有的人老抱怨快手和抖音给他推荐一些不良的视频,但是实际上人家说我们根据数据显示,你确实看过那些不良的视频,这说明什么?这说明它们比你还要了解你自己,智能算法就是研究这个问题,这样就很麻烦了。

实际上,这些算法在认知上也有不确定性,有的时候因为不容易理解还会导致误解,所以我们要对它的认知进行审计,就是看看它有哪些偏差。同时,它还有价值上的偏差,比如说歧视。然后还有一些自主,就是影响人的自主,甚至会影响人的隐私。

讲到歧视或者偏见,我想特别跟大家讲一下,我们任何的语言、任何数据的选取和表达都是有偏见的。比如说水煮鱼,其实水煮鱼是什么?不就是水煮豆芽菜嘛!是不是?它其实就是水煮豆芽菜里面加几块鱼片。有时候你认为的这些东西没有偏见吗?它都是有偏见的。京酱肉丝,可能你只想到肉,那后面是什么呢?其实就是这个问题。

另外,可以告诉大家,我们现在的内容推荐都是根据你的购买行为来对你进行的一种计算,但是人生的意义绝对不仅仅是购买行为,所以我们可以和他进行反驳,人生的意义绝对不是说你买了钻石,他买了劳力士,绝对不是。

所以我们现在就有了一种争胜性的策略,它指的是在设计上的一种非对抗性的竞争策略。就是说,我们首先要进行价值揭示。比如说现在的滴滴顺风车的事件,我们就要从价值上去揭示平台的责任:这个平台为什么要把顺风车的软件变成一个社交软件?这就是问题。那么背后最大的利害关系人是谁?另外,我们要对它进行价值的纠偏。比如说有些司机对女性乘客进行骚扰的那些数据能不能让它有价值?

同时,我们通过人工智能计算,还可以进行伦理的引导,包括经济学的助推、社会管理层面的助推等等。其实,在计算机领域,10多年前就已经发展出一种计算机说服技术。比如说你抽烟、你肥胖,他都可以来说服你,帮助你改进你的行为。我们现在的智能手环其实也是起到这样一个作用。我们现在实际上已经发展为一种智能化的助推、智能化的劝导。另外,我们还可以通过一种数据来增强我们的道德提升。比如说你老去看那些低俗的视频的话,如果有个智能助手告诉你“你不要这样看”,你这样看的话,且不说你是高尚还是不高尚,至少别人会认为你是不高尚的,这也是一种纠正,我们叫做争胜性的策略。而不是滴滴不行了,我们把它关了,不是这样的,我们要从反面去校正它。

四、面向智能化社会的美好生活之路

面对智能化的社会,我们现在不是讲“美好生活”吗?实际上我们可以看到,追踪数据就是追踪人的价值观。因为机器是没有思想的,是没有心的,也是没有价值观的,而人类却是有思想、有心、有价值观的。所以数据实际上反映的是人的价值观。实际上我们现在要正确地面对一个现实,这个现实就是人工智能在定义我们,在定义人类。“你是个好人”,或者“你是个坏人”,在给你打分。实际上,人工智能给我们带来的一个好处就是,它能够定义我们人类,它能够告诉我们“我们是谁”。

其实我们一直也是这样做的。比如说我们一直以来会照镜子,猿猴会看河里的水照镜子,现在的美女早上会起来照镜子,这实际上就是对自己的一种观察。那么,我们现在是什么呢?我们实际上是一个数据的镜子。我们现在有了这种智能设备,你往那儿一站,它就告诉你“你的健康状况怎么样”。将来我们有了这个数据透镜以后,它能够告诉你“你的微表情是什么”。如果你是领导,然后他告诉你“应该怎么样微笑”,告诉你“应该怎么样去见新的下属”。它不仅可以告诉我们“你是谁”,还可以告诉我们“你该怎么做”,以及我们该怎么去“改进我们的行为”,所以,我们要怎么样进行自我变革其实取决于我们自己。   

我们应该知道,我们现在处在智能的数据分析的设施之下,其实这也是我们人类来改变自身的一个契机。实际上我们将来有两种愿景:第一种愿景是,我们是继续充满侵略性的秘密监视的模式还是创造一个以信任环境为特征的新模型。前两年有一个试验:有一个虚拟现实的头盔,给它一个云数据,然后让它从一个餐厅走过,或者从我们的国展中心走过,然后设计一个技术,就是说每当有人要收集数据的时候它就会叫。结果有个人从那儿走过还不到500米,大概有7000多声“嘀嘀”的叫声。换句话说,可能会有各种无形的手伸过来要你的数据,这种感觉会让我们很不愉快。

如果这样一种情景长期进行下去会发生什么呢?就是使我们的幸福感下降,还有我们对这种东西的信任的缺失,长期来讲它是不利于经济发展的。所以我们现在需要创造一种以信任为社会特征的模型。在这样的模型下,我们每个人都知道这个数据是怎样利用的。实际上,我们需要有一种数据所有权与算法的再平衡。具体怎么实施,这是另外一个问题。从原则上讲,任何实体要想从个人那里获得数据,必须让这个人知道他们想要挖掘哪些信息以及如何使用这些信息;然后我们每个人都要主动参与数据的提供与选择,让算法更准确地了解我们,包括现在所谓的被遗忘权、数据的可删除权等等。

因此,我们不要忘了人类自身的尊严,这里所说的“人类的尊严”不是西方价值观讲的那些好像看起来很高大上的东西,其实它很简单,就是我们要尊重人的情感的需要,我们要在合理的设计目标下最大限度地尊重人类的隐私权。人如果没有隐私权,有时候是会有问题的。还有就是它把我们的所有数据都记录下来,这就好像说我们有一个疤痕在那儿永远也抹不掉,就是这样的感觉。

实际上人是什么?人最重要的东西是一直在寻求改变。其实即使人自身做得不好,他也希望自己能够做得更好。但是如果社会不给他这个机会,把他定性了,把他框死了,说他就是这个样子的,完全不遗忘他的一些过失,这实际上是违背人性的。

比如说,我得罪了领导,没关系,他今天不高兴,他可能觉得很生气,过两天一高兴,他可能就把这个事情忘掉了。我们还可以举一个极端的例子,如果小学老师的记忆力是超强的,那么小学生肯定完蛋。那么多调皮的孩子,他把所有的调皮生都记下来,那他这些孩子就会永远被贴上一个“坏孩子”的标签,这些所谓的“坏孩子”就很难再改了,所以说,遗忘这个东西本身就是人类的一种智慧。包括隐私,其实也可以使我们自己能够有所改进,除了保证我们私生活的隐秘性之外。

这样来看的话,在智能化时代,我们要尊重人的脆弱,人都是脆弱的,也是很辛苦的,包括身体上和心理上。同时我们要牢记人的责任,而且我们要强调的是,机器人没有与生俱来的道德,机构要对人工智能负责,这是最重要的。我们现在的大企业,也要对人工智能负责。如果说我们最开始讲到的是一种生存危机,那么在这种生存危机到来之前,在我们人类成为所谓的“濒临绝种”的物种这个危机到来之前,我们要去设计新的道德标准,要把价值观编入到人工智能系统中去。

我们还可以进一步思考,难道今天的人类就是最后一批能够体验死亡的人吗?难道我们是这样的吗?难道以后的人类真的会得到永生吗?如果说超级人类是将来的一个绝对状态的话,那么人会不会就像软件一样过时了?如果机器有一天真的会取代人,我们该怎么样追求幸福呢?当然有些想法是有点无厘头的。

我最后还想讲的就是,人类现在确实面临一个危机,我们其实一生下来就觉得自己是过时的。为什么?手机、计算机现在发展得非常快。比如说,我们现在在手机上能够买飞机票、买别的什么,但是我们的父母那一辈就没有办法这么做。现在,当我们看到90后、00后的孩子在玩什么的时候,我们会发现他们的那种方式我们也完全不会,我们会有一种紧迫感。我们要反思,这种想法本身是不是有问题?更重要的是,我们要证明自己的价值,如果我们不能证明自己的价值,不能证明我们人的价值,如果我们不能借助人工智能来认清人自身,认清我们的优点,认清我们的缺点,认清我们脆弱的地方,认清在新的时代我们应该努力的方向,那么机器怎么可能愿意让我们继续存在呢?如果我们认识不到这一点,我们将来怎么走向人机共生时代的美好生活?这应该是一个非常大的挑战。

我就讲这么多,谢谢。       

(根据宣讲家网报告整理编辑,未经许可,不得印刷、出版,违者追究法律责任)

责任编辑:李荣丽校对:吴自强最后修改:
0

精选专题

领航新时代

精选文章

精选视频

精选图片

微信公众平台:搜索“宣讲家”或扫描下面的二维码:
宣讲家微信公众平台
您也可以通过点击图标来访问官方微博或下载手机客户端:
微博
微博
客户端
客户端