首页> 报告> 文稿> 社会> 正文

AIGC对社会治理的机遇和挑战(2)

马亮:闵老师提到了非常重要的一点。我们现在所讨论的AIGC只是提供建议,而不是决策,因此容错和包容特别重要。我们之前讨论了很多关于如何使用这些技术以及如何管理这些技术的问题。如果管理不好,也就无法很好地使用。像ChatGPT这样新一代人工智能技术出现后,许多国家和地区的政府已经出台或正在研究相关的监管政策。例如,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》,这样一份征求意见稿的出台引发了社会广泛关注和热议。我们特别想请各位来谈谈,在面对这些所谓的颠覆性技术创新时,我们应该如何管理好它们?监管政策出台的背后体现出怎样的治理逻辑?下面请黄老师来谈谈。

黄璜:在监管方面,首先需要考虑可能出现的问题。像AIGC这样的技术可能会引发传统的安全问题,包括治安和公共安全问题。例如,合成图像可能会引发欺诈等安全问题。此外,这些内容可能涉及意识形态方面的问题,如何进行管理是一个挑战。另一方面,像ChatGPT这样的知识引擎可能会影响未来孩子的知识获取,因为它们生成的内容可能不是权威的。从监管的角度来看,这是一个难题。因为这些技术背后代表着去中心化的趋势,使得传统方式的管理变得越来越困难。

然而,从积极的角度来看,这种技术使得越来越多的人可以自行生产。尽管这可能会对一些行业产生影响,但这也降低了创业的门槛,使得更多的人可以创业。因此,未来的监管将面临更大的挑战,需要寻找新的方式来应对去中心化的趋势。

马亮:感谢黄老师的分享。下面有请闵老师。

闵勇:在算法推荐治理中,我们面临着一个问题,即生产力的个体化转移,并且生产力规模的扩大程度已经达到指数级。传统的信息管理方法主要集中在生产端,即对主要的媒介进行管理。然而,在去中心化的环境下,我们需要转移到消费端去管理。从技术和成本的角度来看,在生产端进行管理可能不太现实。

另外,我们需要使用一些对冲性技术来识别哪些内容可能是由AI生成的,并评估其可信度。在搜索引擎中,我们需要标识出哪些结果是广告,而不是搜索引擎提供的内容。在社交媒体和社交网络上,我们不可能对所有信息进行人工标注,因此需要使用另一套AI技术来识别由AI生成的内容。在研究中,我们发现使用ChatGPT来查找文献时,在很多领域找到的文献都是拼凑的,它们可能会告诉你有一篇文章在《自然》上发表,但实际上并没有。因此,我们需要使用对冲性技术来解决这个问题。

马亮:闵老师提出了一个非常有启发性的观点,即技术的出现会带来新的问题,但最终需要用技术来解决问题。例如,ChatGPT的出现引发了如何识别其生成内容和实现可追溯性的问题。我们之前探讨了技术的使用和管理,但归根结底,这些都是科技创新的问题。如果没有科技创新,我们将无法使用和管理相关技术。因此,我们期待相关的科技企业能够勇往直前,推动人工智能技术进一步发展。最后,非常感谢各位老师,本次论坛到此结束。谢谢大家。

(根据宣讲家网报告整理编辑,

未经许可,不得印刷、出版,转载请注明出处,违者追究法律责任)

(根据宣讲家网报告整理编辑,

未经许可,不得印刷、出版,转载请注明出处,违者追究法律责任。)

责任编辑:刘宇同校对:王瑱最后修改:
0

精选专题

领航新时代

精选文章

精选视频

精选图片

微信公众平台:搜索“宣讲家”或扫描下面的二维码:
宣讲家微信公众平台
您也可以通过点击图标来访问官方微博或下载手机客户端:
微博
微博
客户端
客户端
事业单位事业单位标识证书 京公网安备京公网安备 11010102001556号