当今时代,人工智能(AI)正以前所未有的深度和广度重塑舆论生态,其影响力渗透至信息传播的各个角落。从新闻报道的即时生成到社交媒体的互动交流,从广告营销的精准推送到政策信息的广泛传播,人工智能生成内容凭借其指数级生成效率、高度情境化的内容适配能力以及逼近人类水平的仿真度,已成为信息传播领域的关键驱动力。多模态大模型不仅能即时生成结构严谨的新闻报道,更能融合文本、图像、音频、视频进行“全息”叙事;视频生成模型的突破,则使得高保真、长时序动态内容的合成门槛大幅降低。这些变革使得信息生产从传统的专业机构主导,逐渐迈向“人机协同”的新阶段。
人工智能生成内容的兴起与媒介技术革新紧密相关,为舆论生产带来革命性变革,凭借深度学习和自然语言处理能力,实现内容生产从“人主导”到“人机协同”的跨越,大幅提升效率与规模,能生成个性化内容,深度参与舆论形成、传播和扩散,重塑舆论生态。首先,内容生产模式颠覆,人工智能生成内容借助大模型驱动的涌现能力,实现全模态内容自动化“生成”,颠覆以人类专业智慧和经验为核心的传统生产链,这种“生成即传播”模式压缩信息生产周期,导致信息环境“过载化”与“碎片化”,使大量用户接收信息后无法消化。其次,传播机制呈现个性化重构的特点,推荐算法与人工智能生成内容深度耦合重塑传播逻辑,算法测绘用户偏好图谱,人工智能生成定制化内容,形成闭环,虽提升信息获取效率,却构筑“信息茧房”与“情感回音壁”,人工智能生成内容放大此效应,加深不同群体数字鸿沟。最后,主体身份出现模糊化现象,人工智能生成内容催生的虚拟智能改变网络参与方式,其能模拟人类语言和行为,在社交平台互动,还能影响舆论走向。用户难辨对话者身份,虚拟主体若被设计为“意见领袖”,会制造虚假共识,干扰公众判断。
人工智能生成内容对舆论生态的多维挑战及深层影响。动摇信息真实性根基。人工智能生成内容技术的发展从根本上瓦解了传统信息真实性的验证基础,给舆论生态带来前所未有的挑战。深度伪造技术的快速发展,已从模仿名人面容声纹,演进到实时生成特定人物在非真实场景中的自然行为(如“换脸直播”)。这类虚假内容在社交媒体平台的传播往往呈现出病毒式扩散特征,传播速度和广度远超传统虚假信息。此外,人工智能生成内容往往带有精心设计的叙事逻辑和情感渲染,使常规事实核查手段难以应对。
加剧舆论极化与情感操控风险。人工智能生成内容技术与推荐算法深度结合,加剧了舆论极化与情感操控风险,相关技术通过精准的情感识别及内容生成机制,形成信息茧房。人工智能生成内容通过情感分析精准识别用户情绪状态与立场倾向,随后即时生成最能激发其情感共鸣或强化其偏见的定制内容,形成“情绪刺激——定制生成——互动反馈——算法再强化”的自我循环增强系统。温和理性的声音因缺乏“情绪爆点”而被算法边缘化,极端观点则因能引发强烈互动而获得优先推荐,导致不同群体数字鸿沟不断加深。
异化认知方式和社交关系。人工智能生成内容正潜移默化地改变人类的认知模式和社交行为。当人们日益依赖算法推荐和人工智能生成内容时,其认知系统将发生变化,独立思考能力和批判性思维能力可能有所下降。此外,人工智能生成内容拟人化交互设计易引发情感依赖,模糊人机界限。社交平台上虚拟智能体泛滥,将改变人际互动本质,导致真实社会连接被稀释。这种变化不仅影响个体心理发展,更会重塑整个社会的交往方式和信任机制。当越来越多的人陷入与算法的单向互动,可能导致真实人际连接质量降低与社会凝聚力弱化。
人工智能生成内容时代舆论生态治理的对策建议。构建技术治理体系。研发基于区块链的数字水印和内容指纹技术,实现人工智能生成内容从生成、传播到使用的全流程追踪溯源,并要求人工智能生成内容平台嵌入包含内容来源、生成时间、使用算法等核心信息的标准化元数据。设立人工智能生成内容安全检测平台,重点攻关“多模态一致性验证”“生成模型指纹提取”“对抗性样本攻击检测”等核心技术,开发适应各类场景的检测工具包。此外,建立算法透明度评估机制和动态监测系统,实时捕捉虚假信息传播链,对易导致信息茧房的推荐系统,引入“认知多样性注入”与“用户可控性调节”机制,定期开展影响评估。
健全法律法规体系。构建多层次的人工智能生成内容法律治理体系,明确划分内容生产者、传播平台和终端用户的责任边界,建立“生成者主责、传播者把关、使用者监督”的完整追责链条。在监管措施上,将人工智能生成内容应用场景按风险等级实施差异化监管。同时,建议完善相关法律法规,将深度伪造技术纳入特殊许可管理范畴,严禁未经明确同意的生物特征数据用于生成内容,建立平台分级问责机制,对违规内容实施“平台连带责任+直接责任人追责”的双重惩戒。
创新社会治理模式。打造“政府主导、平台执行、公众参与”的共治模式,组建跨学科独立评估委员会,定期发布社会稳定性风险评估报告与治理建议。推动平台建立“人工智能初筛+人工复核”的双重审核机制,对敏感领域增加人工审核比例。开展公众数字素养教育,将人工智能生成内容识别纳入专门信息技术课程,鼓励公众举报违规人工智能生成内容,形成全社会共同参与的治理网络。
强化平台主体责任。构建“分级分类”的平台责任体系,对高风险领域实施白名单准入制,要求相关平台建立专门的人工智能生成内容伦理委员会,配备专职合规官,积极推进建立“24小时快速响应”机制,对违法有害内容及时响应处理。此外,鼓励行业组织制定人工智能生成内容伦理准则,建立行业黑名单共享平台和联合惩戒机制;支持平台设立人工智能生成内容治理创新基金,并通过行业自律提升整体治理水平。
加强基础能力建设。系统收集虚假信息、深度伪造、算法偏见等多模态、多场景典型案例,为研究、政策制定与检测技术开发提供基准数据集。在重点高校设立“人工智能治理”交叉学科,通过整合计算机科学、法学、伦理学等学科资源,培养复合型人才。构建“监测——评估——优化”动态治理机制,通过建立人工智能生成内容技术发展监测指标,及时识别技术演进的新风险点,形成动态平衡的新生态。
已有0人发表了评论