<正>今天,人工智能正被应用于越来越多的场景,其发挥的作用和产生的影响日益增强,对相关风险的治理问题也应引起高度重视。在智能传播生态中,生成式人工智能正逐步成为用户获取信息、参与讨论、形成观点的重要中介。从认知角度看,认知决定行动,用户对人工智能的认知即心智模型对人机交互的效果有着决定性作用,用户受人工智能影响导致的心智模型演变可能引发认知偏差等风险,对此要发挥多元行动者的协同作用,形成治理合力。
2025年10期 No.786 4页 [查看摘要][在线阅读][下载 230K] - 罗昕;安沛欣;
起源于认知心理学的心智模型日渐成为人机交互研究的关键组成部分。随着智能传播技术普及,人机交互中的心智模型进一步嵌入传播学研究。心智模型主要通过描述人工智能交互状态的功能角色、解释回应逻辑的成因依据、预测未来行为的趋势方向,为用户提供理解人工智能的认知地图。机器与人的心智模型在底层逻辑上有着不可忽视的差异,引发认知偏差、盲目信任、伦理困境等诸多潜在社会风险,需从技术、制度和用户层面出发,由技术研发人员、多学科专家、用户等多元行动者开展协同治理。
2025年10期 No.786 5-12页 [查看摘要][在线阅读][下载 1650K] - 方师师;王易鑫;
基于开源人工智能的特点、价值与挑战,本研究提出“合作开源”的适应性治理模式。开源作为软件技术发展的重要机制,具有成本低、灵活性高、创新速度快等优势。在人工智能领域,开源被视为突破技术封锁的重要策略,中国的开源生态发展迅速。然而,开源人工智能在技术层、法律层、社会层等面临“全周期风险”,亟需构建 “合作开源”的治理模式,寻求开放与安全的平衡。未来,可在技术层面通过受控访问、联邦学习等提升模型安全性;在法律层面完善开源许可证规范与版权归属制度;在国际层面积极参与规则制定与组织合作;在社会层面为开源营造开放共享的共同体文化,通过多方协作推动开源生态健康发展。
2025年10期 No.786 13-17页 [查看摘要][在线阅读][下载 1591K] - 胡兵;姚雨庭;
过往研究将生成式人工智能视为互联网“软基础设施”的一部分,而忽略了它对互联网基础设施的结构性改造。本文从基础设施的历时性、物质性和关系性三个角度梳理两者之间的关系,指出生成式人工智能虽然早期诞生于互联网,但它对算力资源的高依赖和对互联网的再中介化特点,使其能够对互联网基础设施进行能动性的继承、扩展和重构。同时,生成式人工智能的基础设施化过程在生态维持、价值整合和社会平等三个面向将延续和放大互联网时代所积累的各种风险。为此,本文针对性提出标准化建设、知识转化和教育新模式,构建“技术—公众—社会”多维治理体系,把握从互联网基础设施过渡的契机,激发生成式人工智能内在变革性潜力。
2025年10期 No.786 18-25页 [查看摘要][在线阅读][下载 1624K] - 郭小平;刘丽基;
AI技术的深度嵌入改变了谣言的内涵与传播形态,使其形成系统性风险。“技术中心主义”的AI虚假信息治理,容易忽视AI谣言的复杂社会互动场景。AI谣言是由人或组织恶意使用AI工具生成或传播的、具有社会危害性的虚假信息。对于AI谣言,不仅要考虑智能技术与平台的“黑箱特性”,还要明晰责任主体以及“人为恶意”使用AI工具的性质,关联其生成与传播的风险场景及社会危害程度,优化领域立法与分类监管,从技术规制、法律框架、媒体叙事和公众教育等多方面进行协同治理。
2025年10期 No.786 26-34页 [查看摘要][在线阅读][下载 1640K]