零字节资讯网2025年11月26日消息:

在智能化时代,如何让人工智能更“安全”?

0

分享至

用微信扫码二维码

分享至好友和朋友圈

当前,人工智能的应用边界不断拓展,已经深度嵌入信息生产与传播的每一个环节,成为推动媒介革新与社会转型的重要动力。近年来,深度伪造、算法偏见、舆论操纵、决策“黑箱”等问题频频出现,直接冲击着信息传播的真实性与公共信任的根基。在全球加速迈入智能化的今天,如何让人工智能成为值得信赖的“新闻伙伴”和“信息中介”,已然成为新闻传播领域必须直面的时代命题。

传媒应用AI的安全问题

人工智能的发展不能仅以效率与创新为标尺,还必须建立在安全与可信的双重支撑之上。在传媒生态中,这意味着技术的安全性与信息传播的可信度必须同步构建。

所谓“安全”,不仅关乎技术系统的稳健与可控,也关乎信息传播过程的真实性与完整性。深度学习模型极易受到对抗性攻击,输入数据中的微小扰动便可能导致输出结果的巨大偏差。生成式人工智能的内容往往难以完全可控,AI幻觉、虚假报道、深度伪造等现象层出不穷,对新闻传播的真实性构成严峻挑战。模型训练所依赖的海量数据,则可能涉及隐私泄露、版权侵权与信息滥用等多重风险。当人工智能被滥用于舆论操纵、虚假叙事或国际传播博弈时,其风险更是直指信息安全与社会稳定。

与安全相对应的,是人工智能发展的另一维度——可信。如果人工智能在信息筛选与内容推荐的决策过程中缺乏透明性和可解释性,公众就难以信任其传播结果;如果算法系统存在隐性偏见与立场偏向,新闻报道的公正性就会受到侵蚀;如果制度层面缺乏伦理审查与责任机制,媒体机构也可能陷入技术依赖而失去议程自主权。因此,相比于技术层面的安全,可信指向的是传播过程中的新闻伦理与价值问题。可以说,安全是防止信息失序的底线,可信是优化舆论生态的关键,新闻传播领域的人工智能应用必须在安全与可信的双轨驱动下才能健康发展。

可操作化的治理措施

在国家战略的指引下,我国已经逐步建立起人工智能治理体系。2024年发布的《人工智能安全治理框架》1.0版,明确了人工智能治理的基本原则和制度基础,强调风险识别、技术应对、综合治理和安全指引,为人工智能安全治理提供了初步方向。随着技术快速迭代,新的风险不断涌现。2025年9月15日,《人工智能安全治理框架》2.0版发布,其在延续1.0版总体架构的基础上,对于人工智能安全可信的具体原则进行了重大拓展:一是提出了“可信应用、防范失控”的新原则,着重关注可能威胁人类整体生存与发展的极端风险;二是将生命健康、人格尊严、社会公平、生态环境等价值维度纳入人工智能全生命周期治理,强调技术必须与人类价值深度对齐;三是强化风险识别的精细化与动态适应能力,使治理机制能够及时回应快速演进的技术挑战;四是推动开源生态与供应链安全,增强制度与国际规则的兼容性与对接性。

与1.0版相比,2.0版实现了从“是否能实现”到“如何负责任地实现”的目标转变。这一转变意味着人工智能的“安全可信”不再停留于抽象理念,而是被制度化嵌入治理体系之中,为人工智能产业健康有序发展提供了制度保障。对于新闻传播而言,这些原则意味着新闻机构在使用人工智能时,同样有责任保证智能化生成内容的真实性与合法性。人工智能不能仅被视作“生产工具”,而应被纳入传媒伦理与社会责任的整体框架。由此,如何将制度化的政策框架转化为新闻传播领域可操作化的治理措施,就成为我们需要继续思考和探索的问题。

构建AI传播事故公开机制

人工智能在新闻传播领域的应用日益广泛,但与之伴生的安全事故与伦理风险也不断增多。虚假报道的生成、自动推荐的极化效应、合成影像的舆论误导等,都是近年来的典型案例。若缺乏有效的透明机制,媒体机构与平台可能因商业压力而隐瞒错误,导致公众与监管部门陷入信息不对称,最终削弱社会信任。

对此,建立一套科学、合理、可执行的AI事故报告与公开机制,是破解难题的可行措施之一。在国际上,这一主张已有先例。欧盟《人工智能法案》就明确要求“高风险AI”须建立事故报告制度,美国加州也规定开发者必须公开安全测试结果和重大事故。借鉴航空业强制事故报告和透明调查的经验亦可发现,有效的事故公开和追溯有助于塑造公众信任。

具体而言,建立AI新闻传播事故报告与公开机制,需要从技术路径与制度路径双向发力。其中,技术路径的关键目标在于保障“事故可溯因”。例如,可以在AI写作系统与内容生成平台中嵌入日志记录、隐形水印、内容指纹等技术,使每一次生成、编辑、发布的流程都可追踪、可验证。从更长远来看,各级传媒机构和政府监管组织还可以建立AI舆情监测与异常检测系统,以AI“治”AI、以AI“止”AI,在技术的持续博弈和对抗中查漏补缺,发现虚假内容与误导性传播。

而制度路径的目标则在于保障“事故可戒鉴”。例如,可以针对不同传播场景建立分级报告机制,将涉及公共利益、舆论安全或国际传播的“重大事故”纳入强制公开报告范围,而一般内容偏差或误导则鼓励用户主动揭露。与此同时,政府可以牵头建设国家级AI新闻传播事故数据库,鼓励学界、媒体、平台共同参与,实现跨行业的信息共享与协同监管。新闻机构与社会组织可以在事故公开后开展事实核查与传播评估,为公众提供可信的解释路径,防止谣言扩散。

重塑媒介信任

人工智能治理作为全球性重大议题,不同国家对此既存在共识,也展现出差异:欧洲强调严格的法律规范,美国侧重透明与责任,而中国则提出“以人为本、智能向善、负责任发展”的核心理念,凸显了中国的制度优势与价值导向。其中,“以人为本”的理念在新闻传播领域尤显重要——AI必须服务于伦理规范与社会价值,而非替代或操控人类判断。

智能传播时代,媒介信任不仅取决于内容是否真实,更取决于生产机制是否透明、算法是否公正、媒体平台是否承担社会责任,这要求智能化的新闻生产系统在技术上实现“可解释性”,在制度上落实“可问责性”,在伦理上坚守“新闻价值性”。具体而言,媒体机构应建立AI内容标识制度,明确“人类编辑—AI辅助”的边界,防止算法取代责任;学术界与产业界应设立独立的伦理委员会,对AI新闻实验与传播实践进行评估;公众与教育体系应通过媒介素养教育提升风险识别与算法理解能力,使公众在智能媒体环境中保持独立清醒。

总而言之,发展安全可信的人工智能,不仅是科技强国战略的重要组成部分,更是重塑媒介生态、建设数字文明的必由之路。“安全”要求技术可控、内容真实,“可信”则要求公众能够理解、监督并认可AI的信息生产和传播行为。唯有技术、制度与文化形成合力,才能让人工智能真正成为重塑媒介信任、公共理性与社会共识的坚实力量,迈向更加清朗、包容与共荣的智媒未来。

本文系国家社科基金后期资助重点项目“新闻传播的人工智能实践及其反思研究”(21FXWA002)阶段性成果

作者系武汉大学新闻与传播学院教授;武汉大学数据新闻研究中心特约研究员

原题为:《迈向安全可信的智媒未来》

来源:中国社会科学报

责任编辑:刘娟

新媒体编辑:宗敏

如需交流可联系我们

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

/阅读下一篇/

返回网易首页
下载网易新闻客户端

请继续点击阅读以下震撼之作:

136幅锁魂 ×21密钥开玄
伊甸园真容现世新疆于阗

著名新书好书 《神奇的和田玉》
在线免费阅读/精美PDF版免费下载


点击上面零字节资讯网相机的圆圈
生成这篇文章的奇异、神秘的海报
然后将海报保存图片收藏,可发朋友圈
本文来自网络,不代表零字节网立场,
转载请注明出处:零字节网(0b.cn)

此文由访客“中国玉王”发布
“中国玉王”发布的所有文章
“中国玉王”提供的交易链接

我要在零字节网做自媒体, 发布内容

点击查看中国前沿资讯更多内容
联系我们

联系我们

18999110818

在线咨询: QQ交谈

邮箱: 515910221@qq.com

关注微信
微信扫一扫关注我们

微信扫一扫关注我们


资讯首页 手镯检索 玉王易经