保险产品

人工智能带来新挑战 媒体应对虚假信息

2024-10-17416次浏览
小新客服
人工智能(AI)的广泛应用在拓展创意边界、提升传播效能的同时,也引发了虚假信息泛滥、知识产权侵权等隐忧

人工智能(AI)的广泛应用在拓展创意边界、提升传播效能的同时,也引发了虚假信息泛滥、知识产权侵权等隐忧,给国际传播生态建设带来新挑战。一些媒体和国际组织已开始探索如何利用AI新技术来对抗虚假信息,实现“用技术对抗技术,用魔法打败魔法”。

在最近举办的第六届世界媒体峰会上,红十字国际委员会东亚地区代表处传播部主管巴昱华谈到虚假信息对现实世界造成的破坏表示关切,指出虚假信息在数字时代获得了前所未有的力量。生成式AI和大模型技术的应用,使世界进入了数字信息“眼见不一定为实,耳听不一定为真”的时代,多模态AI技术的出现让虚假信息愈发难辨真伪。

路透社亚太副总裁颜灵思在媒体峰会上指出,“生成式AI技术将增加制作精良的错误信息和虚假信息的风险。在信息丰富的当下,人们对可信新闻来源、事实核查和透明度的需求日益增长。”美国新闻可信度评估与研究机构的报告显示,AI制造虚假信息的能力逐渐增强,虚假新闻网站数量不断增加。

尽管AI的应用改变了整个媒介生态,使信息传播环境更加多样化和复杂化,但媒体始终坚守着事实与真相的使命与责任。匈牙利ATV媒体集团首席执行官科瓦奇·陶马什表示,“技术为我们带来新机遇的同时也带来新挑战。在数字时代,坚守真相与事实仍然是媒体的核心责任。”

面对数字时代虚假信息传播的新特点,如何加强规范与引导,减少不实信息生成;如何善用新技术手段,确保内容溯源和可信度,成为多国媒体共同关注的焦点。新华社国家高端智库发布的《人工智能时代新闻媒体的责任与使命》智库报告显示,全球多数新闻媒体机构支持加强规范与治理,以抑制生成式AI可能带来的负面效果。

为了提高信息可信度,联合国发展系统着手构建“真实性”防线,发布“全球信息诚信原则”敦促各方合作,共同建立道德信息生态系统。全球媒体机构如新华社、路透社、BBC、NPR等制订了AI行为规范和指南,防范AI应用中可能存在的真实性风险。

面对公众易受人工智能生成内容影响的情况,呼吁对这类内容添加标签,帮助公众识别真伪。中国国家互联网信息办公室征求意见稿指出网络服务提供者应按照国家标准要求标识AI生成内容。法新社与欧洲主要媒体机构提出AI信息监管和行业倡议,要求清晰标识人工智能生成内容。

一些媒体已与科技公司合作,共同构建“真实性防火墙”。英国广播公司、奥多比、谷歌、英特尔、微软等公司联合创立内容来源和真实性联盟,为数字媒体提供内容真实性标签和历史溯源信息服务系统。

未来,随着AI应用的不断发展,信息环境的复杂度将进一步增加,坚持“真实性是新闻的生命”,拨开虚假信息的迷雾,营造清朗的舆论环境,是媒体的当务之急。

友情提示:投资有风险,风险需自担