人民慕课-权威的党政干部网上课堂



  

       随着新技术发展,智能媒体逐渐成为网络舆论新引擎。智能机器人写作、机器跟帖行为及其依法严格治理影响网络舆论走向,用户数据隐私保护引发关注,假视频传播也引发科技伦理争议。基于此,更要强调智能媒体发展的依法治理。

  智能机器人写作与网络舆论生态

  机器人写作最早可追溯至2006年,汤姆森金融公司使用电脑程序取代财经记者,自动撰写经济和金融方面的新闻。2009年,StatsMonkey在美国职业棒球大联盟季后赛上抓取比赛数据,12秒内完成一篇赛事报道。2010年,叙述科学公司开发了一款通用的分析和叙述写作引擎Quill。此后,多国头部媒体逐渐依托自身的数据平台、经验丰富的新闻记者以及与技术供应商合作,开始应用写作机器人在一些特定领域进行新闻生产。

  国内写作机器人起步稍晚,2015年腾讯率先推出Dreamwriter,与同年新华社的快笔小新、第一财经的“DT稿王一起组成国内早期写作机器人的典型。之后,出现百度度秘、中国地震台网写稿机器人、人民日报小融等。

  近年来,机器人发帖影响舆论的话题一度引发关注。例如,政治传播领域,早年美国总统大选曾传出虚假新闻、英国脱欧公投中出现大量机器人账号等,都曾引起网民对于政治机器人的争议。政治机器人将特定内容暴露给人类用户,并诱导人们去接触、评论和扩散这些政治内容,以达到运营者的政治目的,已经广泛参与到在线政治信息的讨论和扩散环节,成为影响政治传播效果的一个变量,其对舆论的干预突出体现在政治选举、社会动员、政治干扰三种应用场景,并通过营造虚假人气、推送大量政治消息、传播虚假或垃圾政治信息、制造烟雾遮蔽效应,混淆视听、塑造高度人格化形象的虚拟意见领袖等五种策略来影响网络舆论。

  国内网络机器跟帖行为状况治理

  近年来,人工智能在媒体领域加快应用的道路上,国内的焦点曾先后出现于网络水军”“算法推荐”“视频换脸等。这说明,机器人新闻的真正出现,实际上要早于大众普遍的认知,早在论坛博客时代,就已经出现机器发帖手段影响舆论的现象。2003年,发帖机伴随着论坛的红火,被用于代替人工进行内容的规模推送,进行炒作、干扰舆论。2013年,随着微博高峰阶段的到来,网络水军进入狂欢期。2015年,随着各个网络平台风控系统的升级,机器人水军与网络平台风控系统不断博弈而被动发展。目前,餐饮和酒店等点评类网站下的拟人评论中,及各大社交媒体平台上,均活跃着一定比例的机器人水军,娱乐明星数据造假和企业品牌营销,成为常见的网络水军应用场景。

  网络水军的泛滥,无疑将影响清朗网络舆论环境的建设,针对网络水军的治理行动也逐年升级,相关法律法规日趋完善。

  2013年最高人民法院、最高人民检察院出台《关于办理利用信息网络实施诽谤等刑事案件适用法律若干问题的解释》,明确依据刑法相关罪名惩治网络谣言”“网络水军,查办了一批具有重大影响的典型案例。2016年,《中华人民共和国网络安全法》提出网络实名制,提高了机器人水军的注册成本和使用门槛,客观上限制和减少了机器人水军的使用频率。2017年,国家互联网信息办公室公布《互联网跟帖评论服务管理规定》与《互联网论坛社区服务管理规定》,明确了网站主体责任,精细化监管制度,禁止利用软件、雇佣商业机构及人员等方式散布信息。2018年,修改后的《反不正当竞争法》开始施行,再次指出网络水军将受严惩。2019年国家网信办颁布的《网络信息内容生态治理规定》也明确提出,不得通过人工方式或者技术手段实施流量造假、流量劫持以及虚假注册账号、非法交易账号、操纵用户账号等行为,破坏网络生态秩序。

  互联网用户数据隐私保护引关注

  智能媒体的发展需要大数据、云计算和5G高网速以及人工智能(算法)为基础,当智能科技发展成为大势所趋,让用户安全地享用技术成果成为亟待解决的问题。目前,舆论场中有关个人信息数据隐私保护的话题热度上升,南都个人信息保护研究中心人工智能伦理课题组发布的《人脸识别落地场景观察报告(2019)》显示,在个人信息泄露频发的态势下,超七成的民众对网络运营者的安全保障能力存有疑问,担心人脸数据泄露。习近平总书记2019125日在中共中央政治局集体学习中要求规范数据资源利用,防范大数据等新技术带来的风险。在新技术应用创新和安全权限两个极端,仍需有一个探索技术伦理和合法规范边界的过程,在个人信息数据的使用和保护之间积极寻找平衡点,在隐私得到有效保护的前提下充分发挥智能科技的应用优势,推动数字产业发展。

  疫情防控期间,数字技术及智能媒体在医疗救治、资源调配等领域发挥了重要作用。但也有一些地方在疫情防控中大量使用人脸识别,过度采集居民个人智能终端和生物隐私信息,从而引发了人们的质疑和忧虑。公众在使用时主动或被强制性要求提交、上传个人数据,大量公民信息被采集的同时,个人数据的泄露和曝光的现象随之发生。浙江等多地发生的查处泄露和传播确诊或疑似患者的个人信息事件引起关注。公众在享受科技红利的同时,也愈加担忧其可能引发的信息隐私安全隐患和智能科技发展伴随的隐私、责任等道德问题。

  假视频传播引发科技伦理争议

  人工智能可以改变影像中物体的运动轨迹或者重塑人物形象,形成足够以假乱真的视频,增加用户对视频内容的识别难度,可能加速谣言的扩散,甚至影响舆论走向。2017年,国外一网民创造了AI换脸算法,并在帖子中详细介绍了换脸视频的生成方法,大量用户在社交媒体上阅读了这条信息并制作出大量换脸视频。由于互联网中存在的大量高清照片和素材,公众人物成为第一批假视频的素材,虚假的政治丑闻、色情视频、身份盗窃甚至犯罪都可能出现。而类似技术的商业化应用和普及,也加速了全社会对假视频可能引发后果的忧虑。20198月,一款名为“ZAO”的人工智能换脸软件在国内社交媒体成为爆款。ZAO给网民带来新奇体验的同时,其存在的个人信息安全保护、肖像权等安全隐患,也成为网民担心的问题。

  针对假视频的出现和其引发的问题,各方也在积极采取措施进行应对。ZAO上线不久,工信部网络安全管理局对其运营企业相关负责人进行问询约谈,要求其组织开展自查整改,强化网络数据和用户个人信息安全保护。2019年国家网信办发布《网络音视频信息服务管理规定》,对深度伪造音视频从进行安全评估、明确标识要求、规范新闻信息传播、加强技术保障和建立辟谣机制五个方面进行全面规范。有声音认为,人工智能技术治理关键是抓住三个核心关键问题:算法、数据和算力,要在相关方面来立法和监督。未来,人工智能技术下生成的虚假视频将如何进一步应对和治理,仍是摆在智能媒体应用场景深化面前的重要课题。

  技术资本对智能媒体的多方面影响

  人工智能技术的突飞猛进,加速了新闻媒体行业的变革与发展,其赋能新闻媒体过程中显示出广泛应用领域和发展空间,深度融入媒体新闻生产、分发、管理等各个环节,重塑了新闻生产业务流程和生态环境,催生出新的媒体业态,并进一步解构和重构着媒介话语权。

  随着自媒体的井喷式发展,平台化媒介上的众声喧哗使组织越来越难以通过控制媒体来营造有利于自身的公共舆论。而智能媒体的涌现,通过智能技术在信息生产、分发等各个环节的干预,给舆论的影响和引导提供了契机。

  同时,资本对技术的垄断及其在数据处理和应用上的技术优势,也正助推资本在舆论话语权中的优势地位。拥有人工智能技术优势的组织或个人可以通过自身设计的算法来进行议程设置,以完成特定舆论的营造任务。拥有先进深度学习算法的人工智能技术平台,可以从海量的大数据中有效提取特定的目标群体,然后将编制好的信息和带有鲜明导向的评论向这些目标群体进行定点定时的推送,就可以在较短时间内激发社会公众对于某些特定新闻事件的关注,进而达到营造公共舆论的目的。

部分智能媒体中推荐算法的运行机制,使用户接受的信息无形中的窄化”“聚焦,加大了舆论凝聚各方共识的难度。算法分发机制下的新闻受众并非是真正意义上的具有个性的人,而是规则化与标准化分类下的被动客体,受制于同一算法技术的规则制式下,个人的新闻接受容易使个人处于信息孤岛中。这样的信息孤岛容易使人们沉浸在自我的话语场中,进而加剧社会群体间的局域化发展倾向和舆论场的信息割裂,人工智能赋能媒体过程中如何进一步智化仍有待探索。

 

(本文节选自人民网舆情数据中心发布的《中国智能媒体和舆论发展研究报告》

作者:人民在线副总编辑、人民网新媒体智库主任 刘鹏飞,人民网新媒体智库助理研究员 悦,人民在线融媒体副总编辑、主任舆情分析师

 

 


网友评论

全部评论

人民慕课

928篇

最新文章

人民网旗下慕课学习平台

人民慕课致力于成为党政干部新媒体素养、舆情应对的网上课堂,成为社会主义核心价值观和中国文化的传播载体。

人民网版权所有,未经书面授权禁止使用

Copyright © by www.people.com.cn. all rights reserved