顶级媒体如何打理评论区?

日期 : 2017-04-02
79
编者按 怎样让评论区少点“喧嚣”,多点真知灼见。

“评论区有时候比新闻更好看!”

没错,但是媒体评论区的活跃度和内容质量却需要悉心维护。一块能够生产高质量评论的绿地难能可贵,外媒有哪些“施肥铲土”的好办法吗?

答案是肯定的,不论是成立专门的人工编辑小组,还是捣鼓出新鲜技术删选评论,媒体们都在想尽法子让评论区变得更好看。本期全媒派(qq_qmp)专门研究了好几家媒体管理评论区的妙招,看他们如何各显神通。

第一招:内容团队齐心协力 人工筛选评论

面对数量随时可能爆炸的用户评论,仍有媒体采用最传统也最直接的方式,以人力“打扫”评论区。纽约时报就是其中一家。

纽约时报的编辑室里,专门有一支小团队负责筛选评论,大约由14人左右的记者兼职组成,并且有主管进行监督。编辑Etim说,“我们要像对待内容一样对待评论”。他们会选择有见识、机智的评论,以及反对观点、少数观点。另外,纽约时报还建立了NYT Picks板块,作为精选评论的合集展现。

读者评论乔治·贝尔之死报道的合集读者评论乔治·贝尔之死报道的合集

另一家媒体Pakistan's Dawn自2014年开始管理自家的评论区。他们成立了一个4人小组,每天平均阅读3000条评论,经过筛选之后再发布出去,例如一些只有一个字的评论就会被删除。不过,经过筛选的评论并不会被编辑添加任何内容进去,依然是原汁原味地呈现。目前,这家媒体评论的删除率大约有35%。

对于Facebook平台,由于不能进行评论删除,Pakistan's Dawn会通过另一个4人小组发布信息,给爱发攻击性言论的读者们提个醒。

为了应对快速变化的网络世界,Pakistan's Dawn每三个月就会进行一次评论体系的更新。数字战略总监Haque表示,“我们宁愿删除更多的评论,也不愿让更多的恶言钻入我们的评论区。”

除了传统媒体,YouTube也在持续不断地对不守规矩的评论进行管理。去年11月起,YouTube设置了“频道+作者”双重管理机制,允许视频所在的频道管理者与相应的创作者对评论进行筛选。一旦被选中,评论将会显示在视频下方回复区的顶部。

纵观三家媒体实行的人工模式,尽管人力成本颇高,但评论区里无意义的线上骚扰、人身攻击等言论得以大幅减少,高质量的评论也因此拥有更直接的机会得到重视。

第二招:技术驱动和产品升级 净化评论区

虽有保质的人工模式在前,但在瞬息万变的互联网空间,评论的裂变增长只是一刹的时间。寻求更加快速便捷的技术手段做好评论区清洁工作,成为各家媒体的主打路数。在这一方面,纽约时报又一次跑在了前头。

2015年,纽约时报宣布将采用更加自动化的评论体系。新系统会依靠算法对不同用户的评论进行优先级排序,并决定哪些用户的评论可以不用经过较长时间的人工审查就可发布。这一项举措,使得评论数量翻了两倍。

不过,纽约时报并不满足于这一项简单的算法排序。去年九月,它与谷歌母公司 Alphabet旗下的科研团队Jigsaw达成了以评论体系建设为中心的合作关系。这一合作催生了一个新的评论审核系统,用以提高编辑审查的速度和容纳更多的评论数量。今年2月,Jigsaw发布了新工具Perspective,这一工具可以通过机器学习的原理来识别“有毒”评论。

Perspective网站首页标语Perspective网站首页标语

为了能一眼认出“毒”评论,Perspective收集了数十万条读者的评论进行“学习”。这些言论若具有“有毒”属性,或是“会终结对话”,就会被Perspective打低分。当然,一旦有新鲜案例现身或是用户提出更正意见,Perspective也会快速进行学习、更新评分系统。

在Perspective的网站上,用户还能深度参与其中。例如,拖动滑块可以看到特定主题下不同程度的毒性言论。

美国大选主题美国大选主题

除了能看到哪些话语被Perspective标记了毒性程度,用户还能通过主动输入来测试所写评论是如何被它分级的。

例如,输入“hello”,显示有2%的可能被标记为“有毒”。

输入“ugly”,显示有82%的可能被标记为“有毒”。

当然,这还只是Jigsaw在评论系统上迈出的一小步。据其总裁Jared Cohen透露,他们团队将继续改进机器的学习能力,并开发多语种功能,以及进行无实质、偏离主题的评论辨析等等。

目前,在测试应用Perspective工具的还不只是纽约时报一家,卫报、经济学人和维基百科都有参与。

而纽约时报除了与Jigsaw积极合作外,也牵头华盛顿邮报、Mozilla基金会成立了The Coral Project(珊瑚项目),研究如何改进在线评论,并孵化一系列开源工具为各大新闻编辑室提供技术支持。

2016年,The Coral Project推出了一个评论实验室,用户可以根据喜好在其中自由设置评论页面的显示样式。例如,打开或关闭Emoji表情开关,就可在旁边的评论区看到Emoj表情显示或消失。

赞/踩的开关显示↓

这样一个可供自由测试还自带用户体验的评论实验室,为各家媒体设计评论系统提供了极大的便利。

波兰一家创业公司也开发了一个评论平台Civil Comments。通过接入该平台,媒体可以监测到用户对评论的评价情况。在网站上,用户会看到随机显示的评论,然后对其质量、文明程度进行评价,确认是否含有骚扰、虐待或人身攻击的情况。最后通过YES/NO的图标判断这一评论是否是一个公民视角的言论。

当一个评论被反复标记为不文明言论时,后台的工作人员会收到提醒进行审查。

除了寻求第三方的技术支持,也有媒体在原有评论系统上进行升级改造。例如YouTube开放了评论系统关键词设置功能,允许频道管理者将一些单词、短语列入评论黑名单,直接屏蔽这些词语的显示。

人工辅助与技术的加持,使得媒体对塑造健康的评论区生态建立起不少信心。而拥有健康的媒介意见交流平台,也成为媒体品牌信誉提升的捷径之一。

第三招:积极引导读者生产 打造评论社群

近年来,不少媒体在建设评论区社群方面大下功夫,期望塑造与读者之间的良性对话关系。为此,他们鼓励用户积极发表评论,提高用户黏性,形成更为积极的互动群体来为口碑升值。

金融时报就是其中之一。2016年英国脱欧之际,不少人对此有着强烈的表达欲求。金融时报瞄准机遇,推出“The Future of Britain Project(英国未来项目)”,积极将读者化为作者。这一项目要求读者们发表600字的评论,回答英国脱欧后再经济、移民、与欧盟其他国家的关系以及欧盟的未来这四个问题。在收到的800份回复中,FT专门邀请专家和编辑一同选出6名获奖者,并公开发表了他们的评论。

在这个项目中,读者发布的文章评论数是以往FT网站文章评论数的18倍,并且比其他脱欧报道要多出80%的评论。于是,这块评论区也成为当时FT读者最活跃的地盘。

热衷于评论区建设的纽约时报在打造读者评论社群方面也颇为出彩。它专门设置了专栏来介绍评论区里最活跃的一帮读者。

2015年加州圣贝纳迪诺枪击事件发生后,引发广泛关注,《纽约时报》特地将读者评论置顶首页。

除了金融时报、纽约时报这一类大肆鼓励读者发表看法、打造优质评论社区的做法,YouTube尝试奖励举报者的措施来规范评论区。去年九月,YouTube上线“Hero计划”,鼓励用户标记不当的言论与视频,期望通过社群的参与来清扫评论区,让用户在看到恶意评论时的整体情绪有所改善,不是单纯地厌恶而是换以积极消除的心态。作为奖励,参与其中的用户可以被邀请参加YouTube产品测试、专题研讨会等等,不过前提是得准确举报1000个不良评论。

赫芬顿邮报采取了不同的策略。它放弃了自己专有的系统,专用Facebook的评论系统,通过绑定用户的社交关系来实现评论区的规范化。早在这一系统实现以前,赫芬顿邮报就禁止了匿名评论的功能。这一招或许能让恶言评论的人有所收敛,但对于另一些想自由发表看法的用户而言,则造成一些不愉快的体验。

第四招:让评论也赚钱 开发评论区盈利模式

评论区的维护要投入一笔不小的人力与技术成本,做得好不仅能凸显内容的价值,反过来也能让媒体走出一条新型盈利模式道路。近期,原生广告在评论区的渗透为媒体提供了新思路,不仅最小限度影响读者的阅读体验,同时还能让媒体有一笔不错的收入。

Rolling StoneUs WeeklyEvolve Media等网站上,“赞助评论”的概念得以在评论区体现。广告商可以直接针对特定的垂直领域读者发布广告。例如,纽约时报一则体育类的报道评论区里就有耐克的赞助广告,不仅采用名称后方的灰标提示评论者“广告主”身份,也通过整块评论背景色彩将广告与普通评论区分开来。

另外,像Disqus这样的第三方平台也会参与其中,提供算法等技术支持,让品牌广告避免出现在恶性评论周围。

不让评论区成为伤人利器,打造意见交流与思想碰撞的舞台——这不仅是媒体的心愿,也是聒噪的互联网环境下广大用户的强烈需求。

====================

本文系《全媒派》独家稿件,未经授权,不得转载。

关注微信公众账号“全媒派”(ID:qq_qmp),阅读更多精选文章。

关注全媒派公众账号及时查看最新文章


分享到微信
分享到腾讯微博 分享到QQ 分享到空间 分享到新浪微博