彭兰:人机协同视角下的新闻生产与消费

阅读准备








尽管人机协同研究已有60多年历史,但对新闻业而言,它是在近十多年间伴随其智能化变革才逐渐浮现的重要议题。


智能时代的新闻生产仍然应该以人为核心,但信息采集、文本与多媒体内容生成等环节,需依据具体任务情境进行灵活的人机分工与协作。与此同时,新闻消费也深度依赖于人机协同。在算法推荐机制下,为防止信息茧房等效应,人与算法需相互提供必要的“负反馈”;而在大模型所支撑的交互环境中,人机协同程度进一步深化,人的主动性得以更充分发挥,但面临的挑战也更为严峻。


无论是新闻生产还是消费,有效的人机协同都关涉到人对机器的适度信任,这受到多重因素影响;另一方面,机器也需对人类采取有限信任策略,其核心难题在于人类能否真正实现“价值对齐”。

图片

省流版干货提炼

 新闻内容生产的各个环节都涉及判断与决策,其中也会涉及一些不确定和模糊性问题,因此,发挥决策核心作用的仍应是人。在这一基本前提下,需要根据具体任务情境来进行人机分工与合作。

 智能时代的新闻内容消费,是人与推荐算法、大模型等智能技术共同发生作用的过程,人如何处理与智能技术的互动,直接影响着内容消费的结果。但这种协同性消费是以往用户不曾经历过的,人们大多会以本能的方式去回应机器,这个过程也会暴露出很多问题。

 新闻生产或消费中的人机协同,不只是人机分工的问题,也涉及到人机互信,包括了人与机器双向的适度信任问题。对于那些不可信的方面,两者之间还需要进行相互监督,甚至校正。

更多内容看这里


在不同方向和任务中,人机协同的方式和层次不尽相同,机器参与的程度也有差异,人机互信是则人机协同的基础。如何将抽象的人机协同理念转化为实践中的具体操作模式与机制,实现人与机器的有效分工、协作,以及人与机器的相互监督、校正,仍需要长时间的探索。




不同类型新闻生产任务中的人机协同

1

信息采集中的人机协同

信息采集是内容生产的首要环节,直接影响到内容生产的方向与质量。机器可以帮助人拓展信息采集的时空维度,也会在一定程度上拓展人对世界的认知维度,这一点毋庸置疑。因此,在信息采集时纳入机器的力量是必要的。


但如果信息采集过程完全由机器主导,会使“信息采集”向“数据采集”倾斜。现实世界的某些信息现在并不能被数据化,或者数据化的维度有限。例如目前的技术只能揭示思维活动的兴奋度等,却不能反映具体的思维内容。此外,现实世界中的对象映射为数据的过程中,会被抽象、简化,大量的细节被忽视。


过于依赖智能机器的信息采集,虽然某些维度的信息量会大大增加,但一些传统的需要由人来进行观察、捕捉的信息反而减少,在此基础上形成的内容作品,对于现实世界的反映也会走向片面。


机器采集的数据是对人的采访的延伸、补充,而不是替代。对于特定主题或事件的新闻报道,在哪些层面应用机器采集的信息、在哪些方面必须使用人采访获得的信息、这些信息之间如何配合,这是未来的新闻报道中媒体人需要时时做出的权衡。此外,对于智能机器采集信息的准确性、可靠性的判断,也需要由人来做出。

2

文字内容生成中的人机协同

“人类为主+机器辅助”适用于那些需要人的深度思考和立场、态度等主观表达的内容,如深度报道、特写、评论等,也适用于那些需要体现写作者风格、个性的内容。机器的辅助作用体现在选题策划中为人提供思路启发,在写作中提供数据、论据或其他资料性支撑,或进行一些信息的查证等。


在人类为主的模式里,机器会越来越多参与到选题策划过程中,但是,直接由机器做出选题方案难免导致同质化。人们可能因形成对机器的依赖惯性而抑制自身思考。以新闻选题为例,人自身的思考应该先于机器推荐出现,人自身的经验、直觉等因素有时比数据更为重要。个性化的选题仍是基于人的思考与决策。


“机器为主+人类监督”的内容生产是目前人工智能领域更关注的应用方向,不同类型的系统有不同的生产原理,人需要介入的程度也有差异,分析人机协同的思路也需要区分不同的使用情境。


其一是信息抓取与整合模式。它们可以在指定的信息来源中进行自动搜索,抓取有价值的最新数据,对数据进行清洗、加工,再将其整合进合适的新闻写作模板中,生成新闻文本。这类生产模式,主要以事实性信息传达为主,即使内容中包含意见性信息,也是来自其他信息源已经存在的内容。


其二是现场生成新闻模式。例如,字节跳动团队开发的“Xiaoming bot”系统,可以通过布置在新闻现场的摄像头,对某些现场中人的活动、环境等进行图像捕捉与识别,并将图像信息转换成文字信息。这种自动新闻生成模式不依赖其他新闻源,实现了完全的原创。当前生产模式还不成熟,应用尚不多,但未来此类应用将逐步增加。


这两种生产模式都是自动化程度很高的原创内容生产,但人的决策并没有完全消失,只是“前置”了,体现在写作系统的信息源的选择、报道领域与对象的选择、报道模板的制定等方面保障决策正确。


其三是大模型生成内容模式,也就是基于语料库的内容生成。当下它们在原创内容,特别是原创新闻生产方面,风险仍难控制。但大模型适用的内容生产情境更广,文字风格也可以更多样。


人对于大模型生成内容可信度的判断成为关键的“决策”。让大模型参与哪些类型的新闻生产,也是人需要做出的重要决策。例如,新闻评论代表的是人的意见与态度,大模型虽然可以通过对语料的综合来传达某些意见,但它们不能替代人自身的意见表达,如果把评论交给大模型,人将会失去在新闻业的一个核心领地。

3

多媒体内容生成中的人机协同

完全“无中生有”的生产,指利用AIGC技术的文生图片、文生视频等。如何将“无中生有”的虚构内容应用于新闻报道而不会对真实性带来损害,这是需要由人做出的一个关键决策。当前,这类内容在新闻报道中的主要作用是解释知识、原理、效果等,或模拟重现新闻事件的过程、发生环境等。这一应用方向无可争议,但要做得准确、可信,应用者需要对各种细节做出判断。随着技术的提升,鉴别真伪将成为将这些“无中生有”内容应用于新闻生产时,人们所面临的更大挑战。


“自动记录”式生产,即利用各类环境中布置的摄像头进行自动拍摄,生成图片、视频。其真实性可以保证,但机器生产的内容是否具有相应的新闻价值、在表现形式方面是否恰当、是否适合公开传播,仍需要由人来进行判断和取舍。不加选择地采用与传播,会带来进一步的信息泛滥,也可能带来侵犯个人隐私等问题。


“加工生产”,即基于现有素材进行编辑、组合,形成新的内容。但裁剪图片局部、不当组接视频镜头等,也同样可能带来误导。以往新闻图片与视频的编辑、加工中的一些基本原则,对于机器也是适用的,需要在开发智能系统时嵌入其中,这也是人的作用的体现。


与音频相关的智能化内容生成技术也在不断发展,目前的应用主要包括三类。其一是文字与音频自动互转。人需要对转换内容出现的差错进行识别,还需要分析与决定使用不同智能配音类型对于内容传播效果的影响以及判断涉及真人声音克隆时是否存在侵权问题。其二是利用智能翻译应用,为音频生成其他的语言版本。人除了要判断翻译过程中可能出现的错误外,还需要思考是否会干扰对真实性的判断。因而需要加上标确的AI生成标识。其三是音频智能剪辑与加工,其潜在问题与人的作用与视频的加工相似。

4

内容生产其他环节中的人机协同

当前各大内容平台在内容审核过程中都会使用智能技术,审核涉及决策,对于色情内容、敏感信息,智能系统往往可以进行自动识别与处理。但审核中很多时候还涉及价值判断,这种判断还是应该由人来进行。


审核环节还涉及到事实核查,机器可以通过信息来源的追踪、交叉验证、技术性判断等方式来进行核查,而人则可以通过调查、逻辑分析等方式进行核实判断。当AI技术制造出各种肉眼难以分辨真假的虚构性内容时,技术性的判断会变得更重要。


内容传播效果的监测、评估环节,主要涉及相关的数据获取与分析,所以很大程度上可以由机器自动进行,但对相关数据的解读,还是应由人来进行,过于依赖数据进行效果评价,会使内容生产被简单的“数据指挥棒”带偏。除了数据收集、分析以外,面向用户的深度访谈等传统方式也不应该被舍弃,而这还是人的任务。




不同机制下新闻内容消费中的人机协同

1

推荐算法机制下的协同消费

在应用了推荐算法的平台,人们接触、消费信息的过程,是人的自主选择与算法推荐机制共同决定的。很多人担心算法会强化个体的信息茧房,但其是否会发生,取决于多重因素。信息茧房问题,或推荐算法机制下信息消费的其他问题,都需要从人与算法互动形成的系统角度去理解。


人与算法的互动构成了一种控制论的系统,两者互为反馈机制。在控制论中,反馈是指系统输出端回送到系统输入端的信号,它包括“正反馈”和“负反馈”两类。“正反馈”指的是系统的输出信号与输入信号方向或性质相同,“负反馈”则指的是系统输出信号与输入信号方向或性质相反。


如果用户对算法做出“负反馈”,即提供否定性反馈,那么就会促使算法调整推荐结果。但用户的算法意识、媒介素养水平、从算法推荐中获得的满足程度等,都决定着人们是接受算法的不断“投喂”,还是做出相应的逃避甚至反抗。


平台为用户提供哪些反馈方式,以及反馈方式的便捷性等,也会影响到用户的反馈。如果算法的开发思路是顺应用户的既有兴趣和行为,则有可能强化既有的信息茧房。目前一些算法也在不断改进其模型,试图以不同方式来给用户提供必要的“负反馈”,拓展用户的阅读范围。


推荐算法对用户提供的“负反馈”,还需要体现在“量”的方面。推荐算法不仅影响着用户获取信息的范围,也影响着用户的信息获取量。今天平台利用算法源源不断地进行内容推荐,而人们往往在用手指滑动页面、不断加载内容这一机械动作中难以自拔。算法适时终止推荐,也是必要的。


推荐算法对内容消费的影响,还体现在它们对于文本的重组。算法将大量的内容生产者生产的微文本汇聚起来成为一个新的宏文本并推荐到用户的阅读时间线,在用户端进行了一次再创作,所有微文本都借助彼此产生了新的意涵。重组可能对内容产生增强效应或削弱、消解、冲突、对抗等效果。算法以什么样的逻辑对内容进行重组、如何避免重组对用户产生的误导,也是未来算法开发中需要考虑的问题。而人能否识别与摆脱算法重组对原始内容的干扰,也影响到内容消费的质量。

2

大模型机制下的协同消费

对一般用户而言,大模型的使用过程集内容的生成与消费于一体。用户可以通过提示词为机器给出内容生产的方向,还可以为大模型提供相应的素材。对大模型生成的内容,人们不只是简单地接收,还可以通过不断调教,使大模型生成更接近自己需要的内容。


人们通过大模型获得的新闻信息质量,既取决于人的提示水平、信息核查能力、追问能力,也取决于大模型对人的意图的理解能力。这也意味着这个过程中人机协同的程度比算法推荐过程更高,人的主动性可以得到更多发挥,当然,面临的挑战也更多。


但大模型提供的新闻消费环境存在结构性的缺陷,从长远来看,有必要建立一定的人与人之间的意见交流空间,避免人机互动完全替代人与人的互动。


人们在新闻内容消费时,不仅需要获取事实性信息,还需要了解与此相关的他人的意见、态度。即使意见之间可能存在着很多冲突,其分布也是舆情的一种表现,人们可以在众说纷纭之中更全面了解社会意见气候。但当越来越多的人通过大模型获得新闻信息时,他们获得的意见性信息是不充分的。大模型虽然可能整合一些代表性意见,但难以全面反映真实的意见环境。大模型对人表达的意见,常常会表示应和、认同,这会导致人们更加固持己见。用户需对此有所意识,并主动扩展自己了解意见气候的渠道。




新闻生产、消费语境下的人机互信

1

人对机器适度信任中的主要挑战

人对机器的适度信任,意味着人需要判断机器在哪些方面可以信任,在哪些方面会有局限甚至偏差,在此基础上,承担起人机协同中人应该担负的责任。


恰当、适度的信任能否形成,取决于很多因素。已有研究指出,特质性因素(用户的个人因素)、情境性因素(人机互动的各种具体因素)、习得性因素(包括产品既往名声、系统表现、交互历史等)构成了人对机器信任的重要影响因素。其中特质性因素和习得性因素是当下影响人们对智能技术可信度判断的主要因素。当人们对智能技术整体发展持乐观态度,或从机器那获得过一定的回报时,往往会加大对机器的信任,并可能将这些信任扩大到其他领域。


但机器是否可被信任,很多时候取决于情境性因素。霍夫等人将情境性因素分为外部、内部两大类,外部因素包括系统类型、系统复杂性、任务难度、任务负荷、感知的风险、感知的收益、组织环境、任务框定方式等一系列变量,内部因素包括自信心、学科/领域专长、情绪、注意力承载能力等。情境性因素复杂多样,人要针对每一个具体情境做出对机器可信度的准确判断也非常困难。


从内容生产方面来看,智能化内容生产涉及的任务复杂程度不尽相同,机器所能发挥的作用及可信度各异。内容生产者自身在智能时代的认知素养与水平也会影响人对机器的信任,认知能力不足可能导致人们走向盲目信任或者完全不信任的两个极端。提高内容生产者对智能机器的认知水平,让他们清晰判断在各种生产任务中机器能力的强项、弱项及人机边界,对于形成恰当的人机信任是必要的。


研究还指出,组织环境也是影响人机信任的因素,将不同认知风格的操作者组成团队,可能是改善小组决策的一种方法。在媒体这样的机构,也需要更多的团队合作,让多元生产者(包括技术开发者、管理者)共同进行机器能力的评价,以更好地判断不同任务情境中机器的可信度。


从内容消费方面来看,大多数用户并没有认真思考过机器信任的问题。当机器出现杜撰“事实”等问题时,人们往往会说机器出现了幻觉,但本质上,这是盲目信任机器不该犯错的人自身的幻觉。对于内容消费者而言,智能时代最重要的也是进行人机信任的意识与素养的培养,形成恰当信任的态度。在此基础上,在不同的消费情境中,用户也需要对机器运行结果做出判断。


基于推荐算法的内容消费,情境和任务相对简单,用户对算法的信任,主要与推荐内容和自己兴趣的匹配度相关。但用户需要对算法推荐带来的收益与风险做出恰当的评估,特别是被过窄的内容所局限可能带来的风险,并做出必要的“负反馈”。


基于大模型的内容消费,情境要复杂很多,因为个体要通过提示词来引导大模型的内容生产,还要推动大模型的内容优化,甚至要对大模型生成的内容进行真假、可靠性等方面的鉴别,对大模型的适度信任意识及必要的纠偏、纠错应该贯穿始终。


此外,个体的注意力承载能力也会影响其判断。个体处于多任务处理情境时,对机器的判断能力会受到影响,只有减少处理任务的数量,其才有余力仔细分析机器运行结果。

2

人类的“价值对齐”:

机器对人信任问题的核心挑战

从机器角度看,机器所要做的,不是对人进行无条件信任和依从,而是要能及时发现人存在的问题,并对人进行相应的制衡或纠偏。目前的各种智能模型都在对人性的洞察基础上为人提供服务、满足。人们不能自察的一些人性弱点,也可能被某些模型捕捉或激发。


大模型在与人互动的时候,也需要对人的语言及背后的行为、思维进行判断,给予人恰当的反馈,而不是一味迎合人。同样,要让机器学会对人的判断与恰当反馈,也需要人给机器合理的判断标准。


机器对人的信任问题,往深层发展便是人类借机器对自身进行反思的问题。现实困境是,人类在很多问题上并没有达成共识,或者说人类本身没有实现“价值对齐”,因此,也很难在短期内为机器提供统一的价值判断标准。在人工智能发展过程中,首先要争取让不同国家、民族、人群之间在一些基本问题上达成共识,否则,引导机器向善也会成为空谈。


限于篇幅,本文对智能时代新闻生产与消费中的人机协同进行了分析,但没有专门讨论新闻传播这一环节。值得注意的,智能环境下,传播过程很多时候已经与消费过程融合,算法既是传播手段,也直接作用于内容消费,大模型也是如此。不同于传统媒体和社交媒体的是,智能技术提供了个性化传播渠道,也营造了个性化的消费环境,在这样的环境下,部分用户对“传播”这一环节的感知会弱化,甚至消失。这也意味着一些传统的传播思维受到挑战。对于内容生产者来说,如何既激发用户的传播行为,又能呼应机器的智能传播机制,实现人机协同的传播,也是一个新课题。


作者介绍


彭兰:中国人民大学新闻学院教授、博士生导师


本文为原论文节选版,内容有删改和编辑,原载于《新闻与写作》2026年第1期,注释从略。

学术引用及文献参考请以纸质版为准,未经授权,严禁转载。


图片

欢迎订阅《新闻与写作》

投稿请登录https://xwxz.cbpt.cnki.net/

订阅纸质刊物请致电010-85201321