本文试将心智模型的概念引入传播学,系统梳理心智模型的概念流变与理论演进,深入剖析人工智能时代心智模型在传播场景中面临的社会风险,探索心智模型的协同治理路径。
一、引言
起源于认知心理学的心智模型是“个体为支持其对周围世界的预测而构建的框架”[1],日渐成为人机交互(HCI)研究的关键组成部分。我们关于复杂计算机系统运行方式的心智模型,决定了我们如何预测其输入将产生哪些输出,而计算系统的错误模型,则可能会导致用户在网上做出不良的行为选择。目前,人机交互中的心智模型相关研究仍集中在心理学及计算机科学领域,从理论层面来看,探讨模型在人工智能时代的理论重构[2]、面临的挑战与未来发展方向[3];从应用层面看,基于模型展开团队绩效[4]、工程设计[5]、用户决策[6]等方面的分析。近年来,人工智能深度融入社会生产生活,人机协同、人机沟通、人机信任等成为智能传播研究热点议题,关乎信息传播效率、社会认知塑造乃至公共决策走向。本文试将心智模型的概念引入传播学,系统梳理心智模型的概念流变与理论演进,深入剖析人工智能时代心智模型在传播场景中面临的社会风险,探索心智模型的协同治理路径。
二、人机交互中的心智模型概念
将认知心理学视角融入人机交互研究,促使理性主义框架下对人机交互效能的关注,转向以情感、认知为核心驱动力的交互体验探索,达成人机间情感与交互行为的耦合。其中,心智模型的概念拓宽了人机交互理论,也成为传播学研究中的重要视角。本文追溯心智模型在各学科的理论发展、内涵与特征,为从传播学视角理解其在人机交互中的作用及社会影响提供启示。
(一)理论溯源:智能传播技术推动下的跨学科延伸。“心智模型”的概念可以追溯到心理学传统。1943年,苏格兰心理学家肯尼思·克雷克(Kenneth Craik)在《解释的本质》(The Nature of Explanation)中首次使用“心智模型”(mental model)一词,指个人在个体经验、外部资源等多重因素共同作用下形成的、对复杂世界系统的简化认知[7]。在他看来,人类推理涉及对外部世界的动态内部表征进行心理模拟。20世纪70年代末,包括唐·诺曼(Don Norman)、埃德·哈钦斯(Ed Hutchins)等在内的一批认知科学家开始将“心智模型”引入人机交互研究,用来解释“用户如何理解复杂系统”。从认知科学的角度来看,计算机软件系统的用户会依据存储的特定操作序列知识、完成特定任务的通用规则或心智模型(对系统工作原理的潜在理解)来决定自己的行为。1983年,诺曼提出围绕用户的心智模型进行计算机系统设计[8],使得心智模型成为人机交互设计的核心理论工具。随着研究的不断深入,人机交互中研究心智模型的方法,不再局限于关注用户的知识与信念,而是会提出更为细致入微的理论问题,如聚焦用户如何理解特定设备的工作原理、他们的信念如何塑造交互行为,以及能从设计中汲取哪些经验教训[9]。
因此,从历史上看,心智模型这一概念多在心理学、认知科学、设计学及其相关领域被广泛使用,其应用场景也多局限于理论研究与实验室环境,尚未在更广泛的社会科学领域形成系统的应用体系。实际上,作为一种描述人类认知过程的核心理论,心智模型与传播学之间存在着深刻的内在关联,为理解信息传播机制提供了关键视角。传播学的本质是研究信息如何从传播者传递到受传者,并对受传者产生影响的过程,而这一过程的核心在于受传者对信息的接收、加工与解读,也即心智模型发挥作用的关键环节。
早期,心智模型在传播学领域的研究集中在媒体效果研究。学者将心智模型与传播学中的启动效应、涵化等经典理论结合,提出媒体信息的叙事与视觉呈现方式能够帮助公众搭建起针对相关观念、概念及行为的认知网络,个人对媒体的反应则可被视作其创建和激活心智模型的过程[10]。在此期间,个人的心智模型会影响其感知与使用媒体的方式[11]、对信息的判断和处理[12]、对文本的理解与解读[13]等媒介相关行为与信息处理过程,继而作用于公众的决策行为并产生社会影响。有学者以心智模型为理论视角,揭示影响公众解读争议性事件报道的因素[14];还有部分学者将目光投向风险沟通领域,将心智模型视作风险沟通领域弥合风险认知差距以解决“邻避困境”的有效手段[15],为心智模型在传播实践中的应用价值提供了有力例证。
随着算法推荐、虚拟交互、大语言模型(LLMs)等智能传播技术的普及,人机交互中的心智模型进一步嵌入传播学研究。理查德·拉赫曼(Richard Lachman)在《传播革命:人工智能的角色》中分析了对话式人工智能在与人类交互时,人类的认知模式、心智模型对交互的影响以及相关的伦理问题[16]。喻国明等认为建立共享心智模型是实现人机高效合作的关键之一,人们需要让大模型的生成内容与人类的价值观、道德伦理以及社会规范相一致,以确保人机协同过程的信任与安全[17]。然而,无论在理论层面还是应用层面,目前都鲜见将心智模型引入传播学领域的实证研究。
(二)基本内涵与核心特征:智能传播场景中的可演化逻辑。在人机交互领域,关于心智模型的定义,学者有多种不同的描述,如“由对象及其关系组成的有序结构”[18]、“关于设备内部结构与过程如何运作的知识”[19]、“代表个人对决策问题认知的抽象概念”[20]等。还有学者将用户对系统的心智模型定义为一种丰富且详尽的结构,其可以被视为关于系统的知识,这些知识足以让用户在选择执行某个操作之前在脑海中尝试各种行动[21]。综合而言,人机交互中的心智模型是指一套足以让用户在行动前即可在脑中“试运行”的系统知识,其内容一般涵盖是什么(what)、如何运作(how)、为何如此(why)三个层面。
对于信息传播过程,心智模型的内涵可以通过话语分析、领域分析和意义构建三个框架来理解[22]。话语分析框架将口头和书面交流视为需要解释和分析的情境化现象,其目的是识别话语的基础、隐含假设和隐藏议程;领域分析框架旨在探究不同学科领域在信息需求、查找、生产和使用方面存在异同的认识论基础;意义构建框架则是用于研究个体通过信息互动构建和解构“意义”的现象。心智模型将这三个框架的要素整合在一起,一旦收集到心智模型的解释、描述和产物,就可以对其进行分析,以识别支撑它们的假设;这些信息寻求的心智模型在其应用的领域方面存在差异,因为信息环境甚至会迫使最稳定的模型做出一些修改;而意义构建为在情境化信息遭遇中推进的过程提供了一个以用户为驱动的结构。
分析现有实证研究可以发现,心智模型呈现出四个核心特征:(1)“结构—功能”同构。用户心智模型与系统的关键功能结构保持映射关系,而非与实现过程一一对应[23]。在接受算法推荐的过程中,用户的内部表征在于“点击—推荐—排序—推送”,而不会关心大数据分析和过滤的过程。(2)动态可修正性。在交互经验、系统反馈或外部帮助下,心智模型会不断被修正、细化或重构[24]。在向社交机器人展开提问时,若平台提供类似“以上内容基于关键词匹配”的简短解释,用户后续提问策略可能会显著改变,如增减关键词等。(3)层级可切换性。同一用户可根据任务复杂度或系统透明度,在不同抽象层级之间切换模型[25]。在刷短视频时,当用户浏览与个人利害无关内容,处在轻负荷模式时,其心智模型停留在“点赞—推荐”表层模型;而一旦遇到争议内容,负荷骤升,会切换至“算法逻辑—商业动机”深层模型。(4)可运行性。用户可以用试验性、探索性的输入“运行”,观察其产生的行为并评估策略优劣[26]。在利用人工智能辅助写作时,用户输入提示词后,会在心里快速“预跑”一遍生成结果,再决定是否修改提示。因此,心智模型可以用于解释算法透明度与可解释性、危机事件归因、用户策略演化等智能传播场景中的现象及问题。
三、心智模型在人机交互中的
作用机制
心智模型主要通过三类关键活动发挥作用:帮助个体对社会环境中事件发生的目的和现状进行描述;解释事件发生的原因;对事件未来的发展趋势进行预测[27]。在人机交互过程中,个体会经历“观察—理解—行动—验证—反馈修正”的迭代循环,通过观察收集信息形成自己的理解,并展开行动进行验证和不断修正形成心智模型(如图1)。
图1 人机交互中的心智模型活动图
随着人工智能技术向日常生活场景的深度渗透,人机交互已从传统的“工具操控”转向“社会互动”模式。在智能传播生态中,生成式人工智能正逐步成为用户获取信息、参与讨论、形成观点的重要中介。相较于传统机器系统,生成式人工智能的交互更具动态性与不确定性,此时心智模型更成为弥合用户认知与机器交互逻辑之间鸿沟的关键。下面,以用户与生成式人工智能展开对话的过程为例,阐释心智模型在人机交互中的作用机制。
(一)认知映射:描述人工智能的角色定位与内容特征。心智模型的“描述”环节聚焦于个体对事件外部形态表征与输出信息的关注,在人机交互中,这一环节表现为用户对系统“功能信息”与“运行状态”的认知捕捉。媒体等同理论认为,个人经社会化习得交往规则,与社会主体交往时用以维持形象、获得自我认同;与媒介互动时,会无意识地将其视作社会行动者,依据媒介社会化线索调动规则互动[28]。放置在人机交互场景下,就意味着用户可能会像对待真人一样对待机器,产生理性思考逻辑之外的、无意识的社会性反应。用户的描述性认知进一步延伸,在交互初期便会无意识地以“社会互动”逻辑,调用心智模型对机器进行描述性认知映射。
具体而言,在人机对话过程中,用户首先需要明确“AI当前在做什么”“这一回应属于什么类型”“它是否回应了我的需求”,即对AI交互状态的外部表征与输出信息进行梳理。例如,当用户向AI提问“如何撰写某活动策划方案”时,其心智模型会迅速激活,将AI默认为某种“信息中介角色”(如答疑者、总结者、分析者),即具备专业知识输出能力的主体,并基于该角色定位,判断AI的回应是“直接提供框架”“补充案例参考”还是“需要进一步追问细节”。这种描述性认知并非单纯的事实判断,而是用户基于自身经验(如过去与搜索引擎、问答平台、专家交流的体验)形成的理想回应与AI实际表现之间的对比结果。
此外,用户还会通过心智模型对AI的“功能适配性”进行描述性判断,即选用的AI是否适合处理当前类型的问题。若AI的回应与用户心中的角色定位不符,用户便会判断其存在“功能性误配”,进而影响对AI能力的整体评估和后续使用。值得注意的是,特定人群(如老年用户、文化水平较低用户)可能因感知能力不足而在信息获取上存在障碍,若AI角色定位模糊或内容特征不清晰,也可能导致整体描述性认知受阻。因此,描述活动不仅是用户理解AI“当前在做什么”的认知基础,更是后续判断AI可信度与适用范围的前提条件。只有明确了AI的角色与内容特征,用户才能建立起稳定的交互预期,为后续的归因与预测环节奠定基础。
(二)因果诠释:解释生成内容的回应逻辑与可信依据。在用户形成对AI交互状态的描述性认知后,下一步通常会思考“为什么AI会给出这样的回答”。该归因过程依赖于心智模型的解释性推理功能,即用户通过整合自身知识背景、交互经验与对AI能力的预设,判断AI回应的合理性、专业性与潜在动机。人们对事件发生原因的解释会显著影响其态度与行为,用户对AI回应逻辑的归因判断,直接决定了其对信息可信度的评估与后续互动意愿。
例如,当用户询问近期某商品价格上涨原因并得到AI从多个角度的分析时,其心智模型会启动归因推理。当AI的回答基于可靠的知识库与逻辑推演时,用户可能会认为“AI提及的是关键变量,解释合理,可信度较高”;当AI仅仅调用了常识性信息,可以适用于任何时期或任何商品时,用户可能会认为“AI生成内容模板化、刻板化”;当发现AI存在明显无关角度分析,甚至引用的数据与事实明显不符时,用户则会归因于“AI生成内容缺乏事实依据”甚至“AI存在造假嫌疑”。更进一步地,若AI的回应长期呈现“模棱两可”(如“可能有多种原因”)或“绝对化表述”(如“一定是某个单一因素导致”)的特征,用户可能形成负面归因(如“AI回避复杂问题”或“通过模糊语言掩盖知识缺陷”)。
这种解释性认知不仅影响用户对单次回答的信任度,更会累积为对AI整体能力的判断。例如,若用户多次发现AI能够在熟悉的领域(如日常生活咨询)中持续提供准确、实用的回应,其心智模型便会强化“AI是可靠的信息补充工具”的归因逻辑;而在专业领域(如法律、医疗)中提供未经验证的结论,则会建构出“AI不适合处理高不确定性问题”的解释框架,进而限制提问范围与依赖程度。由此可见,归因活动是连接“描述”与“预测”的关键环节——它既基于当前交互的观察,又为后续行为预期提供依据。
(三)预期建构:预测未来交互的话语策略与发展潜力。在完成对AI当前状态与回应逻辑的认知后,用户将进一步形成对未来交互趋势的预判,这一过程依赖于心智模型的预测性建构功能。受众对媒介的使用动机与其需求满足程度密切相关,而对媒介效果的预期则塑造其持续使用行为。在智能传播场景中,用户与AI的互动同样遵循这一逻辑:用户基于历史交互经验,通过心智模型预测“AI接下来会如何回应”“它能否解决我下一步的问题”“我是否应该继续深入提问”,进而决定自身的话语策略,成为推动交互从“单次对话”走向“持续协同”的核心动力。
若用户在先前对话中获得清晰、专业的回答,其心智模型可能建构出“该AI具备深度分析能力,适合处理复杂问题”的预期,从而在后续对话中提出更专业的问题;反之,若多次交互中AI频繁出现“答非所问”或“信息片面”的情况,用户的心智模型则会调整为“该AI仅适用于基础信息咨询,不可依赖其进行专业判断”,进而限制提问深度与使用频率。更进一步,用户可能基于心智模型对AI的能力边界形成明确预判,如“该AI擅长归纳总结,但不适合法律或医疗建议”“涉及专业领域时,需对其回答保持审慎态度”。这种预期性认知不仅影响用户当下的提问策略(如是否提供背景信息、是否简化问题),更决定其是否将该AI纳入长期使用工具库。若多次预测结果与AI实际回应一致(如预测AI能提供专业建议,且实际输出符合预期),用户会将AI生成的内容纳入个人知识体系,甚至进一步传播;若预测与实际偏差较大,用户则会逐渐减少使用频率。而每一次“预测—验证”的结果,都会反馈至心智模型,推动其进行修正或强化(如调整对AI能力边界的认知)。
经过“描述—归因—预测”三类关键活动的循环运作,用户形成的行为选择会进一步对心智模型进行检验与扩展。若多次交互中,AI的表现持续符合心智模型的预期,用户会强化对AI的认知信任,逐渐从“被动接受回应”转向“主动协同合作”;若AI的表现频繁超出或低于预期,用户则会调整心智模型对AI的角色定位与能力判断,重新适配交互策略。这一过程推动人机交互从“单向的认知适配”走向“双向的协同进化”,从“以用户指令为中心”转向“以用户意图为中心”,即“人机协同”。作为人机交互理念的扩展与升级,人机协同标志着人与机器的关系从工具使用向深度伙伴关系演进,充分发挥人与机器各自的优势,从而实现更高效、更智能的工作和生活方式。
四、人机交互中心智模型的
潜在社会风险
如今,大模型已突破传统工具理性的认知框架,由机械性感知反馈范式跨越至类人主体认知决策范式。然而,大模型的类人心智即硅基心智的生成依赖于算法、算力以及数据,与人类基于大脑、神经系统和感官生成的碳基心智相比,在底层逻辑上有着不可忽视的差异。随着用户心智模型随技术革新不断演变,这种差异正引发认知偏差、盲目信任、伦理困境等诸多潜在社会风险。
(一)认知偏差:LLMs引发认知替代与AI幻觉。早期规则型聊天机器人主要作为文本内容的接口或预设计算操作的触发器,其设计旨在提供帮助、具有可预测性且实用,能协助用户完成任务或帮助组织展示信息。它们可以自行回答简单问题,将更复杂的情况转交给人类智能体处理,从而减少整体工作量并节省成本。该类聊天机器人依托固定知识库与预设规则运行,对话的生硬特性使用户心智模型清晰。
而大语言模型(LLMs)的出现标志着人机交互在伦理、技术和人类动力学方面的重大转变。LLMs将统计学作为基础工具,用以分析和模拟复杂的语言模式,使其能够通过概率预测下一个单词或短语,生成连贯且与上下文相关的文本。通过应用先进的统计技术,大语言模型在海量数据集上以无监督的方式进行训练,通过学习复杂的语言结构和关系,从而具备自然语言对话能力。目前,计算机在某些领域已经能够达到甚至超越人类的智能水平,ChatGPT、Claude、“文心一言”等大语言模型的出现,让人机交互不再局限于简单的指令输入和反馈,而是转向了更为复杂和深入的对话式交互[29]。
然而,这种实现方式上的差异可能导致人类用户在解读大语言模型的交互和输出时出现严重偏差,在特定情境下,人类期望与软件能力之间的这种偏差可能会造成危害。LLMs凭借强大的运算能力和丰富的数据储备,能够高效输出文本,使得用户在长期使用过程中逐渐对其产生依赖,自主判断能力以及对复杂议题的思辨能力随之不断弱化,最终形成“认知替代”现象。同时,LLMs流畅自然的语言表达,极易让用户产生一种错觉,误以为其具备与人类相媲美的深度思考和理解能力,从而陷入AI幻觉,即LLMs生成的那些在表述上看似合理流畅、但与事实不符或无法从源出处中得到验证的内容,其既不能被源内容支持、也不能被源内容反驳[30],对人类认知方式带来深刻挑战。
(二)盲目信任:机器启发法引发过度信任与决策失误。麦肯齐(MacKenzie)提出的关于如何学会信任某事物的模型包括归纳(我们观察到正确的输出)、权威(对外部判断的信任)和演绎(从相关信念中推断)[31]。计算机的界面设计使用户在无需进行冗长或深思熟虑的思维过程的情况下引发各种假设,人们往往通过后两类因素来影响对机器的信任,依赖简单的启发法或经验法则来减少脑力消耗,从而简化交互过程。桑达尔(Sunder)和金(Kim)将该现象称为“机器启发法”,即人们认为在相同情况下,计算机通常比人类更可靠、更安全[32]。当看到那些号称拥有数十亿“参数”、在数万亿数据点上训练而成且是数十亿美元投资成果的人工智能系统时,人类很难有其他想法。
“计算机即社会行动者”(Computers are Social Actors, CASA)理论[33]认为,当计算机具有社会化特征时,用户会无意识地将计算机视为社会中的人一样对待,将既有的人际交互心智模型运用于人机交互中,根据计算机系统产生的社会化线索(如输出内容、语言风格等),形成一定的社会规则(如刻板印象、道德规则等),并对计算机产生情感投射和社会性反应(如喜爱、信任等)。
这可能导致用户在人工智能“辅助”下出现判断失误、过度信任,以及在自身决策中出现相应错误。而当用户必须快速做出决策、大规模决策,或在对某个主题缺乏深入监督和了解时,计算机系统出错的可能性可能更大。实际上,LLMs所采用的可靠性标准在不同应用场景中大相径庭——在设计创意性输出等某些场景中,海量的训练数据以及在云端处理上的巨额投入催生了几乎令人难以想象的精彩输出,但在其他场景中这些输出可能并不可用。用户只能看到输入和输出,却不了解它们是如何从输入转化为输出的。在某种程度上,设计者对于模型内部的情况也只有有限的了解,这又涉及“算法黑箱”的问题。
(三)伦理困境:拟人化设计引发情感错配与技术操纵。人们在预测自身行为会引发何种结果时,一般会采用三种策略,包括物理立场、设计立场和意向立场[34],这在一定程度上解释了心智模型的表征逻辑。其中,物理立场基于物理定律和物理属性来培养直觉,设计立场借助系统的特性以及用户对这些系统的经验来预测结果。而对于更复杂的系统,可以用意向立场来解释,即将一个实体(人、动物、人造物等)视作一个理性的智能体,基于信念和目标做出选择。在人机交互中,用户常采用“意向立场”,即默认人工智能系统是具有理性决策能力的主体。在用户的意向立场中,可能有不止一种视角,交互的细节、设计以及个人经验综合触发了选择何种模型。
而友好语气、人类名称等拟人化交互设计进一步强化了用户的“意向立场”,致使“工具”与“主体”的心智边界变得模糊不清,最终导致用户产生“情感错配”,即错将对人类的情感投射到本应作为工具的人工智能之上。部分技术设计利用了用户的这种心智模型漏洞,实施不道德的操纵行为,如于2018年推出的人工智能服务机器人Google Duplex未向对话人员表明自己为AI身份且有意向真人靠拢;而基于人类反馈的强化学习(RLHF)技术优化的LLMs,被发现更善于运用谄媚、欺骗性对齐、指令失控等手段[35],影响用户对客观事实的认知。这些行为不仅公然违背了交互透明性的基本原则,更标志着技术操纵从以往被动借助用户心智预期,转变为主动设计陷阱,极大地加剧了人机交互中的伦理风险。长此以往,不仅会破坏用户对技术的信任,还可能对整个社会的伦理道德体系造成冲击,引发一系列深层次的社会问题。
五、人机交互中心智模型的
协同治理
随着LLMS等人工智能技术在协调人类互动时整合了用户建模、对话策略、博弈论以及数据/观点挖掘等技术,它们进入了关于透明度、可靠性以及说服性技术作用的新伦理领域。[36]剖析多元行动者的主体责任,能在技术演进的各个阶段更好地降低伦理失范带来的风险,以多重实践抵御技术异化。从技术、制度和用户层面出发,技术研发人员、多学科专家、用户等多元行动者可以发挥协同作用,形成治理合力,以有效应对人机交互中心智模型带来的潜在社会风险,推动人工智能真正服务于人类福祉与社会价值。
(一)技术:遵循可解释性和透明性原则,匹配输出与过程。大模型技术的运行机制可解构为数据输入、算法运行与内容输出三阶段,深度学习的多层非线性变换机制使得决策过程呈现“输入—输出”的不可观测性[37],而输出与过程的匹配成为破解“算法黑箱”的核心突破口。
可解释人工智能研究不应脱离实际应用场景去开发通用方法,而应专注于在预期场景中有意义的解释。这种场景类似于心智模型的场景,包含受众(解释的受众是谁),语言(用于交流的语言是什么),以及目的(模型的目的是什么)三要素。[38]确保算法决策以及驱动这些决策的所有数据都可以用非技术术语向最终用户和其他利益相关者解释,不仅有助于人工智能的有效治理,更是实现人机信任的基础。
具体而言,一是搭建透明度高的模型架构[39]。采用较为容易理解的模型架构;完善模型文档和元数据的管理;重视开发与利用可解释性工具,展示模型在处理文本时对不同信息源的权重分配,以及推理过程中的关键步骤,帮助用户理解模型如何“思考”。二是建立分层披露机制。将模型决策过程解构为语义解析、逻辑推演与价值权衡三个认知层级,对应差异化的透明度要求[40]。三是融入知识图谱技术。知识图谱提供了丰富的语义信息和实体关系,采用“草图”式的互动风格,使模型在生成内容时能够依据结构化的知识体系进行推理,能帮助模型快速定位准确信息,更好地理解问题,减少对不确定或错误信息的依赖。
(二)制度:整合多学科力量,完善行业规范与法律监管。人工智能技术的迅猛发展使得传统以“可解释”为核心的人工智能治理范式面临严峻挑战,有学者将治理逻辑从“可解释”重构为“可信任”,将前者作为特定情境下的重要手段而非普适性目标,通过多个维度构建对人工智能系统的整体信任[41]。而信任问题恰与人机交互中的心智模型紧密相关,这意味着在技术之外,还需从社会和制度视角考虑治理路径。
对此,应建立多学科协同的伦理审查机制。欧盟委员会在《人工智能法案》中设立了AI办公室和欧洲人工智能委员会,负责全面指导和协调欧盟范围内的AI监管工作;英国采用去中心化的监管模式,依靠多个监管机构共同执行AI监管工作;美国则由各政府部门在各自职权范围内进行监管[42]。可以借鉴国外在AI监管方面的不同做法,引入跨领域学术人才,成立由计算机科学家、认知心理学家、伦理学家、社会学家等多学科专家组成的伦理委员会,负责对人机交互技术从研发到应用的全生命周期进行全程监督,评估其潜在的社会风险和伦理影响。例如,在技术研发阶段,伦理委员会可审查系统安全性、数据来源的合法性、标注过程中的偏见风险;在技术应用阶段,持续监测技术使用情况,及时发现并纠正可能出现的伦理问题;还可以作为智力支撑,为政府和企业提供前沿的AI理论研究和技术支持。
此外,完善相关行业规范与法律监管。一方面,制定人机交互行业的规范和标准,明确技术开发者、服务提供商和用户的权利和义务。例如,规定开发者在数据收集、模型训练和算法设计中的责任,要求其保证数据的合法性、准确性和公正性;规范服务提供商在产品推广和使用过程中的行为,防止过度宣传和误导用户。同时,加大行业监管力度,对违反规范的企业和个人进行严厉处罚。另一方面,完善相关法律法规,为解决人机交互中的纠纷和风险提供法律依据。针对机器启发法引发的过度信任与决策失误问题,明确机器系统造成损害时的责任归属,特别是在决策失误、隐私泄露、内容侵权等情形下,厘清开发者、平台方与用户的权责关系。此外,制度设计还应鼓励“软法”与“硬法”协同治理。通过行业自律、技术标准、伦理指南等柔性机制引导企业自我规制,同时以法律手段设定底线、提供救济,形成多元共治的治理格局。
(三)用户:培育认知素养,提升信息甄别能力和风险意识。人类的不完美认知不仅可能诱发或加剧技术幻觉,还可能无意识地为其提供合理化解释,从而放大风险并误导使用者[43]。应当认识到,机器始终无法作为主体与核心参与信息生产与传播,其在协助和解放人的同时也需要人进一步提升自身的价值判断、信息甄别能力。用户需要更深入的技术理解、特定知识以及复杂且有自我意识的沟通能力,才能理解人机交互的动态和脆弱性。
通过剖析用户对信息甄别能力产生影响的内在驱动路径,可以发现用户与人工智能交互中的信息甄别能力可通过认知支持路径、元认知激发路径以及认知惰性路径三条路径进行理解。相应地,人工智能素养培育应注重提升用户识别与解构人工智能输出的逻辑结构的能力、良好的反思意识与自我调节能力,以及对于系统输出权威性的理性看待与判断责任归属的明确认知[44]。基于以上内容,对用户认知素养的具体培育路径可从三方面展开:首先,通过组织线上线下的培训讲座、发布科普视频和文章等开展针对普通用户的认知素养培育,增强用户对人机交互技术原理和特点的了解,避免盲目信任。其次,通过媒体、社区活动等多种渠道,宣传人机交互中的潜在风险,发布风险案例,引导用户保持谨慎态度、增强风险防范意识。最后,在社交媒体平台上设置话题讨论,鼓励用户分享自己在人机交互中的经验和遇到的问题,将用户经验纳入系统优化与监管依据,形成“以用户为中心”的治理闭环。
【本文为国家社科基金重大项目“媒体深度融合发展与新时代社会治理模式创新研究”(批准号:19ZDA332)成果】
参考文献
(罗昕:暨南大学新闻与传播学院教授、博士生导师;安沛欣:暨南大学新闻与传播学院博士研究生)