周葆华:生成式人工智能影响下的新闻生产创新:实践与挑战

作者:周葆华(复旦大学信息与传播研究中心研究员,复旦大学新闻学院教授,全球传播全媒体研究院研究员,复旦大学国家发展与智能治理综合实验室研究员,本刊学术顾问);陆盈盈(复旦大学新闻学院博士研究生)
来源:《青年记者》2024年第3期
导 读:
本文聚焦生成式人工智能影响下的新闻生产创新实践,通过一系列代表性调查展示了生成式人工智能在国际新闻界的基本采纳状况,重点关注生成式人工智能技术在新闻生产关键领域中的具体实践和创新。
随着OpenAI的ChatGPT等产品的诞生,生成式人工智能(Generative Artificial Intelligence)对新闻创新的影响获得关注。各类相关技术在新闻业实践中得到应用,已经能够在辅助内容创作、进行事实核查、处理数据、生成图像、转换与翻译语音以及加速流程性工作等具体情境中发挥一定的作用,成为部分分担人力工作、提升效率的工具[1][2]。但是,目前关于生成式人工智能如何影响新闻创新的研究仍以思辨性分析居多,缺乏对于新闻业采纳与应用生成式人工智能实际状况的调研;对于生成式人工智能具体如何应用于新闻生产创新的实践分析,特别是在超越技术神话,探索生成式人工智能如何服务于新闻业的核心使命——报道事实、呈现真相方面,实质性探讨还不多。
为此,本文希望通过对国内外相关资料的梳理,描画生成式人工智能应用于新闻生产不同环节或领域的具体实践与创新之处。所采用的资料包括Web of Science、arXiv和谷歌学术等学术文献平台,也包括高校与新闻机构等进行的行业调研及相关博客文章等,如伦敦政经学院(LSE)与谷歌合作的JournalismAI项目、世界新闻出版协会(The World Association of News Publishers,WAN-IFRA)发布的调研报告等。本文回顾了生成式人工智能目前在国际新闻业界的基本采纳与应用情况,梳理了新闻生产中生成式人工智能对具体实践的影响与创新,并基于此展开了相关讨论。
生成式人工智能的采纳与应用场景
国际新闻业对生成式人工智能的采纳与使用情况引起了相关专业协会与科研机构的关注。世界新闻出版协会与德国调研公司SCHICKLER在2023年4-5月进行了一次有关生成式人工智能对新闻编辑室影响的调查(以下简称“WAN-IFRA调查”),收集了101份全球各地新闻从业人员的回复[3];伦敦政经学院的JournalismAI项目在2023年4-7月同样进行了一次针对新闻从业者的调研(以下简称“LSE调查”),收集了46个国家、105个不同规模的新闻编辑室中超过120名新闻记者、编辑和技术人员的回复[4];牛津路透新闻研究所2023年和2024年先后推出两份关注生成式人工智能议题的新闻业发展变革和趋势预测报告[5][6],均包括对于业界管理者(如总编、CEO或数字创新部门负责人)的调查或访谈,前者调查了135人,后者访问了314人。
(一)采纳情况
在LSE调查中,大部分受访者(85%)表示至少已经尝试使用过生成式人工智能相关技术。WAN-IFRA调查则发现:近一半(49%)受访者所在的新闻编辑室已经在使用生成式人工智能工具;不过,这些新闻编辑室内从业者使用的频率不高:70%的受访者表示其机构内只有少数记者(低于15%)每周都使用生成式人工智能工具。尽管这两项调查均非严格意义上的大样本随机抽样调查,限制了其结论的可推广性,但大致透露出的信息是新闻媒体目前对生成式人工智能的尝试热情较高,尽管其实际的定期使用比例可能尚不高。
(二)机构反应与行动
生成式人工智能对新闻创新的影响首先表现在组织机构的反应与行动上。牛津路透新闻研究所2023年报告中,针对其机构是否已具有宏观上应用生成式人工智能的计划这一问题时,29%的受访者表示已经发布,39%的受访者表示在构思,另有21%的受访者还在考量出台这类文件的必要性;针对有无如何在更具体化的不同情境中使用生成式人工智能的操作指南,仅有16%的受访者表示其所在机构已具有,35%的受访者表示尚在雏形,30%的受访者则表示依旧处在思考评估阶段。WAN-IFRA调查也发现,仅有20%的新闻编辑室已经发布正式的生成式人工智能工具使用规范,不过有近一半的受访者表示,虽然尚无成型文件指南,记者们通常被允许通过他们认为合适的方式使用这些技术。
在不同的策略指导下,新闻编辑室之间开发和整合生成式人工智能技术的组织机制亦不尽相同。LSE调查指出,有26%的受访者所在机构组建了专门的跨部门合作工作组,29%由其创新及数字化团队负责,11%由技术部门牵头,9%由数据团队带领,其余26%则通过IT、商业、行政管理、编辑与内容生产等部门负责这一工作。
(三)主要应用场景与期待
WAN-IFRA调查发现:以内容摘要(summaries)为主的文本创作(如缩写拜登的国会讲话)是目前新闻编辑室中最普遍的应用生成式人工智能技术的方式(54%),其他较常见的应用还包括简化性的研究或检索(44%)、文本纠错(43%)以及提高流程效率(43%)等。LSE调查发现,生成式人工智能的应用尝试主要包括事实核查与校对、内容趋势分析,以及写代码、图像生成、标题与文章摘要生成等(尽管并未报告准确比例)。
WAN-IFRA调查中,生成式人工智能工具被赋予最多期望的发展方向包括:更好地提升新闻工作流程效率(61%)、提供内容翻译(51%)、个性化(42%)等服务。LSE调查中,受访者期待它未来在新闻室中发挥更大作用,主要集中在以下几个方面:事实核查与虚假信息分析、内容个性化与自动化、文本总结与生成、通过聊天机器人进行初步访谈并感知公众情绪等。牛津路透新闻研究所2024年报告中,56%的受访者从新闻机构决策者的立场出发,认为后台的新闻自动化(如转录与校对)是未来生成式人工智能工具发展的首要方向,37%的受访者认为推荐系统是未来的发力点,28%的受访者提及有人类参与的内容创作, 27%的受访者提及商业化,25%的受访者提及撰写代码,22%的受访者提及新闻调查(investigation)和事实核查(fact-checking)等工作。
(四)态度与感知
面对生成式人工智能,WAN-IFRA调查指出,新闻机构中存在着“拒绝者”(the “no thanks” users)、“谨慎者”(the cautious)、“好奇者”(the curious)以及“引领者”(the champion)四种不同接受态度的人群。该调查发现,32%的受访者认为管理层是驱动机构内部使用生成式人工智能的主要群体,其次是数据/技术团队(31%)、记者(27%)。针对生成式人工智能当下在新闻编辑室中发挥的具体作用,39%的受访者认为其同等兼具辅助工具角色(supportive role)和质量提升实际功能(quality improvement),但更多(50%)受访者认为其主要扮演辅助工具角色,只有8%的受访者更倾向于其质量提升的作用。面对生成式人工智能的近期发展,当被问到是否认为其能够成为新闻工作者的得力助手时,70%的受访者表达了明确积极的态度,只有2%的受访者表达明确否定,其余18%的受访者表示需要完善,10%的受访者则认为不明朗。在牛津路透新闻研究所2023年报告中,74%的受访者认为生成式人工智能能够在保证新闻核心价值的同时提升新闻机构的工作效率。
(五)关切与担忧
生成式人工智能并非新闻编辑室中面对生产效率、内容质量与专业性等问题的完美答案[7]。WAN-IFRA调查发现:信息偏误(inaccuracies)是大部分受访者(85%)面对生成式人工智能工具时的最大忧虑,抄袭与侵犯版权(67%)、数据保护与隐私问题(46%)以及对工作的威胁(38%)也是受访者的关切所在。LSE调查指出,与较传统的智能技术风险类似的算法偏见等问题也被提及,且受访者认为生成式人工智能使得这类风险的潜在危险更难以控制。从具体的应用领域看,牛津路透新闻研究所2024年报告指出,有超过一半(56%)的受访者认为,内容生产是目前生成式人工智能应用最广泛的领域,同时也隐藏着最大的风险;其次是素材收集(28%)。
生成式人工智能应用的新闻生产创新实践
新闻机构及从业者对生成式人工智能技术采纳后,需要将其融入新闻生产实践过程,这不是简单的技术“使用”,而是不同行动者(包括人类行动者、非人行动者)之间的交互、协商与磨合[8]。本文从辅助新闻内容创作、新闻选题与角度、数据新闻、调查与监督报道、事实核查等5个领域,通过案例分析生成式人工智能如何嵌入新闻生产的实践过程。
(一)辅助新闻内容创作
辅助进行新闻内容生产创作是生成式人工智能在新闻创新中的主要应用,既包括资料整理等流程性辅助,也包括直接参与生成文章、图片或视音频等正式内容。其中,流程性工作辅助主要包括:稿件审核、笔记速记及转录等工作,具体案例包括挪威媒体Verdens Gang开发的Jojo、丹麦媒体Zetland开发的Good Tape等[9];文本翻译与优化工作,例如法国报刊Le Monde在AI辅助下,翻译与产出稿件的效率得到较大提升,在人类编辑加入修订工作的前提下,一天能够生产大约30篇英文版新闻故事[10];资料整理方面,如有研究通过指令工程技术,让大模型能够帮助梳理新闻的时间线,把握关键事件的重要发展节点,辅助新闻生产工作[11]。还有三类常见应用介于辅助工作流程和实际生成内容之间:第一是新闻摘要的生成,瑞士新闻媒体Aftonbladet发现,附加了通过人工智能生成摘要的新闻报道能够增加受众尤其是年轻受众的参与度[12];第二是新闻标题的生成、测试与优化,例如YESEO App通过GPT为新闻报道生成建议的标题列表,这些标题随后可以被用于A/B测试,以决定哪些标题可以带来更好的阅读量[13];第三是附加测试题的生成,例如数字媒体The NRI Nation尝试将GPT-4模型接入谷歌文档,并通过一系列的指令测试,来快速生成新闻报道中常用的增加读者与内容互动性的测试(quiz)板块[14]。
除了新闻生产流程辅助和摘要标题等副内容生成外,生成式人工智能亦已应用到正式内容的生成中,呈现两个主要特点:第一,相对于生成正式完整的文本,生成图片或视音频可能更为普遍;第二,生成图片或视音频亦非直接生成新闻要素,而是依托于业已存在的新闻文本,进行文生图(视音频)的转换,或是生成示意性内容。换言之,目前还很少见到新闻媒体直接运用人工智能“无中生有”地生成正式的新闻报道。例如,德国媒体Kölner Stadt-Anzeiger、斯洛伐克媒体DennikN均使用MidJourney等工具生成图片,但主要集中于科技与烹饪等题材[15];斯洛伐克的Radio Expres以及英国的两家电台则使用人工智能生成“人声”来进行新闻播报[16];再如ReelFramer工具,通过人类与人工智能的协作,能够将新闻文本转换成适合社交媒体的新闻短片[17]。
就国内而言,以澎湃新闻为例,其原创视频部曾在《AI的B面》《大国丝路》两个系列报道中用Midjourney设计了多张海报。其中,《AI的B面》系列报道聚焦人工智能相关社会议题,包括人工智能技术“复活”逝者、人工智能伴侣以及人工智能换脸等,该系列4张海报画风偏虚拟科技风格;而《大国丝路》重点关注“一带一路”倡议十周年之际,沿线国家如黑山和印度尼西亚的新变化,该系列4张海报采用统一的手绘漫画风格,结合了真实的地理风光与虚拟的概念元素。类似地,澎湃的图编团队也曾使用生成式人工智能技术来生成评论类漫画,内容涉及医疗行业反腐等热点事件或社会议题,在名为《重启童年》的六一特稿中,他们收集读者对童年场景的描述,并通过生成式人工智能复原再现了这些画面。
(二)新闻选题与角度
现有研究探索了生成式人工智能在发现新闻选题和报道角度上的潜力,比较有效的方式并非直接由人工智能提供选题思路(尽管新闻从业者可以这么尝试),而是基于已经存在的资料文献或采访素材。典型案例是AngleKindling工具,它旨在通过GPT模型,帮助记者从众多文件资料中找到发展新闻故事的不同角度。[18][19] AngleKindling的主要特点包括:第一,它将对新闻资料的关注放在公关通稿上;第二,它能够帮助记者总结通稿中的核心内容;第三,它不仅考虑公关稿件中主要存在的积极描述,也会关注潜在争议与负面后果;第四,在提供选题视角时,会提供该切入点的源文本给用户参考;第五,它还会提供一篇作为参照的新闻报道内容。研究团队经过几次零样本提示(zero-shot prompt)和多样本提示(few-shot prompt)的指令调整,最终完成了AngleKindling的工具设计。
作为交互性工具,AngleKindling的界面分割为三个纵向分栏:最左侧的分栏由上至下提供其分析公关通稿后提取的核心内容点、可调查的方向以及潜在负面影响等可能的新闻选题视角;在页面中间栏,用户可以看到左侧栏中每个要点相关的详细内容列表;当点击列表中的条目时,页面右侧栏会标识出所关联的原公关稿中的相应内容,同时还提供《纽约时报》过去一篇类似视角的相关报道作为参考。该工具已经在新闻记者的选题测试中受到好评。
(三)数据新闻
生成式人工智能因其处理分析数据和辅助编程、写作代码等能力,对数据新闻的生产制作具有重要潜力。一项研究综述关注了大语言模型在数据新闻工作中的作用,总结了大模型可以在数据、叙事、可视化与呈现四个方面协助完成数据收集与预处理、提取关键信息、梳理逻辑结果、生成描述和数据可视化等相关工作[20]。同时,生成式人工智能具有社会科学研究方法意义,能够进行公共议题的主题分类、立场检测、情感分析与框架识别等传统需要人工内容分析的工作,实现内容的自动化编码,从而为数据新闻制作提供支持[21][22]。“DATATELES”系统则可以通过GPT3.5来理解、分析数据图表并生成相应的文本解读,实现从图表到数据叙事的转化[23]。在处理输入的图表时,该系统的预训练数据库已经包含了数据新闻中常见的图表类型以及基础性的人口调查数据库等,让其能够更好地理解用户输入的图表内容,生成数据解读的文字报道。
作为我国数据新闻实践的代表性媒体,澎湃新闻已经将生成式人工智能运用于数据新闻生产。2023年6月,澎湃团队在制作《一票难求的上影节,近十年怎样走过?》报道过程中,数据编辑尝试使用ChatGPT等工具完成了上影节十年片单数据的抓取和分析工作。首先,数据编辑接入能够爬取、分析和展示数据的三款人工智能插件——包括能让 ChatGPT 联网的 WebPilot、能在线数据分析和可视化的 Noteable、能让 ChatGPT 展示图表的 Show me;随后,通过人与人工智能的对话不断调整指令和修正人工智能行为,获取网页中有关上海电影节十年的片单数据,根据数据编辑自述这个过程包括了“55次”与ChatGPT的对话,花费“5小时”;最后,再将数据集上传到ChatGPT的数据分析插件Noteable 平台,让人工智能自动分析数据,在此过程中需要反复调整指令,直到获得目标结果和图表。由此可见,生成式人工智能用于数据新闻的实践是数据编辑与人工智能不断对话、协作的过程。该团队还以人工智能生成的图像为稿件主体内容,在世界环境日制作了《假如名画有续集,会是什么样?》的数据报道。该作品通过Midjourney、Photoshop AI等生成式工具,对《呐喊》《神奈川冲·浪里》等9幅名画进行了二次创作,以展示气候变化的影响。例如,基于名画《戴珍珠耳环的少女》,通过生成式人工智能工具添加或修改原画面视觉元素的方式制作了题为《泡在海里的珍珠耳环少女》的“名画新解”作品,生成画面内的海水淹过了珍珠耳环少女的颈部,只露出头部,以此象征气候变暖导致的海平面上升这一环境问题的严重性。该团队还基于Stable Diffusion大模型,输入了电视剧《繁花》剧照等图像数据来对模型进行艺术风格的迁移训练,并使用训练好的人工智能滤镜对东方明珠近照进行了二次生成式处理,为“繁花里的上海腔调”主题的数据新闻制作了海报。
(四)调查与监督报道
生成式人工智能如何能够应用于新闻业的核心使命——报道事实、呈现真相?国际上已经有调查新闻和监督报道在尝试运用,其中一个典型案例来自菲律宾[24]。调查记者往往依赖政府审计报告来发现有关政府部门贪污渎职问题的线索,例如该国记者曾从长达46页的菲律宾教育部2021年审计报告中,发现了其中的几行信息暴露了该部门在购买电脑时的不合理开支,并在后续调查报道中曝光了这一问题,最终使涉事官员得到法律制裁。然而,通过人工阅读复杂而专业的政府文件进行调查报道受制于人员和精力限制,存在相当大的困难。因此,调查记者开始尝试使用ChatGPT协助完成这一任务:浏览政府报告、发现漏洞与线索。
菲律宾记者Jaemark Tordecilla进行了这一尝试。他将2022年菲律宾审计委员会(Commission of Audit,COA)针对国家经济发展署的一份报告的执行摘要上传至ChatGPT 4.0的聊天界面中,并首先通过“总结这份报告”(Summarize this report for me)的指令,获得了ChatGPT对文件的要点小结,包括内容大纲以及引言、财政亮点、审计目标、方法等;随后,他又在指令中加入了对“调查记者”这一身份的条件限定,并就文件中可能存在哪些“有新闻价值的条目”(newsworthy items)询问ChatGPT。但是,此时ChatGPT提供的内容较为空泛,无法直接用于调查报道。
因此,在OpenAI公司向用户开放了创造ChatGPT个性化智能体(custom agents)权限后,Tordecilla尝试开发了名为 COA Beat Assistant(COA-BA)的智能体来协助调查记者工作。他为该智能体设置了如下工作规则:首先,COA-BA在获得审计文件后,应首先浏览其中“重要审计观察与推荐摘要”(Summary of Significant Audit Observations and Recommendations)部分的内容,并询问用户是否需要提供总结结果及其条目序号;随后,COA-BA将进一步为用户提供接下来可以进行的工作选项,例如就某个审计观察点提供更多细节或报告中的其他相关内容。设置完成后,Tordecilla使用COA-BA重新处理了前文提到的菲律宾教育部审计报告,以及其他并未事先熟悉的政府部门文件。结果发现,COA-BA都成功返回了不同部门报告中几个重要审计观察点的小结和特定观察点的相关细节信息,展示出协助调查记者的潜力。COA-BA从设置到实验总共仅花费16个小时,就达到了较为令人满意的效果。
类似COA-BA这样的定制化GPT智能体为新闻工作提供了重要启示:不是直接依托一般化的GPT,而是结合调查记者的丰富经验和实际需求,通过指令设计和设置,创造个性化的智能体,完成更有效的信息搜集和提示,促进调查记者的工作。相比于基于传统机器学习模型的工具,定制GPT智能体的开发成本与门槛更低,对于小规模的新闻编辑室更加有利。
(五)事实核查
事实核查(fact-checking)作为新闻生产过程的重要一环,生成式人工智能亦可在其中发挥作用。学界对生成式人工智能驱动的相关事实核查工具的测试,目前主要关注ChatGPT等大语言模型识别虚假信息的能力。例如,有研究尝试评估ChatGPT在事实核查过程中对不同陈述(statement)进行分类和判定的能力[25]。它首先获取了事实核查网站PolitiFact 2007-2022年核查过的所有陈述内容共21152条六大类别(包括真实、基本真实、半真半假、基本虚假、虚假、彻底虚假)。利用GPT-3.5-turbo版本,该研究通过指令要求ChatGPT先后进行六分类和二分类(仅区分真实与虚假),两者的准确率分别为29.96%和68.79%。
另一项研究通过审计方法对比了ChatGPT和Copilot分辨虚假信息的能力[26]。它选择了5个常见虚假信息的议题(包括新冠疫情、俄乌战争、气候变化等),分别设计5个不同类型的政治性陈述——包括3个虚假陈述(其中含1个“阴谋论”观点)、1个真实陈述及1个真假混合的“边界陈述”;并将信息分别与5种不同类型的信源匹配——包括无信源、来自美国官方、俄罗斯官方、美国社交媒体用户以及俄罗斯社交媒体用户,所有信息都分别有英语、俄罗斯语和乌克兰语三个版本,如此共生成了375(5×5×5×3)条陈述。测试时通过向ChatGPT和Copilot提供虚假信息定义的指令,要求AI给出真伪判断。结果显示,ChatGPT的整体表现都优于Copilot(在英语语境中的准确率分别为79%和66%),但当信息用俄罗斯语和乌克兰语呈现时,两种工具的表现都变差了。
总结:挑战与展望
生成式人工智能应用于新闻生产创新也面临一系列挑战。
首先,内容“质”与“量”的权衡。生成式人工智能被认为可以赋能新闻生产的重要前提是其提升了新闻生产效率,从而有助于生产规模的扩大。但简化记者劳动、提高生产效率、促进生产规模,是否意味着高质量的新闻业?答案恐怕是不确定的。现有研究也指出关键问题在于如何平衡新闻的专业化标准,与数字时代注意力经济与广告盈利需求带来的内容传播压力[27]。从业者们需要同时解决发表数量的指标压力和所创作内容的价值与意义问题[28]。换言之,生成式人工智能带来的新闻创新,究竟是“炫技”的“热闹”,还是切实有助于生产以公共利益和福祉为旨归的高质量严肃新闻,需要仔细审视。这也是本文特别关注生成式人工智能如何可以丰富新闻选题和助益调查报道的原因。
其次,新闻机构变革、从业者职业素养和认知以及新闻文化面临的挑战。生成式人工智能并不仅是工具性技术,似乎可以“即插即用”、任意拿捏,它意味着一整套新闻生产工作常规(routine)的重塑、组织机制的变革,乃至新闻文化的重塑。本文开头的调查已经表明,尽管部分新闻机构开始作出系统性回应(如建章立制、打通部门),更多机构仍在观望;尽管管理层热情有加,不少一线从业者仍然怀疑、冷漠,甚至抗拒与抵制。究其原因,既包括新闻机构缺乏应对变革的组织性创新机制(如创新文化与氛围、创新部门与网络、创新实践社区、员工培训等),也包括从业者面对新技术冲击时的复杂情境(如职业训练准备不足、失业恐惧、自我保护的边界工作等),更折射出整个行业面对不确定性时的新闻文化(如定义何为新闻、新闻工作者的位置与前景、调适内容与技术关系等)。像前文所举的运用生成式人工智能进行调查报道创新的案例,需要新闻文化的鼓励、组织机制的保障以及从业者个体的探索,才可能形成真正嵌入新闻生产流程、导向新闻业核心价值的创新应用。
再次,技术“幻觉”(真实性)与算法伦理、偏见、抄袭等问题。生成式人工智能尚存在“幻觉”(即通常所说的“一本正经地胡说八道”)问题,若说这对创意产业可能无伤大雅,对于新闻业则有致命威胁,这也是其目前很难直接用于生成完整文字报道的重要原因。这也意味着,生成式人工智能不代表着人类新闻从业者可以完全释放其工作,反而强化了其独家采访与数据采集的意义。与此同时,生成式人工智能也被各类目的不同的行动者用于生成虚假信息,如NewsGuard在2023年12月有关人工智能如何制造虚假信息的回顾报道中指出,完全由人工智能运作的、充满低可信度信息的平台数量已经从2023年5月的49个暴涨至2023年12月底的614个,另外还有37个由生成式人工智能工具直接抓取、盗用主流新闻媒体内容的网站[29]。此外,如本文开头调查中所提及,算法伦理、偏见、抄袭与版权等法律道德问题也是制约其应用于新闻创新的重要因素。尤其对于新闻业而言,如果复制生成式人工智能的算法偏见,将之从机器反馈直接转化为“公共知识”,则会急剧放大这种偏见与歧视,这是当代新闻业必须严肃对待的议题。
展望未来,生成式人工智能技术如何持续变革新闻业、影响新闻生产创新,有三个关键词值得关注。第一,实践。未来受制于技术的发展,更依赖于新闻业及其从业者的实践与创造。第二,协作。生成式人工智能嵌入新闻业的生产创新过程是人机协作过程,依赖于新闻从业者与人工智能之间的相互探索与磨合,以及彼此调适与校准。第三,价值。发展的目标始终是为了新闻业的核心使命与价值:报道事实、呈现真相,促进社会进步与公众福祉。生成式人工智能是长久融入新闻业的“深水静流”,抑或只是短暂喧嚣后的“烟花易冷”,端赖于此。
【本文为国家社科基金人才项目“基于计算传播的新媒体舆论过程研究”(批准号:22VRC186)、复旦大学文科先导和创新团队项目“面向媒介深度融合的智能媒体创新研究与应用”(编号:IDH3353070)以及新闻学院科研创新项目“智能传播中的人机互动关系及影响研究”(编号:2023-2024)阶段性成果】
参考文献:
[1]GONDWE G. Mapping AI Arguments in Journalism Studies[M/OL]. arXiv, 2023[2024-01-09]. https://arxiv.org/abs/2309.12357v1.
[2]DE-LIMA-SANTOS M F, CERON W. Artificial Intelligence in News Media: Current Perceptions and Future Outlook[J/OL]. Journalism and Media,2022,3(1): 13-26[2024-01-09]. https://www.mdpi.com/2673-5172/3/1/2.
[3]HENRIKSSON T. New survey finds half of newsrooms use Generative AI tools; only 20% have guidelines in place[EB/OL]//WAN-IFRA. (2023-05-25)[2024-02-18]. https://wan-ifra.org/2023/05/new-genai-survey/.
[4]JOURNALISMAI. NEW | JournalismAI’s Generating Change Report 2023[EB/OL]. (2023)[2024-02-06]. https://www.journalismai.info/research/2023-generating-change.
[5]REUTERS INSTITUTE. Changing Newsrooms | Reuters Institute for the Study of Journalism[EB/OL]. [2024-02-06]. https://reutersinstitute.politics.ox.ac.uk/changing-newsrooms.
[6]REUTERS INSTITUTE. Journalism, Media, and Technology Trends and Predictions | Reuters Institute for the Study of Journalism[EB/OL]. (2023)[2024-02-21]. https://reutersinstitute.politics.ox.ac.uk/journalism-media-and-technology-trends-and-predictions.
[7][8][28] THÄSLER-KORDONOURI S, BARLING K. Automated Journalism in UK Local Newsrooms: Attitudes, Integration, Impact[J/OL]. Journalism Practice, 2023: 1-18[2024-02-01]. https://doi.org/10.1080/17512786.2023.2184413.
[9][10][11][12][15][16] NEWMAN N. Journalism, media, and technology trends and predictions 2024[R/OL]. Reuters Institute for the Study of Journalism, 2024[2024-02-21]. https://reutersinstitute.politics.ox.ac.uk/journalism-media-and-technology-trends-and-predictions-2024.
[13]RESTIVO R. How the YESEO app tested GPT models with users[EB/OL]//Medium. (2023-05-11)[2024-02-22]. https://generative-ai-newsroom.com/how-the-yeseo-app-tested-gpt-models-with-users-94838bad328.
[14]ROY N. Building a GPT-4 Powered Google Docs Extension for News Quiz Generation[EB/OL]//Medium. (2023-06-08)[2024-02-22]. https://generative-ai-newsroom.com/building-a-gpt-4-powered-google-docs-extension-for-news-quiz-generation-34b7e6bcdc4d.
[17]WANG S, MENON S, LONG T,etc. ReelFramer: Human-AI Co-Creation for News-to-Video Translation[M/OL]. arXiv, 2023[2024-02-17]. http://arxiv.org/abs/2304.09653.
[18]PETRIDIS S, DIAKOPOULOS N, CROWSTON K,etc. AngleKindling: Supporting Journalistic Angle Ideation with Large Language Models[C/OL]//Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems. Hamburg Germany: ACM, 2023: 1-16[2024-02-14]. https://dl.acm.org/doi/10.1145/3544548.3580907.
[19]DIAKOPOULOS N. Finding Story Angles using Interactive Generative AI Tools[EB/OL]//Medium. (2023-04-19)[2024-02-23]. https://generative-ai-newsroom.com/finding-story-angles-using-interactive-generative-ai-tools-b1c16e5e5f7c.
[20]HE Y, CAO S, SHI Y,etc. Leveraging Large Models for Crafting Narrative Visualization: A Survey[M/OL]. arXiv, 2024[2024-02-17]. http://arxiv.org/abs/2401.14010.
[21]METS M, KARJUS A, IBRUS I,etc. Automated stance detection in complex topics and small languages: the challenging case of immigration in polarizing news media[J]. arXiv, 2023.
[22]FATEMI B, RABBI F, OPDAHL A L. Evaluating the Effectiveness of GPT Large Language Model for News Classification in the IPTC News Ontology[J/OL]. IEEE Access, 2023, 11: 145386-145394[2024-02-17]. https://ieeexplore.ieee.org/document/10367969/.
[23]SULTANUM N, SRINIVASAN A. DATATALES: Investigating the use of Large Language Models for Authoring Data-Driven Articles[C/OL]//2023 IEEE Visualization and Visual Analytics (VIS). 2023: 231-235[2024-02-17]. DOI:10.1109/VIS54172.2023.00055.
[24]TORDECILLA J. Teaching a Custom GPT to Read Audit Reports and Support Watchdog Journalism[EB/OL]//Medium. (2024-01-31)[2024-02-22]. https://generative-ai-newsroom.com/teaching-a-custom-gpt-to-read-audit-reports-and-support-watchdog-journalism-1e124196ca15.
[25]HOES E, ALTAY S, BERMEO J. Leveraging ChatGPT for Efficient Fact-Checking[R/OL]. PsyArXiv, 2023[2024-02-14]. https://osf.io/qnjkf.
[26]KUZNETSOVA E, MAKHORTYKH M, VZIATYSHEVA V,etc. IN GENERATIVE AI WE TRUST: CAN CHATBOTS EFFECTIVELY VERIFY POLITICAL INFORMATION?[J]. arXiv, 2023.
[27]AHMAD N, HAQUE S, IBAHRINE M. The News Ecosystem in the Age of AI: Evidence from the UAE[J]. Journal of Broadcasting & Electronic Media, 2023, 67(3): 323-352.
[29]BREWSTER J, EFFRON E, FISHMAN Z,etc. The Year AI Supercharged Misinformation: NewsGuard’s 2023 in Review[EB/OL]//NewsGuard. (2023-12-27)[2024-02-22]. https://www.newsguardtech.com/misinformation-monitor/december-2023.
本文引用格式参考:
周葆华,陆盈盈.生成式人工智能影响下的新闻生产创新:实践与挑战.青年记者,2024(03):5-11.