AI风潮席卷全球,以ChatGPT为代表的生成式AI(GenAI)工具激发了各行各业对这项技术的极大热情,科学界的研究人员也在积极探索各种AI工具来提高自己的科研效率。然而,如何用好AI这把“双刃剑”,在发挥其效力为己所用的同时尽可能避免潜在的使用风险,是每个人都需要深思的问题。
为了帮助研究人员更好地借力AI,科研管理部门应当就如何在科研工作中使用AI工具为团队提供培训和指导,充分理解研究人员会在什么情况下使用AI、应如何负责任地使用,以及潜在风险。如此,才能让AI惠及每一个团队和每一位科研人员
本文是自然大师课堂-专家课堂首席讲师兼Nature Portfolio社群互动主管Jeffrey Robens博士所著的科研培训系列博文的第二篇(第一篇见:线上 vs. 线下:哪种课程方式更好?),在此他向我们分享了实用的建议。我们期望Jeff博士的见解能够帮助科研管理部门更好地支持其研究人员善用AI,探索无限的可能性。
Dr Jeffrey Robens
自然大师课堂-专家课堂首席讲师兼Nature Portfolio社群互动主管
Jeffrey Robens博士拥有20多年的学术经验和深厚的科研背景,且获奖无数。他拥有宾夕法尼亚大学的博士学位,曾任职于新加坡和日本的一流研究机构和大学。自2012年以来,Robens博士已在世界多地举办了超过600天的科研培训,帮助研究人员提升他们的发表质量和影响力。
近年来,生成式AI发展迅猛,在社会各界都得到了热烈的讨论。然而,在到访世界各地的科研机构后,我发现研究人员对生成式AI的使用怀有不同的态度,有人乐于接受,有人心存疑虑。
研究人员正在使用生成式AI吗?当然!2023年,《自然》面向全球超过3800名博士后开展的一项调查发现,31%的研究人员会在工作中使用生成式AI,如今这一比例很可能更高。在自然大师课堂培训中,有关生成式AI的问题也是我们收到最多的几类问题之一,由此可见学术界对其充满兴趣。
自然大师课堂是Nature Portfolio依托《自然》系列期刊丰富的学术出版经验和资源开发的一系列专业的科研培训方案,致力于助力高校、机构和企业加强人才培养和科研人员的能力建设,提升其科研产出质量和学术影响力。自然大师课堂提供编辑课堂、专家课堂、空中课堂,既有线下/线上实时培训班,也有在线预录制课程,以满足机构及其研究人员的多样化需求。欢迎扫码联系我们了解自然大师课堂可以如何为您提供支持。
为研究人员提供生成式AI使用方面的培训支持
尽管研究人员很感兴趣,但目前很少有机会能让他们了解AI并学习如何有效、负责任地使用AI。虽然“确保高等教育环境下生成式AI的使用符合伦理、负责任且包容至关重要”,但全球范围内极少有院校或机构提供正式的培训和支持。
研究人员可以借助线上课程和视频来培养使用生成式AI工具的技能,或者通过不断试错来学习如何使用,但这些方式有可能会导致使用不当或低效等问题,甚至对研究人员及其所在机构造成负面影响。
为满足这一迫切需求,科研院校和机构应当积极行动,提供培训和指导帮助您的研究人员学习如何在科研活动中负责任地使用AI,同时也要知道何时应避免使用。科研管理部门是支持研究人员的重要力量,如今,他们工作内容也应当与时俱进——提供生成式AI使用方面的支持,如为研究人员创建内部生成式AI培训资源,或邀请专家开展培训。当您在为研究人员筹划、寻找生成式AI使用方面的培训机会时,关键是要理解生成式AI在科研中的作用、带来的益处和潜在的风险,以及如何充分发挥它的价值。
下文中我将分享一些实用的建议,希望帮助研究人员能够最大限度地善用AI。这些建议乃是基于我参加的IBM、谷歌和范德比尔特大学的生成式AI课程,以及我在各种场景下对不同模型开展的大量测试。
科研人员可以用AI做什么?
AI工具可用于处理各类研究任务,包括数据分析与合成、代码生成与调试、表格公式创建,以及其他更高级的用例。在此我将聚焦于一些更宽泛的生成式AI用途,这些用途更多与研究交流和构思有关,不涉及具体的学科领域或议题。
整合概括文献
阅读文献资料是每一位研究人员的必备功课,然而却因时间有限只能阅读论文摘要来粗略了解最新进展。尽管摘要概述了研究的主要发现,但其中缺少具体的解释、研究的局限性以及负面结果等细节,而这些对于评估论文的有效性十分重要。利用生成式AI概括文献便能较好地解决这个问题。
相较于阅读摘要,通过提示词引导AI概括研究的主要发现、局限性等细节,能让研究人员更为全面地把握这项研究。需要注意的是,由于生成式AI有时具有误导性,研究人员有必要仔细检查其回答。
头脑风暴
生成式AI能帮助研究人员制定后续的研究议题和研究问题,并确定论文的引言或讨论部分应当论述的局限性和知识空白。正如前文所提到的,在付诸实践之前,研究人员有必要对任何AI给出的想法(见解)进行验证,这一点很重要。
文本润色
生成式AI能够有效地对文本进行润色,使其更适合发表。你只需在提示词中说明文本的主题和论点,例如“这是一篇研究论文的引言部分,文章面向的是材料科学固态电池方向的专业读者”,帮助生成式AI工具了解背景,然后要求生成式AI改进文本的语法、结构、清晰度和可读性。尽管大部分生成式AI模型在这种情况下都不会加入新的内容,但仍有必要检查输出的结果,以确保准确。
生成社交媒体帖子
实践表明,在社交媒体平台推广论文能提高研究可见度(相关阅读:如何推广你的科研成果?社媒达人独家分享︱自然大师课堂),但很多研究人员实在没有时间和精力,这时不妨试试AI工具。提供恰当的提示词,并向生成式AI提供论文文本(PDF格式,对于OA论文提供链接即可),它就能在几秒钟内生成一篇很棒的社交媒体贴文。输出的文本通常还需稍加编辑,但这已经是较为快速的方式,能够帮助研究人员在较短的时间内发布推广贴文。
为问答环节做准备
再就是会议上令人害怕的问答环节。研究人员可以将Presentation练习一遍又一遍,但却永远不知道听众们会提什么问题。向同行取经很重要,但是作用有限。研究人员可以上传其讲稿,然后让生成式AI给出听众可能问到且难以回答的十个问题,AI可能会输出一些研究人员没能考虑到的观点。
再次强调,提示词一定要非常具体。例如,“这是一份报告的讲稿,报告的主题为基底刚度对突触可塑性动态变化的影响,面向的是神经科学领域的广大研究人员。请根据这份讲稿,给出十个听众可能问到且难以回答的问题。”
使用生成式AI时应当注意什么?
数据隐私和安全
尽管ChatGPT和CoPilot企业版明确声明,所有输入的数据不会被用于模型训练或输出,但大多数人所使用的基础版并没有这条声明。因此,我建议不要向生成式AI模型上传未发表的数据或想法。这意味着,如果我用生成式AI给文章润色,我不会上传论文的结论或讨论部分。谨慎总比后悔好!
AI生成的文本和署名问题
研究人员不应该让AI替他们写论文。生成式AI基于其训练数据来生成文本,因此有可能整句话都是从已发表的论文中“抄”来的。原封不动使用生成式AI生成的文本可能会构成剽窃。此外,考虑到生成式AI有时会一本正经地“胡说八道”,研究人员要仔细检查每一个回答,确保其是准确且不失偏颇的,但这很可能比自己写论文更费时间。需要额外注意的是,生成式AI无法被列为论文作者,因为它不能对发表的论文负责。承担责任是确定作者的关键标准。
慎用AI创作的图像
尽管大部分出版机构允许使用生成式AI进行文本润色,但由于潜在的版权问题,AI工具创作的图像通常不允许出版。用于图像生成的AI模型经过了大量的图片和照片的训练,其中一些图片的使用可能没有经过版权所有者的允许。如果生成式AI创作的图像用到了这些数据,就会导致侵权问题。
处理生成式AI中的偏见
最后一点,训练生成式AI使用的是公开的信息。由于其中一些信息带有偏见,生成式AI输出的结果也会重现并延续这些偏见。再次强调,研究人员始终有必要仔细检查AI输出的结果,尽可能确保其是公平且不带偏见的。
简言之,善用生成式AI能够成为研究人员的宝贵工具,但使用时需小心谨慎、目标明确且考虑周到。
如何向AI提问?
只有掌握如何向AI提问,才能更好地借力AI,提高解决问题的效率。正如全文中多次提到的,使用具体的提示词能让生成式AI发挥更好的效果;并且研究人员要对AI输出的结果进行确认。AI工具使用不当会导致论文写作质量低下,甚至出现学术不端行为,这将对作者及其所属机构产生负面影响,甚至损害其学术声誉。
工欲善其事,必先利其器,了解如何使用AI才能更好地发挥其价值。科研管理部门作为研究人员的支持力量,可以通过为研究团队提供培训,帮助他们掌握正确的使用方法和最佳实践,并提高其对AI伦理和风险的意识,确保他们能够负责任地善用AI工具。只有这样,AI才有可能真正成为增强研究人员能力的buff,让他们能够把更多地时间和精力专注于更具创造性、创新性和重要性的工作。
*附注:在本文中,除非明确提到图像创建,否则生成式AI都是指文本生成模型,例如ChatGPT(又称大语言模型,LLM)。目前市面上有多种可用的生成式AI,包括但不限于ChatGPT、Gemini和Claude。哪一款最好?我建议研究人员多加尝试,看看自己更喜欢哪个。
自然大师课堂的课程内容涵盖众多主题且极具针对性,致力于支持科研院校和机构为处于职业生涯各个阶段的研究人员提供全方位的培训和世界一流的指导。
点击可放大查看
如果您觉得自然大师课堂科研培训方案对您的研究人员和师生有帮助,欢迎联系我们了解更多