在科学出版中如何利用人工智能?

学术出版领域随着技术进步发生了显著变化。当前围绕生成式人工智能(AI) 或大型语言模型 (LLM) 的讨论尤为热烈。此类工具的功能已远超简单的语法检查或翻译软件,其在出版流程中的介入值得深思。

LLM 是强大的写作辅助工具(例:ChatGPT),可用于生成学术文本。在用户指令下,它们可基于海量训练数据创造内容。LLM 能帮助英语母语使用者构建论文框架、确保论点清晰连贯;亦能辅助非英语母语研究者改善语法、句法、用词,更精准地表达学术观点。然而,尽管输出结果通常表述可信、风格专业,但其所提供的信息未必准确,引文也常为伪造。ChatGPT 目前已声明:“ChatGPT 可能出错,请务必核查重要信息。”

AI 在学术出版中具有巨大的潜力,但也存在一些风险。为了确保 AI 工具的合乎道德的应用,需要进行谨慎的评估和研究。

不当使用此类聊天机器人恐导致低质量论文发表,其中可能包含误导性或不完整信息。而开放透明的同行评审机制(如 EGU 期刊所采用)有助于甄别此类问题。其作用方式有二:其一,此制度下作者知晓作品会在发表前公开,将促使他们更严谨地准备稿件;其二,出版前的互动讨论环节包含科学界意见,可强化对手稿的评估。

与其他领域类似,出版业可借助 AI 工具自动化繁琐任务。AI 技术在查重、语言润色、识别合适审稿人等方面的应用有助于优化出版流程。但 AI 的其他应用则需审慎考量。例如,LLM 不仅能原创文本,还能总结、改写或评论已有内容,这对科学出版的核心流程——同行评审——带来影响。

若用聊天机器人撰写和评审论文,恐导致 AI 评估 AI 的局面,有悖于同行评审由专家把关的基本原则。此外,在论文发表前向 AI 工具提供稿件也存在保密隐患。因此,尽管 AI 可辅助审稿人工作,但不应成为独立的科学论文评审者。

为维护科学出版的严谨性,人工监督必不可少。作者和审稿人提供的批判性思维是 AI 工具所不具备的。由于 AI 不对所生成内容负责,无法取代人类的专业判断。在当前背景下,EGU 的同行评审实践培训等举措对培养合格的专业人才至关重要,他们将在助力维护学术标准,无论 AI 工具是否存在。除提升稿件质量外,受训者还将学会评估研究的意义和独创性,而此任务是聊天机器人无法胜任的。

在以发表成果作为主要科研影响力评价指标的学术体系中,论文写作至关重要。研究者应负责任地利用新型工具改进文稿。同样,出版商也在探索负责任地将 AI 整合入审稿流程的方法。但鉴于上述局限和伦理问题,审慎行事必不可少。为此,EGU 近期发布了关于在出版过程中使用 AI 工具的指导方针(附后),以期确保 AI 工具在快速发展的学术交流领域的合乎道德的应用。

(作者:Eduardo Queiroz Alves,欧洲地球科学联盟(European Geosciences Union,EGU)的编辑经理。)


EGU关于在展示和发表地球、行星和空间科学研究成果时使用基于人工智能(AI)的工具的声明

基于人工智能 (AI) 的工具越来越多地用于创建科学文档,包括同行评审的出版物、预印本和会议投稿。这些工具的优势包括能够协助文本制作,并最终帮助改善结构和措辞。尽管承认潜在的好处,欧洲地球科学联合会(EGU)也提出了以下建议,以确保在准备地球、行星和空间科学方面的陈述和出版物时适当、谨慎和合乎道德地使用 AI 工具:

  • 对所有研究成果,包括科学出版物和陈述,应有人力监督、专业知识和批判性思维;
  • AI 工具不能列为出版物(包括陈述和摘要)的作者,因为它们既不能对其生成的内容负责,也不能管理版权和许可协议;
  • 科学投稿的作者必须在稿件或陈述的适当部分(例如:方法、致谢)披露 AI 工具的使用情况;
  • 为了确保严格和透明的同行评审,不应使用 AI 工具来评估稿件的质量。审稿人对他们在上传的报告中提交的稿件评估负有个人责任;
  • 这些建议仅适用于在展示和发表研究时使用 AI 工具,不适用于任何其他阶段。

本文基于AI编译自GeoLog, 本文观点不代表“沙鸥科报”立场,转载请联系原作者。如有侵权,请联系编辑处理。

相关文章