社长的话

    ChatGPT在学术期刊出版领域的应用(2024年4月)
  • ChatGPT 是人工智能研究机构 OpenAI 在 2022 年 11 月 30 日发布的聊天机器人程序,它能够通过理解和学习人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成可以写电子邮件、完成文案、制作视频脚本、撰写包括学术论文在内的各类文章。

    1   ChatGPT在学术期刊出版中可以为作者提供多种帮助:

    (1)自然语言处理:ChatGPT可以用于自然语言处理,对于学术期刊中的各种文本进行分析和处理,包括语言理解、自动摘要、文本分类等。

    (2)编辑和校对:ChatGPT可以被用作编辑和校对的工具,通过检查语法、拼写、标点符号、句子结构等方面的错误,提高文章的质量和准确性。

    (3)机器翻译:ChatGPT可以用于机器翻译,将学术期刊中的文章翻译成不同的语言,以便更广泛地传播和分享研究成果。

    (4)数据分析:ChatGPT可以用于数据分析,对学术期刊中的数据进行处理和分析,以提取有用的信息和洞见,帮助研究人员更好地理解和解释研究结果。

    2   ChatGPT在学术期刊出版中可以为编辑提供多种帮助:

    (1)自动化编辑流程:ChatGPT可以自动化编辑流程,例如自动检查语法、拼写和标点符号错误,减少编辑人员的工作量。

    (2)提供编辑建议:ChatGPT可以分析文章的结构和内容,并提供编辑建议,例如如何改进文章的逻辑和组织结构,以及如何更好地表达作者的意图。

    (3)快速回答作者问题:ChatGPT可以快速回答作者的问题,例如关于投稿流程、审稿流程和出版流程的问题,减少编辑人员的工作量。

    (4)自动化审稿流程:ChatGPT可以自动化审稿流程,例如自动为审稿人员分配稿件、自动提醒审稿人员完成审稿任务、自动向作者发送审稿意见等。

    3   ChatGPT相比真人编辑的优势:

    (1)语言自然度:ChatGPT可以生成自然流畅、准确的语言,避免了因语言表达不当而导致的歧义和误解。同时,ChatGPT可以自动检测和纠正语法、拼写和标点符号等问题,提高了文章的质量和可读性。

    (2)文章润色:ChatGPT可以根据作者的意图和风格,自动调整语言表达的形式和内容,使文章更加准确、简洁、清晰。同时,ChatGPT还可以提供针对不同领域的专业术语和词汇,帮助作者更好地表达自己的研究成果。

    (3)速度和效率:ChatGPT可以快速地处理大量的文本内容,减少了编辑和校对的时间和成本。同时,ChatGPT还可以自动化地完成一些繁琐的工作,如排版、参考文献格式化等,提高了出版的效率和准确性。

    4    ChatGPT相比真人编辑的劣势:

    尽管ChatGPT在处理学术期刊出版中的一些工作方面具有优势,但它仍然无法完全替代真人编辑。真人编辑可以更好地理解作者的意图和研究背景,能够提供更加个性化和专业化的服务。同时,真人编辑还可以对文章的内容和结论进行深入的分析和评估,帮助作者更好地表达自己的研究成果。

    5   人工智能生成内容的规范与处理:

    (1)人工智能生成内容的使用原则:AI依托于不断进化的机器学习算法,其对提问往往可以给出准确的答案。但这种回答可能会出现乍一看很“靠谱”,实际上包含错误的数据或本不存在的文献的问题。因此AI辅助写作的数据和资料来源的真实性、准确性以及可信度是存在风险的。因此,ICMJE(国际医学期刊编辑委员会)推荐规范AI不应被列为作者,因为它们不能对作品的准确性、完整性和原创性负责,而这些责任是作者所必须承担的。作者不应将AI智能辅助技术列为共同作者,也不应引用以人工智能为作者的内容。

    如论文主要内容是利用AI工具生成,一旦发现,以学术不端行为处理。

    审稿人必须对稿件内容保密,不得将稿件上传到无法保证其保密性的软件或其他人工智能技术平台上。审稿人应该向期刊披露是否以及如何使用人工智能技术协助审稿。审稿人应该意识到,人工智能会输出貌似很权威的内容,而这些内容可能是不正确、不完整或有偏见的。

    (2) AI内容的说明:作者应对所提交的所有材料负责,如果使用了AI工具和AI生成内容,包括利用AI工具收集和分析数据、制作图片或论文中的图形元素、生成程序算法、文本或进行文字润色等,由于AI学习的样本来源广泛,其更适用于通用常规文本,在专业领域中,由于AI学习到的资源受限,其准确性值得商榷,因此须需要仔细审查AI编辑过的文章,因为AI可能会输出不正确、不完整或带有偏见的,但貌似很权威的内容(必须确保所有引用材料都有恰当的出处,包括完整的引文),并在论文的数据来源、方法设计或结语部分明确说明使用了何种AI工具、详细使用过程、以及其作用和贡献,以便审稿人和编辑部对论文的原创性进行评判。对于被判为涉嫌学术不端的论文,将直接退稿或撤稿处理。

    (3)数据安全风险:为了有更好的润色

    效果,AI模型迭代过程需要更多数据,并可能将用户上传的内容用于后续分析学习。因此,在使用AI进行数据收集和辅助论文写作时,如果把尚未发表的学术内容上传,将可能会有被系统学习后展示给其他用户的风险。

    针对可能存在的数据安全风险,部分国家出台了相应的政策。例如,意大利出于数据安全考量,在2023年4月暂时叫停ChatGPT,并在再次开放使用前制定了新的隐私政策,如建立年龄验证系统等。欧盟也在制定相关政策,将对ChatGPT和Google Bard等AI平台实施监管。 2023年5月23日国家互联网信息办公室2023年第12次室务会议审议通过《生成式人工智能服务管理暂行办法》将于2023年8月15日起施行。

    对于资助机构来说,保密性是最重要的问题。6月23日,NIH开始禁止使用像ChatGPT这样的在线生成型AI工具进行“分析和拟定同行评审评论” 7月7日,澳大利亚研究委员会(ARC)也禁止了生成型AI在同行评审中的使用。美国国家科学基金会(U.S. National Science Foundation)组建了内部工作组,以研究AI是否可以作为评审过程的一部分,如果可以则可能需要哪些“防护措施”。欧洲研究理事会(European Research Council)预计也将讨论使用AI进行提案撰写和评估的问题。

    6   ChatGPT在学术出版中的伦理问题:

    ChatGPT的语言能力可与人类匹敌,它生成的学术摘要甚至可以骗过期刊审稿人。为此,这引发了一个问题“ChatGPT是否能被列为学术论文的作者?”对此,不同的期刊具有不同的回应。

    (1)禁止在投稿论文中使用ChatGPT生成的文本更不能将ChatGPT列为论文作者:《Science》于2023年1月26日发表了一篇标题为《ChatGPT is fun, but not an author》的文章,对此做出了详尽具体的说明。

    (2)《Nature》关于ChatGPT列出两项原则:①任何大型语言模型工具(比如ChatGPT)都不能成为论文作者;②如在论文创作中用过相关工具,作者应在“方法”或“致谢”或适当的部分明确说明。

    (3)其它期刊的态度:学术期刊出版商Elsevier相关人士在接受卫报采访时表达了和Nature相似的观点,即不建议ChatGPT等大型语言模型工具成为论文作者之一。 

    (4)国家级指南发布:2023年9月20日,中国科学技术信息研究所联合多家国际知名出版商共同发布了《学术出版中AIGC使用边界指南》。其中对投稿阶段、论文发表/出版后中生成式人工智能的行为框架作出明确的实践指导。

    7   ChatGPT的局限性   ChatGPT 的知识相对滞后,ChatGPT 中最新的知识是截止于 2021 年 9 月,问一些近期的问题无法回答。而目前更新 ChatGPT 模型的算力成本很高,模型本身保证知识的实时性很难。

    总之,ChatGPT可以在学术期刊出版中发挥重要作用。既可以为作者提高文章的质量和准确性,加速研究成果的传播和分享,并帮助研究人员更好地理解和解释研究结果;也可以为期刊编辑提供更高效的工作方式,减少编辑人员的工作量,提高期刊的出版效率和质量。但同时不建议作者和编辑过于依赖ChatGPT在文章写作和编辑分析,ChatGPT也不能被列为论文作者之一。


    (编辑赵萌 信息来源ChatGPT及网络信息经编辑部讨论整理)
  • 发布日期: 2024-04-28  浏览: 234