CANGARU指南:生成式AI在学术研究中的负责任使用框架与实践
1. 项目概述:当生成式AI成为学术研究的“新常态”
最近和几位高校的朋友聊天,发现一个挺有意思的现象:大家的研究室里,ChatGPT、Claude、Gemini这些生成式AI工具,已经从最初的新奇玩具,变成了和Word、Excel、LaTeX并列的“生产力标配”。学生用它来润色论文初稿、梳理文献综述,研究员用它来生成代码片段、设计实验方案,甚至辅助进行数据分析和结果解读。这股浪潮来得太快,快到我们还没来得及为它划清边界、制定规则。
“CANGARU指南”这个项目,正是在这个背景下应运而生。它不是一个冰冷的、高高在上的伦理宣言,而是一套旨在帮助每一位身处研究一线的学者、学生和科研管理者,如何在日常工作中负责任地、透明地、且高效地使用生成式AI的实操框架。CANGARU这个名字本身,就蕴含了其核心精神:它倡导一种批判性(Critical)、负责任(Accountable)、透明(Transparent)、有指导(Guided)的AI使用方式,并强调研究者(Researcher)的主体性与最终责任(Ultimate responsibility)。
简单来说,这个项目要解决的核心痛点就是:当AI生成的文本、代码、思路甚至图表,已经深度嵌入我们的研究流程时,我们该如何报告?如何署名?如何确保学术诚信的基石不被侵蚀?它试图回答的,不是“能不能用”的问题——这已是既成事实——而是“怎么用才对”的问题。无论你是刚刚接触科研的硕士生,还是领导大型课题组的教授,或是期刊编辑、基金评审人,这套框架都试图为你提供清晰的行动参照。
2. CANGARU框架的核心原则拆解
CANGARU并非凭空创造,它是对现有学术规范在AI时代的一次系统性升级和具体化。其五个字母所代表的原则,共同构成了一个环环相扣的伦理使用闭环。
2.1 批判性使用:AI是副驾驶,不是自动驾驶
这是所有原则的起点。生成式AI的本质是“生成”,而非“创造”或“发现”。它基于海量数据模式进行概率预测,产出具有高度迷惑性的流畅文本,但其内容可能包含事实性错误(“幻觉”)、逻辑漏洞或过时信息。
核心操作要点:
- 永远保持质疑:对待AI生成的任何内容——从一句文献总结到一个数学公式——都必须像对待一位可能出错的助手一样,进行事实核查与逻辑验证。例如,AI生成的参考文献,必须逐一核对是否存在、作者与年份是否准确。
- 明确能力边界:清楚认知当前AI的局限。它在需要严格演绎推理、创新性理论构建、涉及高度专业领域最新进展或未公开数据的任务上,可靠性存疑。它擅长的是模式重组和信息整合,而非真正的知识创新。
- 过程记录:在科研笔记中,不仅记录你向AI提出的问题(提示词),更要记录你对其回答的验证过程。例如:“使用GPT-4梳理了近五年关于‘X理论’的三大争议点,随后在Web of Science中通过关键词检索验证了这三点确实为高频被引综述文章所讨论,并补充了GPT未提及的第四点争议,源于2023年Y等人的最新实证研究。”
注意:最危险的使用方式,是将AI的输出不加批判地直接作为自己思考的终点。这相当于放弃了研究者最核心的批判性思维职能。
2.2 问责制:研究者是最终的责任主体
无论AI工具提供了多少协助,研究工作的设计、执行、解读以及成果的发布,其学术责任和法律责任最终且完全由研究者本人(或团队)承担。AI不能成为错误、剽窃或学术不端的“替罪羊”。
核心操作要点:
- 署名权界定:AI工具不能被列为论文作者。作者身份意味着对工作的智力贡献、对内容的全面理解以及对结果的担保,AI不具备这些资格。它的贡献应在“致谢”或“方法”部分以明确、可追溯的方式说明。
- 内容所有权与审查:研究者必须对论文中每一句话、每一张图、每一组数据的准确性和完整性负责。即使某段文字由AI辅助润色,其表达的观点和引述的事实,也必须经过研究者的最终确认和背书。
- 流程内嵌审核:在课题组或实验室内部,应建立AI辅助成果的审核流程。例如,规定所有由AI生成的代码必须在提交前由另一位成员进行人工复审和测试;AI辅助撰写的部分需要在组会中进行专门讨论。
2.3 透明度:让AI的“足迹”清晰可见
这是实现问责制的基础,也是当前学术出版界最迫切的需求。透明度要求研究者清晰披露在研究中何处、如何、以及为何使用了生成式AI。
核心操作要点:
- 披露位置标准化:建议在论文的“方法”部分开辟独立小节(如“生成式AI使用声明”),或在“致谢”部分之后增加专门段落。避免仅在投稿信或补充材料中含糊提及。
- 披露内容具体化:披露不应只是一句“本文使用了ChatGPT”。应尽可能包括:
- 工具名称与版本:如 ChatGPT-4 (OpenAI, 2023年5月版本)。
- 使用目的:如“用于初步的文献综述思路构建”、“用于英文稿件的语法润色与语言抛光”、“用于生成Python数据可视化代码的初稿”。
- 使用阶段:如在研究设计、文献调研、代码编写、稿件撰写、语言润色等具体环节。
- 提示词示例:提供1-2个关键性的、能体现交互过程的提示词示例(注意去除敏感数据)。
- 人工干预程度:定性或定量说明研究者对AI输出进行了多大程度的修改、验证和整合。例如:“AI生成的文献综述大纲经研究者重组并扩充了约60%的内容,所有引用均经手动核实并补充了原始文献。”
- 数据与隐私:必须声明在交互过程中是否输入了未公开的原始数据、机密信息或个人隐私数据,并说明相关数据是否被用于AI模型的进一步训练(根据工具的用户协议)。
2.4 有指导的使用:将AI纳入科研管理体系
机构(大学、研究所、实验室)不应仅仅发布一纸禁令或空洞的鼓励,而应提供具体的指导、培训和资源,将AI工具合规、高效地整合到科研工作流中。
核心操作要点:
- 制定机构级指南:学校或院系应基于CANGARU等框架,制定更贴合自身学科特点(如医学实验、人文社科理论构建、工程设计)的AI使用实施细则。
- 提供技能培训:开设关于“科研场景下的高效提示词工程”、“利用AI进行文献管理与综述”、“AI辅助编程的调试与验证”等实操工作坊,提升研究人员的AI素养。
- 建设基础设施:考虑采购或搭建合规的企业级AI工具,确保数据在交互过程中不外流,并提供稳定的计算支持。同时,可以建立内部的“AI辅助研究最佳实践”案例库,供成员参考学习。
- 导师的职责:研究生导师需要与学生明确讨论AI在课题中的使用边界,将其作为科研训练的一部分。例如,规定开题报告、理论推导核心部分必须由学生独立完成,而AI可用于后续的表述优化或辅助绘制示意图。
2.5 研究者主体责任:捍卫学术的核心价值
这一原则是CANGARU的落脚点,它强调所有技术工具都服务于一个终极目的:拓展人类知识的边界。研究者的原创性思考、对问题的深刻洞察、对证据的严谨评估,才是学术工作的灵魂。
核心操作要点:
- 界定“智力贡献”核心区:研究者必须明确,哪些是研究工作不可委托的核心智力环节。通常包括:提出原创性研究问题、设计关键实验方案、进行核心的数据分析与解读、形成最终的结论与理论贡献。这些环节应以研究者为主导,AI仅能作为辅助信息检索或表达优化的工具。
- 反思使用动机:时刻自省:使用AI是为了提升研究效率和质量,还是为了替代本应自己完成的学习和思考过程?后者将导致研究者核心能力的退化。
- 成果的“人性化”审视:在论文最终定稿前,通篇审视:这篇文章是否真实反映了我(们)的思考和发现?AI的辅助是否让我们更清晰地表达了这些思想,还是模糊甚至扭曲了它们?
3. 构建可操作的AI使用与报告工作流
基于CANGARU原则,我们可以为一项典型的研究项目设计一个从启动到投稿的全流程AI使用与报告清单。这套工作流不是束缚,而是为了更安心、更高效地利用新技术。
3.1 研究准备与设计阶段
此阶段AI可作为强大的“头脑风暴”伙伴和知识助理,但决策权必须牢牢掌握在研究者手中。
课题构思与问题提炼:
- 使用场景:向AI描述你感兴趣的大领域和观察到的现象,让它帮你生成一系列可能的研究问题或假设。例如:“我观察到在社交媒体上,关于气候变化的讨论存在两极分化。请从传播学或社会心理学角度,提出5个可供实证检验的具体研究问题。”
- 操作与验证:将AI生成的问题列表作为灵感来源,而非最终选择。你需要结合文献阅读,批判性地评估每个问题的创新性、可行性和学术价值。最终确定的研究问题,应源于你对文献空白的独立判断。
- 记录要点:记录AI辅助生成的问题列表,并简要注明你选择或摒弃其中某个问题的理由。
文献综述与理论框架搭建:
- 使用场景:利用AI快速梳理某一领域的核心概念、关键学者、经典理论及发展脉络。让它为你生成一个初步的文献综述大纲或理论框架图。
- 操作与验证:这是幻觉高发区!AI可能编造出不存在的学者、理论或论文。你必须以AI提供的关键词和线索为起点,返回权威数据库(如Google Scholar, Web of Science)进行系统检索,逐一核实并阅读核心文献。AI生成的大纲只是一个结构草稿,你需要用真实阅读获得的见解去填充、修正和深化它。
- 记录要点:保存最初的AI生成大纲,并与你最终完成的综述结构进行对比,这本身就是透明度的一个体现。
3.2 研究执行与数据分析阶段
在此阶段,AI主要扮演“高效执行者”的角色,尤其在编程和数据处理方面,但其输出必须经过严格测试。
实验方案与材料设计:
- 使用场景:在心理学、教育学等领域,可以请AI帮助起草实验指导语、设计问卷题目初稿,或为实验材料(如文本刺激)生成多个平行版本。
- 操作与验证:对AI生成的所有材料,必须进行人工审核,确保其符合学术伦理(如无诱导性)、无歧义,并经过小范围的预实验测试。AI无法理解某些文化背景下的细微差别。
- 记录要点:在方法部分注明:“实验指导语由研究者设计,并经由ChatGPT-4进行语言流畅性优化,优化后的文本经10名预实验参与者测试确认无理解障碍。”
编程与数据分析:
- 使用场景:这是AI(如GitHub Copilot, ChatGPT Code Interpreter)大放异彩的领域。可以让你用自然语言描述分析需求,生成数据清洗、统计检验、可视化绘图的代码。
- 操作与验证:绝对禁止“黑箱”操作!你必须理解AI生成的每一段关键代码的逻辑。对于统计分析,要手动检查输入数据的格式、确认所选检验方法的假设条件是否满足、核对输出结果(如p值、效应量)是否合理。可视化图表生成后,要检查坐标轴标签、图例、刻度是否准确。
- 记录要点:在论文的“数据分析”小节或补充材料的代码仓库中,可以注明:“XXX分析采用了基于Python的pandas和scikit-learn库,部分数据预处理代码在ChatGPT-4的辅助下生成并经过手动调试。” 更好的做法是,在代码注释中直接标明AI辅助生成的函数块。
3.3 论文撰写与发表阶段
这是AI使用最广泛也最敏感的环节,涉及学术成果的最终呈现和诚信。
初稿撰写与段落展开:
- 使用场景:在面对“写作障碍”时,可以向AI描述你想表达的核心观点,让它帮你生成一段展开论述的文字。或者,让它将你的要点列表转化为连贯的段落。
- 操作与验证:AI生成的文字往往流于表面、缺乏深度和批判性。你必须将其作为“初稿的初稿”,注入你自己的专业见解、批判性分析和文献支撑。彻底重写其表达方式,确保其与全文的学术风格和论点深度一致。
- 记录要点:如果某一部分大量借鉴了AI生成的文本结构,应在透明度声明中具体说明。
语言润色与语法修正:
- 使用场景:对于非英语母语研究者,这是AI(如Grammarly, ChatGPT)的核心价值。它可以高效地修正语法错误、改善句式结构、使表达更符合学术英语习惯。
- 操作与验证:注意AI可能会将你原本正确的专业术语“修正”为错误词汇,或改变你刻意强调的细微含义。润色后必须逐句精读,确保技术准确性未被破坏。对于关键术语和表述,应反向查证其在本领域的常用说法。
- 记录要点:这是最需要声明的情况之一。标准表述可以是:“本文的英文稿件在撰写后使用了ChatGPT-4进行语言润色和语法检查,所有科学内容和技术细节均由作者在润色后最终确认。”
回复审稿意见:
- 使用场景:审稿意见有时冗长复杂。可以让AI帮你总结审稿人的核心关切点,或为某些需要补充实验的回复建议起草初步的辩解或修改计划。
- 操作与验证:AI的总结可能遗漏细微但重要的批评。你必须亲自阅读并理解每一条意见。AI起草的回复可能语气不当(过于防御或过于谦卑)。回复信必须体现你对审稿人专业意见的尊重和严肃思考,语气需由研究者本人把控。
- 记录要点:通常无需在最终论文中披露此阶段对AI的使用,但在实验室或团队的知识管理中可以记录这一有效实践。
4. 撰写“生成式AI使用声明”的模板与示例
一份好的声明,应像“材料与方法”部分一样,清晰、具体、可重复。以下提供不同详细程度的模板。
4.1 基础声明模板(最低要求)
适用于AI辅助程度较低的研究(如仅用于语言润色)。
生成式AI使用声明:在本研究及/或稿件撰写过程中,作者使用了[AI工具名称,如ChatGPT-4]用于[具体用途,如英语语言润色和语法检查]。作者对所有科学内容、数据分析和结论承担全部责任,并在使用后仔细审阅和修改了AI辅助生成的内容。
4.2 详细声明模板(推荐)
适用于AI在多个环节提供实质性辅助的研究。
生成式AI使用声明:
- 工具与版本:本研究在部分环节使用了OpenAI开发的ChatGPT-4(2024年1月版本)。
- 使用目的与阶段:
- 文献调研阶段:用于生成关于“[具体理论/技术]”研究脉络的初步大纲和关键词建议。
- 代码开发阶段:辅助编写了数据清洗和[如“随机森林模型”]训练的Python代码片段。
- 稿件撰写阶段:用于对“讨论”部分初稿进行英语语言流畅性优化。
- 研究者干预:所有由AI生成的内容(包括大纲、代码和文本)均经过了研究者的严格验证、修改和整合。文献综述部分在AI大纲基础上,经手动检索并阅读了超过80篇相关文献后重写;所有代码均在独立环境中运行调试;AI润色的文本均经作者逐句核对,确保技术准确性。
- 数据与隐私:本研究未向AI工具输入任何未公开的原始实验数据或受试者个人信息。
- 责任声明:作者对本文的全部内容,包括其学术诚信和准确性,负有最终和完全的责任。ChatGPT-4仅作为辅助工具,未被列为作者。
4.3 针对特定场景的声明要点
- AI生成图表/示意图:如果使用Midjourney、DALL-E等生成论文中的概念图或示意图,必须声明:“图X中的概念示意图由[DALL-E 3]生成,提示词为‘[描述性提示词]’,并由研究者使用[如Adobe Illustrator]软件进行了后期修改和标注。”
- AI辅助理论推导/公式:在数学或理论物理等领域,如果使用AI(如Wolfram Alpha, ChatGPT插件)辅助进行符号运算或推导验证,必须声明:“公式(X)的推导过程使用了[工具名]进行符号计算辅助,但整个推导逻辑和最终形式均由研究者验证并确认。”
5. 常见困境、争议与实操建议
在实际操作中,即使遵循框架,仍会面临诸多灰色地带和争议。以下是一些典型问题及我的个人建议。
5.1 争议场景分析与应对
“AI帮我写了方法部分的一段描述,这算抄袭吗?”
- 分析:这取决于“写”的程度。如果AI从零生成了一段对标准实验方法的描述,而你未经实质修改直接使用,这存在抄袭风险(抄袭了AI训练数据中海量文献的表述)。如果AI是基于你的草稿(如要点列表、混乱的句子)进行重组和优化,你随后进行了深度编辑和事实核对,则风险较低。
- 建议:永远从自己的草稿开始。哪怕只是几个关键词或 bullet points,这确保了思想的原创性。将AI视为一个强大的编辑和改写工具,而非作者。
“我的研究大量使用了AI生成的数据/代码,创新性该如何界定?”
- 分析:研究的创新性应体现在科学问题、研究设计、对结果的解读和理论贡献上。使用AI生成数据(如合成数据训练模型)或代码,其创新性在于你如何设计生成流程、如何验证生成结果的有效性、以及如何将其用于解决一个新颖的问题。工具的新颖性不等于研究的新颖性。
- 建议:在论文中突出强调你设计的生成流程、设置的约束条件、以及验证生成物质量的方法。你的智力贡献在于“驾驭AI完成特定科研任务”的独特方法论。
“期刊/会议没有明确的AI政策,我该怎么声明?”
- 分析:越来越多的出版机构正在制定政策,但进程不一。在政策空窗期,主动、透明地声明是最佳策略,这体现了你的学术严谨性和前瞻性。
- 建议:即使投稿指南未要求,也强烈建议在稿件中附上一份详细的“AI使用声明”(如4.2模板)。这可以在“致谢”之后,或作为“方法”的一部分。在投稿信中亦可简要提及。这通常会被编辑和审稿人视为负责任的表现。
5.2 实验室与团队管理建议
对于课题负责人(PI)或实验室管理者,需要将CANGARU原则制度化。
- 制定实验室AI使用公约:在组内公开讨论并形成书面约定,明确哪些任务鼓励使用AI,哪些禁止(如直接撰写基金申请书的核心部分、生成用于投稿的图表数据等)。规定统一的披露格式。
- 建立内部审核机制:对于即将投稿的论文,增加一个“AI使用审查”环节,由另一位成员或导师检查AI声明是否准确、充分,AI辅助生成的内容是否经过妥善验证。
- 分享与培训:定期在组会上分享使用AI提升研究效率的正向案例(如一个巧妙的提示词解决了复杂的代码调试),同时分析误用或过度依赖的教训。将AI素养培训纳入新生入门教育。
5.3 给青年研究者的个人心法
最后,分享几点在AI时代做研究的个人体会。技术的洪流无法阻挡,但学术的灯塔不应熄灭。
第一,保持“手工艺人”的底气。AI再强大,也无法替代你通过亲手做实验、逐行写代码、逐篇读文献所积累的“手感”和“直觉”。这种深度的、有时是笨拙的参与过程,是形成真正学术判断力的土壤。不要让自己退化为一个只会写提示词的“项目经理”。
第二,将透明度视为新的学术美德。过去,我们通过详尽的“方法”部分来体现可重复性。现在,我们还需要通过清晰的“AI使用声明”来体现可追溯性。主动披露不是示弱,而是自信和严谨的体现,它让你的研究在数字时代更具可信度。
第三,重新定义“思考”的价值。当信息整合和文字表达的门槛被AI大幅降低,研究者最核心的竞争力将更加聚焦于:提出真问题的能力、设计精巧实验的能力、在复杂数据中洞察模式的能力、以及进行深刻理论思辨的能力。这些,恰恰是AI目前最不擅长的。你的目标不是成为最好的AI使用者,而是成为那个最不可或缺的思考者。
技术的工具属性从未改变。CANGARU框架的意义,在于帮助我们驯服这头强大的“袋鼠”,让它载着我们在学术探索的道路上跳得更远、更稳,而不是被它带离既定的轨道,甚至迷失方向。最终,一切工具的价值,仍由使用工具的人及其所秉持的诚信与智慧来定义。
