AI技能标准化:构建学术写作的智能协作工作流
1. 项目概述:用AI技能重塑学术写作流程
如果你正在写一篇学术论文,尤其是像博士论文这样动辄数万字的“大工程”,那你一定对下面这个场景不陌生:电脑桌面上堆满了从不同数据库下载的PDF文献,文件名混乱不堪;写作软件里塞满了从各处复制粘贴的零散笔记,早已分不清哪句话出自哪篇文献;最要命的是,当你写到第三章,突然想起某篇文献里有个绝佳的观点可以佐证,却死活想不起来那篇文献叫什么,只能在一堆PDF里大海捞针。这种混乱不仅消耗时间,更会打断你的写作心流,让本就艰难的学术创作雪上加霜。
我最近完成了一篇六万字的博士论文,期间深度使用了一个名为“学术写作工具箱”的项目,它彻底改变了我的工作方式。这个工具箱的核心,不是另一个花哨的AI写作工具,而是一套基于“Agent Skills”开放标准的、结构化的技能集。它把从文献阅读到最终稿件导出的整个学术写作流程,拆解成了八个环环相扣的标准化技能。简单来说,它让AI从一个需要你不断用临时指令去“指挥”的助手,变成了一个懂得标准操作流程、能和你协同工作的“研究员”。你不再需要为每一篇文献、每一个步骤去构思不同的提示词,而是通过像/read、/note、/map这样的标准化命令,引导AI与你一起,系统化地构建起你的知识体系和论文草稿。
这个工具箱最大的价值在于它建立了一套“数据契约”——一个标准化的笔记文件格式。所有技能都围绕这个格式读写数据,确保了从文献阅读、笔记整理、观点映射到章节整合的整个流程中,信息不会丢失、不会错位。它解决的不是“让AI帮你写”的问题,而是“如何让AI辅助你,进行一场有条不紊、可追踪、可复盘的系统性学术工程”。接下来,我将详细拆解这八个技能是如何工作的,分享我在实际撰写博士论文过程中积累的配置心得、实操技巧以及避坑指南。
2. 核心设计思路:标准化流程与数据契约
在深入每个技能之前,理解这个工具箱背后的设计哲学至关重要。它对抗的正是传统学术写作中那种“临时起意、四处救火”的混乱状态。其核心思路可以概括为两点:流程的管道化和数据的标准化。
2.1 从临时提示到结构化技能管道
在没有这套工具箱之前,我们使用AI辅助阅读和写作的模式是高度随机的。今天你可能让AI“总结一下这篇PDF的前10页”,明天可能又问“把这段笔记润色一下”。每次交互都是独立的,提示词(Prompt)质量参差不齐,AI的输出格式也飘忽不定。这就导致产出物(笔记、总结、草稿)散落在聊天记录或各个文件中,难以形成合力。
这个工具箱将整个流程抽象为一个清晰的管道:/read->/note->/map->/integrate->/audit->/export。/verify和/progress作为支撑性技能,在需要时介入。每一个技能都是一个封装好的、功能单一的“工具”。当你执行/read时,AI会严格按照预设的逻辑去解析PDF,生成结构化的输出;/note则负责将这些输出写入一个固定格式的Markdown文件。这意味着,无论你是在项目开始的第一天,还是写作收尾的最后一周,你与AI协作的方式都是一致的、可预期的。这种一致性极大地降低了认知负荷,让你能把精力集中在思考内容本身,而非如何与工具沟通上。
注意:不要把这个管道理解为必须严格线性执行的步骤。在实际操作中,它是迭代和循环的。例如,你可以在
/map(绘制文献与章节关系图)之后,发现对某篇文献的理解不足,再回头用/read精读特定章节,并用/note更新笔记。管道提供的是逻辑顺序和数据流方向,而非死板的工作顺序。
2.2 笔记文件:连接一切的数据契约
如果说技能是工具,那么标准化的笔记文件就是让这些工具协同工作的“通用接口”或“数据契约”。这是本项目设计中最精妙的一环。工具箱强制要求每一篇文献的笔记都必须遵循同一个Markdown模板。
这个模板的关键在于几个核心字段:
- Status(状态):标记为
reading(阅读中)或completed(已完成)。这是/progress技能生成阅读进度仪表盘的数据来源。 - Relevance(相关性):手动或由AI辅助填写,指明该文献与你的论文哪个章节、哪个小节相关。
- Thesis Connections(论文关联表):这是一个Markdown表格,是整套系统的“心脏”。你需要(或在AI辅助下)填写每一条笔记观点(Note Point)计划用在哪个章节(Chapter)、哪个小节(Section),以及关联类型(Connection Type,如:支持supports、反驳challenges、扩展extends等)。
| Note Point | Chapter | Section | Connection Type | |------------|---------|---------|-----------------| | “物质能动性”理论 | Ch3 | S3.4 | 支持 (supports) | | 行动者网络中的“转译”概念 | Ch5 | S5.2 | 扩展 (extends) |为什么这个表格如此重要?因为它将零散的笔记点,直接锚定到了你论文的宏观结构上。后续的/map技能会扫描所有笔记文件中的这个表格,自动生成一个可视化的“文献-章节”矩阵,让你一眼看清哪些章节引用了哪些文献,是否存在引用不均或文献空白。而/integrate技能则直接读取这个表格,知道该把“物质能动性”这个笔记点,自动编织到chapters/ch03.md文件的第3.4小节附近。这就实现了从微观笔记到宏观章节的无缝对接,确保了引用的精准性和写作的连贯性。
3. 八大技能深度解析与实操要点
理解了核心设计,我们来逐一拆解这八个技能,我会结合自己写论文时的实际用例,分享每个技能的关键操作和注意事项。
3.1/read:结构化文献精读
/read是你的文献分析起点。它的任务不是简单总结,而是进行深度、结构化的解析。
基本操作:在项目根目录下,对你的AI助手(如Claude Code)输入/read,然后按照提示提供PDF文件的路径(例如literature/某某理论综述.pdf)。AI会开始逐页分析。
核心输出:AI会生成一份包含以下部分的报告:
- 摘要:对全文主旨的概括。
- 核心论点:列出文献的中央主张。
- 关键概念:提取文中定义或使用的核心术语。
- 方法论:如果涉及,描述研究使用的方法。
- 与你的研究的相关性:AI会尝试根据你的论文主题,推断该文献的潜在价值。
- 可直接引用的片段:摘录重要原文,并附上页码。
实操心得:默认设置可能一次阅读太多页,导致分析深度不够。我强烈建议在
CLAUDE.md配置文件中修改“Reading Constraints”。我将“Max pages per read invocation”设置为10页,对于特别复杂的文献甚至设为5页。这样AI能对每一部分进行更细致的剖析,产出质量更高。对于长文献,可以分多次/read,每次指定不同的页码范围(如-p 1-10)。
3.2/note:标准化笔记记录
/read产出的分析报告是临时的,存在于聊天窗口中。/note的作用就是将这些宝贵的分析成果,永久化、标准化地存入你的笔记库。
操作流程:在/read之后,直接输入/note。AI会引导你,将刚才的分析结果转换并写入到一个新的Markdown笔记文件中,文件会自动保存在literature/reading_notes/目录下,并以文献标题或作者命名。
关键动作:在这个过程中,你需要(或引导AI)完成“Thesis Connections”表格的填写。这是将阅读转化为写作素材的关键一步。不要拖延,在阅读完文献、印象最深刻时立刻完成这个表格。思考:“这个观点我可以用在论文的哪个部分?是用来支撑我的论点,还是作为批判的对象?”
注意事项:
- 文件命名规范:建议使用“作者_年份_简短标题.md”的格式,如
Bennett_2010_Vibrant_Matter.md。这便于后期查找。 - 状态更新:笔记文件创建时,状态默认为
reading。当你彻底消化完这篇文献,并完成了所有关联填写后,手动将状态改为completed。这是/progress技能统计“已读文献”的依据。
3.3/verify:在线事实核查
学术写作要求严谨。当文献中提及某个事实、数据或声称“研究表明”时,/verify技能可以作为一个快速的初步核查工具。
使用场景:在阅读笔记或写作过程中,对某个说法存疑。你可以选中该段文本,然后调用/verify技能。AI会尝试搜索网络信息(如果Agent具备联网功能),对该说法的准确性、来源或最新进展进行核实。
重要提示:
/verify的结果仅供参考,绝不能替代正式的学术引用和文献溯源。它更像是一个“提醒”或“初步调研”工具。对于关键论据,你必须追溯到原始的、经同行评议的学术来源。我通常用它来快速核对一些背景信息、技术参数或某个公共事件的日期,但对于核心理论观点,从不依赖于此。
3.4/map:绘制文献-章节关系矩阵
当积累了十几篇、几十篇文献笔记后,大脑很难全局把握。/map技能就是你的“战略地图生成器”。
执行效果:运行/map,AI会扫描literature/reading_notes/目录下所有笔记文件中的“Thesis Connections”表格,然后生成一个汇总的Markdown表格或矩阵视图。
输出价值:这个矩阵让你一目了然地看到:
- 章节引用密度:Ch2下面列了10篇文献,而Ch4下面只有2篇?你可能需要为Ch4寻找更多支撑材料。
- 文献使用广度:某篇核心文献被5个章节引用,说明它是你论文的理论基石。
- 关联类型分布:某个章节下的关联全是“支持”,缺乏“对比”或“批判”?这可能意味着你的论证过于单一。
我的用法:我通常在论文写作的中期(完成约1/3文献阅读后)和后期各运行一次/map。中期用它来调整阅读方向,查漏补缺;后期用它来检查引用平衡性,确保论文结构匀称。
3.5/integrate:智能编织笔记成文
这是最具魔力的技能之一。/integrate负责将分散在各个笔记文件中的观点,按照你预设的“Thesis Connections”,自动整合到对应的章节草稿文件中。
工作流程:你告诉AI想要整合到哪个章节(例如Ch3),AI会:
- 扫描所有笔记,找出所有“Chapter”字段为
Ch3的连接点。 - 按照“Section”字段进行分组排序。
- 将每个连接点对应的“Note Point”内容(可能是一段概括、一个引用原文),以逻辑连贯的方式,插入或编织到
chapters/ch03.md文件的相应小节附近。
结果:你得到的不再是一个空白的文档,而是一个已经填充了相关文献观点、初步成形的章节草稿。你的工作从“无中生有”变成了“编辑、深化、论证和连接”,写作效率大幅提升。
避坑指南:
/integrate的产出是草稿,不是终稿。AI编织的逻辑可能生硬,引用格式也可能不完美。你必须对其进行深度编辑、重写和润色,确保语言风格统一、论证逻辑严密。切勿直接使用其输出作为最终稿件。把它看作一个强大的“初稿生成器”和“素材聚合器”。
3.6/audit:跨章节一致性审查
论文写到后面,很容易出现前后术语不一致、同一文献引用格式不同、甚至论点轻微矛盾的问题。/audit技能就像一个自动化的校对员,帮你排查这类一致性错误。
检查内容:运行/audit,AI会通读你所有的章节文件(chapters/目录下),检查:
- 术语一致性:同一个概念在全文中是否使用相同的术语表述。
- 引用格式:同一篇文献的引用方式是否统一(如作者年份格式)。
- 交叉引用:前面章节说“详见第五章分析”,后面第五章是否真的有对应内容。
- 论点冲突:识别可能存在的逻辑矛盾陈述(基于浅层语义分析)。
实测体验:在我论文的最终修改阶段,/audit帮我发现了3处早期章节和后期章节对某个关键术语的表述差异,以及几处引用年份的笔误。虽然它不能替代人工通读,但作为第一道自动化防线,非常高效。
3.7/progress:进度可视化仪表盘
写作是场马拉松,需要正向反馈。/progress技能为你生成一个简洁的进度仪表盘。
数据来源:它读取所有笔记文件的“Status”字段,以及章节文件的字数。
仪表盘内容:
- 文献阅读进度:已完成(
completed)的文献数量 vs. 总文献数量。 - 章节写作进度:每个章节当前字数 vs. 预设目标字数(需要在
CLAUDE.md中配置)。 - 总体进度概览:一个简单的百分比或进度条。
心理价值:这个简单的仪表盘对于维持写作动力非常有帮助。看着“已完成文献”数一点点增加,章节字数条慢慢填满,能提供一种清晰的掌控感和成就感。
3.8/export:一键导出与打包
终稿完成后,你需要将Markdown格式的章节提交给导师或转换为Word格式。/export技能自动化了这个过程。
功能:一键将chapters/目录下的所有Markdown文件,转换为格式整洁的Word文档(.docx),并自动将所有文件(包括文献笔记、最终稿等)打包成一个ZIP压缩包,方便提交。
技术细节:它底层通常调用pandoc这类文档转换工具。确保你的系统环境已安装必要的依赖。
注意事项:在最终导出前,务必在Word中仔细检查格式,特别是图表、公式和参考文献列表的转换效果。自动化转换可能需要进行微调。
4. 平台选择与项目初始化实战
这个工具箱支持多种AI编码助手平台,但体验和功能完整性有差异。我的主要经验基于Claude Code,也会对比其他平台。
4.1 平台对比与选型建议
| 平台 | 技能支持 | 配置方式 | 体验评价 | 适用场景 |
|---|---|---|---|---|
| Claude Code | 完整支持8个技能 | 项目根目录CLAUDE.md文件 | 最佳体验。技能自动发现,交互流畅,上下文理解能力强。 | 重度用户、长期复杂项目(如博士论文)的首选。 |
| Codex CLI / Gemini CLI | 完整支持8个技能 | 项目根目录AGENTS.md或GEMINI.md文件 | 体验良好。依赖命令行操作,适合喜欢终端工作流的开发者。 | 熟悉命令行、希望深度集成到脚本化工作流中的用户。 |
| Cursor | 仅支持规则(Rules) | .cursor/rules/目录下的规则文件 | 有限支持。可以加载行为规则,但无法直接调用/skill命令。 | 已使用Cursor作为主力编辑器,希望获得一些自动化提示辅助的用户。需搭配CLI Agent使用完整技能。 |
| VS Code Copilot | 理论上支持 | 需手动配置技能目录 | 依赖Copilot Chat的完成度,体验可能不统一。 | VS Code忠实用户,愿意花时间配置和调试。 |
个人建议:对于严肃的学术写作项目,直接选择Claude Code。它的技能集成是无缝的,打开项目后技能自动就绪,几乎不需要额外配置,让你能专注于内容本身。
4.2 项目初始化与配置详解
假设我们使用Claude Code,开始一个新论文项目。
第一步:克隆与初始化
# 将工具箱克隆为你论文项目的目录 git clone https://github.com/yha9806/academic-writing-toolkit.git my-phd-thesis cd my-phd-thesis # 启动Claude Code(通常在VSCode中安装Claude Code扩展后,通过命令面板或侧边栏启动)启动后,Claude Code会自动读取项目中的CLAUDE.md和.claude/skills/目录,所有技能立即可用。
第二步:个性化配置CLAUDE.md这是最关键的一步,决定了工具箱如何为你服务。打开CLAUDE.md文件,重点修改以下部分:
设定字数目标:在
## Targets部分,填写你论文的总字数和各章节目标。这直接影响/progress的进度计算。## Targets - Total word count target: 60000 | Chapter | Title | Target Words | |---------|-------|-------------| | Ch1 | Introduction | 5000 | | Ch2 | Literature Review | 15000 | | Ch3 | Methodology | 8000 | | Ch4 | Analysis & Findings | 20000 | | Ch5 | Discussion | 10000 | | Ch6 | Conclusion | 2000 |调整阅读约束:在
## Reading Constraints部分,根据你的文献难度调整单次阅读页数。对于理论深奥的文献,建议调低。## Reading Constraints - Max pages per read invocation: 12 # 单次指令最多读12页 - Max pages per conversation: 60 # 单次会话累计不超过60页,防止上下文过长核对目录路径:通常无需修改,但如果你喜欢自定义目录结构,在此调整。
## Directories - Chapters: `chapters/` # 你的章节草稿存放处 - Literature PDFs: `literature/` # 存放原始PDF文献 - Reading notes: `literature/reading_notes/` # 标准化笔记存放处 - Export output: `final_output/` # 最终导出的Word和ZIP文件位置
第三步:熟悉目录结构初始化后,你的项目目录应如下所示。不要被文件数量吓到,大部分是模板和配置,你的核心工作空间只有两个文件夹:literature/和chapters/。
my-phd-thesis/ ├── .claude/ # Claude Code配置和技能(自动加载,无需动) ├── .agents/ # 其他Agent的技能(备用) ├── .cursor/ # Cursor规则(备用) ├── chapters/ # **你的核心工作区1:章节草稿** │ ├── ch01.md # 第一章模板 │ ├── ch02.md │ └── ... # 其余章节 ├── literature/ # **你的核心工作区2:文献库** │ ├── reading_notes/ # 标准化笔记存放处 │ │ └── _template_NOTES.md # 笔记模板,复制它创建新笔记 │ └── (你可以在这里按主题建子文件夹存放PDF) # 例如 `/theory/`, `/case_studies/` ├── final_output/ # 最终输出目录(初始为空) ├── docs/ # 说明文档(有空可读) ├── CLAUDE.md # **你的主配置文件** ├── AGENTS.md └── GEMINI.md5. 从零到一:一个完整的论文章节诞生实录
让我们跟随一个虚构的场景,看看如何运用这些技能,从一篇文献开始,最终产出一段章节内容。假设我正在写博士论文的第三章(方法论),需要精读一篇关于“数字民族志”的经典文献。
第1步:深度阅读与笔记化 (/read+/note)我将PDF文件literature/digital_ethnography_pink_2016.pdf放入文献库。在Claude Code中:
- 输入:
/read,然后指定路径。 - AI开始分析。由于我设置了单次最多读12页,对于这篇30页的文章,我分三次读完(
-p 1-12,-p 13-24,-p 25-30),每次读完都立即进行下一步。 - 每次
/read结束后,立即输入/note。AI会引导我创建笔记文件。我将其命名为Pink_2016_Digital_Ethnography.md。 - 在创建笔记时,我重点填写“Thesis Connections”表格。例如,作者提到“多模态记录”,我认为这对我设计数据收集方法很有启发,于是在表格中添加一行:
Note Point Chapter Section Connection Type 多模态记录(照片、视频、音频)作为民族志数据 Ch3 S3.2 支持
第2步:建立文献地图 (/map)在积累了5-6篇方法论相关的文献笔记后,我运行/map。AI生成一个矩阵,我清晰地看到:
- Ch3(方法论)下面已经关联了5篇文献。
- 但S3.3(数据分析策略)下面只有1篇文献,显得薄弱。 这个视图直接指导我下一步的阅读方向:我需要去找更多关于质性数据分析方法的文献。
第3步:整合笔记,生成草稿 (/integrate)当我认为方法论章节的文献准备比较充分时,我运行/integrate,并指定章节Ch3。 AI会:
- 扫描所有笔记,找出所有
Chapter为Ch3的行。 - 将
Pink_2016_Digital_Ethnography.md中关于“多模态记录”的要点,连同其他文献的相关要点,一起整合到chapters/ch03.md文件的## 3.2 数据收集方法这个小节附近。 - 生成一段初步的文本,可能像这样:“在数据收集层面,本研究受数字民族志启发,采用多模态记录方法(Pink, 2016),不仅收集文本访谈资料,也涵盖...(此处插入其他文献观点)...”
第4步:人工精修与论证深化拿到/integrate生成的草稿后,我的工作才开始。这段文字是素材的堆砌,缺乏逻辑连接和我的批判性思考。我需要:
- 重写连接句:将AI生成的并列陈述,改为有逻辑推进的论证。
- 深化分析:不只是说“采用了多模态记录”,而要解释为什么这对我的研究问题必要,它解决了传统方法的什么局限。
- 统一语气和风格:确保整章读起来像一个人写的。
- 完善引用:检查并格式化所有引用,确保符合学术规范。
第5步:一致性审查与进度检查 (/audit+/progress)在完成Ch3的修改后,我运行/audit,确保“多模态”这个术语在全文中没有和其他章节(如结论章)的表述冲突。同时,运行/progress,看着仪表盘上Ch3的字数条接近目标,获得一份即时的成就感。
6. 常见问题与排查技巧实录
在实际使用近半年后,我总结了一些常见问题和解决方案,希望能帮你绕过我踩过的坑。
6.1 技能调用失败或无效
- 问题:输入
/read后,AI没有反应,或回复“我不理解这个命令”。 - 排查:
- 确认平台:你是在Claude Code、Codex CLI等支持完整技能的平台上吗?如果在Cursor中,它只支持规则,无法直接调用技能。
- 检查配置文件:确保项目根目录下有正确的配置文件(如
CLAUDE.md),并且AI助手正在读取当前项目目录。有时需要重启一下AI助手的会话。 - 检查技能目录:确保
.claude/skills/或.agents/skills/目录存在且包含技能文件(.md格式)。可以尝试重新克隆项目。
6.2/read输出质量不高,流于表面
- 问题:AI对文献的分析停留在简单总结,没有深入剖析论点和方法。
- 解决:
- 减少单次阅读页数:这是最有效的方法。在
CLAUDE.md中将“Max pages per read invocation”调到5-10页,迫使AI进行细读。 - 提供引导:在
/read命令后,可以追加一些具体指令,如:“请重点分析作者在第三部分使用的理论框架及其局限性。”或“请提取文中关于‘XXX’概念的定义和演变。” - 分部分阅读:对于非常关键的文献,不要一次性读完。用
/read -p 1-5先读引言和问题提出,消化后再读方法部分。
- 减少单次阅读页数:这是最有效的方法。在
6.3/integrate生成的草稿生硬、逻辑跳跃
- 问题:AI只是把不同笔记的句子拼在一起,读起来不连贯。
- 解决:
- 调整预期:牢记
/integrate是“草稿生成器”和“素材聚合器”,不是“终稿写手”。它的价值在于帮你把分散的笔记点归位,节省你复制粘贴的时间。逻辑串联和深度论证必须由你完成。 - 优化笔记质量:在
/note阶段,“Thesis Connections”表格中的“Note Point”字段不要只写一个关键词。尽量写一句完整的话,概括这个观点以及你打算如何用它。例如,不要只写“多模态记录”,而是写“采用多模态记录(如视频、音频)以捕捉线上互动的非文本维度,弥补单一访谈数据的不足”。这样AI在整合时更有上下文。 - 分小节整合:不要一次性整合整个章节。尝试针对某个特定小节(如
S3.2)进行整合,这样AI处理的素材更集中,输出可能更连贯。
- 调整预期:牢记
6.4 笔记文件管理混乱
- 问题:
literature/reading_notes/目录下文件越来越多,难以查找。 - 解决:
- 严格命名:坚持使用“作者_年份_关键词.md”格式。
- 利用状态标签:善用笔记顶部的
Status: reading标签。可以用文件管理器或搜索功能,快速过滤出所有未完成的文献(Status: reading)。 - 子目录分类:如果文献量极大(超过50篇),可以在
reading_notes/下创建子目录,如/theory/、/methods/、/case_studies/。但请注意,这可能需要你微调技能中扫描笔记的路径配置(在CLAUDE.md中修改路径为literature/reading_notes/**/*.md,但需确认技能支持通配符递归搜索)。
6.5/progress仪表盘字数统计不准
- 问题:仪表盘显示的章节字数与实际在Word中统计的有出入。
- 原因:
/progress通常统计的是Markdown文件的纯文本字符数,不包括Markdown语法(如#、**)。而Word统计的是排版后的字数,两者算法不同,存在差异是正常的。 - 建议:将
/progress的数据视为相对进度参考和趋势指标。只要它显示你在稳定增长,就说明工作在进行中。最终提交前,以Word的官方字数统计为准。
6.6 在多台设备间同步工作
- 场景:在家和学校的电脑上交替工作。
- 方案:将整个
my-phd-thesis项目目录放在云同步盘(如Dropbox, Google Drive, iCloud Drive,或国内可用的同步服务)或使用Git进行版本管理。 - 强烈推荐Git:除了同步,Git还能帮你保留每一次修改的历史记录。
这样,你在任何一台电脑上# 在项目目录初始化Git仓库(如果克隆时未自动初始化) git init # 将所有文件加入版本控制(注意配置.gitignore排除final_output/等临时文件夹) git add . git commit -m "初始提交:论文项目结构" # 关联到远程仓库(如GitHub, Gitee) git remote add origin <你的仓库URL> git push -u origin maingit pull就能获取最新进度,写完一部分后git commit & push即可备份和同步。literature/reading_notes/和chapters/目录下的所有修改都被完整记录。
这套“学术写作工具箱”的本质,是为你和AI之间建立了一套高效的协作协议。它没有取代你的思考,而是将你从繁琐的信息管理、机械的素材整理中解放出来,让你能更专注地从事高价值的批判性思考、逻辑构建和理论创新。它要求你在前期投入时间建立规范(填写那些表格),但回报是写作中后期惊人的效率提升和思路清晰度。如果你正面临一项庞大的学术写作任务,我强烈建议你尝试用它来构建你的工作流,它很可能成为你研究生涯中一个重要的效率拐点。
