PowerToys Run集成ChatGPT:打造Windows系统级AI助手
1. 项目概述:当PowerToys遇见ChatGPT
如果你是一个Windows的深度用户,或者是一名追求效率的开发者,那么你对微软官方的PowerToys套件一定不会陌生。这套免费的系统增强工具集,从窗口管理、文件批量重命名到颜色拾取,几乎覆盖了日常使用中的各种痛点,堪称Windows平台的“瑞士军刀”。但你是否想过,如果给这把“军刀”注入一个AI大脑,让它不仅能自动化操作,还能理解你的意图、与你对话、甚至主动为你规划任务流,会是什么体验?
这就是ferraridavide/ChatGPTPowerToys项目带来的核心愿景。它不是一个独立的应用程序,而是一个将OpenAI的ChatGPT模型能力深度集成到PowerToys运行器(PowerToys Run)中的插件。简单来说,它让你在Windows上按下Alt+Space唤出那个熟悉的搜索框后,不仅能搜索文件、启动应用、执行计算,还能直接与一个强大的AI助手对话,并让这个助手直接操控你的系统或为你生成内容。
想象一下这些场景:你正在写代码,突然想不起来某个API的具体用法,直接唤出运行器,输入“Python里怎么用requests库发送一个带JSON数据的POST请求?”,AI不仅能给出代码片段,还能一键复制到剪贴板;你收到一封英文邮件需要快速回复,输入“帮我写一封礼貌的英文回信,表示收到并会尽快处理”,AI生成文本后,你可以直接编辑并发送;甚至,你可以命令它“打开我的项目文件夹,并启动Visual Studio Code”,它都能理解并执行。这不再是简单的问答,而是将AI的认知能力无缝嵌入到操作系统的工作流中,极大地缩短了“想法”到“行动”的距离。
这个项目由开发者Davide Ferrari创建并维护,它巧妙地利用了PowerToys Run开放的插件生态。PowerToys Run本身是一个高度可扩展的启动器,其插件机制允许开发者为其添加任何自定义的查询和操作逻辑。ChatGPTPowerToys插件正是基于此,将用户的自然语言查询发送给ChatGPT API,解析AI的回复,并将其转化为可执行的命令、可展示的信息或可操作的结果项。对于追求极致效率、厌倦了在不同应用间频繁切换的现代工作者来说,这无疑是一个极具吸引力的生产力“外挂”。
2. 核心架构与工作原理拆解
要理解ChatGPTPowerToys如何工作,我们需要将其拆解为三个核心层次:用户交互层、逻辑处理层和AI服务层。这三层协同工作,将一次简单的快捷键呼出,变成一次与AI协同完成任务的体验。
2.1 用户交互层:PowerToys Run 插件机制
一切始于PowerToys Run。当你按下Alt+Space(或自定义的快捷键),屏幕中央会弹出一个简洁的输入框。这个运行器的设计哲学是“快速、轻量、无干扰”。ChatGPTPowerToys作为一个插件,会向运行器注册自己。注册时,它会声明一个或多个“激活词”(Trigger Word)。例如,默认的激活词可能是ai或chat。当你在运行器中输入以这些词开头的内容时,PowerToys Run就会将后续的查询字符串交给ChatGPTPowerToys插件来处理。
这个设计非常巧妙。它避免了AI功能对原有搜索功能的干扰。当你只想搜索一个文件时,你直接输入文件名即可;当你需要AI帮助时,你只需先输入ai加一个空格,再输入你的问题。这种显式的模式切换,既清晰又高效。插件在运行器的结果列表中,会以特定的图标和格式展示AI返回的答案或可执行的操作项,用户可以使用键盘上下键选择,按回车执行(如复制代码、打开链接、运行命令等)。
2.2 逻辑处理层:插件的“大脑”与“翻译官”
这是项目的核心代码所在。当插件接收到用户的查询(例如ai 如何用Python读取CSV文件?)后,它的工作流程可以细分为以下几个步骤:
查询预处理与上下文构建:插件并非简单地将用户输入原样发送给AI。为了提高回答的准确性和实用性,插件会在用户查询前附加一个“系统提示词”(System Prompt)。这个提示词是预定义的一段文本,用于设定AI的角色和行为准则。例如,提示词可能会告诉AI:“你是一个集成在Windows PowerToys中的助手,专注于提供简洁、实用的代码示例、系统操作建议或文本处理帮助。请用Markdown格式回复代码块,对于可操作项,请用清晰的列表指出。” 这样,AI的回复就会更结构化,便于插件后续解析。
API通信与安全处理:构建好完整的请求消息(包含系统提示和用户查询)后,插件会通过HTTPS请求调用OpenAI的ChatGPT API(通常是
gpt-3.5-turbo或gpt-4模型)。这里涉及几个关键配置,需要用户在插件设置中预先填写:- API密钥:你的OpenAI账户密钥,这是调用服务的凭证。
- API端点:通常是OpenAI官方端点,但项目也支持配置为其他兼容OpenAI API格式的第三方服务端点(例如某些本地部署的模型服务),这提供了灵活性。
- 网络代理设置:对于某些网络环境,可能需要配置HTTP代理才能访问OpenAI服务。插件通常支持设置代理服务器地址和端口。
通信过程必须考虑超时和错误处理。如果网络不佳或API服务异常,插件需要给出友好的错误提示,而不是让运行器卡死。
响应解析与结果渲染:收到AI返回的JSON格式响应后,插件需要从中提取出纯文本或Markdown格式的回答内容。接下来是最具挑战性的一步:从自然语言回复中识别可操作意图。一个成熟的插件会尝试解析AI回复中的特定模式。例如:
- 代码块:识别Markdown的 ``` 代码块,将其单独提取为一个结果项,并标注语言类型(如python、bash)。用户选择此项后,可以一键复制代码到剪贴板。
- 命令行指令:如果AI回复中包含了像
mkdir new_folder或git clone ...这样的命令,插件可以将其识别为“在终端中运行”的选项。 - 文件路径或URL:检测到看起来像本地路径(
C:\Users\...)或网页链接(https://...)的文本,提供“打开文件”或“在浏览器中打开”的选项。 - 结构化列表:将AI回复中的项目列表转化为运行器中可逐项选择的结果。
解析完成后,插件将这些结构化的“结果项”列表返回给PowerToys Run,由运行器统一渲染展示给用户。
2.3 AI服务层:模型能力与成本考量
项目的智能核心完全依赖于后端的大语言模型(LLM)。最初,这特指OpenAI的ChatGPT系列模型。选择哪个模型(如gpt-3.5-turbovsgpt-4)直接影响体验和成本。
- gpt-3.5-turbo:响应速度极快,成本低廉(每百万tokens仅需几美分),对于大多数代码生成、文本润色、简单问答任务完全够用,是性价比首选。
- gpt-4:理解能力、推理能力和复杂任务处理能力更强,生成的代码和文本质量更高,但速度慢、成本昂贵(约贵15-30倍)。它更适合处理非常复杂、需要深度推理的查询。
注意:频繁使用会产生API费用。OpenAI按Token使用量计费。一个Token大约相当于0.75个英文单词或一个汉字。一次简单的问答可能消耗几百个Token,折合人民币几分钱。但如果高频使用,月度账单也可能达到数十元。用户需在OpenAI平台监控使用量。
项目的开放性在于,它通常设计为兼容“OpenAI API格式”。这意味着只要后端服务提供了与OpenAI相同的API接口,就可以替换服务源。这为使用其他云端AI服务(如Azure OpenAI)或本地部署的大模型打开了大门。例如,你可以在自己的电脑上部署一个轻量级的开源模型(如Llama 3.1、Qwen等),并通过Ollama、LM Studio等工具提供兼容OpenAI的API服务,然后将插件的API端点指向http://localhost:11434/v1。这样,所有查询都在本地处理,零成本、零延迟,且完全隐私。这是许多高级用户青睐的用法。
3. 从零开始:部署与配置全指南
要让ChatGPTPowerToys在你的系统上跑起来,需要完成一个清晰的链条:安装运行环境 -> 获取AI能力凭证 -> 安装配置插件。下面我们一步步拆解。
3.1 基础环境准备:PowerToys安装与运行器启用
首先,确保你的系统是Windows 10(版本2004或更高)或Windows 11。然后,从微软官方GitHub仓库或Microsoft Store安装PowerToys。建议从GitHub发布页下载安装包,以获得最新版本。
安装完成后,打开PowerToys设置。在左侧导航栏找到“PowerToys Run”并点击。确保顶部的“启用PowerToys Run”开关是打开状态。在这里,你可以自定义激活快捷键(默认为Alt + Space),我建议将其改为一个不会与其他软件冲突的组合,例如Win + ;。
接下来,你需要了解插件管理界面。在PowerToys Run的设置页面中,有一个“插件”部分。这里列出了所有已安装的插件及其设置。ChatGPTPowerToys安装后就会出现在这里。但在此之前,我们需要先解决AI能力的问题。
3.2 AI能力核心:获取与配置API密钥
这是整个设置中最关键的一步。你需要一个能够调用大语言模型的API密钥。
方案一:使用OpenAI官方API(最直接)
- 访问OpenAI平台网站并注册/登录。
- 进入API Keys页面,点击“Create new secret key”。
- 为密钥命名(如“PowerToysUse”),并复制生成的密钥字符串。请立即妥善保存,因为它只显示一次。
- 你需要为账户充值。OpenAI提供免费试用额度(通常为新用户提供5美元,有效期3个月),用完后需绑定支付方式(支持信用卡)。在Billing页面可以设置使用量上限,防止意外超额。
方案二:使用Azure OpenAI服务(企业级,更稳定)如果你有Azure订阅,可以使用Azure OpenAI服务。它提供与OpenAI相同的模型,但走的是Azure的计费和网络链路,可能在某些区域访问更稳定。
- 在Azure门户中申请Azure OpenAI服务权限并创建资源。
- 在创建的资源里,转到“密钥和终结点”页面,复制其中一个密钥以及“终结点”URL。
- 在插件配置中,API密钥填Azure的密钥,API端点填Azure提供的终结点URL(格式如
https://your-resource.openai.azure.com/)。
方案三:使用本地大模型(零成本,高隐私)这是技术爱好者喜欢的方案。以使用Ollama为例:
- 从Ollama官网下载并安装。
- 打开命令行,拉取一个模型,例如
ollama pull llama3.1:8b(拉取70亿参数的Llama 3.1模型)。 - 启动模型服务:
ollama run llama3.1:8b。默认情况下,Ollama会在http://localhost:11434提供一个兼容OpenAI API格式的接口。 - 在插件配置中,API端点填写
http://localhost:11434/v1,API密钥可以留空或任意填写(因为本地服务通常不需要鉴权)。 - 将“模型”字段改为Ollama中该模型的实际名称,如
llama3.1:8b。
实操心得:对于初学者,建议从OpenAI官方API开始,体验最好。对于注重隐私和成本的用户,本地模型是终极解决方案,但需要一台性能不错的电脑(至少16GB内存,推荐32GB以上用于运行70亿参数模型流畅)。Azure方案则适合已有Azure环境的企业用户。
3.3 插件安装与精细配置
ChatGPTPowerToys的安装方式通常有两种:
通过PowerToys内置商店安装(推荐):新版本的PowerToys Run集成了插件商店。你可以在“插件”设置页找到“浏览插件”或类似按钮,在线搜索“ChatGPT”并直接安装。这是最安全便捷的方式。
手动安装(适用于开发版或特定版本):从项目GitHub仓库的Release页面下载
.zip或.pear插件包。然后在PowerToys Run的插件设置中,找到“从文件安装”或“添加插件”的选项,选择下载的包文件。
安装成功后,插件会出现在已启用插件列表中。点击它进入详细配置:
基本设置:
- API密钥:粘贴你从OpenAI、Azure或留空(本地模型)获取的密钥。
- API端点:填写对应的服务地址。OpenAI官方是
https://api.openai.com/v1;Azure是类似https://your-resource.openai.azure.com/openai/deployments/your-deployment-name/chat/completions?api-version=2023-05-15的格式;本地Ollama是http://localhost:11434/v1。 - 模型:指定要使用的模型名称,如
gpt-3.5-turbo,gpt-4,llama3.1:8b等。 - 激活词:设置触发插件的关键词,默认为
ai。你可以改成更顺手的,比如g或ask。
高级设置:
- 系统提示词:这是控制AI行为的“宪法”。默认提示词可能要求AI回答简洁、使用Markdown。你可以修改它来定制AI的角色,例如:“你是一个资深的Linux系统管理员,用中文回答。所有命令都针对Ubuntu系统。”
- 温度:控制AI回答的随机性(0.0到2.0)。值越低(如0.1),回答越确定、保守;值越高(如0.8),回答越有创造性、不可预测。对于代码生成和事实问答,建议设置在0.1-0.3;对于创意写作,可以调到0.7-0.9。
- 最大Token数:限制AI单次回复的长度。设置太小可能导致回答被截断,太大则可能消耗更多费用和等待时间。对于运行器这种交互,512-1024通常足够。
- 网络代理:如果你需要通过代理服务器访问外网,在此处填写代理地址(如
http://127.0.0.1:1080)。
配置完成后,点击保存。现在,按下你的PowerToys Run快捷键,输入ai 你好,世界!,你应该就能看到AI的回复了。
4. 实战应用场景与效率提升技巧
安装配置只是开始,真正释放其威力在于如何将其融入日常的工作流。下面分享几个我高频使用的场景和提升效率的技巧。
4.1 场景一:开发者的即时编程助手
作为开发者,我们最常遇到的就是“记忆断片”和“样板代码”。ChatGPTPowerToys完美解决了这两个问题。
- 快速查询语法与API:忘记Python中
datetime模块如何格式化日期?直接ai Python datetime 格式化当前时间为 YYYY-MM-DD HH:MM:SS。AI不仅给出代码datetime.now().strftime('%Y-%m-%d %H:%M:%S'),还会以代码块形式呈现,一键复制。比打开浏览器、搜索、筛选Stack Overflow答案快得多。 - 生成代码片段与函数:需要一段从JSON文件中读取特定字段的代码?输入
ai 写一个Python函数,读取data.json文件,提取所有用户的email字段,返回列表。几秒钟后,一个完整的、带有错误处理的函数就呈现在你面前,可以直接插入到你的项目中。 - 解释复杂代码或错误:从日志中拷贝了一段晦涩的错误信息,输入
ai 解释这个错误:然后粘贴错误。AI能将其翻译成通俗易懂的语言,并给出可能的修复建议。 - 不同语言间代码转换:有一段JavaScript的数组处理逻辑,想改成Python实现。输入
ai 将以下JS代码转换为Python:然后粘贴代码。转换的准确率相当高。
实操心得:在提问时,尽量明确上下文和约束条件。例如,指定编程语言、库的版本、目标操作系统等。像“用Python的pandas库,版本1.5+,如何合并两个DataFrame?”比“怎么合并两个表?”能得到更精准、可用的答案。
4.2 场景二:文本处理与内容创作加速器
任何需要处理文字的工作,都能从中受益。
- 快速润色与改写:写了一段英文邮件草稿,感觉不够地道。输入
ai 润色以下英文邮件,使其更专业礼貌:粘贴你的草稿。AI会提供多个改进版本。 - 多语言翻译:需要快速翻译一段技术文档。输入
ai 将以下中文翻译成英文:加上文本。由于是调用GPT,其翻译质量远超一般的机器翻译,尤其在技术术语上。 - 总结与提取要点:读完一篇长文章,想快速抓住核心。输入
ai 用三个要点总结以下内容:粘贴文章。AI生成的摘要通常非常精炼。 - 生成内容大纲:要写一份项目计划书,没有头绪。输入
ai 为一个“智能家居数据中台”项目起草一份技术方案大纲。一个结构清晰、包含背景、目标、架构、技术选型、实施计划的框架就生成了,为你节省大量前期构思时间。
4.3 场景三:系统与工作流智能导航
这是将AI从“顾问”变为“执行者”的关键一步,依赖于插件对AI回复的深度解析能力。
- 智能文件操作:你可以尝试输入
ai 在我的文档文件夹里,找到最近修改过的PDF文件。一个设计良好的插件可能会解析这个意图,并生成一个指向文件资源管理器搜索或PowerShell命令的结果项。虽然目前直接执行复杂文件操作还不普遍,但这是插件进化的方向。 - 执行系统命令:更直接的方式是让AI生成命令,然后你选择执行。例如,输入
ai 用一条PowerShell命令列出当前目录下所有大于100MB的文件。AI生成命令Get-ChildItem -Recurse | Where-Object {$_.Length -gt 100MB} | Select-Object FullName, Length,你可以选择此项,插件可能会提供“在终端中运行”的选项(如果插件支持),或者你手动复制到终端运行。 - 流程自动化编排:这是高级用法。你可以描述一个多步骤的任务,让AI帮你规划。例如:
ai 我要将一批JPG图片从“下载”文件夹移动到“图片/2024-08”文件夹,并重命名为“trip_001.jpg”的格式,用Python写个脚本。AI生成的脚本,你可以保存并运行,一次性完成整个任务。
效率提升的终极技巧:自定义系统提示词这是将通用AI助手变为你个人专属助手的秘诀。在插件设置中,找到系统提示词(System Prompt)配置项。不要满足于默认值。根据你的主要工作领域,精心设计一段提示词。
例如,如果你是一名全栈开发者,可以这样设置:
你是一个经验丰富的全栈开发助手,精通Python(Django/FastAPI)、JavaScript(React/Vue)和Linux运维。请遵守以下规则: 1. 所有代码回复必须使用Markdown代码块,并标明语言。 2. 优先提供最实用、最符合当前最佳实践的解决方案。 3. 当被问及系统操作时,默认针对Ubuntu 22.04环境。 4. 解释概念时,请用类比的方式,让初学者也能理解。 5. 如果我的问题不够清晰,请先询问澄清,而不是猜测。 现在,请开始帮助我。通过这样的定制,AI在每次对话开始时都会“进入角色”,给出的回答会更具针对性,质量显著提升。你可以为不同任务创建不同的提示词配置文件,根据需要切换,就像为不同的工作切换不同的工具套装。
5. 常见问题、性能调优与隐私安全
在实际使用中,你可能会遇到一些问题。以下是一些常见问题的排查思路和优化建议。
5.1 连接与响应问题排查
| 问题现象 | 可能原因 | 解决方案 |
|---|---|---|
| 输入查询后无任何结果,或提示“插件错误” | 1. API密钥错误或失效。 2. API端点填写错误。 3. 网络连接问题,无法访问API服务。 | 1. 检查并重新复制API密钥,确保无多余空格。 2. 核对API端点URL,OpenAI官方是 https://api.openai.com/v1。3. 检查网络,尝试在浏览器中直接访问API端点(需带鉴权)。对于本地模型,检查Ollama等服务是否正在运行 ( ollama list)。 |
| 响应速度非常慢 | 1. 使用了较大、较慢的模型(如GPT-4)。 2. 网络延迟高。 3. 本地模型硬件资源不足。 | 1. 在设置中切换到更快的模型,如gpt-3.5-turbo。2. 如果使用云端API,考虑网络优化或更换服务商(如Azure可能在某些区域更快)。 3. 对于本地模型,尝试更小的模型(如 llama3.1:8b),或确保电脑有足够空闲内存和CPU。 |
| AI回复内容被截断 | 插件或API设置的最大Token数过低。 | 在插件高级设置中,增加“最大回复Token数”的值,例如从512调整到1024或2048。注意,这会增加单次请求的成本和时间。 |
| 回复内容不符合预期,太啰嗦或格式乱 | 系统提示词设置不当,或“温度”参数过高。 | 1. 优化系统提示词,明确要求“回答简洁”、“使用列表”、“代码用代码块”。 2. 将“温度”参数调低,如设为0.2,让输出更稳定、更遵循指令。 |
5.2 成本控制与用量监控
使用云端API,成本是需要关注的因素。以下是一些控制成本的技巧:
- 选择性价比模型:对于绝大多数日常任务,
gpt-3.5-turbo在速度、成本和能力上取得了最佳平衡。仅在处理极其复杂、需要深度推理的问题时,才临时切换到gpt-4。 - 设置使用量上限:在OpenAI平台或Azure门户中,为你的API密钥设置每月使用额度上限(如10美元)。这是防止意外超额的最有效安全阀。
- 优化查询:尽量提出清晰、具体的问题,避免开放式、引导AI进行长篇幅论述的提问。在系统提示词中要求“回答简洁”,也能有效减少不必要的Token消耗。
- 善用本地模型:对于不涉及最新知识(模型训练数据截止日期之前)的编程、写作、翻译任务,本地模型是完全免费的替代方案。将常用任务分流到本地模型,关键任务再用GPT-4,是资深用户的常见策略。
5.3 隐私安全考量
将你的查询发送给第三方AI服务,隐私是无法回避的问题。
- 云端API的风险:发送给OpenAI或Azure的查询内容,可能会被用于其服务改进(具体需查阅其隐私政策)。绝对不要通过此类插件发送任何敏感信息、个人身份信息、公司机密代码或数据。
- 本地模型的优势:所有数据处理都在你自己的电脑上完成,这是最安全的方案。适合处理任何敏感内容。
- 插件自身的权限:PowerToys Run插件在理论上具有执行系统命令的潜力。因此,只从官方商店或可信来源(如项目GitHub主页)安装插件。谨慎对待那些要求过高权限或来源不明的插件。
一个折中的安全实践是:建立内容分类习惯。将查询分为“公开信息”(如语法查询、公开知识问答、非敏感内容创作)和“敏感信息”(如包含内部数据的错误日志、私人笔记、机密业务逻辑)。前者使用便捷的云端API,后者务必使用本地模型或完全离线处理。
6. 进阶玩法与生态扩展
当你熟练使用基础功能后,可以探索一些进阶玩法,让这个工具更加强大。
6.1 结合其他PowerToys插件形成组合拳
PowerToys Run的魅力在于插件生态。ChatGPTPowerToys可以和其他插件联动。
- 与“窗口管理器”联动:你可以让AI帮你规划窗口布局。例如,输入
ai 我需要在左边放浏览器,右上放代码编辑器,右下放终端,用PowerToys FancyZones怎么设置?,AI可以给出区域划分的建议和快捷键。 - 与“文件重命名”工具联动:有一批图片需要按规则重命名。输入
ai 写一个PowerToys PowerRename规则,将所有包含“IMG”的文件,替换为“Vacation_”并加上三位序列号,然后将生成的规则表达式复制到PowerRename中使用。 - 与“快捷键指南”联动:忘记某个软件的快捷键,输入
ai Visual Studio Code中用于折叠所有代码块的快捷键是什么?,快速获取答案。
6.2 开发自定义插件与提示词工程
如果你有开发能力,这个项目的开源特性为你打开了无限可能。你可以Fork其代码,进行二次开发。
- 定制结果解析器:默认的解析器可能只识别代码块和链接。你可以修改代码,让它能识别更多模式。例如,解析AI回复中的“
打开 [应用名]”这样的指令,并映射到启动该应用程序的操作。 - 创建领域专属插件:基于ChatGPTPowerToys的框架,你可以创建一个专门用于某个领域的插件。例如,一个“法律文书助手”插件,其系统提示词预设为法律专家角色,专门帮助起草或审查合同条款。一个“数据分析助手”插件,其提示词要求AI以Pandas和Matplotlib为中心进行思考和代码生成。
- 深度提示词工程:这是无需修改代码就能大幅提升效果的方法。研究并设计针对不同任务链的“超级提示词”。例如,一个用于代码审查的提示词,可以要求AI按“安全性、性能、可读性、是否符合规范”四个维度来审查粘贴的代码,并给出具体的修改建议和修改后的代码。将这些精心调校的提示词保存为模板,随时调用。
6.3 探索替代方案与未来展望
ChatGPTPowerToys并非唯一选择,了解生态有助于你做出最佳选择。
- 其他启动器集成AI:像
ueli、Listary、Wox等启动器也有类似的AI插件或正在开发相关功能。可以对比其易用性和功能。 - 独立的AI启动器:也有一些专门为AI交互设计的独立工具,如
MacGPT(macOS)或一些开源的跨平台启动器,它们可能在UI/UX上针对AI对话做了更多优化。 - 操作系统的原生集成:未来最大的趋势是AI能力被直接集成到操作系统层面。Windows 11已经推出了Copilot,虽然目前还是一个侧边栏应用,但未来很可能与系统搜索、文件管理、设置等深度结合。ChatGPTPowerToys这类第三方工具的价值在于其灵活性、可定制性和对开源模型的支持,在相当长一段时间内,对于专业用户和爱好者而言,仍然是不可替代的精准效率工具。
我个人在实际使用中的体会是,ChatGPTPowerToys这类工具最大的价值不在于替代搜索引擎或专业IDE,而在于填补了“模糊意图”到“具体行动”之间的最后一段空白。它让以自然语言指挥电脑完成复杂任务变得触手可及,这种交互范式的转变,才是其革命性所在。开始使用时,你可能会觉得它只是一个好玩的问答机,但当你习惯将各种碎片化的问题、琐碎的任务交给它,并形成肌肉记忆后,你会发现自己再也回不去那个需要不停切换上下文、手动拼接信息的旧工作模式了。它就像一位随时待命、无所不知、且能直接帮你动手的超级助理,静静地潜伏在Alt+Space之后,等待你的召唤。
