当前位置: 首页 > news >正文

ChatGPT资源大全:从开源仓库到AI应用开发实战指南

1. 项目概述:一个汇聚ChatGPT相关资源的开源仓库

最近在折腾AI应用开发,特别是围绕ChatGPT的各类工具和项目时,发现了一个宝藏级的开源仓库:jqueryscript/ChatGPT-Resources。这可不是一个简单的代码库,而是一个由社区驱动的、持续更新的ChatGPT资源大全。对于任何想要深入了解、应用或二次开发ChatGPT相关功能的开发者、产品经理乃至技术爱好者来说,这个仓库都是一个极佳的起点和导航站。

简单来说,这个项目就是一个精心整理的清单,它系统地收集了与ChatGPT相关的各种资源,包括但不限于官方的API文档、非官方的SDK封装、开源的客户端应用、实用的浏览器插件、部署好的在线服务、以及大量的教程、文章和最佳实践。它的核心价值在于“聚合”与“筛选”,帮你省去了在浩瀚的互联网中盲目搜索、甄别优劣的时间,直接提供了一个经过社区验证的、高质量的资源入口。无论你是想快速调用API开发一个聊天机器人,还是想研究ChatGPT的底层原理,或是寻找现成的工具来提升工作效率,都能在这里找到线索。

2. 资源仓库的核心价值与设计思路

2.1 解决信息过载与质量参差的问题

在AI技术,尤其是像ChatGPT这样现象级产品爆发的初期,相关的工具、库、教程会呈现爆炸式增长。GitHub上每天都有无数个以“chatgpt”开头的仓库诞生,技术博客、社交媒体上也充斥着各种“最佳实践”。对于开发者而言,这既是福音也是挑战。福音在于有大量可参考的素材;挑战在于信息过于碎片化,质量良莠不齐,筛选成本极高。

jqueryscript/ChatGPT-Resources这个项目的诞生,正是为了解决这一痛点。它扮演了一个“社区策展人”的角色。其核心设计思路非常清晰:不以创造新代码为首要目标,而以高效地组织、分类和评价现有高质量资源为核心任务。项目维护者(及贡献者)通过提交PR(Pull Request)的方式,将他们认为有价值的资源添加到仓库的Markdown文档中,并按照一定的分类标准进行组织。这种众包模式使得资源库能够紧跟技术发展的步伐,快速纳入新兴的优秀项目。

2.2 分类体系:从应用到原理的全覆盖

一个资源库是否好用,分类逻辑至关重要。这个仓库的分类体系体现了从实用到深入、从工具到原理的渐进层次,大致可以分为以下几类:

  1. 官方资源与API:这是基石。包括OpenAI官方的API文档、使用指南、定价页面以及状态监控页面。任何基于ChatGPT的开发都必须从这里开始。
  2. 客户端与用户界面:收集了各种第三方开发的ChatGPT客户端。这些客户端可能提供了官方Web界面所没有的功能,比如历史会话的本地存储、更灵活的提示词管理、多API密钥支持、甚至离线的对话体验。对于普通用户和追求更好交互体验的开发者很有价值。
  3. 浏览器扩展:这类资源极大地提升了ChatGPT在网页浏览中的使用体验。例如,可以在任意网页文本框旁添加一个ChatGPT助手按钮,一键总结长文章,或者将选中的文本发送给ChatGPT进行翻译、润色。这类工具是生产力提升的利器。
  4. 开发工具与SDK:这是开发者的主战场。仓库汇集了各种编程语言(Python, JavaScript, Go, Java等)对OpenAI API的封装SDK。有些SDK提供了更简洁的接口,有些则增加了重试、缓存、流式响应处理等高级功能。此外,还包括一些用于调试API请求的工具、用于管理提示词(Prompt)的框架等。
  5. 开源项目与应用:展示了社区基于ChatGPT API构建的完整应用。例如,将ChatGPT接入微信/Telegram的机器人、基于知识库的智能客服系统、代码生成与解释工具、AI绘画提示词生成器等。这些项目提供了完整的、可运行的代码,是学习和二次开发的绝佳样板。
  6. 部署与自托管方案:针对希望私有化部署或使用开源替代模型的开发者。这里可能包含一些反向代理服务(用于解决API访问的区域限制问题,但需注意合规使用)、以及如何部署类似ChatGPT UI的开源前端项目。
  7. 教程、文章与学习资源:包括从入门到精通的系列教程、Prompt Engineering(提示词工程)的最佳实践、成本优化技巧、以及一些深度的技术分析文章。

注意:在利用这些资源,特别是涉及部署、代理类工具时,务必严格遵守所在地的法律法规和服务提供商(如OpenAI)的使用条款。所有开发活动都应在合法合规的框架内进行。

2.3 项目的维护模式与社区生态

这个项目本身是一个典型的GitHub开源项目,使用Markdown文件(通常是README.md)来承载资源列表。其活力完全依赖于社区贡献。一个好的资源仓库项目,其维护者的主要工作不是编写代码,而是:

  • 制定并维护贡献指南:明确资源收录的标准(如:Star数、活跃度、许可证、实用性),规定提交的格式。
  • 审核Pull Request:对社区提交的资源进行审核,确保其符合收录标准,且描述准确。
  • 定期更新与整理:删除已失效的链接,合并重复的资源,优化分类结构。 这种模式使得项目能够保持较高的时效性和质量。对于使用者来说,在参考资源时,也可以关注一下该资源链接对应的GitHub仓库的Star数量、最近提交时间等,作为判断其活跃度和可靠性的辅助依据。

3. 关键资源类别深度解析与使用指南

3.1 客户端与浏览器扩展:提升日常交互效率

对于大多数非开发者的用户,或者希望将ChatGPT深度融入工作流的开发者,第三方客户端和浏览器扩展是首要关注点。

第三方客户端通常提供以下增强功能:

  • 本地存储与便携性:将对话历史保存在本地数据库或文件中,无需担心浏览器缓存丢失,也方便在不同设备间同步(通过自建同步服务或第三方网盘)。
  • 高级会话管理:支持文件夹分类、会话标签、批量导出/导入(常见格式如JSON、Markdown)。
  • 自定义模型参数:除了官方Web UI提供的有限滑块,一些客户端允许你更精细地调整temperature(创造性)、top_p(核采样)等参数,甚至直接输入frequency_penalty(频率惩罚)等高级参数。
  • 多API密钥与端点支持:方便管理多个OpenAI账户,或者配置使用Azure OpenAI Service等兼容API的端点。
  • Prompt模板与快捷指令:内置或允许自定义常用的Prompt模板,一键插入,避免重复输入。

浏览器扩展则聚焦于网页上下文:

  • 全域助手:在任意网页的文本框旁添加一个小图标,点击即可唤出浮窗,基于当前网页内容或选中的文本进行提问。
  • 内容处理:一键总结、翻译、润色、扩写当前网页或选中的文本。
  • 与搜索引擎结合:在Google、Bing搜索结果页旁边直接显示ChatGPT的答案或总结,实现对比阅读。

实操心得:在选择客户端时,我通常会优先考虑开源项目。原因有三:一是安全可控,可以审查代码;二是遇到问题可以自己调试或提Issue;三是功能迭代往往更贴近社区真实需求。安装浏览器扩展时,务必从Chrome Web Store或Firefox Add-ons等官方商店下载,谨慎对待来历不明的.crx文件,以防恶意软件。

3.2 开发工具与SDK:构建应用的基石

这是资源库中对开发者价值最高的部分。OpenAI官方的API虽然设计得相对简洁,但在实际企业级或复杂应用开发中,直接使用HTTP客户端调用会显得繁琐且需要处理很多边缘情况。

社区SDK的价值主要体现在

  1. 接口简化:将HTTP请求、认证头(Authorization)、JSON序列化/反序列化等细节封装起来,开发者只需关注业务逻辑对象。
    # 以Python为例,使用官方最简方式 import openai client = openai.OpenAI(api_key='your-api-key') response = client.chat.completions.create( model="gpt-3.5-turbo", messages=[{"role": "user", "content": "Hello!"}] ) print(response.choices[0].message.content)
    虽然官方Python库已经很好用,但一些社区SDK可能会提供更符合特定框架(如Django、FastAPI)习惯的集成方式。
  2. 增强功能
    • 自动重试与退避:当遇到网络抖动或API速率限制(429错误)时,自动进行指数退避重试,提高请求成功率。
    • 异步支持:提供原生的async/await接口,方便在高并发场景(如Web服务器)下使用,避免阻塞。
    • 流式响应处理:简化处理Chat Completions API的流式输出(stream=True),提供迭代器或回调函数,方便实时显示AI生成的内容。
    • 请求/响应日志与监控:方便地记录每次调用的耗时、token使用量,便于后续的成本分析和性能优化。
  3. 多语言支持:虽然OpenAI官方提供了Python和Node.js库,但对于使用Go、Rust、Java、C#等语言的团队,社区维护的SDK是必不可少的。

工具选型建议:对于新项目,我通常建议首先使用OpenAI官方维护的SDK(如openaiPython包),因为它更新最及时,与API特性同步最快。如果官方SDK在某些方面(如重试策略、异步支持)不能满足需求,再考虑功能更丰富的社区SDK。在选择社区SDK时,重点考察其GitHub的Star数、最近提交时间、Issue的活跃度以及文档的完整性。

3.3 开源项目与应用:灵感来源与学习样板

这一部分是资源库的“展示区”,充满了社区的创造力。浏览这些项目,不仅能找到直接可用的工具,更能学习到如何将ChatGPT API与其他技术栈结合。

常见的项目类型包括

  • 聊天机器人集成:将ChatGPT接入Discord、Slack、Telegram、微信等主流通讯平台。这类项目的技术栈通常涉及对应平台的Bot SDK + 一个后端服务(用于接收消息、调用OpenAI API、返回响应)。学习这类项目,可以掌握Webhook、消息队列、会话状态管理等实用技能。
  • 知识库问答:这是当前企业级应用的热点。项目通常包含以下模块:
    1. 文档处理:将PDF、Word、TXT等格式的文档进行文本提取和分割。
    2. 向量化与存储:使用嵌入模型(如text-embedding-ada-002)将文本块转换为向量,并存入向量数据库(如Pinecone, Weaviate, Qdrant, 或开源的Chroma、Milvus)。
    3. 检索增强生成:当用户提问时,先从向量数据库中检索出最相关的文本片段,然后将这些片段作为上下文与问题一起发送给ChatGPT,生成答案。 这类项目是学习现代AI应用架构(检索增强生成)的绝佳案例。
  • 代码助手与解释器:比GitHub Copilot更定制化的工具。例如,一个可以分析整个代码库架构的助手,或者一个能根据自然语言描述生成SQL查询、Shell命令的工具。
  • 创意与内容生成:AI绘画提示词优化器、社交媒体文案生成器、视频脚本大纲生成器等。

学习路径建议:不要试图一开始就完全理解一个复杂项目的所有代码。我的方法是:先看项目的README.mddocker-compose.yml(如果有),尝试在本地运行起来,获得最直观的体验。然后,从项目的入口文件(如main.py,app.js)开始,顺着代码逻辑走一遍核心流程,重点关注它如何组织代码、处理错误、管理配置。最后,再深入研究其使用的关键库和技术。

4. 基于资源库的典型应用搭建实战

假设我们想利用资源库中的信息,快速搭建一个简单的“命令行智能助手”。这个助手能回答技术问题、解释代码、甚至根据描述生成简单的脚本。我们将使用Python和OpenAI官方SDK。

4.1 环境准备与依赖安装

首先,我们需要一个Python环境(建议3.8+)和OpenAI的API密钥。

  1. 创建项目目录并初始化虚拟环境(这是保持环境干净的好习惯):

    mkdir cli-ai-assistant && cd cli-ai-assistant python -m venv venv # Windows: venv\Scripts\activate # Linux/Mac: source venv/bin/activate
  2. 安装核心依赖

    pip install openai

    我们选择官方的openai库,因为它稳定且功能完整。根据资源库的推荐,我们可能还会看到langchain这样的高级框架,但对于这个简单示例,官方SDK足够了。

  3. 设置API密钥:永远不要将API密钥硬编码在代码中。推荐使用环境变量。

    # Linux/Mac export OPENAI_API_KEY='your-api-key-here' # Windows (PowerShell) $env:OPENAI_API_KEY='your-api-key-here'

    也可以在代码中通过os.getenv读取,或者使用.env文件配合python-dotenv库。

4.2 核心功能实现:一个交互式对话循环

我们将创建一个持续运行的循环,接收用户输入,调用ChatGPT API,并流式打印出回复。

import openai import os from typing import Generator # 初始化客户端,会自动读取环境变量 OPENAI_API_KEY client = openai.OpenAI() def chat_with_gpt(messages: list) -> Generator[str, None, None]: """ 调用ChatGPT API并流式返回响应。 :param messages: 消息历史列表,格式如 [{"role": "user", "content": "Hello"}] :return: 生成器,每次yield一个响应片段 """ try: stream = client.chat.completions.create( model="gpt-3.5-turbo", # 可根据需要换成 gpt-4 等 messages=messages, stream=True, # 启用流式输出 temperature=0.7, # 控制创造性,0-2之间,越高越随机 ) for chunk in stream: if chunk.choices[0].delta.content is not None: yield chunk.choices[0].delta.content except openai.APIConnectionError as e: yield f"\n[网络连接错误: {e}]\n" except openai.RateLimitError as e: yield f"\n[速率超限,请稍后重试: {e}]\n" except openai.APIStatusError as e: yield f"\n[API返回错误,状态码: {e.status_code}]: {e}\n" def main(): print("CLI AI助手已启动。输入您的问题,输入 'quit' 或 'exit' 退出。") print("-" * 50) # 初始化对话历史 conversation_history = [] while True: try: user_input = input("\nYou: ").strip() except (EOFError, KeyboardInterrupt): # 处理Ctrl+D, Ctrl+C print("\n\n再见!") break if user_input.lower() in ['quit', 'exit', 'q']: print("再见!") break if not user_input: continue # 将用户输入加入历史 conversation_history.append({"role": "user", "content": user_input}) print("Assistant: ", end="", flush=True) full_response = "" # 流式接收并打印回复 for chunk in chat_with_gpt(conversation_history): print(chunk, end="", flush=True) full_response += chunk print() # 换行 # 将AI回复加入历史,为多轮对话提供上下文 if full_response and not full_response.startswith('\n['): # 排除错误信息 conversation_history.append({"role": "assistant", "content": full_response}) # 简单限制历史长度,防止token超限和内存占用 # 更复杂的做法可以计算token数,或者只保留最近N轮对话 if len(conversation_history) > 10: # 保留系统提示(如果有)和最近几轮对话 # 这里简单地从前面删除最老的用户/助理对话对 # 假设第一条是用户消息 if len(conversation_history) > 2: conversation_history.pop(0) # 移除最老的用户消息 conversation_history.pop(0) # 移除对应的助理消息 if __name__ == "__main__": main()

代码关键点解析

  1. 流式输出:通过设置stream=True和遍历响应块,实现了打字机效果的实时输出,用户体验更好,尤其对于长回复。
  2. 错误处理:捕获了常见的API错误(连接错误、速率限制、状态码错误),并给出了友好的提示,而不是让程序直接崩溃。
  3. 对话历史管理conversation_history列表维护了完整的对话上下文,这是实现多轮对话的基础。每次都将新的用户消息和AI回复追加进去。
  4. 历史长度限制:这是一个非常重要的实践。OpenAI的API有上下文窗口限制(例如gpt-3.5-turbo通常是16K tokens)。如果无限制地累积历史,很快就会达到上限,导致请求失败,并且会增加不必要的token消耗(成本)。这里实现了一个简单的“滑动窗口”,只保留最近的若干轮对话。更高级的实现可以精确计算token数(使用tiktoken库)并进行截断。

4.3 功能增强:添加系统指令与持久化

上面的基础版本已经可用。我们可以从资源库中汲取灵感,为其添加两个实用功能:

1. 添加系统指令(System Prompt): 系统指令用于设定AI助手的角色和行为准则。我们在对话历史初始化时加入它。

def main(): system_prompt = """你是一个专业的命令行技术助手,擅长编程、系统运维和工具使用。 你的回答应该简洁、准确、实用,优先提供可执行的命令或代码片段。 如果用户的问题不够清晰,请礼貌地请求澄清。""" conversation_history = [{"role": "system", "content": system_prompt}] # ... 其余循环代码不变

系统消息只在对话开始时插入一次,它会在整个会话中隐式地指导AI的行为。

2. 会话持久化: 每次重启程序对话历史就丢失了很不方便。我们可以将会话保存到本地JSON文件中。

import json import os SESSION_FILE = "chat_history.json" def load_history(): """从文件加载对话历史""" if os.path.exists(SESSION_FILE): try: with open(SESSION_FILE, 'r', encoding='utf-8') as f: return json.load(f) except (json.JSONDecodeError, IOError): print("警告:历史文件损坏,将创建新会话。") return [] # 如果文件不存在或损坏,返回空列表 def save_history(history): """保存对话历史到文件""" try: with open(SESSION_FILE, 'w', encoding='utf-8') as f: # 确保只保存用户和助理的消息,通常不保存系统提示 # 或者根据需求调整 json.dump(history, f, ensure_ascii=False, indent=2) except IOError: print("警告:无法保存会话历史。") def main(): # 加载历史,如果文件中有系统提示就沿用,否则创建新的 conversation_history = load_history() if not conversation_history or conversation_history[0]["role"] != "system": system_prompt = """...""" # 你的系统提示 conversation_history = [{"role": "system", "content": system_prompt}] try: # ... 主循环代码 finally: # 程序退出时保存历史(排除系统消息?根据需求定) # 这里我们保存全部历史,包括系统消息 save_history(conversation_history)

这样,每次启动助手,它都能延续上一次的对话上下文,体验更连贯。

5. 常见问题、成本控制与高级技巧

5.1 常见错误排查与解决

在实际使用API和开发过程中,你会遇到一些典型问题。

问题现象可能原因解决方案
AuthenticationError/Invalid API KeyAPI密钥错误、未设置或已失效。1. 检查环境变量OPENAI_API_KEY是否正确设置并已生效(重启终端)。
2. 在OpenAI平台检查API密钥是否被删除或禁用。
3. 确保代码中读取的是正确的密钥。
RateLimitError超过每分钟/每天的请求次数或token限制。1. 免费用户或新账号有严格的速率限制,考虑升级到付费计划。
2. 在代码中实现指数退避重试逻辑。
3. 降低请求频率,或使用更高效的模型(如gpt-3.5-turbogpt-4便宜且快)。
APIConnectionError/Timeout网络连接不稳定,或服务器暂时不可用。1. 检查本地网络。
2. 增加请求超时时间(timeout参数)。
3. 实现重试机制。
回复内容不符合预期(胡言乱语、格式错误)temperature参数过高导致随机性太大;或Prompt指令不清晰。1. 降低temperature值(如从0.8调到0.2)。
2. 在系统指令或用户消息中更明确地指定输出格式和要求。例如:“请用JSON格式输出,包含commandexplanation两个字段。”
上下文长度超限 (context_length_exceeded)累计的对话历史(消息内容)token数超过了模型的最大上下文限制。1. 实现上文提到的“历史长度限制”或“Token数截断”功能。
2. 对于长文档,可以总结之前对话的要点,用总结代替完整历史。
3. 换用上下文窗口更大的模型(如gpt-4-32k,但成本高)。

实操心得RateLimitError和上下文超限是初期最容易踩的坑。对于个人项目,一个简单的退避重试策略非常有效:遇到429错误时,等待(2 ** retry_count)秒再重试,并设置最大重试次数。对于上下文管理,除了限制轮数,更精确的做法是使用tiktoken库计算每条消息的token数,并在接近上限时,从历史中移除最早的非关键对话对。

5.2 成本控制与优化策略

使用OpenAI API是会产生费用的,虽然gpt-3.5-turbo成本很低,但用量大或使用gpt-4时仍需关注。

  1. 理解计费方式:费用按Token消耗计算。Token可以粗略理解为单词的一部分。输入(Prompt)和输出(Completion)都计费。不同模型每千Token的价格不同,gpt-4gpt-3.5-turbo贵很多。
  2. 监控用量:定期在OpenAI控制台的“Usage”页面查看消耗情况。可以设置预算提醒。
  3. 代码级优化
    • 精简Prompt:系统指令和用户问题要言简意赅,避免冗长。在历史对话中,可以考虑只保留最近几轮的核心内容,而不是完整的对话。
    • 设置max_tokens:在API调用中指定max_tokens参数,限制AI回复的最大长度,防止它生成过于冗长(且昂贵)的回答。
    • 缓存结果:对于重复性、确定性高的问题(例如,“Python如何打开文件?”),可以将问答对缓存起来(在内存或Redis中),下次相同问题直接返回缓存结果,避免重复调用API。
    • 使用更便宜的模型:在不需要极高推理能力的场景(如简单的文本格式化、分类),优先使用gpt-3.5-turbo。对于创意写作、复杂推理,再考虑gpt-4
  4. 架构级优化:对于知识库问答类应用,采用“检索增强生成”架构。即先从一个本地向量库中检索出最相关的几段信息,只将这些信息作为上下文发送给AI。这极大地减少了每次请求需要处理的文本量(Token数),从而降低成本并提高速度。

5.3 从资源库到自主探索

jqueryscript/ChatGPT-Resources是一个完美的起点,但技术生态日新月异。养成自主探索和评估的能力更重要。

  1. 关注趋势:在GitHub上,可以用“chatgpt”、“openai”、“langchain”、“llm”等关键词搜索,并按“Recently updated”排序,发现最新的热门项目。
  2. 评估项目质量:看到一个感兴趣的项目,不要急着git clone。先看:
    • Star数和Fork数:是热度的初步指标。
    • 最近提交时间:判断项目是否还在活跃维护。
    • Issue和Pull Request:看看有没有未解决的严重Bug,以及社区互动是否活跃。
    • README的质量:文档是否清晰,是否有快速上手的示例。
    • 许可证:是否是宽松的开源许可证(如MIT, Apache-2.0),允许商业使用。
  3. 深入技术栈:如果你对某个方向特别感兴趣(例如,向量数据库),可以以资源库中提到的某个项目(如Chroma)为跳板,去其官方文档和社区深入学习,了解其原理、优缺点和替代方案。

这个资源仓库就像一张精心绘制的地图,为你标出了AI应用开发这片新大陆上的重要地标和宝藏点。而如何利用这些资源,结合你自己的需求和创意,去建造属于自己的“城市”,才是真正激动人心的旅程。从我自己的经验来看,最好的学习方式就是找到一个最小可行的想法,然后利用像这样的资源库快速搭建原型,在动手的过程中,你会遇到具体的问题,再去有针对性地搜索和学习,这样的成长是最扎实的。

http://www.jsqmd.com/news/785867/

相关文章:

  • 通过模型广场为不同业务场景选择合适的大模型
  • CANN/pyasc绝对值函数API文档
  • 常见软件测试用例设计方法
  • GESP考级1—8注意事项
  • 第47篇:Vibe Coding时代:LangGraph + 代码回滚机制实战,解决 Agent 修改失败后无法恢复的问题
  • 终极Windows热键冲突检测指南:Hotkey Detective完全解析
  • AI气象预报新突破:FengWu-Adas实现从观测到预报的端到端闭环
  • 网络安全威胁情报分析实战:从IOC管理到TTP追踪的完整技能框架
  • 终结AI模型幻觉:MCP协议服务器实时验证模型ID,提升编码效率
  • 学术界的AI伦理博弈:从ChatGPT看生成式AI在教育中的信任与效率挑战
  • 关于目前C++学士现状分析
  • 聚合统计-原理和应用场景
  • 关系选择器和关系选择器的复合,简单实用快来看一看吖~
  • 2026 AI大模型接口中转站排行榜:哪家平台能为开发者和企业提供最优质服务?
  • Cloudflare Agents Week 2026 总结:20 项发布,一张 Cloud 2.0 的完整地图
  • 专为打工人打造!OpenClaw 中文汉化版部署教程
  • 仙居神仙居旅游核心优势:山水间的诗意栖居与生态人文之旅 - 品牌策略师
  • Apache Airflow 系列教程 | 第24课:监控、指标与可观测性
  • 有哪些专业且非常好用的毕业论文写作辅助生成工具(提纲、初稿、降重、图表公式生成)?
  • 服务器端表单验证
  • 电池清洁度萃取设备与分析仪如何完美协同?西恩士紊流灌流+智能识别标杆方案解析 - 工业设备研究社
  • Windows热键冲突终结者:Hotkey Detective帮你一键揪出占用程序
  • 长沙短视频拍摄哪家更可靠
  • P1228 地毯填补问题【洛谷算法习题】
  • 汽车零部件清洁度萃取设备与分析仪:破解复杂内腔萃取难题 - 工业设备研究社
  • LVGL部分刷新与整屏交换的冲突解析
  • 1.中断的优先级
  • 研发管理工具怎么选?主流工具功能对比、适用场景与选型建议
  • 基于SpringBoot+Vue的求职招聘小程序
  • 有没有能辅助生成论文框架、自动推荐文献的智能写作软件?