当前位置: 首页 > news >正文

NextChat - 87,942 Stars 的 AI 助手,1 分钟部署,全平台可用 (2026-05-09 01:48)

NextChat - 87,942 Stars 的 AI 助手,1 分钟部署,全平台可用

一句话总结:支持 Claude/GPT-4o/Gemini/DeepSeek 等多模型,1 分钟 Vercel 免费部署,覆盖 Web/iOS/Mac/Windows/Linux 全平台

为什么值得关注?

NextChat(原 ChatGPT-Next-Web)是 GitHub 上最受欢迎的 AI 聊天前端之一:
- 87,942 Stars,59,737 Forks,2023 年 3 月创建至今持续活跃
- 多模型支持:OpenAI、Claude、Gemini Pro、DeepSeek、Groq、Ollama 等
- 全平台:Web(PWA)、iOS App、桌面端(Tauri)、Mac/Windows/Linux
- 一键部署:Vercel 1 分钟免费部署,支持 Docker 自托管
- 隐私优先:数据全部存储在本地浏览器
- MCP 支持:最新支持 Model Context Protocol
- MIT 开源:商用友好

核心价值:一个前端搞定所有 AI 模型,部署简单,跨平台一致体验。


快速开始

方式 1:Vercel 一键部署(推荐)

  1. 准备 OpenAI API Key
  2. 点击下方按钮一键部署:

Deploy with Vercel

  1. CODE 环境变量是页面访问密码,多个密码用逗号分隔
  2. 部署完成,享受!

方式 2:Docker 部署

docker pull yidadaa/chatgpt-next-webdocker run -d -p 3000:3000 \-e OPENAI_API_KEY=sk-xxxx \-e CODE=your-password \yidadaa/chatgpt-next-web

启用 MCP 支持:

docker run -d -p 3000:3000 \-e OPENAI_API_KEY=sk-xxxx \-e CODE=your-password \-e ENABLE_MCP=true \yidadaa/chatgpt-next-web

代理模式下部署:

docker run -d -p 3000:3000 \-e OPENAI_API_KEY=sk-xxxx \-e CODE=your-password \-e PROXY_URL=http://localhost:7890 \yidadaa/chatgpt-next-web

方式 3:一键脚本部署

bash <(curl -s https://raw.githubusercontent.com/Yidadaa/ChatGPT-Next-Web/main/scripts/setup.sh)

方式 4:Zeabur 部署

Deploy on Zeabur

方式 5:本地开发

# 创建 .env.local 文件,写入 API Key
# OPENAI_API_KEY=<your api key here>yarn install
yarn dev

实战案例

案例 1:个人 AI 助手,5 分钟免费上线

场景:个人用户想快速搭建一个可用的 AI 聊天界面,不想装客户端

部署流程
1. Fork 项目到 GitHub
2. 在 Vercel 上连接仓库
3. 设置环境变量:OPENAI_API_KEYCODE(访问密码)
4. Vercel 自动构建部署,约 1 分钟完成
5. 获得自定义域名(如 nextchat-yourname.vercel.app)

使用效果
- 打开即用,无需安装
- 支持 Markdown 渲染、代码高亮、LaTeX 公式
- 暗色模式 + PWA(可添加到手机桌面)
- 聊天记录自动压缩,支持超长对话
- 14 种语言界面

成本
- Vercel 免费额度足够个人使用
- 只需支付 API 调用费用(按量计费)

适用人群
- 个人开发者
- 想体验 AI 聊天的用户
- 不想装本地客户端的人


案例 2:团队私有部署,多模型统一管理

场景:小团队(10-50 人)需要统一的 AI 聊天平台,支持多个模型,可控访问权限

部署流程
1. 服务器安装 Docker
2. 部署 NextChat 容器,配置多个 API Key:

docker run -d -p 3000:3000 \-e OPENAI_API_KEY=sk-key1,sk-key2,sk-key3 \-e CODE=team-password \-e HIDE_USER_API_KEY=1 \-e CUSTOM_MODELS=+gpt-4o,+claude-sonnet-4-20250514,-gpt-3.5-turbo \yidadaa/chatgpt-next-web
  1. 配置 Nginx 反向代理 + HTTPS
  2. 设置 CODE 访问密码,限制团队成员使用

管理技巧
- HIDE_USER_API_KEY=1:隐藏用户 API Key 输入框,管理员统一管理
- CUSTOM_MODELS:控制可用模型(+ 添加,- 隐藏)
- DISABLE_GPT4=1:限制 GPT-4 使用(控制成本)
- ENABLE_BALANCE_QUERY=1:允许用户查询余额

使用效果
- 团队成员通过同一入口访问
- 支持多个 API Key 负载均衡
- 管理员控制可用模型和权限
- 聊天记录同步(UpStash)

适用人群
- 小团队/创业公司
- 需要统一管理的组织
- 想控制 AI 使用成本的团队


案例 3:本地部署 + Ollama,完全离线 AI

场景:对数据隐私要求高,需要完全本地运行的 AI 助手

部署流程
1. 本地安装 Ollama
2. 拉取本地模型(如 Llama 3、Qwen 等):

ollama pull llama3
  1. 部署 NextChat,连接到本地 Ollama:
docker run -d -p 3000:3000 \-e BASE_URL=http://host.docker.internal:11434 \-e CODE=local-password \yidadaa/chatgpt-next-web
  1. 在 NextChat 中选择本地模型

使用效果
- 完全离线运行,数据不离开本地
- 无需 API Key,免费使用
- 支持本地模型的 Markdown、代码高亮等功能
- 响应速度取决于本地硬件

适用人群
- 对隐私要求极高的用户
- 不想依赖云端 API 的人
- 有本地 GPU 资源的开发者


核心功能速览

支持的 AI 模型

厂商 模型 环境变量
OpenAI GPT-4o, GPT-4, GPT-3.5 OPENAI_API_KEY
Anthropic Claude Sonnet 4, Claude 3.5 ANTHROPIC_API_KEY
Google Gemini Pro GOOGLE_API_KEY
DeepSeek DeepSeek DEEPSEEK_API_KEY
字节跳动 Doubao BYTEDANCE_API_KEY
阿里巴巴 通义千问 ALIBABA_API_KEY
百度 文心一言 BAIDU_API_KEY
科大讯飞 讯飞 IFLYTEK_API_KEY
ChatGLM GLM CHATGLM_API_KEY
Ollama 本地模型 BASE_URL
Groq Groq 通过 OpenAI 兼容
SiliconFlow SiliconFlow SILICONFLOW_API_KEY

全平台覆盖

平台 部署方式 大小
Web Vercel / Docker / Zeabur ~100KB(首屏)
iOS App App Store -
桌面端 Tauri(Mac/Win/Linux) ~5MB
Linux Docker / Tauri ~5MB
Windows Docker / Tauri ~5MB
MacOS Docker / Tauri ~5MB

环境速查表

变量 用途 示例
CODE 访问密码(逗号分隔多个) pass1,pass2
OPENAI_API_KEY OpenAI Key(逗号分隔多个) sk-xxx,sk-yyy
BASE_URL API 基础 URL http://your-proxy.com
CUSTOM_MODELS 控制可用模型 +llama,-gpt-3.5
HIDE_USER_API_KEY 隐藏用户输入框 1
DISABLE_GPT4 禁用 GPT-4 1
ENABLE_MCP 启用 MCP true
PROXY_URL 代理地址 http://127.0.0.1:7890
DEFAULT_MODEL 默认模型 gpt-4o

特色功能

Prompt 模板(Mask)

  • 创建、分享、调试聊天工具
  • 预定义上下文 Prompt
  • 快速切换到不同场景

Artifacts

  • 独立窗口预览生成内容
  • 方便复制和分享网页
  • 支持 SD 图片生成

插件系统

  • 网络搜索
  • 计算器
  • 其他 API 集成

Realtime Chat

  • 实时对话模式
  • 更流畅的交互体验

多语言支持

  • 简体中文、繁体中文
  • English、日本語
  • Français、Español、Italiano
  • Türkçe、Deutsch、Tiếng Việt
  • Русский、Čeština、한국어、Indonesia

聊天同步

  • 支持 UpStash 同步聊天记录
  • 跨设备无缝切换

适用人群

✅ 推荐使用

  • 个人用户:快速搭建个人 AI 助手
  • 开发者:多模型统一管理、本地部署
  • 小团队:私有化部署、权限控制
  • 隐私敏感用户:本地数据存储、完全离线
  • 多模型用户:一个前端切换所有模型
  • 企业用户:企业版支持私有部署和品牌定制

❌ 不推荐使用

  • 需要企业级 SSO/SAML(考虑企业版)
  • 需要复杂的 RBAC 权限系统(考虑企业版)
  • 需要知识库集成(TODO 功能)

企业版功能

如果公司有私有化和定制化需求,NextChat 提供企业版:

  • 品牌定制:定制 VI/UI,与企业品牌形象一致
  • 资源管理:统一管理数十个 AI 资源,团队成员即用
  • 权限控制:成员权限、资源权限、知识库权限,企业级 Admin Panel
  • 知识库集成:内部知识库 + AI,更贴合企业业务
  • 安全审计:拦截敏感问题,追溯全部历史记录
  • 私有部署:支持主流私有云方案
  • 持续更新:多模态等前沿能力持续更新

商务咨询:business@nextchat.dev


总结

NextChat 是一个成熟、稳定、功能丰富的 AI 聊天前端:

核心优势
- 87,942 Stars,社区验证过
- 多模型支持(OpenAI、Claude、Gemini、DeepSeek 等)
- 全平台覆盖(Web/iOS/Mac/Win/Linux)
- 1 分钟 Vercel 免费部署
- 5MB 桌面客户端(Tauri)
- 隐私优先(本地存储)
- MIT 开源,商用友好
- MCP 支持

实战效果
- 个人用户:5 分钟免费上线
- 团队部署:统一管理,权限可控
- 本地部署:完全离线,无需 API Key

如果你在寻找一个轻量、好用的 AI 聊天前端,NextChat 是最成熟的选择之一。


参考资料

  • 项目地址:https://github.com/ChatGPTNextWeb/ChatGPT-Next-Web
  • 在线体验:https://nextchat.club
  • iOS App:https://apps.apple.com/us/app/nextchat-ai/id6743085599
  • 企业版:business@nextchat.dev
  • License:MIT

本文基于 README 和 GitHub API 数据生成(2026-05-09,Stars 87,942)。

http://www.jsqmd.com/news/780145/

相关文章:

  • LangGraph 核心概念全解笔记
  • 大模型推理效率优化:预填充阶段与滑动窗口注意力实践
  • 接地与隔离:电子系统安全与性能的平衡艺术
  • 2026年企业GEO优化服务的选型逻辑与高性价比避坑指南
  • MCP协议探针工具包:从原理到实践,高效诊断AI应用服务
  • 二手搅拌站成本优势解析
  • 认知神经科学研究报告【20260033】
  • ARM scatter文件详解:内存布局控制与工程实践
  • Python 爬虫反爬突破:Referer 防盗链彻底绕过
  • LangGraph 多步骤任务规划
  • PullWeights MCP Server:AI模型仓库的MCP协议集成实践
  • 2026年售后领先的静电地板品牌揭晓
  • 对话机器人框架nanobot:轻量级、模块化设计与实战指南
  • 记录OpenClaw 安装与使用过程
  • ngx_enable_accept_events
  • 别卷大模型了,智能体才是AI落地的“最后一公里”
  • LangChain RAG技术解析:构建高效知识库(加载与拆分)
  • 在Neovim中集成AI工作流:sllm.nvim插件配置与实战指南
  • Oclaw:桌面端AI浏览器与OpenClaw管理工具,降低Agent开发门槛
  • 财务报销变了:AI自动识别票据异常,节省团队40%时间
  • 汽车电子仿真技术:从建模到工程实践
  • CodeDoc:AI代码审查工具,提升AI生成代码质量与架构安全
  • ARM虚拟中断与中断路由服务(IRS)架构解析
  • 放弃封装,回归裸金属:Browser Use 给所有Agent开发者上的沉痛一课
  • ngx_disable_accept_events
  • 认知神经科学研究报告【20260034】
  • 基于.NET 8与GPT的自动化博客写作工具:从原理到部署实践
  • 圜 全域数学终章:观测者效应的几何起源与万物理论封顶
  • 分布式支付数据一致性:从单机到多机、从 2PC 到 TCC 全链路解析
  • 量子计算在计算化学中的核心价值与技术解析