Kurtosis一键部署Auto-GPT:告别环境配置,专注AI智能体开发
1. 项目概述:当Auto-GPT遇上Kurtosis,一键部署的智能体革命
如果你玩过Auto-GPT,大概率经历过这样的“劝退”流程:先得在本地配好Python环境,然后处理各种依赖冲突,接着配置.env文件,还得为不同的记忆后端(比如Redis)单独搭建服务,最后可能因为某个库的版本不兼容而卡在启动阶段。整个过程下来,还没开始跟AI对话,热情就先被复杂的部署流程浇灭了一半。但现在,情况完全不同了。kurtosis-tech/autogpt-package这个项目,用他们自己的话说,就像是“Auto-GPT终于有了自己的brew install命令”。它通过Kurtosis这个现代化的应用打包与部署平台,将Auto-GPT及其复杂的依赖环境(包括可选的记忆后端、插件系统)封装成了一个可以一键运行、开箱即用的“软件包”。这意味着,无论你是想快速体验AutoGPT的强大能力,还是需要一个稳定、可复现的环境进行开发测试,现在都可以在几分钟内搞定,无需再与繁琐的系统配置搏斗。
简单来说,这个项目解决的核心痛点就是部署复杂性与环境一致性。它把Auto-GPT从一个需要手动搭建的“毛坯房”,变成了一个精装修、拎包入住的“公寓”。你只需要一个命令,Kurtosis就会在背后自动创建一个隔离的、包含所有必要服务的运行环境(他们称之为“enclave”),拉取指定版本的Auto-GPT镜像,配置好API密钥、记忆后端,甚至帮你安装好指定的插件。对于开发者、研究者或者任何想快速上手AI智能体(Agent)的爱好者而言,这极大地降低了技术门槛。你可以把精力完全集中在与Auto-GPT的交互、任务设定和结果分析上,而不是浪费在环境搭建的泥潭里。
这个项目适合以下几类人:首先是AI应用探索者,你想快速体验Auto-GPT的自主任务执行能力,看看它如何联网搜索、分析信息、执行代码;其次是开发者或DevOps工程师,你需要一个干净、隔离且可销毁的环境来测试Auto-GPT的新功能、插件,或者集成到你的CI/CD流程中;再者是学习者或教育者,你想在教学中提供一个统一的Auto-GPT实验环境,确保每个学生起点一致。无论你属于哪一类,这个“一键化”的方案都能让你跳过最令人头疼的步骤,直接触及AI智能体的核心价值。
2. 核心架构与Kurtosis原理深度解析
要理解这个项目为何如此便捷,我们必须先拆解其背后的两大核心:Auto-GPT和Kurtosis。Auto-GPT本身是一个基于大语言模型(如GPT-4)的自主智能体框架,它能够根据用户设定的目标,自动拆解任务、调用工具(如网络搜索、文件读写、代码执行)、评估结果并持续执行,直到目标达成或无法继续。它的强大之处在于“自主”和“迭代”,但它的复杂性也正源于此——它不是一个简单的聊天机器人,而是一个需要多种外部服务(记忆存储、插件API等)协同工作的系统。
而Kurtosis,则是让这一切变得简单的“魔术师”。Kurtosis是一个专门用于定义、构建和运行多服务应用环境的平台。它使用一种叫做Starlark(一种Python方言)的配置语言,让你能够以代码的形式,精确描述一个应用所需的所有服务、它们的配置、依赖关系以及启动顺序。这个描述文件被称为“Kurtosis Package”。autogpt-package项目本质上就是一个写好的Kurtosis Package,它里面定义了:“要运行Auto-GPT,我需要先启动一个Auto-GPT的容器,如果用户指定了Redis作为记忆后端,那我还需要同时启动一个Redis容器,并把两者的网络连接好,将Redis的地址作为环境变量注入到Auto-GPT容器中。”
2.1 Kurtosis Package的工作流与核心优势
当你执行kurtosis run github.com/kurtosis-tech/autogpt-package ...这条命令时,背后发生了一系列精妙的过程:
- 解析与计划:Kurtosis CLI工具会从GitHub拉取这个Package的Starlark代码(主要是
main.star和plugins.star)。它解析代码,理解你需要运行的服务蓝图。 - 环境隔离:Kurtosis会在你的机器上(或远程)创建一个全新的、隔离的沙箱环境,称为“Enclave”。这个Enclave拥有独立的网络、存储和计算资源,与你本机的其他环境完全隔离。这保证了每次运行都是干净的,不会污染你的本地系统,也避免了不同项目间的依赖冲突。
- 服务部署:根据Package的定义,Kurtosis开始按顺序拉取Docker镜像、创建容器、配置网络、挂载存储卷。例如,它会拉取
significantgravitas/auto-gpt的Docker镜像并运行,同时根据你的配置决定是否启动一个Redis容器。 - 动态配置:Kurtosis允许通过命令行参数(那个JSON对象)动态地覆盖Package内部的默认配置。这就是为什么你可以通过
'{"OPENAI_API_KEY": "YOUR_KEY"}'来传入API密钥,或者通过'{"MEMORY_BACKEND": "redis"}'来切换记忆后端。Package的Starlark代码会接收这些参数,并相应地调整服务配置和环境变量。 - 生命周期管理:服务启动后,你可以通过
kurtosis service shell命令进入容器内部进行操作。当你不再需要这个环境时,一个简单的kurtosis enclave rm -f autogpt就能彻底销毁整个Enclave,释放所有资源,不留任何痕迹。
这种方式的优势是革命性的:
- 可复现性:同样的Package在任何人的机器上、在任何时候运行,结果都是一致的。这解决了“在我机器上好好的”这一经典难题。
- 可组合性:Package可以声明依赖其他Package。未来如果需要为Auto-GPT增加一个数据库或消息队列,只需在Package中声明即可。
- 开发与生产一致性:你可以在本地用完全相同的环境进行开发和测试,然后有信心地部署到生产或云上。
2.2 Auto-GPT Package的定制化设计
这个autogpt-package并非一个死板的黑盒。它的Starlark代码设计得非常灵活。核心的配置逻辑在main.star文件中,它定义了一个run函数作为入口。这个函数接收我们传入的JSON参数,然后根据这些参数来组装最终运行Auto-GPT容器的“计划”。
例如,对于插件系统的支持,在plugins.star文件中维护了一个插件名称与对应GitHub仓库的映射字典。当你在参数中指定了ALLOWLISTED_PLUGINS: "AutoGPTTwitter,AutoGPTEmailPlugin",Package的代码会解析这个字符串,然后动态地在Auto-GPT容器启动前,执行git clone命令将这些插件仓库克隆到容器内的正确目录(通常是Auto-GPT/plugins)。这一切都是自动完成的,无需你手动下载和放置文件。
对于记忆后端,Package内部预置了针对不同后端(如local,redis,pinecone等)的服务依赖和连接配置。当你选择redis时,它就知道需要额外启动一个Redis容器,并将REDIS_HOST等环境变量正确设置到Auto-GPT容器中。这种设计将复杂的多服务编排逻辑封装在了Package内部,对使用者完全透明。
注意:根据项目说明,当前版本(对应Auto-GPT 0.4.0)已移除了对Milvus、Weaviate和Pinecone的支持,且Redis在0.4.0版本下暂时无法工作。这通常是因为上游Auto-GPT项目本身对某些后端客户端的支持发生了变化。因此,目前最稳定、最简单的选择就是使用默认的
local后端(基于JSON文件存储记忆)。这提醒我们,在使用这类封装方案时,仍需关注其与上游核心项目的版本兼容性。
3. 从零开始:两种核心运行方式实操详解
理论讲得再多,不如亲手跑一遍。这个项目提供了两种主要的运行方式:基于浏览器的Gitpod和本地运行。我将为你详细拆解每一步的操作意图和可能遇到的坑。
3.1 浏览器中运行:零安装的极致体验
这种方式最适合快速体验和评估,你甚至不需要在电脑上安装任何东西(除了一个现代浏览器)。
步骤拆解与原理说明:
- 准备OpenAI API密钥:这是Auto-GPT的“大脑燃料”。没有它,一切无从谈起。你需要前往OpenAI平台创建并复制你的密钥。请务必妥善保管,不要泄露。
- 启动Gitpod环境:点击项目提供的Gitpod链接,实质上是告诉Gitpod这个云端开发环境服务:“请基于
kurtosis-tech/autogpt-package这个GitHub仓库,为我创建一个全新的、预配置好的在线工作空间。” Gitpod会为你分配一台云端虚拟机,并自动克隆代码、安装基础工具。 - 等待环境就绪:这大约需要30秒到1分钟。期间,Gitpod正在执行初始化脚本,其中就包括安装Kurtosis CLI。这是关键一步,它使得在这个临时的云端环境中,你拥有了运行Kurtosis命令的能力。
- 执行Kurtosis Run命令:在终端中运行以下命令,这是整个流程的核心:
kurtosis run github.com/kurtosis-tech/autogpt-package --enclave autogpt '{"OPENAI_API_KEY": "sk-你的真实API密钥"}'kurtosis run:Kurtosis的核心命令,意为“运行一个Package”。github.com/kurtosis-tech/autogpt-package:指定Package的位置。Kurtosis支持直接从GitHub仓库运行。--enclave autogpt:为本次运行创建一个名为autogpt的隔离环境。你可以用其他名字,方便管理多个环境。'{"OPENAI_API_KEY": "sk-..."}':这是一个JSON格式的字符串参数,用于覆盖Package内的默认配置。这里我们传入了最重要的API密钥。
- 进入Auto-GPT交互界面:当终端显示所有服务启动成功后,运行:
kurtosis service shell autogpt autogpt --exec "python -m autogpt"kurtosis service shell:进入某个Enclave中某个服务的Shell。- 第一个
autogpt是Enclave名称,第二个autogpt是服务名称(在Package中定义)。 --exec "python -m autogpt":直接在容器内执行启动Auto-GPT交互界面的命令。执行后,你就会看到熟悉的Auto-GPT命令行提示符。
实操心得与避坑指南:
- 网络问题:Gitpod服务器可能在海外,国内用户访问可能较慢或不稳定。如果遇到连接超时或初始化失败,可以尝试重新加载页面或使用网络加速服务。
- 资源限制:免费的Gitpod有一定资源(CPU、内存)和时间限制。运行Auto-GPT,尤其是进行复杂任务时,可能会消耗较多资源。如果任务中途失败,可能是资源不足。对于重度使用,考虑本地运行或升级Gitpod计划。
- 数据持久化:Gitpod工作空间是临时的。一旦你关闭浏览器标签,一段时间后环境会被回收,所有数据(包括Auto-GPT生成的文件、记忆)都会丢失。这仅适用于体验和测试,不适合长期项目。
3.2 本地机器运行:获得完全控制权
如果你需要更稳定的环境、更快的响应速度,或者进行开发调试,本地运行是更好的选择。
前置条件与安装:
- 安装Kurtosis:这是唯一需要在你本地进行的安装步骤。访问Kurtosis官方文档,根据你的操作系统(macOS, Linux, Windows WSL2)选择安装方式。通常是一行curl命令或brew命令。安装完成后,在终端输入
kurtosis,确认命令可用。 - 安装Docker:Kurtosis底层依赖Docker来创建容器。确保你的系统已安装并运行了Docker Desktop或Docker Engine。在终端运行
docker --version和docker ps进行验证。
运行与交互流程:
本地运行的命令与Gitpod中几乎完全相同,这正体现了Kurtosis“一次定义,到处运行”的优势。
- 启动Auto-GPT环境:
首次运行会花费稍长时间,因为需要从Docker Hub拉取Auto-GPT等镜像。你会看到Kurtosis在终端输出详细的执行步骤日志。kurtosis run github.com/kurtosis-tech/autogpt-package --enclave autogpt '{"OPENAI_API_KEY": "sk-你的真实API密钥"}' - 进入交互界面:启动成功后,有两种方式进入Auto-GPT:
- 方式一(推荐,一步到位):
kurtosis service shell autogpt autogpt --exec "python -m autogpt" - 方式二(先进入容器,再手动启动):
这会给你一个容器内的bash shell。然后你再手动运行:kurtosis service shell autogpt autogpt
两种方式效果一样,第一种更快捷。python -m autogpt
- 方式一(推荐,一步到位):
- 使用与销毁:现在你可以像使用常规Auto-GPT一样,给它设定目标(例如:“Research the latest advancements in quantum computing and write a summary report”)。当你完成工作后,务必记得销毁Enclave以释放资源:
kurtosis enclave rm -f autogpt-f参数表示强制删除,不会进行确认提示。
本地运行的深度配置与优化:
- 资源分配:默认情况下,Kurtosis/Docker会使用系统的部分资源。如果你发现Auto-GPT运行缓慢,可以调整Docker Desktop的资源设置(如CPU核心数、内存大小)。通常,为Docker分配4GB以上内存会有更好的体验。
- 文件系统访问:Auto-GPT在容器内运行,其工作目录(
/home/autogpt/auto_gpt_workspace)是容器内的路径。如果你需要将生成的文件持久化到本地,可以在Package中修改配置,将容器内目录挂载到本地主机路径,但这需要你修改本地的Starlark文件并运行(见后续开发部分)。 - 网络代理:如果你在本地需要通过代理访问OpenAI API,需要在运行命令前,在终端设置相应的环境变量(如
HTTP_PROXY,HTTPS_PROXY)。但请注意,Kurtosis创建的容器网络是独立的,有时代理设置可能不会自动继承到容器内。更可靠的方法是在传入的JSON参数中,配置Auto-GPT使用代理,但这取决于Auto-GPT本身是否支持。
4. 高级配置:记忆后端、插件与本地模型的实战
基础运行只是开始,这个Package的强大之处在于其高度的可配置性。让我们深入看看如何定制你的Auto-GPT实例。
4.1 记忆后端配置详解
记忆后端决定了Auto-GPT如何存储和检索它在运行过程中产生的“记忆”(即历史对话、任务上下文)。不同的后端在性能、持久化和扩展性上各有优劣。
local(默认):使用本地JSON文件存储。这是最简单、无需额外依赖的方式。优点是零配置,适合快速上手和一次性任务。缺点是记忆无法在多个Auto-GPT实例间共享,且性能一般。# 默认即为local,无需显式设置 kurtosis run github.com/kurtosis-tech/autogpt-package --enclave autogpt '{"OPENAI_API_KEY": "sk-..."}'redis:使用Redis内存数据库。优点是速度快,支持更复杂的查询,并且可以作为中心化的记忆存储,服务于多个实例。但如前所述,在Auto-GPT 0.4.0版本中可能暂时无法工作。如果未来修复,配置方式如下:kurtosis run github.com/kurtosis-tech/autogpt-package --enclave autogpt '{"OPENAI_API_KEY": "sk-...", "MEMORY_BACKEND": "redis"}'执行此命令后,Package会自动启动一个Redis容器,并将Auto-GPT容器连接到它。你无需手动安装或配置Redis。
配置原理:在Package的main.star文件中,有一个逻辑判断:如果MEMORY_BACKEND的值是redis,那么它会在服务定义中添加一个对Redis服务的依赖,并将REDIS_HOST等环境变量传递给Auto-GPT服务。这一切对用户是透明的。
4.2 插件系统的集成与使用
插件极大地扩展了Auto-GPT的能力边界。这个Package完美地集成了Auto-GPT的插件加载机制。
单个插件启用:假设你想让Auto-GPT能发送推特,可以使用Twitter插件。
kurtosis run github.com/kurtosis-tech/autogpt-package --enclave autogpt '{"OPENAI_API_KEY": "sk-...", "ALLOWLISTED_PLUGINS": "AutoGPTTwitter"}'运行后,Package会从plugins.star文件中定义的映射里,找到AutoGPTTwitter对应的GitHub仓库地址,并在Auto-GPT容器启动前,将其克隆到插件目录。
多个插件同时启用:插件名称用英文逗号分隔,不能有空格。
kurtosis run github.com/kurtosis-tech/autogpt-package --enclave autogpt '{"OPENAI_API_KEY": "sk-...", "ALLOWLISTED_PLUGINS": "AutoGPTTwitter,AutoGPTEmailPlugin,AutoGPTWikipediaSearch"}'插件使用注意事项:
- 凭证配置:大多数插件(如Twitter、Email)需要额外的API密钥或账户凭证。这些凭证不能通过Kurtosis的JSON参数直接传入,因为Auto-GPT的插件有自己独立的配置方式。你需要在Auto-GPT启动后的交互界面里,根据插件的提示,在Auto-GPT的配置文件中(通常是容器内的
./auto_gpt_workspace/.env文件)或通过命令行交互来设置。 - 插件兼容性:项目列表中的插件数量众多,但并非所有插件都与当前版本的Auto-GPT核心完全兼容。如果启用某个插件后Auto-GPT启动报错,可能是插件版本过旧。你需要查阅该插件的GitHub仓库,了解其支持的Auto-GPT版本。
- 添加新插件:如果你想使用的插件不在官方支持列表里,可以按照项目README的指引,通过提交Issue或Pull Request,在
plugins.star文件中添加新的映射条目。这是社区驱动的扩展方式。
4.3 脱离OpenAI:使用本地模型运行
OpenAI API虽然强大,但存在成本、网络延迟和数据隐私考量。这个Package提供了一个非常酷的替代方案:集成GPT4All和LocalAI来运行本地大模型。
运行原理:当你设置"GPT_4ALL": true时,Package不会去调用OpenAI的API,而是会在Enclave内部启动一个LocalAI服务。LocalAI是一个兼容OpenAI API格式的本地推理服务器,它可以加载GGML格式的本地模型(如GPT4All提供的模型)。然后,Package会将Auto-GPT的API请求地址指向这个本地的LocalAI服务。
基本使用:
kurtosis run github.com/kurtosis-tech/autogpt-package --enclave local-ai '{"GPT_4ALL": true}'注意,这里甚至可以不传OPENAI_API_KEY。运行后,Auto-GPT会使用默认的ggml-gpt4all-j.bin模型。
使用自定义模型:你可以从GPT4All官网或其他来源下载不同的GGML模型文件,然后通过URL指定。
kurtosis run github.com/kurtosis-tech/autogpt-package --enclave local-ai '{"GPT_4ALL": true, "MODEL_URL": "https://gpt4all.io/models/ggml-gpt4all-l13b-snoozy.bin"}'重要提示与性能考量:
- 硬件要求:运行本地模型(尤其是较大的如
l13b)对内存要求较高。确保你的Docker有足够的内存分配(建议8GB以上),否则会非常缓慢甚至崩溃。 - 性能差异:本地模型的性能(响应速度、理解能力、生成质量)通常远低于GPT-4,甚至不如GPT-3.5 Turbo。它更适合简单的任务、实验性探索或在完全离线的环境中使用。
- 功能限制:一些依赖特定OpenAI模型功能(如长上下文、函数调用)的Auto-GPT特性,在使用本地模型时可能无法正常工作。
5. 开发模式:修改与定制你自己的Package
如果你不满足于仅仅使用,还想修改这个Package(比如调整默认镜像版本、增加自定义服务、修改挂载卷),你可以克隆仓库并进行本地开发。
步骤详解:
- 克隆仓库:
git clone https://github.com/kurtosis-tech/autogpt-package.git cd autogpt-package - 本地运行开发版:使用
.代替GitHub地址,告诉Kurtosis使用当前目录下的Package定义。kurtosis run . --enclave autogpt-dev '{"OPENAI_API_KEY": "sk-..."}' - 修改与测试:你可以编辑
main.star或plugins.star文件。例如,你想将默认的Auto-GPT镜像从v0.4.0改为一个特定的开发版本,或者想增加一个用于存储日志的持久化卷。每次修改后,重新运行上面的kurtosis run .命令即可看到效果。
开发工具推荐:Kurtosis提供了VS Code扩展,为.star文件提供语法高亮和自动补全,能极大提升开发效率。在VS Code扩展商店搜索“Kurtosis”即可安装。
一个实用的定制案例:持久化工作空间默认情况下,Auto-GPT容器内生成的文件在Enclave销毁后会丢失。如果你想持久化auto_gpt_workspace目录,可以修改main.star。你需要找到定义autogpt服务的地方(通常在service_config部分),为其添加一个files属性,将主机的一个目录挂载到容器的/home/autogpt/auto_gpt_workspace。这需要你熟悉Starlark的语法和Kurtosis的API。具体操作可以参考Kurtosis的官方文档中关于“文件挂载”的部分。
6. 常见问题与故障排查实录
在实际操作中,你难免会遇到一些问题。下面是我在多次使用中总结的常见问题及其解决方案。
| 问题现象 | 可能原因 | 排查步骤与解决方案 |
|---|---|---|
运行kurtosis run命令后长时间无响应或报错“Failed to pull image”。 | 1. 网络连接问题,无法访问Docker Hub或GitHub。 2. Docker服务未运行。 3. 镜像标签不存在或已被移除。 | 1. 检查网络,尝试使用代理或更换网络环境。 2. 运行 docker ps确认Docker守护进程正在运行。3. 检查命令中是否指定了错误的镜像标签(如 AUTOGPT_IMAGE参数)。尝试使用默认值。 |
| 在Gitpod中运行,终端提示“kurtosis: command not found”。 | Gitpod环境初始化未完成或Kurtosis安装失败。 | 等待片刻,重新打开终端标签页,或尝试在终端手动运行Gitpod的初始化任务(查看Gitpod的.gitpod.yml文件)。 |
| Auto-GPT启动后,输入目标后卡住,或提示“Failed to get response from OpenAI API”。 | 1. OpenAI API密钥无效或未设置。 2. 网络问题导致无法访问OpenAI API。 3. API密钥余额不足或速率限制。 | 1. 仔细检查API密钥是否正确粘贴,确保没有多余空格或换行。 2. 确认你的网络环境可以访问 api.openai.com。3. 登录OpenAI平台检查账户余额和使用情况。 |
| 启用插件后,Auto-GPT启动时报错“ModuleNotFoundError”或“Plugin loading failed”。 | 1. 插件与当前Auto-GPT版本不兼容。 2. 插件仓库的安装脚本(如 requirements.txt)执行失败。 | 1. 暂时禁用该插件,确认是否是插件问题。查看该插件GitHub仓库的Issues,看是否有类似版本兼容性报告。 2. 进入容器Shell ( kurtosis service shell autogpt autogpt),手动到插件目录检查并尝试安装依赖。 |
| 使用本地模型(GPT4ALL)时,Auto-GPT响应极慢或输出乱码。 | 1. 本地模型文件过大,硬件(内存)不足。 2. 模型文件下载不完整或损坏。 3. 所选模型能力太弱,无法理解复杂指令。 | 1. 为Docker分配更多内存(如12GB+)。尝试使用更小的模型(如ggml-gpt4all-j)。2. 检查LocalAI服务日志,确认模型加载无误。可尝试指定一个已知可用的 MODEL_URL。3. 降低任务复杂度,或换用更强大的模型/切换回OpenAI API。 |
执行kurtosis enclave rm后,磁盘空间未明显释放。 | Docker的镜像、容器缓存未被清理。Kurtosis销毁Enclave会移除容器,但镜像可能仍存在。 | 运行docker system prune -a来清理所有未使用的Docker对象(镜像、容器、网络、构建缓存)。注意:这会删除所有未被当前容器引用的镜像,请谨慎操作。 |
| 如何查看Auto-GPT容器的实时日志? | 需要访问容器内的标准输出或日志文件。 | 使用命令:kurtosis service logs autogpt autogpt -f。-f参数可以持续跟踪日志输出,对于调试非常有用。 |
独家避坑技巧:
- 参数格式是硬伤:在传递JSON参数时,最常犯的错误是格式不对。确保整个参数用单引号包裹,内部的JSON键值对用双引号。像
'{"KEY": "VALUE"}'这样。如果值里需要包含空格或特殊字符,确保正确转义。 - 先测试再复杂化:第一次使用,强烈建议只用最基本的配置(仅API密钥)跑通。确认基础功能正常后,再逐步添加插件、更换记忆后端等复杂配置。这有助于隔离问题。
- 善用
kurtosis enclave ls和kurtosis service ls:这两个命令可以列出当前所有的Enclave和某个Enclave内的所有服务,让你清楚当前环境的状态,避免操作错误的对象。 - 版本锁定:如果你依赖一个稳定环境,可以在运行命令时指定Package的版本标签,例如
@0.3.1。这可以避免因主分支更新而引入意外变更。生产环境尤其需要这样做。
这个项目将Auto-GPT的部署体验提升到了一个全新的高度。它抽象了底层基础设施的复杂性,让开发者能聚焦于AI智能体本身的应用和创造。无论是用于快速原型验证、自动化任务测试,还是作为一套可复现的研究环境,kurtosis-tech/autogpt-package都提供了一个极其优雅的解决方案。我个人的体会是,它真正做到了“复杂留给自己,简单留给用户”。在AI工具链日益复杂的今天,这种致力于提升开发者体验的项目,其价值会越来越凸显。如果你之前被Auto-GPT的部署劝退过,现在绝对是重新尝试的最佳时机。
