当前位置: 首页 > news >正文

构建自我进化AI智能体:Hermes Agent架构解析与实战部署指南

1. 项目概述:一个能自我进化的AI智能体

如果你和我一样,已经厌倦了那些每次对话都像失忆、需要反复调教、功能固定且无法深度学习的AI助手,那么Hermes Agent的出现,绝对值得你花上十分钟来了解一下。这不是另一个套壳的ChatGPT Web界面,也不是一个简单的命令行工具。Hermes Agent,由Nous Research团队打造,它最核心的标签是“自我进化”。这意味着,它不仅仅是一个执行你指令的工具,而是一个能通过与你互动,不断学习、总结、沉淀,并最终形成属于你个人专属技能库的“数字伙伴”。

想象一下,你让AI帮你处理一份复杂的数据报告,它可能需要调用浏览器搜索、编写Python脚本、整理文件等多个步骤。普通的AI助手做完就忘了,下次遇到类似任务,你还得从头解释。但Hermes Agent不同,它会在任务完成后,自动将这一系列操作提炼、封装成一个可复用的“技能”。下次你只需要说“像上次那样分析销售数据”,它就能直接调用这个技能,甚至在执行过程中自我优化。这种“闭环学习”能力,是它区别于市面上绝大多数AI Agent的核心。

它的设计哲学是“无处不在,且成本可控”。你可以在本地笔记本上运行它,也可以在云端一台月费5美元的VPS上部署,甚至可以利用Modal、Daytona这样的Serverless平台,实现“闲置时几乎零成本,唤醒时按需付费”的极致经济模式。然后,你通过Telegram、Discord、甚至WhatsApp和它聊天,让它在那台云端服务器上为你工作。这种将计算资源与交互界面分离的架构,让AI助手真正成为了一个24小时在线的私人云服务。

2. 核心架构与设计哲学解析

2.1 模块化与松耦合:为什么它能“即插即用”?

Hermes Agent的架构设计非常清晰,遵循着“核心精简,外围可扩展”的原则。整个系统可以看作由几个核心模块组成:

  1. Agent Core(核心引擎):负责处理与LLM(大语言模型)的对话循环、工具调用决策、上下文管理。这是大脑。
  2. Tool System(工具系统):一个高度模块化的工具集。从简单的“获取当前时间”到复杂的“执行SSH命令”、“运行Docker容器”,每个工具都是独立的。你可以通过配置文件轻松启用或禁用它们,甚至自己编写工具。
  3. Memory & Skill System(记忆与技能系统):这是实现“自我进化”的关键。记忆系统不仅记录对话历史,还通过LLM进行摘要和向量化存储,支持跨会话的语义搜索。技能系统则将成功的任务流程固化为可执行的程序。
  4. Gateway & Interface Layer(网关与接口层):这是与用户交互的层面。CLI(命令行界面)提供全功能的TUI(终端用户界面),而Messaging Gateway则是一个守护进程,负责连接Telegram、Discord等平台,将消息路由给核心引擎处理。

这种设计的最大好处是无供应商锁定。你想用OpenAI的GPT-4、Anthropic的Claude、还是国内的通义千问、Kimi?只需要一条/model命令就能切换,背后的代码无需任何改动。工具、记忆、界面都可以独立升级和替换。

2.2 闭环学习循环:技能是如何“生长”出来的?

这是Hermes Agent最迷人的部分。它的学习循环不是简单的“记录-回放”,而是一个包含创造、应用、评估、优化的完整过程。

  • 技能创建(Creation):当你完成一个多步骤的复杂任务后,Hermes Agent会主动分析这次对话的轨迹。它会识别出哪些工具被调用、以什么顺序、处理了哪些数据。然后,它尝试用自然语言描述这个流程,并将其封装成一个新的“技能”,存储到本地技能库中。这个过程可以是自动触发的,也可以由用户通过/save_skill命令手动发起。
  • 技能调用与优化(Invocation & Optimization):当下次你或Agent自己触发这个技能时,它并非机械执行。LLM会结合当前的具体上下文,对技能步骤进行微调。例如,一个“数据清洗”技能,在面对CSV文件和Excel文件时,其内部调用的具体工具参数可能会不同。Agent会在执行中学习这种变体,并可能将更优的路径反馈回技能定义,实现渐进式改进。
  • 记忆增强(Memory Augmentation):所有对话都会被存储。但Hermes Agent会定期(或由用户触发)对过往对话进行“整理”。它使用LLM生成摘要,提取关键实体(如项目名、人名、决策点),并建立索引。这样,当你在几周后问起“我们上次关于XX项目的结论是什么?”,它能快速从压缩的记忆中找到答案,而不是把成千上万的对话历史全部塞给模型。

这个循环使得Agent不再是静态的,而是随着使用时间增长,变得越来越懂你,越来越擅长处理你的特定事务。

2.3 多后端执行引擎:从本地到云端的无缝衔接

“运行在任何地方”不是一句空话。Hermes Agent抽象了“执行环境”的概念,称之为“终端后端”。这决定了你的工具命令(比如python script.py)实际在哪里运行。

  • Local(本地):最简单,命令在你运行hermes的机器上执行。
  • Docker:在一个独立的Docker容器中执行,提供了良好的隔离性和环境一致性。
  • SSH:在远程服务器上执行。这是实现“云端运行,本地聊天”的关键。你可以在家中的电脑上通过Telegram与Agent交互,而Agent实际在公司的开发服务器或云端的GPU实例上执行代码。
  • Daytona/Modal:这是Serverless模式。你的Agent环境(包括安装的依赖、临时文件)被封装成一个镜像。当没有对话时,整个环境被“冷冻”起来,不产生计算费用。当消息到来时,平台瞬间唤醒它。这对于个人使用来说,成本可以忽略不计。

你可以根据任务需求,在会话中动态切换后端。比如,让轻量查询在本地运行,让耗时的数据训练在云GPU上运行。

3. 从零开始部署与深度配置指南

3.1 环境准备与安装:避开初学者的坑

官方的一键安装脚本curl -fsSL ... | bash在大多数Linux和macOS系统上工作良好。但根据我的经验,以下几点需要特别注意:

对于macOS用户:确保已安装Homebrew。脚本可能会依赖一些通过Homebrew安装的系统库。如果安装过程中遇到关于libomp等错误,可以提前执行brew install libomp

对于Linux用户(特别是纯净的VPS):脚本会自动安装Python 3.11+和uv(一个更快的Python包管理器)。但如果你的系统Python版本太旧,或者pip不可用,可能会卡住。最稳妥的方式是先手动确保基础环境:

# 对于Ubuntu/Debian sudo apt update && sudo apt install -y python3 python3-pip python3-venv curl git # 对于CentOS/RHEL sudo yum install -y python3 python3-pip git curl

然后再运行官方安装脚本。

对于Windows用户:必须使用WSL2。不要尝试在原生PowerShell或CMD中运行。在WSL2的Ubuntu分发版中,安装流程与Linux一致。

注意:安装完成后,务必执行source ~/.bashrc(或source ~/.zshrc)来重新加载Shell环境变量。很多新手会忽略这一步,导致直接运行hermes命令提示找不到。

安装成功后,运行hermes doctor命令。这是一个非常实用的诊断工具,它会检查:

  • 关键配置文件是否存在且格式正确。
  • 必要的API密钥是否已设置(如OpenAI)。
  • 网络连通性(能否访问配置的模型端点)。
  • 工具依赖是否满足(如docker命令是否可用)。
  • 它会给出明确的修复建议,能帮你快速定位90%的初期问题。

3.2 模型配置详解:如何选择最适合的“大脑”

hermes model命令会启动一个交互式选择器。但面对几十个提供商和上百个模型,该如何选择?我的建议是根据你的使用场景和预算来决策:

1. 本地/高性能场景(追求低延迟、高隐私、不限次调用):

  • 推荐后端ollama(本地运行),lmstudio(本地运行), 或自托管的vllm端点。
  • 模型选择:选择参数量适合你硬件的模型。例如,用llama3.1:8bqwen2.5:7b。你需要先在本机或内网服务器上部署好Ollama或vLLM服务。
  • 配置示例:在~/.hermes/config.toml中手动添加:
    [providers.ollama] type = "openai" base_url = "http://localhost:11434/v1" api_key = "ollama" # ollama通常不需要真密钥,但字段需存在 default_model = "llama3.2:3b"
    然后运行hermes model选择ollama提供商及对应模型。

2. 云端/平衡场景(追求强大能力,接受API成本):

  • 推荐提供商openai,anthropic,openrouter
  • 模型选择
    • 综合智能与成本openai:gpt-4o-mini是目前性价比的标杆。
    • 复杂推理与编程anthropic:claude-3-5-sonnetopenai:gpt-4o
    • 极致性价比与高速:通过openrouter调用google:gemini-2.0-flash
  • 关键技巧:OpenRouter是一个聚合平台,它让你能用同一个API密钥访问几乎所有主流模型。对于频繁切换模型做对比测试的用户来说,这是最佳选择,无需管理多个平台的账号和密钥。

3. 配置优先级与故障排除:Hermes的配置加载顺序是:环境变量 > 命令行参数 > 用户配置文件(~/.hermes/config.toml) > 全局默认配置。 最常见的模型连接失败问题,按以下步骤排查:

  • 步骤一:用hermes config get providers.openai.api_key检查密钥是否正确设置(显示为空或占位符则未设置)。
  • 步骤二:使用curl命令直接测试API端点是否可达。例如:curl -X POST https://api.openai.com/v1/chat/completions -H "Authorization: Bearer YOUR_KEY" -H "Content-Type: application/json" -d '{"model": "gpt-3.5-turbo", "messages": [{"role": "user", "content": "hello"}]}'。这能区分是网络问题还是Hermes配置问题。
  • 步骤三:检查hermes doctor的输出,看是否有关于网络或提供商的警告。

3.3 工具集配置与管理:赋予Agent“手脚”

工具是Agent能力的延伸。Hermes内置了40多个工具,默认只启用了一部分安全风险低的(如time,python_repl)。你需要根据需求手动启用。

  • 查看与启用工具:运行hermes tools进入交互式工具管理器。这里会以表格形式列出所有工具,包括名称、描述、状态(启用/禁用)和风险等级。你可以用空格键切换单个工具的状态,或按a键启用所有工具(不推荐,尤其是生产环境)。
  • 高风险工具须知:像shell_cmd(执行任意Shell命令)、ssh_command(执行远程命令)、filesystem_write(写文件)这类工具能力强大,但也危险。启用它们时,Hermes会强烈建议你同时配置命令审批模式
  • 命令审批模式:这是核心安全特性。你可以在配置文件中设置approval_required_for = ["shell_cmd", "ssh_command"]。此后,当Agent尝试执行这些命令时,会先向你发送命令详情,等待你回复/approve/deny后才会继续。在Telegram等即时通讯平台上,这尤为重要。
  • 创建自定义工具:如果内置工具不满足需求,你可以编写Python函数,并用@tool装饰器标记它。将文件放在~/.hermes/tools/目录下,Hermes会在启动时自动加载。例如,一个连接公司内部数据库的查询工具,就可以这样定制。

3.4 消息网关实战:打造24小时在线的Telegram机器人

让Hermes运行在云服务器上,并通过Telegram随时随地访问,是它的“完全体”形态。以下是详细步骤和避坑点:

1. 创建Telegram Bot:

  • 在Telegram中搜索@BotFather,发送/newbot,按提示设置名字和用户名。最终你会获得一个HTTP API Token,形如1234567890:ABCdefGHIjklMnOprSTUvWXYZ。妥善保存。

2. 配置Hermes Gateway:

  • 运行hermes gateway setup。这是一个向导程序。
  • 选择平台时,选telegram
  • 粘贴你从BotFather获得的Token。
  • 设置allowed_user_ids。这是最重要的安全设置!你必须输入你的Telegram User ID。如何获取?在Telegram中向@userinfobot发送任意消息,它会回复你的ID。只填你自己的ID,这样只有你能控制这个Bot。
  • 设置工作目录(working_dir),这是Agent在服务器上执行命令的根目录。

3. 启动网关并测试:

  • 配置完成后,运行hermes gateway start。你会看到日志输出“Gateway started successfully”。
  • 在Telegram中找到你的Bot(用户名就是@你设置的名字_bot),发送/start。如果配置正确,你会收到Hermes的问候语。
  • 关键测试:尝试发送“查看当前目录的文件列表”。Agent应该会调用shell_cmd执行ls,并将结果返回给你。如果启用了审批,你会先收到一个待审批的提示。

4. 后台运行与保活:

  • 在服务器上,你不能让hermes gateway start在前台运行,否则SSH断开后进程就结束了。你需要使用进程守护工具。
  • 推荐方案一:Systemd(Linux)。创建一个服务文件/etc/systemd/system/hermes-gateway.service
    [Unit] Description=Hermes Agent Gateway After=network.target [Service] Type=simple User=你的用户名 WorkingDirectory=/home/你的用户名 Environment="PATH=/home/你的用户名/.local/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin" ExecStart=/home/你的用户名/.local/bin/hermes gateway start Restart=always RestartSec=10 [Install] WantedBy=multi-user.target
    然后执行:
    sudo systemctl daemon-reload sudo systemctl enable hermes-gateway sudo systemctl start hermes-gateway sudo systemctl status hermes-gateway # 查看状态
  • 推荐方案二:tmux/screen。对于快速测试,可以用tmux new -s hermes创建一个会话,在其中启动网关,然后按Ctrl+B D分离会话。网关会在后台继续运行。

重要安全提醒:绝对不要将Bot Token和允许的用户ID泄露。一旦泄露,他人即可控制你的Agent,并在你的服务器上执行任意命令。建议将包含Token的配置文件~/.hermes/gateway.toml的权限设置为600(仅所有者可读可写):chmod 600 ~/.hermes/gateway.toml

4. 高级功能与实战应用场景

4.1 技能系统的深度使用:从记录到创造

技能系统是效率提升的倍增器。不要仅仅满足于Agent自动创建的技能,主动去设计和打磨技能,才能发挥最大威力。

1. 手动创建高质量技能:自动创建的技能有时逻辑可能不够清晰。你可以通过对话引导Agent,然后手动保存。

  • 场景:你经常需要查询某个特定数据库的表结构。
  • 操作
    1. 在对话中,你输入:“连接到我的测试数据库test_db,列出users表的所有字段名和类型。”
    2. Agent会调用python_repl工具,使用sqlalchemypsycopg2库执行查询并返回结果。
    3. 你确认结果正确后,输入命令:/save_skill get_table_schema
    4. Agent会提示你为技能添加描述。你输入:“查询指定数据库和表的模式信息。”
    5. 技能被保存。现在,你可以直接输入/get_table_schema,Agent会提示你输入参数database_nametable_name,然后自动执行整个流程。

2. 技能的参数化与复用:好的技能应该是灵活的。在保存技能时,Agent会尝试识别对话中的变量。你应该在技能描述中明确这些参数。

  • 例如,一个“下载网页并提取标题”的技能,其描述应写为:“下载{url}指向的网页,并提取其主标题文本。” 这样,下次使用/fetch_title时,它就会主动向你询问url的值。

3. 技能的组织与管理:运行/skills可以列出所有技能。技能文件以.json格式存储在~/.hermes/skills/目录下。你可以直接编辑这些JSON文件来微调技能的触发词、描述或具体步骤。但请注意,错误的编辑可能导致技能无法运行。建议先备份。

4.2 利用Cron调度实现自动化工作流

Hermes内置的Cron调度器,让它从“对话式助手”升级为“自动化管家”。你不再需要手动触发,它可以定时执行任务并主动向你汇报。

1. 创建一个定时任务:假设你想让Agent每天上午9点检查你的GitHub仓库是否有新的Issue,并汇总发到Telegram。

  • 步骤一:先通过对话,让Agent学会“获取GitHub仓库issue”这个任务。测试成功后,将其保存为技能get_github_issues
  • 步骤二:添加Cron任务。命令格式为:/cron add "0 9 * * *" /get_github_issues --repo nousresearch/hermes-agent --status open
    • "0 9 * * *"是Cron表达式,表示每天9点0分。
    • 后面跟着要执行的技能名和所需的参数。
  • 步骤三:指定汇报平台。在添加Cron任务时,可以通过--to telegram参数指定将结果发送到Telegram(需要网关已运行)。你也可以在配置文件中设置默认的汇报平台。

2. 管理Cron任务:

  • /cron list:查看所有已配置的定时任务及其状态。
  • /cron remove <task_id>:删除一个任务。
  • /cron run <task_id>:立即手动运行一个任务,用于测试。

3. 实战案例:个人日报自动生成我设置了一个每天下午6点运行的任务:

/cron add "0 18 * * *" /run_python_script --path ~/scripts/generate_daily_report.py --to telegram

这个Python脚本会:

  1. 读取我日历API中当天的会议。
  2. 扫描我项目目录下当天修改的代码文件。
  3. 调用LLM API(可以直接在脚本里用Hermes的配置)生成一段工作总结和建议。
  4. 将结果通过Hermes网关发送到我的Telegram。 整个过程完全无人值守,我每天下班时就能在手机上收到一份简洁的日报。

4.3 上下文文件:为特定项目定制专属Agent

当你长期在某个特定项目(如一个软件开发项目)中使用Hermes时,每次都要重复介绍项目背景非常低效。上下文文件就是为了解决这个问题。

  • 创建上下文文件:在项目根目录创建一个名为.hermes-context.md的文件。在这个文件里,你可以写入任何你想让Agent在本次会话中始终记住的信息:
    # 项目:Hermes Agent 贡献指南 本项目是一个开源的AI智能体框架。代码仓库位于:https://github.com/NousResearch/hermes-agent。 当前主要开发分支是 `main`。 我们的代码风格遵循Black和isort。 在修改工具时,请务必先阅读 `docs/developer-guide/contributing.md`。
  • 启动Agent:在该项目目录下直接运行hermes。Hermes会自动发现并加载.hermes-context.md文件,将其内容作为系统提示词的一部分注入到对话上下文中。这样,你在这个会话中提出的所有问题,Agent都会基于这个项目背景来理解和回答。
  • 优先级:上下文文件的内容具有很高的优先级,它会持续影响整个会话。这对于保持对话不偏离主题、遵守项目特定规范极其有用。

4.4 子代理与并行处理:应对复杂工作流

对于需要多线程进行的复杂任务,你可以使用/spawn命令创建子代理。

  • 场景:你需要同时监控三个不同服务器的日志,查找错误信息。
  • 操作
    1. /spawn agent1— 创建一个名为agent1的子代理。
    2. 在新的对话线程中(CLI下会有标签页),给agent1下达命令:“通过SSH连接到server1,持续监控/var/log/app.log,发现ERROR级别日志就通知我。”
    3. 切换回主代理(CLI中切换标签页),再次执行/spawn agent2,让其去监控server2。
    4. 如此反复,主代理负责协调和汇总结果,子代理并行执行具体的、可能耗时的监控任务。
  • 资源隔离:每个子代理拥有独立的内存、会话上下文和工具调用链,互不干扰。这对于测试不同的任务方案或处理相互独立的数据流非常有效。

5. 故障排查、性能优化与安全实践

5.1 常见问题与解决方案速查表

问题现象可能原因排查步骤与解决方案
运行hermes命令无反应或报错command not found1. 安装后未source ~/.bashrc
2. 安装脚本未能将~/.local/bin加入PATH。
1. 执行source ~/.bashrc或重新打开终端。
2. 手动检查echo $PATH是否包含~/.local/bin,若无,在.bashrc中添加export PATH="$HOME/.local/bin:$PATH"
连接模型API超时或失败1. 网络问题(代理/防火墙)。
2. API密钥错误或未设置。
3. 提供商端点地址错误。
1. 用curl命令测试API端点可达性(见上文)。
2. 运行hermes config get providers.<name>.api_key检查密钥。
3. 检查配置文件中的base_url是否正确(特别是自托管模型)。
工具执行失败(如shell_cmd1. 该工具未被启用。
2. 命令审批被阻止。
3. 在错误的后端执行(如本地无此命令但后端是Local)。
1. 运行hermes tools确认工具已启用。
2. 检查是否启用了审批且未通过。
3. 使用/backend命令切换至正确的执行后端(如Docker或SSH)。
Telegram Bot不回复消息1. 网关进程未运行或已崩溃。
2.allowed_user_ids未设置或设置错误。
3. Bot Token错误。
1. 在服务器运行systemctl status hermes-gateway或检查tmux会话。
2. 再次确认Telegram User ID,并用hermes gateway config命令检查配置。
3. 在BotFather处重置Token并更新配置。
内存/技能相关命令无效记忆/技能功能依赖向量数据库(默认ChromaDB)。1. 首次使用记忆功能时,Hermes会自动下载嵌入模型(约几百MB),确保网络通畅。
2. 检查~/.hermes/目录下是否有chroma.sqlite3等文件,若无,可能是初始化失败。
性能缓慢,响应延迟高1. LLM API响应慢。
2. 本地嵌入模型计算慢。
3. 上下文过长导致处理慢。
1. 尝试切换至更快的模型(如gpt-4o-mini)。
2. 考虑使用API提供的嵌入服务(如OpenAI的text-embedding-3-small),在配置中设置。
3. 定期使用/compress命令压缩过长的对话历史。

5.2 性能优化技巧

  1. 上下文管理是生命线:LLM的上下文窗口是宝贵资源。Hermes的/compress命令会使用LLM对旧对话进行摘要,保留核心信息,丢弃冗余细节,从而腾出空间给新对话。对于长周期项目,养成定期压缩的习惯。
  2. 选择合适的嵌入模型:本地运行的嵌入模型(如all-MiniLM-L6-v2)虽然免费,但计算耗时。如果你的使用频率高,强烈建议在配置中改用云API,如OpenAI的嵌入模型,速度会有数量级的提升。配置项为memory.embedding.provider
  3. 善用“无状态”工具调用:对于复杂的、多步骤的数据处理,可以引导Agent将逻辑写成一个完整的Python脚本,然后一次性调用python_script工具执行。这比让Agent反复调用python_repl(每次都需要携带大量上下文)要高效得多。
  4. 模型降温:在配置文件或/model命令中,可以设置temperature参数。对于需要确定性输出的任务(如代码生成、数据提取),将其设低(如0.1-0.3);对于需要创意的任务(如起名、写文案),可以设高(如0.7-0.9)。合适的温度能减少无用的“思考”时间,一次生成更符合要求的结果。

5.3 安全最佳实践

  1. 最小权限原则:在hermes tools中,只启用你当前确实需要的工具。尤其是filesystem_writeshell_cmdssh_command
  2. 强制命令审批:对于所有高风险工具,务必在配置中开启审批。approval_required_for = ["shell_cmd", "ssh_command", "filesystem_write"]。这是防止Agent被恶意提示词诱导执行危险操作的最后防线。
  3. 隔离执行环境:对于执行不可信代码或操作,使用Docker后端。在Docker配置中,可以限制容器的网络、CPU、内存资源,甚至使用只读文件系统,将破坏范围限制在容器内。
  4. 网关访问控制:在Telegram/Discord网关配置中,allowed_user_idsallowed_group_ids是必须设置的。不要使用通配符或留空。定期审计这些列表。
  5. 机密信息管理:API密钥等敏感信息不要硬编码在技能或上下文文件中。使用Hermes的加密配置段或系统的环境变量来管理。运行hermes config set来安全地设置密钥。
  6. 定期更新:使用hermes update命令保持软件最新,以获取安全补丁和新功能。

从我几个月的深度使用来看,Hermes Agent代表了一种更务实、更强大的AI智能体范式。它没有追求华而不实的多模态炫技,而是扎扎实实地解决了智能体“有用”和“可用”的核心问题:记忆、学习、成本控制和安全性。它的模块化设计让你可以从一个简单的CLI聊天工具开始,逐步将其演进成一个部署在云端、通过手机操控、深度融入你工作流的自动化智能中枢。这个过程本身,就像是在训练一个共同成长的数字同事,其中的乐趣和效率提升,远超使用一个固定的、封闭的AI产品。

http://www.jsqmd.com/news/785704/

相关文章:

  • 毕业设计 基于深度学习的抽烟行为检测算法实现(源码分享)
  • 为AI编码助手注入OpenClaw官方文档技能,实现精准配置与部署
  • 企业级消息集成平台实战:基于Evolution API构建WhatsApp自动化解决方案
  • RAG-查询前处理
  • CANN昇腾模型压缩工具包AMCT
  • CANN/runtime HostFunc回调示例
  • 法律AI应用场景拆解:从信息处理到预测分析的挑战与评估
  • LeetCode 括号生成题解
  • 数据网格架构:云原生时代的数据管理新范式
  • 本地AI智能体平台Walrus:开箱即用的私有化AI助手部署指南
  • 仿真客户旅程式网络钓鱼攻击机理与防御技术研究
  • CANN/cann-recipes-infer MTP模型适配指南
  • CANN基础设施邮件列表指南
  • 使用Taotoken后API调用稳定性与延迟的直观体感观察
  • 卷积改进与轻量化:时序卷积 TCN 化——将卷积扩展为因果时序卷积,用于视频流检测的时序特征增强
  • 生成式AI治理:从版权归属到内容安全的企业级实践指南
  • 实验报告:实验4-树、二叉树与查找
  • 从儿童AI认知偏差看人工智能素养教育的核心转向
  • 各地特色糖水,正宗做法大公开
  • 周作业66
  • 洛谷P6054思路分享(网络流,期望)
  • DeepSeek V4 上线,Tabbit 更会干活了(限时白嫖 pro 会员)
  • Kubernetes自定义资源定义(CRD)深度解析与实践
  • CANN/mat-chem-sim-pred DPD算子设计文档
  • STM32 内核
  • 呼和浩特搬家怎么选?2025年本地搬家市场格局与五大机构深度测评 - 品牌策略师
  • CANN/AMCT保存量化重训练模型
  • CANN/cann-recipes-infer Kimi-K2-Thinking配置指南
  • JAVA TREE
  • cann/runtime 多设备编程