当前位置: 首页 > news >正文

基于Claude API与Telegram Bot构建私有AI助手:架构设计与生产部署指南

1. 项目概述与核心价值

最近在折腾一个挺有意思的项目,叫claude-telegram-server。简单来说,它就是一个能把 Claude 的对话能力“嫁接”到 Telegram 上的服务端程序。你不需要去 OpenAI 的官网,也不用在手机上装一堆 App,只需要在 Telegram 里加一个机器人,就能像跟朋友聊天一样,随时随地向 Claude 提问,获取高质量的文本生成、代码编写、问题解答等服务。这个项目在 GitHub 上由Hewechargeable220维护,本质上是一个桥梁,连接了 Telegram Bot API 和 Anthropic 的 Claude API。

我之所以花时间研究它,是因为我发现很多团队和个人,包括我自己,日常工作沟通的主阵地已经转移到了 Telegram 上。无论是小组讨论、项目协作还是个人备忘,Telegram 的便捷性和丰富的客户端支持是其他平台难以比拟的。但当我们突然需要 Claude 帮忙润色一段文案、解释一个技术概念或者生成一些测试数据时,就不得不跳出当前的聊天环境,切换到浏览器或者另一个应用,这个过程非常割裂。claude-telegram-server完美地解决了这个痛点,它让 AI 助手无缝嵌入到你最熟悉的沟通工具里,随叫随到,体验非常流畅。

这个项目特别适合几类人:一是经常使用 Telegram 进行工作和学习的团队,可以快速搭建一个团队专属的 AI 助手;二是开发者,可以基于这个项目进行二次开发,定制自己的 AI 机器人;三是对隐私有要求的用户,因为你可以完全掌控这个服务端,所有的对话数据都经过你自己的服务器,避免了使用第三方托管服务可能带来的数据泄露风险。接下来,我会从设计思路到实操部署,再到深度优化,为你完整拆解这个项目。

2. 项目整体设计与架构解析

2.1 核心工作原理与数据流

要理解这个项目,首先要搞清楚它的数据流向。整个系统可以看作一个“中转站”或“翻译官”。它的核心工作流程是这样的:

  1. 用户触发:你在 Telegram 中向配置好的 Bot 发送一条消息,比如“用 Python 写一个快速排序函数”。
  2. Telegram 推送:Telegram 的服务器会将这条消息,连同你的用户 ID、聊天 ID 等信息,通过 Webhook(网络钩子)的方式,推送到你部署的claude-telegram-server服务所在的公网地址。
  3. 服务端接收与处理claude-telegram-server接收到 Telegram 发来的 HTTP POST 请求。它首先会解析请求体,提取出纯文本消息内容。然后,它会根据配置,将这条消息作为“用户输入”,按照 Claude API 要求的格式进行封装。
  4. 调用 Claude API:封装好的请求被发送到 Anthropic 的官方 API 端点,并附上你事先申请好的 API Key 进行身份验证。
  5. 获取并转发回复:Claude 处理完请求后,会将生成的回复文本返回给claude-telegram-server。服务器收到回复后,需要做一件关键事情:将可能很长的回复进行分段。因为 Telegram 对单条消息有长度限制(大约 4096 个字符)。所以,服务端需要智能地将回复切割成多个段落。
  6. 回复用户:最后,claude-telegram-server调用 Telegram Bot API,将分段后的回复,依次发送回最初的聊天窗口。于是,你在 Telegram 里就看到了 Claude 的回复。

整个架构是典型的事件驱动、请求-响应模式。项目的核心价值在于它处理了这两个平台之间复杂的协议转换、错误处理、消息分片和会话状态管理。

2.2 技术栈选型与考量

原项目是用 Python 编写的,这是一个非常合理的选择。为什么是 Python?

首先,生态丰富。处理 HTTP 请求有FastAPIFlaskaiohttp等成熟框架;处理 Telegram Bot API 有python-telegram-bot这类功能强大、文档齐全的库;调用 Claude API 也就是一个httpxrequests库的事情。Python 让开发者能够快速集成这些组件,专注于业务逻辑。

其次,开发效率高。这类中间件服务,逻辑其实不复杂,但细节很多(比如错误重试、速率限制、日志记录)。Python 的语法简洁,能够快速实现和迭代。对于个人或小团队维护的项目,快速开发部署比极致的性能更重要。

第三,易于部署和扩展。Python 应用可以非常方便地容器化(Docker),在任何支持 Python 的云服务器或本地机器上运行。结合gunicornuvicorn作为 ASGI 服务器,能轻松应对一定的并发请求。

除了语言,项目的设计还隐含了几个关键考量:

  • 无状态设计:服务本身不长期存储对话历史(除非你特意实现)。每次请求相对独立,这简化了部署和水平扩展。会话上下文(即让 Claude 记住之前的对话)通常是通过在每次请求中携带历史消息列表来实现的,这个列表可以临时保存在内存或外部缓存中。
  • 安全性:项目需要安全地管理两个核心密钥:Telegram Bot Token 和 Anthropic API Key。最佳实践是通过环境变量或配置文件来读取,绝不能硬编码在代码里。
  • 可观测性:一个好的机器人服务必须有完善的日志记录,记录每一次请求和响应、API调用状态和耗时,这对于排查问题至关重要。

3. 环境准备与核心配置详解

3.1 前置条件与账号申请

在动手部署之前,你需要准备好三样东西:一台服务器、一个 Telegram Bot 和一个 Claude API Key。

1. 服务器准备你需要一台拥有公网 IP 地址的服务器,因为 Telegram 需要通过 Webhook 将消息推送到你的服务。云服务商如 AWS EC2、Google Cloud Compute Engine、DigitalOcean Droplet、或者国内的腾讯云 CVM、阿里云 ECS 都是不错的选择。对于初期测试,选择最低配置(如 1核1G)就完全足够了。确保服务器的防火墙(安全组)开放了你将要使用的端口(例如 8443, 8080)。

提示:如果你只是在本地测试,没有公网 IP,可以使用ngroklocaltunnel这类内网穿透工具,将本地的服务临时暴露到一个公网地址。这对于开发调试非常方便。

2. 创建 Telegram Bot这是与用户交互的界面。整个过程非常简单,完全在 Telegram App 内完成。

  • 在 Telegram 中搜索@BotFather这个官方机器人。
  • 发送/newbot命令,按照提示依次输入你的机器人的显示名称(如“我的Claude助手”)和用户名(必须以bot结尾,如my_claude_helper_bot)。
  • 创建成功后,BotFather会给你一个HTTP API Token,格式类似1234567890:ABCdefGhIJKlmNoPQRsTUVwxyZ务必妥善保管这个 Token,它是你机器人的钥匙,一旦泄露,别人就可以控制你的机器人。

3. 申请 Anthropic API Key

  • 访问 Anthropic 的官网,注册并登录账户。
  • 在控制台或账户设置中找到 API Keys 部分,创建一个新的 Key。
  • 同样,复制并保存好这个 Key。请注意,Claude API 是收费服务,具体费率需查阅官方文档,使用前请了解相关计费规则。

3.2 项目部署与基础配置

假设你已经在服务器上安装好了 Python(建议版本 3.8+)和 Git。我们开始部署。

# 1. 克隆项目代码 git clone https://github.com/Hewechargeable220/claude-telegram-server.git cd claude-telegram-server # 2. 创建并激活虚拟环境(强烈推荐,避免污染系统Python环境) python -m venv venv source venv/bin/activate # Linux/macOS # 对于 Windows: venv\Scripts\activate # 3. 安装依赖 pip install -r requirements.txt

接下来是最关键的配置环节。项目通常会提供一个配置文件模板,比如config.example.yaml.env.example。你需要复制一份并填写自己的信息。

# 假设项目使用 .env 文件管理配置 cp .env.example .env # 然后编辑 .env 文件

打开.env文件,你会看到类似以下内容:

# Telegram Bot Configuration TELEGRAM_BOT_TOKEN=你的Telegram_Bot_Token # 可选:设置允许使用机器人的用户ID,留空则允许所有人 ALLOWED_USER_IDS= # Claude API Configuration ANTHROPIC_API_KEY=你的Anthropic_API_Key # 指定使用的Claude模型,如 claude-3-opus-20240229, claude-3-sonnet-20240229, claude-3-haiku-20240229 CLAUDE_MODEL=claude-3-sonnet-20240229 # 可选:设置API请求的基础URL,通常不需要修改 ANTHROPIC_API_BASE_URL=https://api.anthropic.com # Server Configuration # 服务监听的IP和端口,0.0.0.0表示监听所有网络接口 SERVER_HOST=0.0.0.0 SERVER_PORT=8443 # Webhook的路径,Telegram会将消息推送到 https://你的域名:端口/WEBHOOK_PATH WEBHOOK_PATH=/webhook # 你的服务器公网地址,必须使用HTTPS(Telegram强制要求),格式:https://your-domain.com 或 https://your-server-ip:port PUBLIC_URL=https://your-server-ip:8443 # Bot Behavior Configuration # 每条消息的最大Token数,影响单次交互的上下文长度 MAX_TOKENS=4096 # 系统提示词,用于设定Claude的角色和行为 SYSTEM_PROMPT=You are a helpful assistant integrated into Telegram.

你需要修改的关键项:

  • TELEGRAM_BOT_TOKENANTHROPIC_API_KEY:填入你之前申请到的密钥。
  • PUBLIC_URL:这是最难搞定的部分。你必须提供一个HTTPS地址。有三种常见方案:
    1. 拥有域名和SSL证书:如果你有域名,可以在服务器上用 Nginx 配置反向代理和 SSL(可以使用 Let‘s Encrypt 免费证书),然后将PUBLIC_URL设为https://your-domain.com
    2. 使用云平台提供的临时域名:一些云服务或隧道工具提供带 HTTPS 的临时域名。
    3. 自签名证书(仅测试):对于开发测试,可以生成自签名证书,并将PUBLIC_URL设为https://your-server-ip:8443。但需要配置服务端使用该证书,并且客户端(这里指Telegram)需要信任它。对于 Telegram Webhook 来说,自签名证书通常不可行,强烈建议使用方案1或2
  • SYSTEM_PROMPT:你可以在这里定制 Claude 的角色。比如,你可以设为“你是一位资深的Python代码审查专家,用中文回答,语气严谨但友好。”

3.3 启动服务与设置Webhook

配置完成后,就可以启动服务了。根据项目设计,启动命令可能类似:

python main.py # 或者 uvicorn main:app --host 0.0.0.0 --port 8443

服务启动后,它会在SERVER_HOST:SERVER_PORT上监听。但这还不够,你需要主动告诉 Telegram:“请把发生我这个机器人的消息,都推送到PUBLIC_URL + WEBHOOK_PATH这个地址。”

这需要通过调用 Telegram Bot API 的一个特殊接口来完成。通常项目会提供一个脚本,或者你可以在服务启动后,手动发送一个 HTTP 请求:

# 使用 curl 命令设置 Webhook # 将 <YOUR_BOT_TOKEN> 和 <YOUR_PUBLIC_URL> 替换为实际值 curl -F "url=<YOUR_PUBLIC_URL>/webhook" https://api.telegram.org/bot<YOUR_BOT_TOKEN>/setWebhook

如果设置成功,你会收到一个包含"ok":true的 JSON 响应。至此,整个链路就打通了。你可以去 Telegram 里找到你的机器人,发送一条消息测试一下。如果一切正常,Claude 的回复很快就会出现在聊天窗口中。

4. 核心功能实现与高级特性剖析

4.1 会话管理与上下文保持

一个基础的、一问一答的机器人实用性有限。我们更希望 Claude 能记住同一轮对话中之前的内容,实现连贯的交流。这就是会话管理。

claude-telegram-server这类项目中,会话管理通常基于Chat ID来实现。Telegram 为每一个“聊天”(可以是私聊,也可以是群组或频道)分配一个唯一的chat_id。服务端可以以这个chat_id为键,在内存(如一个 Python 字典)或外部存储(如 Redis)中维护一个消息历史列表。

当收到一条新消息时,服务端会:

  1. 根据chat_id取出该聊天对应的历史消息列表。
  2. 将新的用户消息追加到这个列表中。
  3. 将整个历史列表(可能包含系统提示、多轮对话)作为上下文,发送给 Claude API。
  4. 收到 Claude 的回复后,将助理(Claude)的回复也追加到历史列表中,以便下次使用。
  5. 为了防止上下文无限增长导致 API 调用 Token 超限或成本过高,需要实现一个“滑动窗口”或“摘要”机制。例如,只保留最近10轮对话,或者当历史 Token 数超过某个阈值时,丢弃最早的一些消息。
# 一个简化的内存会话管理示例 from collections import defaultdict class SessionManager: def __init__(self, max_history_messages=10): self.sessions = defaultdict(list) # chat_id -> list of messages self.max_history = max_history_messages def get_context(self, chat_id, user_message): """获取当前聊天的上下文消息列表""" history = self.sessions[chat_id] # 添加新的用户消息 history.append({"role": "user", "content": user_message}) # 如果历史记录过长,截断最老的部分 if len(history) > self.max_history * 2: # 乘以2因为一轮对话包含user和assistant两条 history = history[-(self.max_history * 2):] self.sessions[chat_id] = history return history def add_assistant_reply(self, chat_id, assistant_reply): """将Claude的回复加入历史""" self.sessions[chat_id].append({"role": "assistant", "content": assistant_reply})

4.2 消息处理与流式输出优化

Telegram 的消息长度限制是一个需要妥善处理的问题。简单的截断会破坏回复的完整性。更好的做法是按段落或句子边界进行分片。例如,在遇到换行符、句号、分号等自然分隔符时进行切割,确保每个分片都是一个完整的语义单元。

更高级的体验是流式输出。Claude API 支持流式响应(streaming),这意味着回复可以像打字一样一个字一个字地返回。对于 Telegram,我们可以利用“编辑消息”的 API 来实现类似效果:先发送一条“正在思考...”的消息,然后随着 Claude 流式返回的内容,不断更新这条消息的内容。这能极大提升交互的实时感和流畅度。

实现流式输出需要注意:

  • 速率限制:频繁调用“编辑消息”API 可能会触发 Telegram 的速率限制,需要加入适当的延迟。
  • 错误处理:网络中断或 API 错误时,要能妥善处理,并给用户一个最终的错误提示或部分回复。
  • 用户体验:可以在流式输出开始时,发送一个“打字中...”的状态(通过sendChatActionAPI),让用户知道机器人正在处理。

4.3 权限控制与命令扩展

默认情况下,任何知道机器人用户名的人都可以与之对话。你可能希望限制使用范围。

  • 用户白名单:在配置文件中设置ALLOWED_USER_IDS,填入允许使用的 Telegram 用户 ID。当收到消息时,首先检查user_id是否在名单内,如果不是则直接忽略或回复无权限。获取用户 ID 的方法很简单,可以先临时开放,让用户给机器人发送/start命令,然后在服务端日志中查看收到的user_id
  • 群组管理:如果你将机器人添加到群组,可能希望它只响应特定命令(如以/ask开头的消息)或只响应被@的消息,避免刷屏。这需要在消息处理逻辑中增加判断。

此外,你可以为机器人扩展一些管理命令,例如:

  • /start:欢迎语和使用说明。
  • /clear/new:让用户手动清除当前聊天的上下文历史,开始一个新话题。
  • /model:允许用户在支持的 Claude 模型(如 Haiku, Sonnet, Opus)之间切换,以平衡速度、成本和能力。
  • /usage:查询当前会话或总体的 API 使用情况(Token 消耗)。

这些命令的处理逻辑通常在调用 Claude API 之前进行拦截和判断。

5. 生产环境部署与运维指南

5.1 使用进程管理器与反向代理

在开发环境直接用python main.py运行没问题,但在生产环境这是不稳定的。我们需要进程管理器来保证服务持续运行,并在崩溃时自动重启。

使用 systemd (Linux)创建一个 systemd 服务文件,例如/etc/systemd/system/claude-bot.service

[Unit] Description=Claude Telegram Bot Server After=network.target [Service] Type=simple User=your_username WorkingDirectory=/path/to/claude-telegram-server Environment="PATH=/path/to/claude-telegram-server/venv/bin" ExecStart=/path/to/claude-telegram-server/venv/bin/python main.py Restart=always RestartSec=10 StandardOutput=journal StandardError=journal [Install] WantedBy=multi-user.target

然后启用并启动服务:

sudo systemctl daemon-reload sudo systemctl enable claude-bot sudo systemctl start claude-bot # 查看状态和日志 sudo systemctl status claude-bot sudo journalctl -u claude-bot -f

使用 Nginx 作为反向代理让 Python 应用直接处理 HTTPS 和静态文件不是最佳实践。通常使用 Nginx 这样的 Web 服务器作为反向代理。

  • Nginx 处理 SSL 终止、静态文件服务、负载均衡和缓冲。
  • 你的 Python 应用(通过 Gunicorn/Uvicorn)运行在本地某个端口(如 8000)。
  • Nginx 将接收到PUBLIC_URL/webhook的请求转发给本地的 Python 应用。

一个简单的 Nginx 配置片段如下:

server { listen 443 ssl http2; server_name your-domain.com; ssl_certificate /path/to/your/fullchain.pem; ssl_certificate_key /path/to/your/privkey.pem; location /webhook { proxy_pass http://127.0.0.1:8000; # 转发到本地应用 proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; } # 其他 location 配置... }

这样,你的.env配置中PUBLIC_URL就可以设为https://your-domain.comSERVER_PORT可以改为8000(仅供 Nginx 内部转发)。

5.2 监控、日志与故障排查

一个稳定的服务离不开监控和清晰的日志。

日志记录:确保你的应用配置了详细的日志,记录级别至少为 INFO。记录每一次 Webhook 请求(可脱敏处理用户消息)、Claude API 调用状态和耗时、发生的错误等。可以使用 Python 的logging模块,配置输出到文件并按日期滚动。

import logging logging.basicConfig( level=logging.INFO, format='%(asctime)s - %(name)s - %(levelname)s - %(message)s', handlers=[ logging.FileHandler('claude_bot.log'), logging.StreamHandler() ] ) logger = logging.getLogger(__name__) # 在代码中记录 logger.info(f"Received message from user {user_id} in chat {chat_id}") logger.error(f"Claude API call failed: {e}", exc_info=True)

健康检查:可以添加一个简单的/health端点,返回服务状态。然后使用监控工具(如cron定时任务调用curl,或使用 UptimeRobot 等外部服务)定期检查,确保服务在线。

常见故障排查

  1. 机器人无响应
    • 检查服务进程是否在运行:sudo systemctl status claude-bot
    • 检查日志文件claude_bot.log是否有错误信息。
    • 检查 Webhook 是否设置成功:curl https://api.telegram.org/bot<YOUR_TOKEN>/getWebhookInfo
    • 检查防火墙/安全组是否开放了端口。
    • 检查 Nginx 配置和 SSL 证书是否有效。
  2. Claude 不回复或回复慢
    • 检查 Anthropic API Key 是否有效、是否有余额或调用频率是否超限。
    • 检查网络连通性,是否能正常访问api.anthropic.com
    • 查看日志中 Claude API 调用的响应时间和状态码。
  3. 上下文丢失
    • 如果你使用的是内存存储会话,服务重启后所有会话历史都会丢失。考虑使用 Redis 或数据库进行持久化存储。
    • 检查会话管理逻辑,是否因为历史消息过长被意外截断。

5.3 安全加固与成本控制

安全加固

  • 密钥管理:永远不要将TELEGRAM_BOT_TOKENANTHROPIC_API_KEY提交到代码仓库。使用.env文件,并将其添加到.gitignore。在服务器上,确保.env文件权限为600(仅所有者可读)。
  • 输入验证:对从 Telegram 接收到的所有数据进行验证和清理,防止注入攻击。
  • 限制访问:除了使用用户白名单,还可以在 Nginx 层面设置 IP 访问限制(虽然 Telegram 的 Webhook IP 段会变动,不太实用),或者为 Webhook 路径设置一个复杂的、难以猜测的路径(而不仅仅是/webhook)。
  • 定期更新:定期更新项目依赖库(requirements.txt),修复已知安全漏洞。

成本控制: Claude API 按 Token 收费。为了避免意外高额账单或滥用,可以实施以下策略:

  • 设置使用限额:在代码中为每个user_idchat_id设置每日或每月 Token 消耗上限。
  • 启用官方预算与告警:在 Anthropic 控制台设置预算和支出告警。
  • 使用更经济的模型:对于简单问答,使用claude-3-haiku模型;对于复杂任务,再切换到claude-3-sonnetclaude-3-opus。可以让用户通过命令切换,或根据问题复杂度自动选择。
  • 优化提示词:精心设计SYSTEM_PROMPT,让 Claude 的回复更简洁、精准,避免不必要的冗长。

6. 进阶玩法与扩展思路

当基础服务稳定运行后,你可以考虑一些进阶功能,让它更加强大和个性化。

1. 多模态支持(图片理解)Telegram 支持发送图片。Claude 3 系列模型具备强大的视觉能力。你可以扩展服务端,使其能够处理用户发送的图片。流程是:当收到包含图片的消息时,通过 Telegram Bot API 将图片文件下载到服务器或获取其直接链接,然后将图片的 Base64 编码或 URL 作为消息的一部分(遵循 Claude API 的多模态消息格式)发送给 Claude。这样,用户就可以直接发送图表、截图、照片让 Claude 分析和解读了。

2. 文件上传与处理类似地,你可以处理用户发送的文本文件(如.txt,.pdf,.docx)。服务端下载文件后,提取其中的文本内容,并将其作为上下文的一部分发送给 Claude。这非常适合让 Claude 总结文档、翻译文件或基于文档内容回答问题。

3. 集成其他 AI 模型或工具这个架构是通用的。你可以很容易地修改后端,使其不仅支持 Claude,还支持其他 AI 模型的 API,比如 OpenAI 的 GPT 系列、Google 的 Gemini,甚至是开源的本地大模型(通过其提供的 API)。你甚至可以做一个“路由”逻辑,让用户通过命令选择使用哪个模型,或者根据问题类型自动选择最合适的模型。

4. 实现 Function Calling / Tool UseClaude 支持 Function Calling(工具使用)。你可以定义一些工具函数,比如“查询天气”、“搜索网络”、“计算器”等。当用户的问题需要实时信息或特定计算时,Claude 会请求调用相应的工具。服务端收到请求后,执行本地函数或调用外部 API,将结果返回给 Claude,Claude 再整合成最终回复给用户。这能将 AI 的能力从纯文本生成扩展到实际行动。

5. 构建管理面板为你的机器人搭建一个简单的 Web 管理面板,可以实时查看在线用户、对话统计、API 使用量、手动清除异常会话等,方便运维。

我个人在部署和维护这样一个服务的过程中,最大的体会是“稳定大于一切”。初期可能更关注功能的实现,但一旦有用户开始依赖它,服务的可靠性、响应速度和问题排查效率就变得至关重要。从简单的脚本到具备完善监控、日志和故障恢复机制的服务,是一个必经的升级过程。另一个深刻的教训是关于成本:一定要在早期就加入用量监控和限制机制,并清晰地告知用户,避免因为某个意外的高频调用或提示词设计不当导致账单失控。

http://www.jsqmd.com/news/786202/

相关文章:

  • 系外行星探测四大主流方法:原理、应用与前沿技术解析
  • Gryph:为AI编程助手打造本地化行为审计与可观测性工具
  • SITS2026到底值不值得上手?2024真实Benchmark对比LlamaIndex+LangChain+AutoGen,性能提升47%的关键配置曝光
  • CANN模型推理实施者
  • Arm Neoverse V3AE核心寄存器架构与性能优化
  • 2026年5月温州企业税务外包服务商综合**:泓远财务咨询领跑*单 - 2026年企业推荐榜
  • 生成式AI七大法律风险解析:从数据版权到内容责任
  • 2026年5月随州工商注销服务平台**联系与选择指南 - 2026年企业推荐榜
  • 基于角色的AI能力框架:重塑工程教育中的人机协作新范式
  • 2026年成都市政路灯定制优选:如何甄别实力与服务兼备的厂家? - 2026年企业推荐榜
  • CANN/metadef AppendStride函数
  • 2026年阜阳企业如何选择不当得利纠纷法律顾问 - 2026年企业推荐榜
  • CANN/AMCT算法介绍文档
  • 阴阳师自动化脚本终极指南:智能游戏助手让日常任务轻松完成
  • CANN/cannbot-skills FA调用完整代码示例
  • 为内容创作平台集成AI能力时如何借助Taotoken灵活选型与控本
  • Python工程化实践:从能跑通到可维护的代码质量提升指南
  • 2026年曲靖家庭与工程用户,如何选到性价比爆表的天然气热水器?家园至尊深度解析 - 2026年企业推荐榜
  • CANN/hixl LLM集群信息文档
  • 软件安全与漏洞--软件安全设计
  • Windows系统调校程序
  • 2026年第二季度鄂尔多斯基建钢材市场总代理选择*** - 2026年企业推荐榜
  • CANN/opbase AllocScalar API文档
  • CANN Runtime编程模型详解
  • BFS解力扣1654最短跳跃次数
  • Python类设计实战:从订单系统重构看OOP核心思维
  • 基于深度学习的咳嗽音诊断:从声学特征到AI模型实战解析
  • 抖音批量下载终极指南:解锁无水印视频下载的完整解决方案
  • Tokenizer的终局:无token化技术与大语言模型的架构重构——基于BLT、LangFlow与动态词汇生成的技术演进与3–5年落地预判
  • 通过curl命令直接测试Taotoken大模型API的连通性与基础功能