从需求分析到上线运行,完整还原真实场景下的配置决策过程、踩坑记录与优化思路,不只告诉你"怎么做",更讲清楚"为什么这么做"。
为 500 人技术群打造 24 小时 AI 答疑助手,支持代码审查、错误诊断、文档查询
一个 500 人的 Python 开发者 Telegram 群,每天有大量重复性技术问题(环境配置、报错解析、库的用法),群主希望用 AI 减轻答疑负担,同时提升群的活跃度。
核心需求:能理解代码片段、能查文档、能解释报错、响应速度快、不能乱说(准确性优先)。
代码理解和错误诊断需要强推理能力。Sonnet 在代码任务上表现优秀,且比 Opus 便宜 5 倍,适合高频调用场景。
开发者经常问"这个库怎么用",接入 GitHub MCP Server 后 Agent 可以直接查仓库 README 和 Issues,比靠训练数据更准确。
群组场景下不需要执行命令,关闭 terminal 工具可以减少 Agent 误操作风险,也能降低每次调用的 token 消耗(工具定义也占 token)。
群组 Bot 如果不设白名单,任何人都能调用,会导致 API 额度被滥用。只允许群成员(通过 Telegram Group ID)使用。
# ~/.hermes/config.yaml
model: anthropic/claude-sonnet-4.5
tools:
terminal: {enabled: false} # 关闭,群组场景不需要
web_search: {enabled: true}
web_fetch: {enabled: true}
mcp_servers:
github:
command: npx
args: ["-y", "@modelcontextprotocol/server-github"]
env:
GITHUB_PERSONAL_ACCESS_TOKEN: "${GITHUB_TOKEN}"
gateways:
telegram:
enabled: true
token: "${TELEGRAM_BOT_TOKEN}"
whitelist_groups: [-1001234567890] # 群组 ID(负数)
reply_to_mentions_only: true # 只响应 @Bot 的消息
/setprivacy,选择 Bot,选择 DISABLE 关闭隐私模式。parse_mode: MarkdownV2,并确保 Agent 的系统提示要求它使用 Markdown 格式回复。通过 Slack 远程操控生产服务器,执行运维任务,全程 SSH 隔离保障安全
一个 5 人的小型运维团队,需要在 Slack 中通过自然语言执行服务器运维任务(查看日志、重启服务、检查磁盘、部署更新),避免每次都要 SSH 登录服务器。
核心需求:能执行终端命令、安全隔离(不能影响本地机器)、操作可追溯、支持多人使用。
运维任务需要直接操作生产服务器,Docker 容器无法访问真实服务器环境。SSH 模式让 Agent 的 terminal 工具直接在远程服务器上执行,完美契合需求。
运维任务涉及大量命令输出解析,GPT-4o 的工具调用稳定性和指令遵循能力在这类结构化任务上表现优秀,且支持 128K 上下文处理长日志。
团队已在使用 Slack 协作,集成到 Slack 可以让运维操作和团队沟通在同一个地方,操作记录自然留存在频道历史中,便于追溯。
团队使用 K8s 管理容器,MCP K8s Server 提供了结构化的集群操作接口,比直接执行 kubectl 命令更安全(有权限控制)。
# ~/.hermes/config.yaml
model: openai/gpt-4o
terminal:
backend: ssh
ssh_host: "ops@prod-server.example.com"
ssh_key: "~/.ssh/ops_rsa"
ssh_timeout: 30
mcp_servers:
kubernetes:
command: npx
args: ["-y", "@modelcontextprotocol/server-kubernetes"]
gateways:
slack:
enabled: true
bot_token: "${SLACK_BOT_TOKEN}"
app_token: "${SLACK_APP_TOKEN}" # Socket Mode
allowed_channels: ["ops-bot"] # 只在指定频道响应
allowed_users: ["U123", "U456"] # 只允许特定成员
apt upgrade)需要几分钟。ack_immediately: true。每日自动抓取数据、生成分析报告,定时推送到 Telegram 频道,全程无人值守
一个财经资讯 Telegram 频道,需要每天早 7 点推送当日市场概况、重要财经日历和前一日复盘,内容需要从多个数据源聚合,人工整理耗时 1 小时以上。
报告生成是批量任务,对延迟不敏感,但对成本敏感(每天都要跑)。DeepSeek-V3 的中文写作能力强,价格是 Claude 的 1/10,非常适合这类定时批处理场景。
Hermes 内置 Cron 调度器,无需额外部署 crontab 或 Airflow,配置简单,且 Cron 任务可以直接使用 Agent 的所有工具(网络抓取、数据处理)。
# ~/.hermes/config.yaml
model: deepseek/deepseek-chat
cron_tasks:
- name: morning-briefing
schedule: "0 7 * * 1-5" # 工作日早 7 点
gateway: telegram
target: "@my_finance_channel"
prompt: |
请完成今日财经早报:
1. 用 web_search 搜索"今日A股开盘前重要消息"
2. 搜索"今日财经日历 重要数据发布"
3. 整理成简洁的早报格式,包含:市场情绪、重要事件、需关注的风险点
4. 用 Markdown 格式输出,控制在 500 字以内
- name: evening-recap
schedule: "30 15 * * 1-5" # 工作日收盘后 15:30
gateway: telegram
target: "@my_finance_channel"
prompt: |
请生成今日收盘复盘:搜索今日A股收盘数据、涨跌幅榜、主要板块表现,
分析今日市场主线,用简洁的语言总结给普通投资者。
on_failure_notify,失败时向另一个 Telegram 账号发送告警消息。--- 分隔各部分,并要求 Agent 严格按模板填充。完全本地运行,数据不出境,适合处理敏感文档和私人信息的场景
一位律师希望用 AI 辅助处理合同文件,但合同内容高度敏感,不能上传到任何云端 API。需要完全本地运行的方案,同时希望通过 Telegram 方便地在手机上使用。
Ollama 是目前最简单的本地模型运行方案,一行命令即可下载并运行模型,且完全离线,数据绝对不出本机。
中文法律文档处理需要强中文能力。Qwen2.5-7B 在中文理解上表现优秀,7B 参数在 16GB 内存的 Mac 上可流畅运行,且支持 Function Calling。
# 第一步:安装并启动 Ollama
# 访问 https://ollama.com 下载安装
ollama pull qwen2.5:7b-instruct
ollama serve # 启动本地服务(默认 localhost:11434)
# 第二步:配置 Hermes 使用本地 Ollama
hermes config set model ollama/qwen2.5:7b-instruct
hermes config set OLLAMA_BASE_URL http://localhost:11434
# ~/.hermes/config.yaml
model: ollama/qwen2.5:7b-instruct
model_options:
ctx_size: 65536 # 必须手动设置,Hermes 要求最低 64K
temperature: 0.3 # 法律文档处理需要低温度,减少幻觉
tools:
web_search: {enabled: false} # 关闭网络工具,保证完全离线
web_fetch: {enabled: false}
terminal: {enabled: false}
read_file: {enabled: true} # 只开放文件读取
gateways:
telegram:
enabled: true
token: "${TELEGRAM_BOT_TOKEN}"
whitelist: [your_telegram_id] # 只允许自己使用