用 Hermes Agent 写了一个小红书博主分析 skill

这篇博客的写作流程

不断地input

image-20260505195934171

不断地input

image-20260505195953911

不断地input(这里有点多,我就不全放了..)

image-20260505200019102

最终成果

image-20260505200105901

直接生成了博客

image-20260505193909929

还可以update

image-20260505200130073

先说明一下——你现在看到的这篇博客,从标题到正文到排版,全是 Hermes 帮我写的。我只干了两件事:口述想法,然后最后 review 一遍、插几张图。

倒不是我想偷懒,我是真的想看看它能做到什么程度。

半年前的笨办法

事情的起点要追溯到去年八月。

当时我写了一篇护肤指南的博客(拖了半年才发嘻嘻),为了把那篇文章写好,我做了一件很笨的事:手动把小红书上一个护肤博主的所有帖子翻了一遍。真的是所有——从头翻到尾,看到重要的文字和图片就截图保存,最后整理成一份可执行的 To-do 清单,帮自己改善护肤流程。并且最后我也让Claude Code帮我生成了文本(但是博客还是我自己命令行操作的)

效果确实不错。但整个过程花了我快一天的时间。

那个时候我就在想,这件事的本质其实就是逆向工程一个博主的知识体系。你想啊,一个博主脑子里是有一张完整的思维导图的,他每次发帖只不过是从中抽取一小块,做成图文或者视频。我们刷到的每一条都是碎片——你能学到一点东西,但你学不到他的整个体系。

所以理论上,完全可以把一个人的所有帖子拆解一遍,找出他反复强调的那些重点、套路、方法论,拼回一张完整的地图。这条路比追更高效得多,但问题是——太费人了。

我当时在博客里写:「未来说不定会有工具能解决这个问题。」

结果没想到,半年后,情况发生了巨大的变化。

OpenCLI 把最后一道墙拆了

变化的关键节点,是一个叫 OpenCLI 的工具。

image-20260505194950395

现在各种 AI Agent 已经很强了,但它们有一个共同的软肋:私域网站很难爬。像小红书、B 站这些平台,你让 Agent 直接用浏览器去访问,十有八九会被拦截。验证码、登录墙、反爬策略……一道一道的。

但问题是,这些私域的知识恰恰是最有价值的。小红书上沉淀的那些生活经验、护肤方法论、时效性信息——这些都是你在搜索引擎上搜不到的。我手机里至今还装着小红书的 AI 助手「点点」,不是因为它模型有多强,而是因为它背后挂的是小红书整个社区的知识库。你问一个护肤问题,它的回答是基于真实用户的经验沉淀,而不是网上随便抓来的泛泛之谈。

OpenCLI 的解法很巧妙:它直接复用你浏览器里已有的 session 和 cookie。本质上就是模拟你本人去点开一个页面,所以不容易被识别成爬虫。

安装也不复杂。你甚至不需要自己看文档——直接把 README 丢给 AI,让 AI 帮你装。然后去浏览器里配一个 Chrome 插件,连通就完事了。接下来让 AI 跑个测试,看看能不能真的捞到数据。

这道墙一拆,技术上就没什么阻碍了。剩下的事情,就是跟 AI 聊天。

怎么实现的

我的底层架构是 Hermes + DeepSeek

选 Hermes 的原因我在之前的文章里写过——它把 skill 沉淀这件事做得特别自然。你用一次,它就能记住流程,下次不用再教一遍。

image-20260505195048152

选 DeepSeek 的原因更简单:便宜。便宜到我烧了几百万 token 才花一两块。这种价格让我可以很放心地做各种尝试,不用像用 Claude 那样每点一次都在心里默默算账。

(20块,6600w token..)

image-20260505195158785

具体流程是这样的:

我先让 Hermes 读了一遍 OpenCLI 的文档,把里面的命令学会。然后我给了它一个护肤博主的主页链接(这里就不透露具体是谁了,是我之前提到过的那位我很喜欢的博主,请看之前的护肤指南)。

接下来 Hermes 做的事情:

  1. 用 OpenCLI 拉取这个博主的所有帖子列表
  2. 逐篇提取正文内容(图文笔记有完整正文,视频笔记只能拿到标题和标签)
  3. 把图片和视频用 OpenCLI 下载到本地
  4. 所有素材按「博主名-study」的格式整理到一个文件夹里
  5. 生成一份 Markdown 文档,提炼博主的核心方法论和重复出现的重点
  6. 额外输出一段 prompt——不是给它自己用的,是让我可以丢给 Codex 或 Claude 这类有视觉能力的 Agent,让它们基于下载好的图片和视频做进一步的分析

这里的思路其实是一个价格分层

  • 爬取、下载、粗整理这些体力活,让 DeepSeek 来干。便宜,量大,不心疼。
  • 图片分析、视频理解、方法论提炼这些需要强模型的事,给 Claude 或 GPT 去干。贵但值。

同样的活全让 Claude 干也不是不行,但我就是会心疼。成本能控一下就控一下。

image-20260505195303070

跑完一轮确认没问题之后,我就让它把这个流程沉淀成了一个 skill。后面再想研究新的博主,直接一句「用刚才那个 skill 研究这个博主」就能跑通全流程。

image-20260505195326657

Skill的大概描述贴在这里,如有版权问题我会隐藏XD,仅供个人学习,不承担任何责任(buff拉满)

PS,Skill是AI写的,不是我写的

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
---
name: xiaohongshu-study
description: >-
研究小红书博主,提取笔记内容并整理成学习文档。
适用于用户说「帮我研究这个博主」「学习他的方法」「整理他的笔记」等场景。
Node.js >= 21 通过 nvm 可用,opencli xiaohongshu 命令已就绪。
---

# 小红书博主研究方法

## 触发条件

用户提供小红书博主 ID 或主页链接,并表达研究/学习需求时触发。

## 前置条件

- opencli 已安装,小红书 cookie / Arc 登录态可用
- **Node.js >= 21 必须**:每次调用 opencli 前先执行:
```bash
export NVM_DIR="$HOME/.nvm" && . "$NVM_DIR/nvm.sh" && nvm use 22 >/dev/null 2>&1
```
- macOS 用户目录为 `~`

---

## Phase 1:初步探索 + 输出 Plan

### 1.1 获取笔记列表

```bash
opencli xiaohongshu user <博主ID> --limit 100 --format json
```
- 默认 limit=15 太少,建议拉满到 100
- 输出字段:id, title, type, likes, url(含 xsec_token)
- 将原始 JSON 保存到 `<工作目录>/all_notes.json`

### 1.2 快速分类

根据笔记标题关键词,初步划分主题。可根据博主内容灵活新增分类。以下是常见分类:

建议用 Python 脚本(execute_code)批量分类排序,挑出 25-35 篇核心笔记。

### 1.3 输出 Plan

以清晰的分类统计列给用户确认,包含:

- 每个分类下多少篇笔记
- 高赞笔记预览
- **图文笔记(normal type)数量** 可提取正文
- **视频笔记(video type)数量** 只能下载素材
- 预计工作量和产出物说明

**Plan 必须等用户确认后才执行 Phase 2,不要跳步。**

用户可根据 Plan 调整分类或指定侧重方向。

> 💡 分类表仅作参考。对于非美妆/护肤类博主(如搞钱、成长、知识类),根据博主实际内容从零创建分类——搞钱/心力/自律/女性成长/学习等。分类名应体现博主的独特定位。

---

## Phase 2:批量提取 + 下载

用户确认后执行。

### 2a. 提取图文笔记正文(normal type)

**关键区分**:`type: normal` 是图文笔记,有完整正文;`type: video` 只能拿到标签。

```bash
opencli xiaohongshu note "<完整URL带xsec_token>" --format md
```
- **必须用完整 URL**(从 user 命令输出获取),直接传 note ID 会报错
- 正文保存到 `normal_notes/` 对应子目录
- **批量提取技巧**:当图文笔记 15 篇时,用 execute_code Python 脚本循环调 `terminal()` 逐篇提取,比手动逐条快得多。预先把 URL、标题、输出路径构成数组,一次性跑完所有笔记

### 2b. 下载图文笔记图片

**重要**:图文笔记里的对比图、教程图往往价值很高,不要漏掉。

```bash
opencli xiaohongshu download "<完整URL带xsec_token>" --output "<输出目录>"
```
- 按主题分目录,如 `normal_notes/痘肌根源/`

### 2c. 下载视频笔记素材

```bash
opencli xiaohongshu download "<完整URL带xsec_token>" --output "<主题目录>"
```
- 按主题分目录:`posture/` `skincare/` `style/` `videos/`
- 每次 2-3 个为一组,用 `background=true` + `notify_on_complete=true` 并行
- 每组末尾加 `&& echo "BATCH_N_DONE"` 方便追踪完成情况
- 超时设 120-300s,视频越大越久

### 2d. 图片/视频处理原则

- **当前模型有视觉能力**:直接分析下载的图片和视频,将方法论补入文档
- **当前模型无视觉能力**:下载后归档,文档中标注 `📹 详见视频素材` / `📸 详见图片素材`,留给后续有视觉能力的 AI 分析

---

## Phase 3:整理文档

提取文字内容后,生成结构化 Markdown 文档。

### 文档结构模板

```markdown
# [博主名] · [主题]手册

## 博主简介
- 一句话定位
- 核心标签
- 核心故事/理念

## [分类1]
### [子主题]
- 提炼的方法论
- 关键步骤/公式
- 注意事项

> 📹 视频素材:xxx(列出文件名和简要说明)

## [分类2] ...

## 可执行行动清单
- [ ] 按优先级排列的具体行动项

## 素材目录
- 文件结构树

## 后续完善建议
1. 用有视觉能力的 AI 分析视频 补全「方法详见视频」处
2. 分析图文笔记的对比图 验证方法论效果
```

---

## Phase 4:生成接力 Prompt

文档写完后,生成**两份**接力 Prompt:
1. **文档内嵌**:在主文档末尾追加接力 Prompt 段落
2. **独立文件**:同时在博主目录下生成 `接力Prompt.md`,方便用户直接复制给其他 AI

独立文件应包含完整的素材路径清单(绝对路径),让其他 AI 能直接定位文件。

### 接力 Prompt 模板

```markdown
## 🔄 接力 Prompt(复制给有视觉能力的 AI)

---

请分析以下小红书博主 **<博主名>** 的素材,补充完整这份学习文档。

### 背景
博主的核心方法论已通过文字笔记提取,但视频笔记和图片中的关键步骤、动作示范、对比效果尚未写入文档。

### 你的任务
1. **分析视频**:观看以下视频,提取每个视频中的具体方法步骤、动作要领、产品推荐
2. **分析图片**:查看对比效果、教程图解,描述关键差异点和操作要点
3. **补全文档**:将分析结果填入文档中标记为「📹 方法详见视频」和「📸 详见素材」的位置

### 素材路径
<列出所有视频和图片的绝对路径>

### 当前文档
<附上当前文档路径或内容>

### 输出要求
- 直接输出补全后的完整文档
- 保留原有文字内容,在对应位置插入视觉分析结果
- 步骤具体可操作,不要泛泛而谈
```

---

## 工作目录约定

所有文件放在 `~/.hermes/workspace/<博主名>-study/` 下:

```
<博主名>-study/
├── <博主名>-学习手册.md 主文档
├── all_notes.json 完整笔记列表
├── posture/ 体态面部视频
├── skincare/ 护肤视频
├── style/ 穿搭形象
├── videos/ 综合视频
└── normal_notes/ 图文笔记正文+图片
├── <笔记标题>/
├── <笔记id>.md 正文
└── *.jpg 图片
└── ...
```

---

## 关键注意事项(陷阱清单)

1. **浏览器访问小红书会被封**:IP 风控会重定向到登录页,不要用 browser,只用 opencli
2. **note download 都必须用完整 URL**:直接传 note ID 会报「requires a full signed URL」
3. **视频笔记的 content 字段只有标签**:正文在视频里,需要视觉 AI 分析
4. **xsec_token 会过期**:遇到「stale page identity」或「Page not found」→ 用户重新打开小红书网页刷新登录态 重新跑 `opencli xiaohongshu user` 拿新 token 重试下载
5. **下载 rename 失败**:`ENOENT: no such file or directory, rename '.tmp' -> '.mp4'` opencli 的偶发竞争条件,重试同一命令通常能成功
6. **不要并发太多**:每次 2-3 download,避免风控
7. **Plan 允许用户调整分类**:如果用户说「有新分类你可以自己创建」,灵活扩展
8. **永远先出 Plan 再执行**:不要跳过 Phase 1 直接下载
9. **视频占比极高的博主(如 90%+ 视频)**:Plan 中要明确告知用户「可分析的正文极少,文档主要靠接力 Prompt 补全」。优先把所有图文笔记提取完,视频挑 TOP 15-25 篇下载即可,不要试图下载全部
10. **全部是图文笔记的博主(100% normal)**:优先批量提取正文——用 Python execute_code 循环调 `terminal()` 逐篇提取 20+ 篇是最高效的方式。图片下载放后台并行即可

这件事给我的启发

用了一段时间 Hermes 之后,我有一个很直观的感受:

它真的很适合做个人 Agent。

不是说它能帮你写出什么惊世骇俗的代码,而是它能帮你把那些「流程固定、但每次都得手动来一遍」的事情自动化掉。比如研究一个博主,比如写一篇博客——这些事的步骤其实是高度可复用的,差的只是每次的输入内容不同。

这也是为什么你现在看到的这篇博客,我是直接让 Hermes 帮我写的。我的 Hexo 博客用的是固定的主题,命令行是固定的,工作目录是固定的——这种流程化的东西,我就想知道 AI 能帮我省多少力。

倒不是说我越来越懒了(也许确实有一点),但我觉得这件事值得试一下。说不定用得越多,我就越愿意把时间花在想法本身而不是执行上。

其实再往深想一层,这个 workflow 本质上是可以复制到任何领域的。

你仔细看这个链路:发现一件重复性的事 → 用 AI 帮你实现一遍 → 沉淀成 skill → 后面不断复用。它不局限于研究博主,也不局限于写博客。任何你一直想做但嫌麻烦的事,想做但每次都从头开始的事,理论上都可以走一遍这个流程。

这个思路其实是我在工作里学来的。工作中你发现一个重复的模式,你写个脚本或者搭个工具,以后就不用再手动来一遍。但以前我很少把这种思维带到个人生活里——不是因为不想,是因为工具不够顺手。写个脚本太隆重,手动干又能忍。

现在不一样了。你跟 AI 聊几句,它就能帮你把流程跑通,还能记住。门槛低到「说几句话」的程度,这件事就从「值得做但懒得做」变成了「不做白不做」。

我不知道我这算不算有点极端。可能有些人会觉得什么事都让 AI 来弄,是不是太过了。但老实说,我挺喜欢这种极端的。AI 确实在 multiply 我的效率,而且这个倍数还在涨。那我干脆就顺着这条路往下走,看看边界到底在哪。


最后,这篇博客的诞生还得感谢一下豆包输入法。你看到的这几千字,大部分是我对着手机说话,豆包帮我转成文字、再做二次整理的。

以前写一篇博客的流程是:构思主题 → 慢慢敲字 → 找配图 → 汇总到博客 → 命令行打包发布。

现在可能是:对着手机讲话 → AI 生成文章 → 我 review 一下 → 插几张图 → 说一句话就发布。

这中间省下来的,不只是时间。


Update:CodeX(GPT 5.5)帮我生成了视觉分析的Skill,我觉得也不错。期待DeepSeek进一步加强啊

但是我不会让GPT帮我写博客的,味道太重了,我受不了

image-20260505212355216

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
---
name: xiaohongshu-visual-study
description: >-
分析已下载的小红书视频和图片素材,提取字幕、动作步骤、对比图变化、产品用法和避坑信息,
并补全博主学习手册。适用于用户已有 xiaohongshu-study 工作目录、接力 Prompt、视频/图片素材,
要求「补全文档」「分析视频」「看图提炼教程」「做更完整学习手册」等场景。
version: 1.0.0
metadata:
hermes:
tags: [小红书, 视觉分析, 视频分析, 学习手册, 素材整理]
category: research
related_skills: [xiaohongshu-study]
---

# 小红书视觉素材分析与手册补全

## 定位

本 skill 是 `xiaohongshu-study` 的后半程增强版:前者负责拉取笔记、下载素材、生成接力 Prompt;本 skill 负责在素材已经落盘后,利用视觉能力把视频和图片里的方法论补进学习文档。

## 输入

常见输入包括:
- 一个工作目录,例如 `~/.hermes/workspace/<博主>-study/`
- 主文档,例如 `<博主>-学习手册.md`
- 接力 Prompt,例如 `<博主>-接力Prompt.md`
- 视频目录:`posture/``skincare/``style/``videos/`
- 图文目录:`normal_notes/`

优先读取接力 Prompt 和主文档,再盘点素材目录;不要从浏览器重新打开小红书页面,除非用户明确要求重新抓取。

## 证据原则

- 把结论分为三类:`字幕/正文明确写到``画面可观察到``基于上下文推断`
- 产品、品牌、剂量、频率只在字幕、正文或画面清楚可辨时写成事实;看不清时写“未在素材中清楚显示”。
- 动作类内容要写成可跟练步骤:起始姿势、发力方向、保持时间/次数/组数、频率、禁忌或易错点。
- 对比图只描述可见变化,例如凸嘴程度、下颌线、泪沟阴影、肤色均匀度、痘印数量;不要把滤镜、光线、角度造成的差异当成确定疗效。
- 护肤、体态、鼻炎、补剂等内容按“博主经验整理”表达,不写成医疗建议;涉及疾病、药物、补剂时补一句“有基础疾病/用药/严重症状先咨询医生”。
- 不要为了补全文档而编造视频中没有出现的步骤。信息不足时保留“素材中未能确认”。

## 工作流

### Phase 1:盘点素材与待补位置

1. 读取主文档,搜索占位符和空泛句:
- `📹`
- `详见视频`
- `方法详见`
- `详见素材`
- `需看视频`
2. 读取接力 Prompt,提取重点视频和图片目录。
3.`all_notes.json` 将文件 ID 映射到标题、点赞、类型。
4. 建一个简短任务表:素材路径、标题、主题、优先级、需要补入的文档章节。

### Phase 2:视频分析

对每个重点视频先做“粗抽帧”,再对关键视频做“细抽帧”。

粗抽帧命令思路:

```bash
ffprobe -v error -show_entries format=duration -of default=nw=1:nk=1 video.mp4
ffmpeg -y -ss <time> -i video.mp4 -frames:v 1 -q:v 2 frame.jpg
```

建议生成 contact sheet:每个视频 12-24 帧,覆盖开头、方法讲解、中段示范、结尾总结。若画面文字太小,再围绕关键时间点加密抽帧。

分析模板:

```markdown
#### <标题>
- 素材:`<path>`
- 核心问题:
- 方法步骤:
1. ...
2. ...
- 跟练要点:
- 频率/组数:
- 注意事项:
- 产品/工具:
- 证据来源:字幕/画面/正文/推断
```

### Phase 3:图片分析

对每个图片目录:

1. 先看缩略图总览,识别前后对比、教程步骤图、产品图、评论反馈图。
2. 对重要图片逐张打开原图。
3. 输出“视觉差异 + 可执行要点”,不要只写“明显变好了”。

图片分析模板:

```markdown
#### <图文标题>
- 图片内容:
- 可见变化:
- 操作/教程要点:
- 局限:光线、角度、表情、妆造、滤镜等可能影响判断
```

### Phase 4:补全文档

补文档时遵循:

- 保留原有结构和已写内容。
- 将占位符替换为具体步骤,或在占位符下方插入分析小节。
- 同一方法如果出现在多个视频中,合并成体系;不要在文档里堆重复视频摘要。
- 对读者最有用的内容放前面:动作/步骤 > 频率 > 注意事项 > 证据和素材路径。
- 在章节末尾保留素材引用,方便回看。

可执行行动清单要同步更新,避免正文补了方法但清单仍是泛泛的“看视频”。

### Phase 5:验证

完成后做三类检查:

1. `rg "方法详见|详见视频|详见素材|需看视频|📹 方法"` 确认关键占位符已处理。
2. `rg "<重点素材ID>"` 确认重点视频/图片被覆盖。
3. 快速重读文档标题层级,确认没有重复章节、断裂列表或明显幻觉式断言。

## 输出

默认直接更新主文档,并在最终回复中说明:
- 新增/更新的 skill 路径
- 主文档路径
- 已覆盖的视频/图片范围
- 仍无法确认的信息,例如看不清的品牌、缺失字幕、素材不存在


PPS 这些Skill在macOS上运行有效,不确保在Win和Linux中的准确性


用 Hermes Agent 写了一个小红书博主分析 skill
http://baokker.github.io/2026/05/05/用-Hermes-Agent-写了一个小红书博主分析-skill/
作者
Baokker
发布于
2026年5月5日
更新于
2026年5月5日
许可协议