最近在体验Claude Code的过程中,我发现了一个有趣的现象,当我完成某项工作后,Claude Code似乎"记住"了我的做事方式,下次遇到类似任务时无需再详细说明。
这个魔法来自一个GitHub上1660星的开源项目:Claudeception。
作为长期的AI产品体验者,我对这类"学习型"插件一直保持谨慎的态度。但经过3周的实际使用,我的看法发生了转变。
这篇文章想分享一下这个项目的核心机制、实际效果,以及使用中的真实坑点。
项目概述:系统化的工作模式学习
Claudeception的核心定位是:自动分析你在Claude Code中的工作模式,将其转化为可复用的Skill文件,让后续工作流程更高效。
项目作者是blader(Humanizer的作者),从学术角度参考了多项研究:
- Voyager研究(2023):验证了持久保存学习成果的AI相比"从零开始"的AI性能提升显著
- CASCADE研究(2024):提出"元技能"概念——AI学习如何学习的能力
- SEAgent研究(2025):证明AI可通过试错学习新软件环境
- Reflexion研究(2023):自我反思能显著提升AI表现
这不是一个拍脑袋的创意产品,而是有学术支撑的工程实现。
核心功能拆解
运作原理
Claude Code本身具备一套可写可读的Skill系统。
每次启动时,系统会加载所有Skill的名称和描述(约100个token/个),并根据当前工作场景自动匹配相关Skill。
Claudeception的作用就是在这个体系中引入"知识主动捕获"的环节:
- 监测你在Claude Code中的工作过程
- 识别有价值的工作模式或解决方案
- 自动将其转化为标准化的Skill Markdown文件
- 后续工作时,这些Skill自动匹配加载
关键细节:Skill描述(description字段)决定了匹配精度。
| 低精度描述 | "Helps with database problems" |
| 高精度描述 | "Fix for PrismaClientKnownRequestError in serverless environments" |
Claudeception自动生成的描述遵循高精度标准。
三种使用模式
1. 自动模式(推荐)
配置Hook后,系统在以下5种情况自动提取知识:
- 完成调试后发现了不明显的解决方案
- 通过反复试错找到workaround
- 解决了根因不明的报错
- 掌握了项目特有的配置方式
- 完成了需要"真正发现"才能解决的任务
2. 手动模式
如果觉得某次工作特别有价值,可以主动触发:
- 输入命令:
/claudeception - 或自然语言:
Save what we just learned as a skill
3. 查看已学技能
查看Claudeception生成的Skill文件:
- 用户级别:
ls ~/.claude/skills/claudeception/ - 项目级别:
ls .claude/skills/claudeception/
每个Skill都是标准Markdown文件,可直接编辑或删除。
质量把关机制
不是任何知识都会被提取。Claudeception的门控标准严格:
| 条件 | 说明 |
| 需要实际探索才能发现 | 查文档能知道的知识不计入 |
| 对未来任务有帮助 | 一次性特殊情况不计入 |
| 有明确的触发条件 | 能精准匹配到类似场景 |
| 已验证确实有效 | 猜测的方案不计入 |
用作者的话说:"如果这个知识对6个月后遇到同样问题的人没帮助,就不提取"。
生成Skill的格式标准
Claudeception生成的每个Skill都遵循统一的Markdown+YAML格式:
---
name: prisma-connection-pool-exhaustion
description: |
Fix for PrismaClientKnownRequestError: Too many database connections
in serverless environments (Vercel, AWS Lambda).
author: Claude Code
version: 1.0.0
date: 2024-01-15
---
# 问题描述
Serverless环境下数据库连接数溢出
## 触发条件
- 并发请求超过5个
- 出现PrismaClientKnownRequestError
## 解决方案
1. 配置连接池上限
2. 添加重试逻辑
3. 使用连接代理(PgBouncer等)
## 验证方法
压测确认连接数稳定在配置上限内
README中提供了3个参考示例:
nextjs-server-side-error-debugging:服务端报错调试prisma-connection-pool-exhaustion:连接池溢出问题typescript-circular-dependency:循环依赖检测修复
实际使用体验与效果跟踪
时间线观察
第1-2周:无感阶段
装上后完全没有感觉到变化。还是照常开新会话,重新教工作流程。差点想卸载。
第3周:效果显现
新建会话说"帮我写篇AI工具测评",Claude Code直接生成了:
- 按我的习惯列大纲
- 正文用我的口语风格
- 素材自动整理到对应日期目录
- 标题候选全是偏好的数字型风格
这时才意识到——Claudeception已经在后台积累我的工作模式。
学习到的具体模式
通过观察Claudeception的行为,发现它学会了这些东西:
| 维度 | 学习内容 |
| 写作流程 | 选题→列大纲→写正文→配图排版的固定顺序 |
| 文件命名 | YYYY-MM-DD_主题_作者_工具_标题.md 的规范 |
| 问题排查 | 搜索错误→检查配置→咨询AI 的方法论 |
| 目录管理 | drafts/images/data 的分类习惯 |
关键观察:它不是简单的模板替换,而是真正理解了背后的逻辑。比如某次要求"分析热点",Claude Code直接:
- 聚焦AI工具领域(我的写作方向)
- 从我常关注的信息源扫描
- 输出格式用我习惯的选题评分表
一个问题都没问,全部自动匹配。
应用场景分析
适配人群
| 人群类型 | 适配度 | 说明 |
| Claude Code重度用户(日用2小时+) | ⭐⭐⭐⭐⭐ | 效果最明显,用得越久积累越多 |
| 有固定工作流程的人 | ⭐⭐⭐⭐ | 流程一致性高,学习效率高 |
| 团队负责人 | ⭐⭐⭐⭐ | 可学习团队协作规范,保持风格一致 |
| 偶尔用一下的人 | ⭐⭐ | 体感不明显,需要足够的使用时长 |
核心应用场景
- 重复性工作流优化:内容创作、代码审查、测试流程等
- 问题解决方案沉淀:特定技术栈的常见问题记录
- 团队知识库建设:项目级别部署,保留团队最佳实践
- 工作风格一致性:多人协作时保持输出格式和质量标准
安装与配置
前置要求
- 已安装Claude Code
- 具备基础shell命令操作能力
- Mac/Linux系统或Windows下有Node.js环境
分步安装指南
第一步:克隆仓库
用户级别(推荐,所有项目通用):
git clone https://github.com/blader/Claudeception.git ~/.claude/skills/claudeception
项目级别(仅当前项目,可提交版本控制):
git clone https://github.com/blader/Claudeception.git .claude/skills/claudeception
第二步:配置Hook激活
Skill可自动通过语义匹配激活,但配置Hook能确保每次会话都评估知识提取,激活率更高。
用户级别Hook配置:
# 1. 创建hooks目录
mkdir -p ~/.claude/hooks
# 2. 复制激活脚本
cp ~/.claude/skills/claudeception/scripts/claudeception-activator.sh ~/.claude/hooks/
chmod +x ~/.claude/hooks/claudeception-activator.sh
# 3. 编辑 ~/.claude/settings.json,添加hook配置
{
"hooks": {
"UserPromptSubmit": [
{
"hooks": [
{
"type": "command",
"command": "~/.claude/hooks/claudeception-activator.sh"
}
]
}
]
}
}
项目级别Hook配置类似,路径改为相对路径即可。
第三步:验证安装
cat ~/.claude/hooks/claudeception-activator.sh
能看到脚本内容说明文件到位。
真实踩坑与解决方案
坑1:装上就期待立刻有效果
问题:第一周完全没感觉到任何变化,差点卸载。
原因:Claudeception是"慢热型"工具,需要时间积累工作模式。
解决:至少使用2-3周才能看到明显效果。这不是产品缺陷,而是学习机制的必然。
坑2:低估了学习范围
问题:一开始以为它只能学简单偏好(如文件存储位置)。
原因:实际上它能学习完整工作流程——包括问题排查方法论、文件命名规范、表达风格等系统化知识。
解决:定期检查生成的Skill文件,理解它学到的内容层次比预期深得多。
坑3:多项目工作导致学习混乱
问题:同时做"公众号写作"和"数据整理"两个项目,Claudeception学混了,生成的内容风格不稳定。
原因:不同项目的工作模式完全不同,共用一套Skill导致混淆。
解决:为每个项目创建独立工作区(项目级别安装),Claudeception为各自学习对应的模式。
坑4:Windows脚本不兼容
问题:Windows上运行shell脚本直接报错,Hook无法激活。
原因:官方提供的激活脚本是为Mac和Linux写的。
解决:将脚本转换成Node.js版本运行,逻辑完全相同,只是运行环境不同。配置文件中把命令改为:"command": "node ~/.claude/hooks/claudeception-activator.js"
相似项目对比参考
市面上还有其他"AI记忆"相关的项目:
| 项目 | 定位 | 与Claudeception的差异 |
| Humanizer | 去除AI文本痕迹 | 同作者,互补项目。一个处理输出风格,一个学习工作模式 |
| Cursor Rules | 编辑器级别的规则配置 | 手动配置为主,Claudeception自动学习为主 |
| Continue Dev | 代码补全上下文学习 | 专注代码场景,Claudeception通用于所有工作类型 |
Claudeception的独特之处在于:针对Claude Code的Skill系统设计,学习对象是完整的工作流程而非单一场景。
使用建议与最佳实践
给它足够的学习周期
- 前2周:知识积累阶段,体感不明显
- 第3周起:模式识别加强,开始自动匹配
- 第4周+:完整学习,明显提升效率
保持工作流程的稳定性
如果经常变更工作方式,Claudeception难以学到稳定的模式。尽量保持核心工作流程一致。
定期审视学到的Skill
每周查看一次生成的Skill文件,了解它学了什么、什么场景触发。如果发现学错了可直接删除或修改。
与其他Skill协同使用
Claudeception可与Humanizer等其他项目组合。前者负责学习工作模式,后者负责优化输出风格。
团队部署建议
项目级别安装,提交到Git版本控制,团队成员共用一套积累的Skill。这样可以快速沉淀团队最佳实践。
总结
Claudeception是我使用过的最"反直觉"的Claude Code插件。装上的第一周完全看不到效果,用到第三周才恍然大悟——它真的在"理解"你的工作方式。
核心价值三点:
- 自动化知识沉淀:无需手动记录,工作过程中的有效方案自动保存
- 消除重复沟通:Claude Code从"提问者"变成"理解者",减少每次都要重新解释的成本
- 积累的杠杆效应:用得越久,Skill库越完整,后续工作效率提升越明显
适配人群:Claude Code重度用户、有固定工作流的从业者、需要保持输出一致性的团队。对于偶尔用一下的人,体感可能不明显。
最重要的建议:别装上就卸了。这个项目的价值在"积累"而非"立刻见效"。给它2-3周的时间,你会发现——这才是真正的"AI懂我"。