我的感觉并不只是少了一个工具,整个工作流,关键节点被卡了。
尝试了Anthropic 提交申诉无果,又尝试重新注册账号 直接废掉两个GG邮箱账号,算了不折腾了。
一
事件起因,已不是个例 早之前用的Cursor就开始部分地区断供,到直接断供,我就直接弃了
再到后来,国产AI工具上线刚开始都带着Claude,之后也统一下线 Anthropic 开始系统性限制第三方调用 Claude Code
最近爆火的OpenCode 也成为重点波及对象 与此同时,OpenAI 官宣与 OpenCode 达成合作
我的判断很明确:Claude 要换掉!
二
我开始复盘自己的工作方式 表面看,我基本市面上的模型都在用着。 但实际上,我对Claude的依赖性很强。
之前写技术文章,解决技术问题,还有重度编程依赖 我都直接Claude ,这种顶级模型直接白嫖,还是能省不少
现在它一出问题, 整个流程就会停摆。
这已经不是模型好不好用的问题。 而是一个更底层的认知偏差:
我一直把 AI 当成工具,而不是系统。
工具坏了,可以换。 系统一旦单点失效,就会全盘崩溃。
三
OpenCode,带来的意外转变
我之前就入手了智谱的 GLM Coding Plan 套餐 虽说GLM-4.7是性价比的首选,整体能力只比 Claude 稍弱一点
在用 GLM 替代 Claude 的过程中,我开始认真用 OpenCode。 但用了一段时间后,我意识到一件事:
这是我第一次,把多个模型真正放进同一个系统里。 不是多个账号 不是来回切网页 而是同一个上下文,同一个会话
模型的差异,只体现在能力分工上。
过去我的做法很原始:
复杂逻辑用一个模型 前端或视觉换另一个 靠经验手动切
而 oh-my-opencode 把这件事自动化了。
这一步让我突然明白:
真正重要的,从来不是哪个模型最强。 而是模型之间,如何协作。
四
用系统化解决方案,而不是换模型 到这一步,我才重新看待 GLM 的问题。
不能看图, 并不等于它不能继续用。
既然 OpenCode 本身支持多模型调度, 那就让每个模型只做它擅长的事。
我做了一个很小的调整: 给OpenCode自定义了一个视觉命令 操作很简单,只需要修改本地配置文件:
~/.config/opencode/opencode.json
加了一个command(模型需要提前配置好):
"command": {
"vision": {
"description": "Analyze pasted image with a vision model",
"model": "google/antigravity-gemini-3-flash",
"template": "请分析这张图片并总结关键信息。\n\n输出格式:\n[过程-仅限截图] 用 3-6 行简短要点说明你看到了哪些图像元素(只描述截图内容,不扩展、不推断、不联想、不评价)。\n[结果] 直接回答:$ARGUMENTS\n\n硬性约束:\n- 不要调用或模拟任何工具(如 look_at、skill)。\n- 不要搜索文件、不要猜测路径、不要讨论环境。\n- 不要超过 12 行。\n- 不确定就写“无法确定”。"
}
},
使用时,只需要: 输入 /vision 命令 粘贴截图 OpenCode会调用 Gemini 输出结构化描述 再切回 GLM 继续开发
关键不在于“能看图”。
而在于两点:
视觉结果被限制为纯描述 后续推理只交给多个模型
这比让一个模型同时看图、推理、写代码,要稳定得多。
五
终级方案:OpenCode + Agent
通过自定义 provider 与模型 当我使用 /vision
OpenCode 会自动触发search-mode、analyze-mode,并行调用多个 agent 完成搜索、分析和整理。
也就是说, 即使只是处理一张截图, 也已经进入完整的系统流程。
不是再用模型,而是在运行一个Agent
具体实操教程可以查看:
把 OpenCode 的多模型Agent用明白,OpenCode 的模型配置指南
手把手教你快速入门OpenCode + GLM-4.7 + Oh-My-Opencode + Skills 安装配置与高效使用指南
六
最终成果
日常开发,交给 GLM 关键决策,用 GPT 视觉和前端,由 Gemini 负责
每个模型都有明确边界, 每个 Agent 都有固定职责。
结语
如果说以前的 AI 是顺手的工具, 那现在,它就是一个系统。
不会因为某一家模型,就整体失效。 或许在 AI 真正进入生产阶段之前,每一个重度用户,迟早都会走到这一步。
