我长期关注 AI 应用在真实场景里的效果
企业 AI 客服、OpenClaw、Gemma4Guide、Zivie 和工具站,我都做过。每个项目我都更在意它能不能解决实际问题。
这三点,基本就是我做产品时最常用的思路。
企业 AI 客服、OpenClaw、Gemma4Guide、Zivie 和工具站,我都做过。每个项目我都更在意它能不能解决实际问题。
原型、内容和自动化,我都会先跑起来,再继续判断方向。
不是做完就算,我更在意它能不能持续被使用、持续被优化。
这里避免简单罗列项目。每个案例只保留四个信息:问题、拆解方式、结果,以及它反映出的我的能力。
AI 应用拆解 / 提示词调整 / 效果回看
这是我做过的一次 AI 应用实践,重点是把客服问题拆成几个能分别验证的环节,一步步做。
AI 自动化 / 数据监控 / 链路搭建
OpenClaw 对我来说不是追热点,而是把一个真实问题做成自动化工具的尝试。
英文内容站 / 模型选题判断 / 搜索流量
Gemma 4 发布后,我发现很多人先问的不是模型有多强,而是能不能跑、显存够不够、怎么装、和 Qwen3 / Llama 4 怎么选。于是我把这些问题做成了一套英文内容站。
AI 情感陪伴 / 人格建模 / 提示词设计
Zivie 关注的是一个很具体的问题:多数紫微斗数产品停留在一次性报告,缺少持续交互。我的做法是把人格结构拆成可持续对话的内容,再验证用户是否愿意反复回来。
围绕 MCP / Claude Skill 选择困难,做了一个自动打分的小站。收录 200+ Skills,3 周上线。后来因为维护成本高主动暂停,说明我知道什么时候该收缩。
面向海外学生的导数计算器,包含计算、步骤解析和图表。这个项目让我确认,需求挖掘、动手做、上线、再靠 SEO 拿自然流量,这条路是能跑通的。
我持续用 Trae、Codex、Claude Code 等工具做东西。对我来说,它们的作用很直接:少花时间试错,快点看这事值不值得继续做。
产品上线后,我会结合使用反馈和传播数据,评估后续是否需要继续优化。
产品做出来以后,我会根据数据和反馈,判断是否调整。
Gemma4Guide 这组数据说明,站点内容和用户搜索意图是匹配的。
我会用这四个标准判断一个方向值不值得继续投入,也会据此决定验证、交付和后续优化。
先用最小成本验证方向,再决定是否继续投入。
先定义问题和边界,再进入方案设计。
交付之后还要能稳定运行,并保留后续迭代空间。
决策要结合数据和外部反馈,而不是只看主观判断。