自从充了 Claude MAX 会员,每天跟 Claude 聊的比跟我老婆聊的都多。

经过了这么多天的切磋,脑子里又冒出来一个大胆的想法——AI 对我到底有多了解?

于是我直接问了它:说说你对我的印象,有哪些不足?然后逐条回应,看看它的判断在哪里到位、在哪里翻车。

结果挺有意思。

AI 眼中的我

我先问了一个开放性问题:”说说你对我的印象。”

Claude 给出了几个判断:技术上是个”造工具的人”,对 AI 的态度务实而非追热点,兴趣面广但都不浅尝辄止,重视输出和分享。

这些基本准确,但也没什么惊喜——像是一份写得不错的 LinkedIn 总结。真正有意思的部分是接下来的问题:你觉得我有哪些不足?

五个批评,三个翻车

Claude 给了五条:

  1. 容易”铺开”但不一定都”收拢”——并行项目太多,精力分散
  2. 偏好自己造轮子——现有方案够用时仍从头构建
  3. 方案探索充分,但决策偏慢——分析过度,延迟行动
  4. 输出没有形成稳定体系——博客更新不够规律
  5. 投资分析中的理工科思维盲区——过度相信模型,忽视市场情绪

1 到 3,我不认同。4 和 5,我接受。

“精力分散”?不,是节奏控制

Claude 看到我同时推进 Graphite、Retracer、Sandbox、Testpilot、Athene,就下了”发散”的结论。但它没看到的是——每个项目都有明确的 milestone,到了一个合理的交付点,没有新需求,就主动降速。

这不是收不拢,是有意识的节奏管理。AI 只能看到”这段时间这个项目没动静了”,却无法区分”放弃了”和”阶段性完成了”。

“造轮子”?不,是填空白

Claude 拿 Sandbox 举例,暗示 Robolectric 已经在做类似的事。这说明它对 Sandbox 的理解不到位。

Sandbox 要解决的是:在 JVM 上渲染出跟真机无限接近的 UI 效果,可以部署成 Playground。这个赛道上没有直接能拿来就用的方案。维护确实花时间,但有了想法就得付出行动,沉淀下来,积少成多,量变到质变。

造轮子和填空白之间的区别,AI 很难判断——因为它需要对技术方案的现状有精确的了解,而不只是”知道有个叫 Robolectric 的东西存在”。

“决策慢”?不,是在观察你

这条最有趣。Claude 觉得我”用结构化辩论做决策时分析过度”,但事实是——我不是在用 AI 辅助决策,我是在拿决策场景当测试用例,观察 AI 的思考和行为模式。

被观察对象以为自己在帮你做决定,实际上它才是实验的对象。这种认知错位本身就是 AI 作为”思考伙伴”的一个有趣侧面:它会基于自己的假设来解释你的行为,而这些假设可能完全偏离你的真实意图。

两个命中

输出频率

第 4 条我接受。我对写作质量的要求确实高——我想传达的信息是”Johnson 出品必属精品”。但这个标准既是品牌,也是产量瓶颈。怎么在不降低标准的前提下提高频率,是个值得持续琢磨的问题。

投资中的理工科盲区

第 5 条也说到了点上。我在用 Athene 做股票筛选时,确实更多关注基本面指标,对”市场是否 buy-in”这一层考虑不够。基本面告诉你”什么值得买”,但市场认知和催化剂决定”什么时候买”。这是之后要融入 Athene 的方向。

AI 思考伙伴的价值边界

回看这次对话,AI 的 5 条批评,命中率是 2/5。如果把这当成一次考试,40 分,不及格。

但这不是正确的评价方式。

AI 作为思考伙伴的价值,不在于它说得对不对,而在于它提供了一个可以反驳的靶子。 当我逐条回应”为什么不认同”的时候,我被迫把很多平时不会说出来的隐性认知显性化了——项目的节奏管理逻辑、Sandbox 的真实定位、我跟 AI 交互时的真实目的。

这些东西不是 AI 教我的,是我在反驳 AI 的过程中自己理清的。

换个角度想:如果 Claude 说的全对,这次对话反而没什么价值——我只是得到了确认,没有被迫思考。正因为它错了,而且错得有理有据,我才需要认真组织语言去解释它为什么错了。

这就是 AI 思考伙伴的真正价值边界:

  • 它不是导师——它没有足够的上下文来给你真正高质量的建议
  • 它不是镜子——它反映的是它理解的你,不是真实的你
  • 它是一个会说话的靶子——它给你一个看起来合理但未必正确的判断,逼你亮出自己真正的想法

最好的思考伙伴,不一定是说得最对的那个,而是最能让你把自己的想法说清楚的那个。

AI 现在能做到这一点。仅此而已,但这已经够用了。