当 AI 成为你的"思考伙伴"
自从充了 Claude MAX 会员,每天跟 Claude 聊的比跟我老婆聊的都多。
经过了这么多天的切磋,脑子里又冒出来一个大胆的想法——AI 对我到底有多了解?
于是我直接问了它:说说你对我的印象,有哪些不足?然后逐条回应,看看它的判断在哪里到位、在哪里翻车。
结果挺有意思。
AI 眼中的我
我先问了一个开放性问题:”说说你对我的印象。”
Claude 给出了几个判断:技术上是个”造工具的人”,对 AI 的态度务实而非追热点,兴趣面广但都不浅尝辄止,重视输出和分享。
这些基本准确,但也没什么惊喜——像是一份写得不错的 LinkedIn 总结。真正有意思的部分是接下来的问题:你觉得我有哪些不足?
五个批评,三个翻车
Claude 给了五条:
- 容易”铺开”但不一定都”收拢”——并行项目太多,精力分散
- 偏好自己造轮子——现有方案够用时仍从头构建
- 方案探索充分,但决策偏慢——分析过度,延迟行动
- 输出没有形成稳定体系——博客更新不够规律
- 投资分析中的理工科思维盲区——过度相信模型,忽视市场情绪
1 到 3,我不认同。4 和 5,我接受。
“精力分散”?不,是节奏控制
Claude 看到我同时推进 Graphite、Retracer、Sandbox、Testpilot、Athene,就下了”发散”的结论。但它没看到的是——每个项目都有明确的 milestone,到了一个合理的交付点,没有新需求,就主动降速。
这不是收不拢,是有意识的节奏管理。AI 只能看到”这段时间这个项目没动静了”,却无法区分”放弃了”和”阶段性完成了”。
“造轮子”?不,是填空白
Claude 拿 Sandbox 举例,暗示 Robolectric 已经在做类似的事。这说明它对 Sandbox 的理解不到位。
Sandbox 要解决的是:在 JVM 上渲染出跟真机无限接近的 UI 效果,可以部署成 Playground。这个赛道上没有直接能拿来就用的方案。维护确实花时间,但有了想法就得付出行动,沉淀下来,积少成多,量变到质变。
造轮子和填空白之间的区别,AI 很难判断——因为它需要对技术方案的现状有精确的了解,而不只是”知道有个叫 Robolectric 的东西存在”。
“决策慢”?不,是在观察你
这条最有趣。Claude 觉得我”用结构化辩论做决策时分析过度”,但事实是——我不是在用 AI 辅助决策,我是在拿决策场景当测试用例,观察 AI 的思考和行为模式。
被观察对象以为自己在帮你做决定,实际上它才是实验的对象。这种认知错位本身就是 AI 作为”思考伙伴”的一个有趣侧面:它会基于自己的假设来解释你的行为,而这些假设可能完全偏离你的真实意图。
两个命中
输出频率
第 4 条我接受。我对写作质量的要求确实高——我想传达的信息是”Johnson 出品必属精品”。但这个标准既是品牌,也是产量瓶颈。怎么在不降低标准的前提下提高频率,是个值得持续琢磨的问题。
投资中的理工科盲区
第 5 条也说到了点上。我在用 Athene 做股票筛选时,确实更多关注基本面指标,对”市场是否 buy-in”这一层考虑不够。基本面告诉你”什么值得买”,但市场认知和催化剂决定”什么时候买”。这是之后要融入 Athene 的方向。
AI 思考伙伴的价值边界
回看这次对话,AI 的 5 条批评,命中率是 2/5。如果把这当成一次考试,40 分,不及格。
但这不是正确的评价方式。
AI 作为思考伙伴的价值,不在于它说得对不对,而在于它提供了一个可以反驳的靶子。 当我逐条回应”为什么不认同”的时候,我被迫把很多平时不会说出来的隐性认知显性化了——项目的节奏管理逻辑、Sandbox 的真实定位、我跟 AI 交互时的真实目的。
这些东西不是 AI 教我的,是我在反驳 AI 的过程中自己理清的。
换个角度想:如果 Claude 说的全对,这次对话反而没什么价值——我只是得到了确认,没有被迫思考。正因为它错了,而且错得有理有据,我才需要认真组织语言去解释它为什么错了。
这就是 AI 思考伙伴的真正价值边界:
- 它不是导师——它没有足够的上下文来给你真正高质量的建议
- 它不是镜子——它反映的是它理解的你,不是真实的你
- 它是一个会说话的靶子——它给你一个看起来合理但未必正确的判断,逼你亮出自己真正的想法
最好的思考伙伴,不一定是说得最对的那个,而是最能让你把自己的想法说清楚的那个。
AI 现在能做到这一点。仅此而已,但这已经够用了。
- 本文链接:https://johnsonlee.io/2026/02/15/ai-as-thinking-partner/
- 版权声明:著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。