Claude Code实测报告: 当我不再Debug
深度体验了一段时间Claude Code(以下称呼为CC),是时候稍微聊一下
🚀 CC拔得头筹
目前得到的反馈和评价基本一致,CC远超Cursor,不管在Cursor中选择什么Model,都无法扳回,唯一能说的就是Cursor在产品化能力上是更胜一筹的,至少就目前的迭代速度和产品交互上来说,Cursor的体验更加优
但是终究耐不住效果的差异,就是那句简单的话:在强大的实力面前,一切锦上添花的东西都显得不重要了
言语万千,不如置身一试。下面就简单过一下CC使用方式
⚒️ 使用技巧
通过npm全局安装
npm i -g @anthropic-ai/claude-code
默认允许 --dangerously-skip-permissions
我通常都是
claude --dangerously-skip-permissions
这样启动的,就是允许其执行任何的命令,当然你应该根据你的实际情况来决定,我是MacOS,本身不是root,我的rm也是删到回收站,我认为我的需求都在我的控制范围内
恢复会话 --continue
如果你在一个session里不小心退掉了,可以通过这个命令回到之前的任务,会保留当时的相关的context,很适合用于继续之前的工作,或者之前的上下文对于后续的任务比较重要的话,可以持续使用
单次任务执行 -p
可以单次执行某个任务来利用claude去处理,可以是基于repo来做一些动作,比如:
claude -p "看看哪里用到users.gender"
git commit -m "$(claude -p "查看暂存的 git 更改并创建一个总结性的 git commit 标题。只回复标题,不要确认。")"
可以分析代码,可以生成git commit,也能不依托repo直接使用的
claude -p "glucose 中文意思"
我觉得这点比ChatGPT的订阅好,平时可以在某些地方直接集成使用,很方便
登录 /login
有时候凭证过期了,可以通过这个方式再去浏览器授权后refresh token,持续使用
上下文压缩 /compact
通常我们很容易遇到上下文超过的情况,CC会在右下角提醒,出现百分比的时候就是快到上下限制,到0%就会自动去compact上下文,会丢失掉一些内容,但是依然保持了一些相关的上下文
有时候我会主动去compact,我个人的观点是,在连续或者相关联的任务场景下,compact后的上下文,依然比没有上下文来得更好,更加有助于实现
不过依然可能存在关键信息compact后丢失,根据情况自我取舍
清空会话 /clear
和直接Ctrl+C后再重开一个全新的会话是相同的,只不过可以快速清理,适合准备开启一个全新无依赖的任务,可以有效降低token消耗和无关上下文的干扰
多Repo结合
除了上面之外,还有一个比较重要的技巧,就是善用多repo结合,有些人会使用git worktree来把多个项目集中到同一个目录,这样方便claude可以同时在多个项目里工作,某些场景下很适合,比如前后端分离仓库的时候。
不过我自己的实践是喜欢使用软链,比如:
cd /path/to/project1
mkdir -p temp
ln -s /path/to/project2 temp

好处是,我自己有一个projects的管理机制,并且有可能是不相关的项目,各自有自己的工作目录,最好的方式就是通过这样共享一份代码,我还会在temp里放大量给CC参考的东西,比如我在做页面开发的时候,我希望样式能参考某些站点的时候,我就会放置对应的html之类的文件
我觉得还挺重要的,包括有时候可以丢一些日志或者辅助文件,CC自己读取,会比自己贴到问题里好一些,哪怕很长的上下文也不会有问题
📉 关于Limit & Token
我订阅的是Pro,基本每天都会遇到3次limit,比如中午12点,下午6点,晚上12点这种
关于CC的Token计算,始终不知道限制的Token数量是多少,网上流行的Claude-Code-Usage-Monitor 是从~/.claude/projects
里去统计对应的josnl文件里的,相当不准确,就我个人抓包分析和观测来看,这里面没有包含完整的token消耗情况
改了一下cli.js里的,在这个session里输出了一下cost,大概如图所示

可以看到一开始问题走了sonnet,所以input不大,output特别大,后来降到haiku。
另外其中包含大量的命中缓存,这些都是LLM厂商在推理过程中做的一些优化,有KV之类的缓存减少推理成本提高速度
📄 System Prompt
我们其实也可以自己指定System Prompt,我在抓包的时候也看到,一个简单的问题背后,产生了3次请求:
- 先请求quota
- 对本次任务生成一个标题
- 开始实际的问答completion




这期间还会配套一些监控统计的采集。我觉得要做到监控准确,可以开发一个服务做代理,代理CC的请求,期间通过里面的数据去做统计是最准确的
💼 实际项目
信息Hub: Tididi
https://tididi.amoylab.com/
这个项目会演变成一个信息Hub的平台,目前主要还是服务于自己和身边几个比较好的朋友,我希望能提高自己对有效有价值信息的高效摄入,不借助LLMs去做信息聚合是不太可能的。目前期望借助LLMs从一些确定价值的信息渠道去聚合,可以有效排除网上的一些噪声。有兴趣的朋友可以试试,目前免费使用,有想找我交流的可以公众号留言
目前是一个闭源的项目,未来有可能会开源一个个人版,这个项目全部是用CC写的,我介入的情况不多,只有一点点,接近100%代码是CC写的



内容集中分发: Ripple
https://github.com/iFurySt/Ripple
我不想要再浪费大量时间在不同的平台和分发渠道去重复性的编辑自己写的文章,但是依然希望能保持一定的风格和格式去分发,所以有了这个内容分发的项目。
这个项目我相信我可以长期保持95%以上的代码交给AI来写,目前主要还是CC在驱动

MCP网关服务: Unla
https://github.com/AmoyLab/Unla
通过配置就可以将一些诸如HTTP的存量服务直接转成MCP Server,类似MCP时代的Nginx,也可以平行代理MCP Servers。企业级性能和特性。在开源社区这已经是一个很流行的项目了,目前已经有1.4K的Stars✨了,包括字节在内的多家企业和大量的个人用户都采用了Unla
不过这个项目最开始是用Cursor启动的,前些日子才开始用CC,但是依然是一个大量代码由AI产生的一个项目

🤔 背后的意义
使用CC我觉得有点动手能力的在AI Era基本自己都能捣鼓会了,我其实更想聊的是延伸产生的一些思考


最近连续的几个项目,我看代码的实际越来越少,自己动手的机会更是越来越少,有些新项目直接是“0参与”
我提出需求,设计结构,选好主要三方库,验收需求。除此之外,代码细节我是一点不知道,或许可以说为“0参与”
我节省了非常多的时间,明白了为什么之前有个人说他们在公司开始放更多书、吉他和其他消遣的东西,猫被撸得更多了
现在的我要么是同时并发在2、3个项目中,要么是1个任务在跑,我在看文章、看newsletter或社交中
但是这带来的是什么呢?我们真的有这么多需求做么?我觉得大部分在岗位上的打工人,并没有这么多需求,只要你会合理管理需求,我觉得现在的你在需求上的工作效率是X倍于2年前的自己
不过自己喜欢捣鼓或者有Solopreneur的想法的人,或许可以无限放大自己的能力。以前我想过如果可以把自己劈成2个自己该多好,或许现在在某种意义上,已经实现了那个妄想

这个是我和一个朋友的聊天记录,这边玩的是CC,我们有时候会交流一下这些东西的使用感想。我这两天确实有点索然无味的感觉。
非常奇怪的感觉,明明我递送的东西比以往多得多,我的效率和产出都在持续上升中,但是就是难免有这种感觉。我很庆幸我的职业和我喜欢的是重叠的,但是现在的AI似乎在剥夺走一部分我热爱的东西
有时候Hit Limit之后,感觉自己什么都做不了了,或许最近看到的Brain-Rot从某种角度来说可以描述这个现象
细想一下,有时候并不是想要那个结果,而是喜欢过程中的感觉。那种Debug2天终于解决一个问题的成就感也变淡了,现在是再让CC多跑一次吧
这是否意味着我们要重新思考真正有价值或有意义的东西?
🤼♂️ 人才争夺战
昨天早上我还发了一条推:
今天看到Cursor从anthropic挖了两个人,结合最近Meta疯狂挖AI人才;再反观big tech大量收缩人员招聘,尤其针对校招或者junior。
顶尖人才每个时代都是稀缺的,其余的随着时代剧烈变革,皆是阵痛
最近看得到的新闻就是这样,其实从前年和去年就已经开始的趋势了,只不过最近在硅谷以Meta大肆挖人开始持续发酵
最近越来越多用户从Cursor转投CC,我相信也给Cursor带来了很大的压力,也不奇怪今天看到这样的新闻,Cursor把对方2名Leader挖走了
这也是我在推文里提到的,顶尖的AI人才的薪酬待遇是持续增长的,企业间的持续挖角行为,势必会持续助长这个趋势的,因为人才的供给是有一定的滞后性的,虽然美国顶尖的高校在持续加大投入AI人才的培养,但是依然有一定的空窗期,大部分都是半路出家转投神经网络、GenAI为主的AI领域。
加上AI时代的快和互联网时代的快已经不再是一个级别了,因此对于大企业或者明星初创企业,几个月一年这种时间跨度的落后是非常致命的,有可能导致远远被竞争对手抛下的后果
因此面对这种困境,企业间不惜血本的挖人挖团队收购的行为也更加可以理解了。但是这也造就了现在非常两极化的一个现象:
- 一边是大量裁员与就业难
- 一边是顶尖 AI 人才年薪上千万美元
微软今天开始规模9千人的裁员了,这次主要集中在销售,4月份刚刚裁员6千人。现在Big Tech也在大量的缩招,HC大量减少,没有裁员也不怎么新增,这个就是现状,也预示着未来
He was talking about three of his friends who are machine-learning engineers or AI researchers — Das said they’ve all been offered between $8 and $20 million in total compensation a year to join Meta. “It’s honestly hard to digest.”
BI报道里的这段也表明了,现在Big Tech对于AI Talent的追求到达多么可怕的地步
这些都令人难以消化,也预示着未来:AI人才的价值,将会被这个时代重新定价
🧩 尾声
与其探究我们是否会被AI替代,不如思考我们还能在人类的独特性中,创造出什么AI无法替代的东西?
也许真正值得我们热爱的不是工作本身,而是那个在工作中持续试错、表达、创造的自己
我们正处于一个被技术重塑的时代,效率爆炸了,边界也模糊了。也许我们无法再用旧世界的逻辑,来定义新世界的自我
Enjoy Reading This Article?
Here are some more articles you might like to read next: