Claude Code初体验记录

Claude Code初体验记录

背景

目前的AI方案我使用的是Cursor+Claude的方案,这种方案我用的很顺手,但是不可持续:

  • 需要FQ,不然核心的claude没法用,因此非常受制于机场的稳定性,机场一崩效率回归解放前
  • 单纯的FQ只能用HTTP1,延迟很高,大任务量还会卡住,最好是HTTP2,需要有tun功能的软件,这里我用的v兔子机场+tun的方式,然而公司的网络环境下机场服务器特别不稳定,在住处就还好,不知道为什么
  • 贵,我倾向方案能用至少一年,cursor的pro方案一年192刀折合人民币约1200,加上机场花费一年150rmb,下来就有约1350rmb了,而且cursor还能随意改价,去年就把pro的计费方式从按时间改成了按量,超出量就要限速,让pro的性价比再次大打折扣

综上,我再次打算寻找廉价稳定的AI方案。

环境安装

由于Claude官方锁区+限制手机号,就算用梯子,接码平台也有被封的风险,搜了一通知乎之后最后选择了镜像站的方式:

https://www.aicodemirror.com/about-claude-code

Claude code安装方式,这里我直接挂了梯子用来官方的下载方式,没有用镜像站的资源:

irm https://claude.ai/install.ps1 | iex

Claude Code: https://code.claude.com/docs/en/overview

配置环境变量:

变量名:ANTHROPIC_BASE_URL,变量值:https://api.aicodemirror.com/api/claudecode
变量名:ANTHROPIC_API_KEY,变量值:你的密钥
变量名:ANTHROPIC_AUTH_TOKEN,变量值:你的密钥

Claude Code配置其他模型(豆包)

上面的镜像站可以使用Claude, 但是不管充会员(月Coding Plan要360rmb)还是按量付费,仍旧昂贵,好在Claude Code有使用其他三方模型的方法。

这里参考阮一峰的教程采用豆包的Coding Plan,和单独的模型供应商不同,Coding Plan内部是一揽子模型,glm4.7, doubao-seed-code等模型,可以在后台配置选择不同的模型,这里不展开。

原版教程是linux的,这里为了适配linux查了下豆包的文档,配置脚本如下:

Powershell

[System.Environment]::SetEnvironmentVariable('ANTHROPIC_AUTH_TOKEN', 'xxxxxxxxxxxxxxx', 'User')
[System.Environment]::SetEnvironmentVariable('ANTHROPIC_BASE_URL', 'https://ark.cn-beijing.volces.com/api/coding', 'User')
[System.Environment]::SetEnvironmentVariable('ANTHROPIC_MODEL', 'ark-code-latest', 'User')
claude

基本的问题都在https://www.volcengine.com/docs/82379/1928261?lang=zh里讲清楚了,不再复述。

成功效果:

❯ /status
────────────────────────────────────────────────────────────────────────────────────────────────────────────────────────
 ──────────────────────────────────────────────────────────────────────────────────────────────────────────────────────
  Settings:  Status   Config   Usage  (←/→ or tab to cycle)


  Version: 2.1.11
  Session name: /rename to add a name
  Session ID: 0dc7ede1-a00c-45a3-b611-8cf07261f6e7
  cwd: D:\CodeDraft\AI\space-invaders
  Auth token: ANTHROPIC_AUTH_TOKEN
  Anthropic base URL: https://ark.cn-beijing.volces.com/api/coding

  Model: ark-code-latest
  Memory:
  Setting sources: User settings
  escape to cancel

试了下让它生成教程里的外星入侵者,生成个扫雷,看起来还行。

后面两天工作测试了下,对于简单的改动和小功能场景还行,但是复杂的功能代码出来容易要么有漏洞要么编译不通过,这些场景还是得用Claude一类的国外Coding AI。

也能接入Cursor一类的IDE,支持显示AI改动,能读代码库,也有读取图片这样的多模态功能。

基本满足需求了,而且Coding Plan一年下来40x12=480r,也没有墙限制,对于经常只有构思简单但是实现繁琐的编码情况,这个Coding Plan会比Claude方案性价比高很多。

参考一览:

国产大模型接入 Claude Code 教程:以 Doubao-Seed-Code 为例

我如何用 AI 处理历史遗留代码:MiniMax M2.1 升级体验

豆包大模型API订阅:https://www.volcengine.com/activity/codingplan

豆包大模型接入Claude Code:https://www.volcengine.com/docs/82379/1928261?lang=zh

豆包大模型API Key:https://console.volcengine.com/ark/region:ark+cn-beijing/apikey??apikey=%7B%7D

posted @ 2026-02-08 17:34  另一种开始  阅读(109)  评论(0)    收藏  举报