看这一篇就够了!Claude Code 接入四大国产编程模型 DeepSeek、GLM、Qwen、Kimi 全指南

最近真是越来越依赖 Claude Code 了,连 Cursor 都快被我“闲置”啦[破涕为笑]~强烈推荐大家在 AI 编程时都来试试它!

如果你也想用,可以通过 claude-code-router 进行中转,接入国内大模型。比如魔搭社区的 qwen3-coder 推理接口,每天有 500 次免费调用,非常划算。

我之前写过一篇文章,详细介绍了如何在 Claude Code 中接入免费的魔搭 Qwen3-Coder 推理 API,感兴趣可以看看: 3 分钟讲透 Win 版 Claude Code部署:整合 Qwen-Coder + GLM-4.5,零翻墙平替 Cursor!

如果想使用 Claude 官方模型,也可以通过国内的中转 API,或者选择 OpenRouter 提供的服务,它还支持支付宝支付,对国内用户特别友好。

我个人的使用习惯是:复杂或高难度任务交给 Claude 接口,一般编程任务用国内模型就足够了。

如果不想通过 claude-code-router 中转,是否可以直接在官方 Claude Code 里接入国内大模型呢?

答案是:可以的!

接下来,我就来详细介绍如何将 GLM-4.5、Kimi K2、Qwen3-Coder、DeepSeek-V3.1 这些优秀的国产编程大模型,一一接入到 Claude Code 中!

一、安装 Claude Code

一)安装

npm install -g @anthropic-ai/claude-code

二)启动

在命令行输入指令 claude ,然后回车即可启动

三)配置大模型API KEY

来到系统用户home目录下会看到有一个 .claude 文件夹

由于以 . 开头的是隐藏文件夹,所以需要设置将隐藏文件显示出来

win 用户操作方式是:

MAC 用户操作方式是:

  1. 在 Mac 上的 “访达” 中,选取“访达”>“设置”,然后点按“高级”。
  2. 请选择或取消选择“显示所有文件扩展名”。

在 .claude 文件夹内创建一个 settings.json 配置文件

填入如下模型配置信息(以deepseek为例):

{
  "env": {
    "ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic",
    "ANTHROPIC_AUTH_TOKEN": "你的API KEY",
    "ANTHROPIC_MODEL": "deepseek-reasoner",
    "ANTHROPIC_SMALL_FAST_MODEL": "deepseek-reasoner"
  }
}

这个配置文件是配置你的大模型信息的,不只是可以配置 claude 一家的大模型,还可以配置国内主流编程大模型的 API KEY ,因为他们官方都支持将自家大模型 api 接入 Claude Code,后面逐个为大家详细介绍。

四)重新进入claude

配置好自己的模型信息后,重新进入 claude 可以看到接入模型成功:

这样,我们就可以在 Claude Code 上愉快地使用国内大模型了!

二、接入国内主流编程大模型

国内大模型虽然和Claude模型相比有一点差距,但是应对普通场景,足够胜任了,并且完成的非常好,关键是便宜!

使用原则是:复杂度高的场景,使用Claude接口来完成,普通场景,使用国内大模型,claude 和 国内大模型轮换着用,有效控制成本!

一)deepseek-v3.1

2025年08月21日,deepseek悄悄发布 DeepSeek V3.1,具体更新了啥,可以看官方文档:DeepSeek-V3.1 发布

这里只关注和本文有关的信息:

1、获取deepseek的api key

地址:platform.deepseek.com/

注册账号并获取自己的api key

2、获取接口配置信息

deepseek v3.1 官方是支持接入 Claude Code ,教程:api-docs.deepseek.com/z

我这里讲重点信息提炼出来,大家直接复制到自己用户目录下的 .claude/settings.json 文件内即可:

{
  "env": {
    "ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic",
    "ANTHROPIC_AUTH_TOKEN": "你的API KEY",
    "ANTHROPIC_MODEL": "deepseek-reasoner",
    "ANTHROPIC_SMALL_FAST_MODEL": "deepseek-reasoner"
  }
}

二)Qwen3-coder

1、注册一个阿里的账号

地址:bailian.console.aliyun.com

https://account.aliyun.com/login/uni_qr_login.htm?check_ua=&yst=OTN338Gm5U45PmgsUGuLj4y6Zvc7n4D9&isTracing=true&version=0.0.47&from=aliyun&newSmsLoginReg=true&type=one_login&uuid=9e3b5529-3f61-4925-9baf-325f23f3f995&ignoreRam=true (二维码自动识别)

2、创建API KEY

3、接口配置信息获取

百炼官方文档有讲如何讲api接入 claude code ,地址:bailian.console.aliyun.com

我这里讲重点信息提炼出来,大家直接复制即可:

{
  "env": {
    "ANTHROPIC_BASE_URL": "https://dashscope.aliyuncs.com/api/v2/apps/claude-code-proxy",
    "ANTHROPIC_AUTH_TOKEN": "你的API KEY",
    "ANTHROPIC_MODEL": "qwen3-coder-plus",
    "ANTHROPIC_SMALL_FAST_MODEL": "qwen3-coder-plus"
  }
}

Claude Code 界面仅会显示其默认的模型名称( 如 Claude-3-5-haiku 等),而非实际调用的 qwen3-coder-plus,这属于正常现象,可以直接忽略。如果想进一步确认,可以在阿里云百炼的模型观测中查询是否有 qwen3-coder-plus 的调用记录。

请注意:百炼api接入Claude Code 当前仅支持 qwen3-coder-plus,无法通过 ANTHROPIC_MODEL 环境变量修改调用模型。

三)智谱GLM 4.5

1、注册并获取API KEY

地址:bigmodel.cn/

注册一个账户,进入个人中心页面,或者直达下面地址,来创建自己的 api key

bigmodel.cn/usercenter/

2、接口配置信息获取

官方也对如何将api接入 Claude Code 写了教程:docs.bigmodel.cn/cn/gui

老规矩,我这里讲重点信息提炼出来,大家直接复制即可:

{
  "env": {
    "ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic",
    "ANTHROPIC_AUTH_TOKEN": "你的API KEY"
  }
}

请注意:默认接口使用的模型为 GLM-4.5 和 GLM-4.5-Air,具体根据任务复杂程度自动路由,也是我们推荐的使用方式,兼顾性能、速度与价格,暂不支持其它模型(如 GLM-4.5-X/AirX/Flash 等),因此,此处不必显式配置具体模型。

四)Kimi K2

1、注册一个账号

地址:platform.moonshot.cn

2、创建API KEY

进入API KEY管理页面:platform.moonshot.cn/co

3、接口配置信息获取

官方教程地址:platform.moonshot.cn/do

这里重点信息提炼出来,大家直接复制即可:

{
  "env": {
    "ANTHROPIC_BASE_URL": "https://api.moonshot.cn/anthropic",
    "ANTHROPIC_AUTH_TOKEN": "你的API KEY",
    "ANTHROPIC_MODEL": "kimi-k2-turbo-preview",
    "ANTHROPIC_SMALL_FAST_MODEL": "kimi-k2-turbo-preview"
  }
}

三、想切换模型怎么办?

讲了这么多,这几家国产大模型我都注册了,想切换着用怎么办?

目前 Claude Code 并不支持添加多个自定义模型,大家可以参考我的方法来切换模型使用,大家若有更好的方法也欢迎评论区告诉我:

一)每个模型配置一个文件

通过配置文件配置大模型的,可以先将每个模型配置一个文件:

二)切换模型

希望用哪个大模型的话,可以通过切换文件名来达到切换模型的效果,不过记得切换完配置文件,记得重启claude,配置才能生效!

好啦,以上就是关于在 Claude Code 中接入 DeepSeek、Qwen3-Coder、GLM-4.5 和 Kimi K2 这四款主流国产编程大模型的完整教程了。

灵活搭配不同模型处理不同任务,既能享受 Claude 级别的代码能力,又能用好国内模型的免费额度和高性价比,开发效率直接拉满!

有任何问题,欢迎滴滴我: ao-ai-coding