DeepSeek V4 接入 Claude Code 简易指南

Posted by YUN on Sun, Apr 26, 2026

Introduction

2026 年 4 月 24 日,DeepSeek v4 版本发布。官方提供了旗舰模型 DeepSeek v4 Pro 和小模型 DeepSeek v4 Flash 两个版本。在官方文档中,也提供了简易的 Claude Code 接入指南,但是这个指南个人认为并非最佳配置形式,所以在后文给出我的更加合理的配置方案。

1. DeepSeek 给出的配置以及此配置的相关问题

1.1. DeepSeek 配置方案

DeepSeek 给出的 Claude Code 配置方法与通过 Amazon Bedrock 配置 Claude 模型的方法有些相似,不过 DeepSeek 只给出了通过环境变量配置的方法。而且 DeepSeek 也分别在 4 月 24 日 和 4 月 25 日更新了两版本配置内容,这两版内容均有相应的槽点。

4 月 24 日版配置

 1export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
 2export ANTHROPIC_AUTH_TOKEN=${DEEPSEEK_API_KEY}
 3export ANTHROPIC_MODEL=deepseek-v4-pro[1m]
 4export ANTHROPIC_DEFAULT_OPUS_MODEL=deepseek-v4-pro
 5export ANTHROPIC_DEFAULT_SONNET_MODEL=deepseek-v4-pro
 6export ANTHROPIC_DEFAULT_HAIKU_MODEL=deepseek-v4-flash
 7export CLAUDE_CODE_SUBAGENT_MODEL=deepseek-v4-pro
 8export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
 9export CLAUDE_CODE_DISABLE_NONSTREAMING_FALLBACK=1
10export CLAUDE_CODE_EFFORT_LEVEL=max

4 月 25 日版配置

1export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
2export ANTHROPIC_AUTH_TOKEN=<你的 DeepSeek API Key>
3export ANTHROPIC_MODEL=deepseek-v4-pro[1m]
4export ANTHROPIC_DEFAULT_OPUS_MODEL=deepseek-v4-pro[1m]
5export ANTHROPIC_DEFAULT_SONNET_MODEL=deepseek-v4-pro[1m]
6export ANTHROPIC_DEFAULT_HAIKU_MODEL=deepseek-v4-flash
7export CLAUDE_CODE_SUBAGENT_MODEL=deepseek-v4-flash
8export CLAUDE_CODE_EFFORT_LEVEL=max

1.2. 相关问题

1.2.1. 配置文件位置

第一个问题就是,如今更为推荐的 Claude Code 配置方法,是通过 ~/.claude/settings.json 进行配置(Windows 的 ~/ 对应当前用户文件夹)。这个配置文件可以被 CLI 和 VSCode Extension 共同消费使用,并且不会污染系统环境变量

1.2.2. DEFAULT MODEL 配置

第二个问题在于,ANTHROPIC_MODEL 这个变量在配置了 DEFAULT OPUS/SONNET/HAIKU 模型之后,是无需配置的。最新版的 Claude Code 并不会从这个变量去读取当前需要使用的模型,而是通过 settings.json 中的 model 字段进行偏好记忆控制。在实际使用时,按需切换 OPUS/SONNET/HAIKU 模型即可(我配置公司的 Amazon Bedrock Claude Model 也是按此方式操作的,没有任何的使用问题)。

在实践中,将 OPUS/SONNET 映射为 DeepSeek-v4-Pro,而 HAIKU 映射为 DeepSeek-v4-Flash 的做法是正确的(因为这个 Flash 模型实在是很小,甚至比当年的 DeepSeek-R1(标准版,非蒸馏版)还要小的多……也只能将其映射为 HAIKU 的定位了……)

参考链接:Claude Code Docs - Model Configuration #setting-your-model

1.2.3. [1M] Context 配置

第三个问题,其实官方 4 月 25 的新版配置修正了一部分,即为 DEFAULT OPUS/SONNET 模型添加了 [1m] 参数。因为官方配置的方法非常类似于通过 Amazon Bedrock 配置 Claude 模型的方法,所以 [1m] 参数是最快速启用 1M 上下文的手段。这样在切换 Opus/Sonnet 模型时,其映射的 DeepSeek v4 Pro 模型可以开启 1M 上下文参数(而非默认的 200K)。

更进一步的,其实 DEFAULT HAIKU 模型的配置也可以添加 [1m] 参数。虽然 Claude Haiku 只有 200K 上下文,但是通过映射后的 DeepSeek v4 Flash 是可以开启 1M 上下文的(可以通过 /context 进行验证)。

参考链接:Claude Code Docs - Model Configuration #pin-models-for-third-party-deployments

1.2.4. SUBAGENT MODEL 配置

最后一个问题,就是 CLAUDE_CODE_SUBAGENT_MODEL 不应该被配置。两个版本 DeepSeek 官方文档非常难绷的将 SubAgent 的模型强制锁定为了 Pro/Flash 二选一,但实际上,Claude Code 大量的 Build-in SubAgent 会根据任务的种类,使用不同的 Haiku/Sonnet/Inherit 模型进行工作负载的高低按需运行(更加具备经济性、省钱)。

在配置了 DEFAULT OPUS/SONNET/HAIKU 模型之后,CLAUDE_CODE_SUBAGENT_MODEL 更是无需被配置。

参考链接:Claude Code Docs - Create custom subAgents #built-in-subagents

1.2.5. 其他配置

关于思考强度 CLAUDE_CODE_EFFORT_LEVEL,按照官方的建议直接配置为 max 即可,Claude Code 会自行将 max 映射为 OPUS/SONNET/HAIKU 实际能用的 Effort,而 DeepSeek API 则可以正确将这些 Effort Level 映射为 High/MAX 级别,非常省心。

官方 4 月 25 日版的配置删去了 CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1CLAUDE_CODE_DISABLE_NONSTREAMING_FALLBACK=1。其中前者禁用了 Claude Code 的自动更新、反馈、遥测日志等和核心功能无关的功能,建议打开;而后者禁用了在流式传输错误时的非流式传输回退,可开可不开。

参考链接:
Claude Code Docs - Model Configuration #adjust-effort-level
DeepSeek API Docs - Thinking Mode

2. 更合理的配置方法

2.1. 配置位置

Posix(Linux/Mac)推荐在 ~/.claude/settings.json 中配置。
Windows 则推荐在 C:\Users\<你的实际用户名>\.claude\settings.json 中配置。

以上文件若不存在,自行创建即可

2.2. 配置内容

必选配置:

 1{
 2  "$schema": "https://json.schemastore.org/claude-code-settings.json",
 3  "env": {
 4    "ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic",
 5    "ANTHROPIC_AUTH_TOKEN": "<你的 DeepSeek API Key>",
 6    "ANTHROPIC_DEFAULT_OPUS_MODEL": "deepseek-v4-pro[1m]",
 7    "ANTHROPIC_DEFAULT_SONNET_MODEL": "deepseek-v4-pro[1m]",
 8    "ANTHROPIC_DEFAULT_HAIKU_MODEL": "deepseek-v4-flash[1m]",
 9    "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1",
10    "CLAUDE_CODE_EFFORT_LEVEL": "max"
11  },
12  "model": "opus"
13}

可选配置:

 1{
 2  "env": {
 3    # 启用实验性质的 Agent 团队功能
 4    # - 此功能稳定性一般,视自己的需求而定
 5    # - 此配置可开可不开
 6    "CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1",
 7
 8    # 禁用 Claude Code 的一些 Beta Request Headers
 9    # - 由于 DeepSeek API 会自动忽略相关 Headers
10    # - 此配置可开可不开
11    "CLAUDE_CODE_DISABLE_EXPERIMENTAL_BETAS": "1",
12
13    # 禁用流式传输失败时,以非流式传输的形式回退
14    # - 此配置可开可不开
15    "CLAUDE_CODE_DISABLE_NONSTREAMING_FALLBACK": "1"
16  }
17}

参考链接:
Claude Code Docs - Environment Variables
DeepSeek API Docs - Anthropic API

2.3. 使用

配置完成后,Claude Code CLI 和 VSCode Extension(需要 disable login,参考官方文档)中即可使用 DeepSeek v4 系列模型了。

由于 Claude Code(CLI 和 VSCode Extension)的 BUG 都不少,建议时不时更新一下 Claude Code 版本。

3. 其他相关

3.1. Claude Code 使用非 Claude 模型的 Prompt Cache 友好程度?

详见文章:Claude Code 真的对非 Claude 模型缓存不友好吗?

3.2. CodeX 使用 DeepSeek 作为基模的可能性?

在 2026 年初,OpenAI 更改了 CodeX 的配置选项,使 model_providers.<id>.wire_api 的可配置项只能是 responses 了。这就导致除非配置反代,否则无法轻松的配置其他 LLM Service 作为 CodeX 的基模。

参考链接:Configure OpenAI Codex CLI with DeepSeek Support

但也无妨,毕竟 CodeX 那思路惊奇的 FreeForm Files Edit 也不是 GPT 以外的 LLM 友好的。
虽然国人天天喷 A 社,但在工具开放性这一点上,它还是比 O 社强不少的……


版权声明:本文遵循 CC BY-SA 4.0 版权协议,转载请附上原文出处链接和本声明。

Copyright statement: This article follows the CC BY-SA 4.0 copyright agreement. For reprinting, please attach the original source link and this statement.