跳到主要内容
返回文档
完整教程

42cc 完整教程

深入了解 42cc 的所有功能和高级配置

开机自启动设置

42cc 支持设置开机自启动,让你每次启动电脑时自动运行。

macOS

方式 1:42cc 内置设置(推荐)

  1. 点击托盘图标
  2. 选择「关于 42cc」
  3. 在弹出的窗口中勾选「开机自启」

方式 2:系统设置

  1. 打开「系统设置」→「通用」→「登录项与扩展」
  2. 点击「+」按钮
  3. 选择「应用程序」文件夹中的 42cc
  4. 点击「添加」

Windows

方式 1:42cc 内置设置(推荐)

  1. 点击托盘图标
  2. 勾选「开机自启」选项

方式 2:启动文件夹

  1. Win + R 打开运行对话框
  2. 输入 shell:startup 并回车
  3. 将 42cc 快捷方式复制到打开的文件夹中

配置智谱GLM

智谱 GLM 是国内主流的大语言模型服务,配置步骤如下:

  1. 访问 智谱开放平台 注册账号
  2. 在控制台创建 API Key
  3. 打开 42cc,点击「新增配置」
  4. 选择供应商为「智谱 GLM」
  5. 输入 API Key(格式为 xxxxx.xxxxxx
  6. 点击「保存」

注意:智谱 API Key 包含两部分,用点号分隔。


配置阿里Qwen

阿里 Qwen 提供 Anthropic 兼容接口,适合在 Claude Code 中直接使用。

  1. 在 DashScope 控制台创建 API Key
  2. 打开 42cc,点击「新增配置」
  3. 选择供应商为「阿里 Qwen」
  4. 输入 API Key
  5. 点击「保存」

配置 MiniMax

MiniMax 提供国内版和国际版两种服务:

国内版配置

  1. 访问 MiniMax 官网 注册
  2. 在控制台获取 API Key
  3. 打开 42cc,选择供应商为「MiniMax」
  4. 选择「国内版」
  5. 输入 API Key
  6. 保存配置

国际版配置

国际版步骤类似,只需在配置时选择「国际版」。

版本差异

  • 国内版 Base URL:https://api.minimaxi.com/anthropic
  • 国际版 Base URL:https://api.minimax.io/anthropic

配置 DeepSeek

DeepSeek 是国内领先的大语言模型服务商。

  1. 访问 DeepSeek 开放平台 注册账号
  2. 在 API Keys 页面创建新的 API Key
  3. 打开 42cc,点击「新增配置」
  4. 选择供应商为「DeepSeek」
  5. 输入 API Key
  6. 点击「保存」

配置 Kimi

Kimi 提供国内版和国际版服务,配置时需要选择正确版本。

  1. 在 Kimi 控制台创建 API Key
  2. 打开 42cc,点击「新增配置」
  3. 选择供应商为「Kimi」
  4. 根据账号区域选择「国内版」或「国际版」
  5. 输入 API Key 并保存

版本差异

  • 国内版 Base URL:https://api.moonshot.cn/anthropic
  • 国际版 Base URL:https://api.moonshot.ai/anthropic

配置 Ollama(本地模型)

Ollama 支持在本地运行大语言模型,无需 API 密钥,适合隐私敏感场景或离线使用。

安装 Ollama

  1. 访问 Ollama 官网 下载安装
  2. 安装完成后,Ollama 服务会自动启动(默认端口 11434)

下载模型

# 下载常用模型
ollama pull qwen2.5-coder
ollama pull gpt-oss:20b

# 查看已下载的模型
ollama list

配置 42cc

  1. 打开 42cc,点击「新增配置」
  2. 选择供应商为「Ollama」
  3. 默认模型:从下拉列表选择或手动输入模型名称(如 qwen2.5-coder
  4. Base URL:默认 http://localhost:11434(远程服务器可修改)
  5. 点击「保存」

注意事项

  • Ollama 无需 API 密钥,但必须指定默认模型
  • 确保 Ollama 服务正在运行
  • 本地模型性能取决于你的硬件配置
  • 42cc 会自动获取本地已安装的模型列表

配置 LM Studio(本地模型)

LM Studio 提供图形界面管理本地模型,适合偏好 GUI 操作的用户。与 Ollama 一样无需 API 密钥。

安装 LM Studio

  1. 访问 LM Studio 官网 下载安装
  2. 在 LM Studio 中搜索并下载模型
  3. 启动本地服务器(默认端口 1234)

配置 42cc

  1. 打开 42cc,点击「新增配置」
  2. 选择供应商为「LM Studio」
  3. 默认模型:从下拉列表选择(42cc 自动获取已加载的模型,支持 Tool Use 的模型排在前面)
  4. Base URL:默认 http://localhost:1234
  5. 点击「保存」

注意事项

  • LM Studio 无需 API 密钥,42cc 自动使用 lmstudio 作为认证令牌
  • 模型列表仅显示 LLM 类型模型,embedding 模型自动过滤
  • 确保 LM Studio 的本地服务器已启动
  • 本地模型性能取决于你的硬件配置

Ollama 与 LM Studio 的区别

特性OllamaLM Studio
交互方式命令行为主图形界面为主
模型管理ollama pull 命令可视化搜索和下载
默认端口114341234
适合人群习惯终端的开发者偏好 GUI 的用户

配置 Kimi

Kimi 是 Moonshot AI 推出的大语言模型,在长文本理解和多轮对话上表现出色。42cc 同时支持国内版和国际版。

  1. 访问 Moonshot 开放平台 注册账号
  2. 在控制台创建 API Key
  3. 打开 42cc,点击「新增配置」
  4. 选择供应商为「Kimi」
  5. 选择版本:
    • 国内版(api.moonshot.cn):适合中国大陆用户,延迟更低
    • 国际版(api.moonshot.ai):适合海外用户
  6. 输入 API Key
  7. 点击「保存」

默认模型 kimi-k2.5,开箱即用。


配置阿里 Qwen(通义千问)

通义千问是阿里云推出的大语言模型,通过百炼平台接入,代码能力强劲。

  1. 访问 阿里百炼平台 注册账号
  2. 在控制台创建 API Key
  3. 打开 42cc,点击「新增配置」
  4. 选择供应商为「阿里 Qwen」
  5. 输入百炼平台 API Key
  6. 点击「保存」

默认模型 Qwen3.5-Plus,高阶任务自动使用 Qwen3-Max。接口通过 coding.dashscope.aliyuncs.com 接入。


Anthropic 订阅用户使用指南

42cc 支持三种 Anthropic 认证方式:

方式 1:订阅(Pro/Max)模式(推荐)

最简单的方式,无需手动获取 Token。

  1. 在 42cc 中选择供应商为「Anthropic」,认证方式为「订阅(Pro/Max)」
  2. 保存并激活配置
  3. 在 Claude Code 中执行 /login(或在终端运行 claude login)完成授权
  4. 重启 Claude Code

注意:从订阅模式切换到其他配置前,需要先在 Claude Code 运行 /logout

方式 2:订阅(OAuth)模式

切换时无需再次运行 /loginclaude login

  1. 在 Claude Code 中先执行 /logout(如果当前已登录)
  2. 执行 /login(或 claude login)并完成浏览器授权
  3. 复制显示的 OAuth Token
  4. 在 42cc 中选择供应商为「Anthropic」,认证方式为「订阅(OAuth)」
  5. 粘贴 OAuth Token
  6. 保存配置

方式 3:API Key 模式

按量付费,需要充值使用。

  1. 访问 Anthropic Console
  2. 在 API Keys 中创建新的 API Key
  3. 在 42cc 中选择供应商为「Anthropic」,认证方式为「API Key」
  4. 输入 API Key(格式为 sk-ant-...
  5. 保存配置

配置切换注意事项

  • 第三方配置间切换(智谱 GLM ↔ 阿里 Qwen ↔ MiniMax ↔ DeepSeek ↔ Kimi ↔ 其他):当仅涉及 URL 和 API Key 变更时,无需重启,立即生效
  • 涉及官方配置的切换:需要在 Claude Code 执行 /exit 退出后重新启动
  • 从订阅(Pro/Max)切出:先执行 /logout,再执行 /exit
  • Ollama / LM Studio ↔ 其他任何配置:需要重启 Claude Code
  • 配置了模型别名的配置:切换时需要重启 Claude Code

配置自定义供应商

42cc 支持接入任何兼容 Anthropic Messages API 的服务:

  1. 点击「新增配置」
  2. 选择供应商为「Custom」
  3. 填写以下信息:
    • 名称:自定义名称
    • Base URL:API 端点地址
    • API Key:你的 API 密钥
  4. 保存配置

示例:接入本地 Ollama 服务

Base URL: http://localhost:11434/v1
API Key: ollama

快捷键使用

42cc 提供丰富的快捷键,提升操作效率:

配置列表快捷键

功能macOSWindows
新增配置Cmd+NCtrl+N
编辑配置Cmd+ECtrl+E
复制配置Cmd+CCtrl+C
粘贴配置Cmd+VCtrl+V
切换选择↑/↓Tab/Shift+Tab↑/↓Tab/Shift+Tab
激活配置EnterEnter
删除配置DeleteBackspaceDeleteBackspace
调整顺序Option+↑/↓Alt+↑/↓

测试配置

42cc 内置配置测试功能,帮助你快速验证配置是否正确:

测试入口

  • 新增/编辑配置窗口:在填写配置后,点击「测试连接」按钮
  • 配置详情页面:选中配置后,点击「测试连接」按钮
  • 托盘菜单:点击托盘图标,选择「测试」选项

测试流程

  1. 网络连通性检测(3 秒超时)
    • 检查 API 端点是否可达
    • 验证网络连接
  2. API 请求测试(8 秒超时)
    • 验证密钥是否有效
    • 检查模型是否可用
  3. 结果显示
    • 显示详细诊断信息
    • 提供错误解决建议

测试结果状态

在配置列表中,已测试可用的配置会显示绿色圆点,未测试或测试失败的配置不显示标记。

测试限制

可以测试的配置

  • 智谱 GLM
  • 阿里 Qwen
  • MiniMax
  • DeepSeek
  • Kimi
  • Ollama(需指定默认模型)
  • LM Studio(需指定默认模型)
  • 其他(兼容 Anthropic Messages API)
  • Anthropic API Key 模式

不可测试的配置

  • Anthropic 订阅模式
    • 原因:凭证存储在系统 Keychain 中,42cc 无法访问
    • 解决方案:保存后运行 /loginclaude login 验证

重要提示

  • 测试是完全可选的:即使测试失败,仍可保存和使用配置
  • 测试不影响保存:可以先保存配置,后续再调试
  • 测试结果会缓存:避免重复测试,绿色小原点标记仅表示上次测试结果为可用
  • 网络波动影响结果:测试结果可能因网络原因显示不可用,再次测试又显示正常,这属于正常现象

模型别名配置

42cc 支持配置模型别名,用于将 Claude Code 的模型档位映射到实际模型 ID。

在新增/编辑配置窗口点击「+模型别名(高级)」即可展开 Opus / Sonnet / Haiku 三个字段。

内置默认映射

供应商Opus 默认Sonnet 默认Haiku 默认
智谱 GLMglm-4.7glm-4.7glm-4.5-air
阿里 QwenQwen3-Max-2026-01-23Qwen3.5-PlusQwen3-Coder-Next
MiniMaxMiniMax-M2.5MiniMax-M2.5MiniMax-M2.5
DeepSeekdeepseek-chatdeepseek-chatdeepseek-chat
Kimikimi-k2.5kimi-k2.5kimi-k2.5
其他/自定义无默认值无默认值无默认值
Anthropic无默认值无默认值无默认值

说明:Ollama 不使用模型别名,仅使用默认模型。


配置复制与粘贴

42cc 支持配置的导出和导入,方便在不同设备间迁移:

导出配置

  1. 在配置列表中选中要导出的配置
  2. 右键点击选择「复制配置」
  3. 配置将以 export 格式复制到剪贴板

导入配置

  1. 复制要导入的配置内容
  2. 在 42cc 中右键点击选择「粘贴配置」
  3. 42cc 会自动识别格式并导入

注意:导出内容会包含当前配置的认证信息,分享前请先检查并脱敏。