开机自启动设置
42cc 支持设置开机自启动,让你每次启动电脑时自动运行。
macOS
方式 1:42cc 内置设置(推荐)
- 点击托盘图标
- 选择「关于 42cc」
- 在弹出的窗口中勾选「开机自启」
方式 2:系统设置
- 打开「系统设置」→「通用」→「登录项与扩展」
- 点击「+」按钮
- 选择「应用程序」文件夹中的 42cc
- 点击「添加」
Windows
方式 1:42cc 内置设置(推荐)
- 点击托盘图标
- 勾选「开机自启」选项
方式 2:启动文件夹
- 按
Win + R打开运行对话框 - 输入
shell:startup并回车 - 将 42cc 快捷方式复制到打开的文件夹中
配置智谱GLM
智谱 GLM 是国内主流的大语言模型服务,配置步骤如下:
- 访问 智谱开放平台 注册账号
- 在控制台创建 API Key
- 打开 42cc,点击「新增配置」
- 选择供应商为「智谱 GLM」
- 输入 API Key(格式为
xxxxx.xxxxxx) - 点击「保存」
注意:智谱 API Key 包含两部分,用点号分隔。
配置阿里Qwen
阿里 Qwen 提供 Anthropic 兼容接口,适合在 Claude Code 中直接使用。
- 在 DashScope 控制台创建 API Key
- 打开 42cc,点击「新增配置」
- 选择供应商为「阿里 Qwen」
- 输入 API Key
- 点击「保存」
配置 MiniMax
MiniMax 提供国内版和国际版两种服务:
国内版配置
- 访问 MiniMax 官网 注册
- 在控制台获取 API Key
- 打开 42cc,选择供应商为「MiniMax」
- 选择「国内版」
- 输入 API Key
- 保存配置
国际版配置
国际版步骤类似,只需在配置时选择「国际版」。
版本差异:
- 国内版 Base URL:
https://api.minimaxi.com/anthropic - 国际版 Base URL:
https://api.minimax.io/anthropic
配置 DeepSeek
DeepSeek 是国内领先的大语言模型服务商。
- 访问 DeepSeek 开放平台 注册账号
- 在 API Keys 页面创建新的 API Key
- 打开 42cc,点击「新增配置」
- 选择供应商为「DeepSeek」
- 输入 API Key
- 点击「保存」
配置 Kimi
Kimi 提供国内版和国际版服务,配置时需要选择正确版本。
- 在 Kimi 控制台创建 API Key
- 打开 42cc,点击「新增配置」
- 选择供应商为「Kimi」
- 根据账号区域选择「国内版」或「国际版」
- 输入 API Key 并保存
版本差异:
- 国内版 Base URL:
https://api.moonshot.cn/anthropic - 国际版 Base URL:
https://api.moonshot.ai/anthropic
配置 Ollama(本地模型)
Ollama 支持在本地运行大语言模型,无需 API 密钥,适合隐私敏感场景或离线使用。
安装 Ollama
- 访问 Ollama 官网 下载安装
- 安装完成后,Ollama 服务会自动启动(默认端口 11434)
下载模型
# 下载常用模型
ollama pull qwen2.5-coder
ollama pull gpt-oss:20b
# 查看已下载的模型
ollama list配置 42cc
- 打开 42cc,点击「新增配置」
- 选择供应商为「Ollama」
- 默认模型:从下拉列表选择或手动输入模型名称(如
qwen2.5-coder) - Base URL:默认
http://localhost:11434(远程服务器可修改) - 点击「保存」
注意事项:
- Ollama 无需 API 密钥,但必须指定默认模型
- 确保 Ollama 服务正在运行
- 本地模型性能取决于你的硬件配置
- 42cc 会自动获取本地已安装的模型列表
配置 LM Studio(本地模型)
LM Studio 提供图形界面管理本地模型,适合偏好 GUI 操作的用户。与 Ollama 一样无需 API 密钥。
安装 LM Studio
- 访问 LM Studio 官网 下载安装
- 在 LM Studio 中搜索并下载模型
- 启动本地服务器(默认端口 1234)
配置 42cc
- 打开 42cc,点击「新增配置」
- 选择供应商为「LM Studio」
- 默认模型:从下拉列表选择(42cc 自动获取已加载的模型,支持 Tool Use 的模型排在前面)
- Base URL:默认
http://localhost:1234 - 点击「保存」
注意事项:
- LM Studio 无需 API 密钥,42cc 自动使用
lmstudio作为认证令牌 - 模型列表仅显示 LLM 类型模型,embedding 模型自动过滤
- 确保 LM Studio 的本地服务器已启动
- 本地模型性能取决于你的硬件配置
Ollama 与 LM Studio 的区别
| 特性 | Ollama | LM Studio |
|---|---|---|
| 交互方式 | 命令行为主 | 图形界面为主 |
| 模型管理 | ollama pull 命令 | 可视化搜索和下载 |
| 默认端口 | 11434 | 1234 |
| 适合人群 | 习惯终端的开发者 | 偏好 GUI 的用户 |
配置 Kimi
Kimi 是 Moonshot AI 推出的大语言模型,在长文本理解和多轮对话上表现出色。42cc 同时支持国内版和国际版。
- 访问 Moonshot 开放平台 注册账号
- 在控制台创建 API Key
- 打开 42cc,点击「新增配置」
- 选择供应商为「Kimi」
- 选择版本:
- 国内版(api.moonshot.cn):适合中国大陆用户,延迟更低
- 国际版(api.moonshot.ai):适合海外用户
- 输入 API Key
- 点击「保存」
默认模型 kimi-k2.5,开箱即用。
配置阿里 Qwen(通义千问)
通义千问是阿里云推出的大语言模型,通过百炼平台接入,代码能力强劲。
- 访问 阿里百炼平台 注册账号
- 在控制台创建 API Key
- 打开 42cc,点击「新增配置」
- 选择供应商为「阿里 Qwen」
- 输入百炼平台 API Key
- 点击「保存」
默认模型 Qwen3.5-Plus,高阶任务自动使用 Qwen3-Max。接口通过 coding.dashscope.aliyuncs.com 接入。
Anthropic 订阅用户使用指南
42cc 支持三种 Anthropic 认证方式:
方式 1:订阅(Pro/Max)模式(推荐)
最简单的方式,无需手动获取 Token。
- 在 42cc 中选择供应商为「Anthropic」,认证方式为「订阅(Pro/Max)」
- 保存并激活配置
- 在 Claude Code 中执行
/login(或在终端运行claude login)完成授权 - 重启 Claude Code
注意:从订阅模式切换到其他配置前,需要先在 Claude Code 运行 /logout。
方式 2:订阅(OAuth)模式
切换时无需再次运行 /login 或 claude login。
- 在 Claude Code 中先执行
/logout(如果当前已登录) - 执行
/login(或claude login)并完成浏览器授权 - 复制显示的 OAuth Token
- 在 42cc 中选择供应商为「Anthropic」,认证方式为「订阅(OAuth)」
- 粘贴 OAuth Token
- 保存配置
方式 3:API Key 模式
按量付费,需要充值使用。
- 访问 Anthropic Console
- 在 API Keys 中创建新的 API Key
- 在 42cc 中选择供应商为「Anthropic」,认证方式为「API Key」
- 输入 API Key(格式为
sk-ant-...) - 保存配置
配置切换注意事项
- 第三方配置间切换(智谱 GLM ↔ 阿里 Qwen ↔ MiniMax ↔ DeepSeek ↔ Kimi ↔ 其他):当仅涉及 URL 和 API Key 变更时,无需重启,立即生效
- 涉及官方配置的切换:需要在 Claude Code 执行
/exit退出后重新启动 - 从订阅(Pro/Max)切出:先执行
/logout,再执行/exit - Ollama / LM Studio ↔ 其他任何配置:需要重启 Claude Code
- 配置了模型别名的配置:切换时需要重启 Claude Code
配置自定义供应商
42cc 支持接入任何兼容 Anthropic Messages API 的服务:
- 点击「新增配置」
- 选择供应商为「Custom」
- 填写以下信息:
- 名称:自定义名称
- Base URL:API 端点地址
- API Key:你的 API 密钥
- 保存配置
示例:接入本地 Ollama 服务
Base URL: http://localhost:11434/v1
API Key: ollama快捷键使用
42cc 提供丰富的快捷键,提升操作效率:
配置列表快捷键
| 功能 | macOS | Windows |
|---|---|---|
| 新增配置 | Cmd+N | Ctrl+N |
| 编辑配置 | Cmd+E | Ctrl+E |
| 复制配置 | Cmd+C | Ctrl+C |
| 粘贴配置 | Cmd+V | Ctrl+V |
| 切换选择 | ↑/↓ 或 Tab/Shift+Tab | ↑/↓ 或 Tab/Shift+Tab |
| 激活配置 | Enter | Enter |
| 删除配置 | Delete 或 Backspace | Delete 或 Backspace |
| 调整顺序 | Option+↑/↓ | Alt+↑/↓ |
测试配置
42cc 内置配置测试功能,帮助你快速验证配置是否正确:
测试入口
- 新增/编辑配置窗口:在填写配置后,点击「测试连接」按钮
- 配置详情页面:选中配置后,点击「测试连接」按钮
- 托盘菜单:点击托盘图标,选择「测试」选项
测试流程
- 网络连通性检测(3 秒超时)
- 检查 API 端点是否可达
- 验证网络连接
- API 请求测试(8 秒超时)
- 验证密钥是否有效
- 检查模型是否可用
- 结果显示
- 显示详细诊断信息
- 提供错误解决建议
测试结果状态
在配置列表中,已测试可用的配置会显示绿色圆点,未测试或测试失败的配置不显示标记。
测试限制
可以测试的配置:
- 智谱 GLM
- 阿里 Qwen
- MiniMax
- DeepSeek
- Kimi
- Ollama(需指定默认模型)
- LM Studio(需指定默认模型)
- 其他(兼容 Anthropic Messages API)
- Anthropic API Key 模式
不可测试的配置:
- Anthropic 订阅模式
- 原因:凭证存储在系统 Keychain 中,42cc 无法访问
- 解决方案:保存后运行
/login或claude login验证
重要提示
- 测试是完全可选的:即使测试失败,仍可保存和使用配置
- 测试不影响保存:可以先保存配置,后续再调试
- 测试结果会缓存:避免重复测试,绿色小原点标记仅表示上次测试结果为可用
- 网络波动影响结果:测试结果可能因网络原因显示不可用,再次测试又显示正常,这属于正常现象
模型别名配置
42cc 支持配置模型别名,用于将 Claude Code 的模型档位映射到实际模型 ID。
在新增/编辑配置窗口点击「+模型别名(高级)」即可展开 Opus / Sonnet / Haiku 三个字段。
内置默认映射:
| 供应商 | Opus 默认 | Sonnet 默认 | Haiku 默认 |
|---|---|---|---|
| 智谱 GLM | glm-4.7 | glm-4.7 | glm-4.5-air |
| 阿里 Qwen | Qwen3-Max-2026-01-23 | Qwen3.5-Plus | Qwen3-Coder-Next |
| MiniMax | MiniMax-M2.5 | MiniMax-M2.5 | MiniMax-M2.5 |
| DeepSeek | deepseek-chat | deepseek-chat | deepseek-chat |
| Kimi | kimi-k2.5 | kimi-k2.5 | kimi-k2.5 |
| 其他/自定义 | 无默认值 | 无默认值 | 无默认值 |
| Anthropic | 无默认值 | 无默认值 | 无默认值 |
说明:Ollama 不使用模型别名,仅使用默认模型。
配置复制与粘贴
42cc 支持配置的导出和导入,方便在不同设备间迁移:
导出配置
- 在配置列表中选中要导出的配置
- 右键点击选择「复制配置」
- 配置将以 export 格式复制到剪贴板
导入配置
- 复制要导入的配置内容
- 在 42cc 中右键点击选择「粘贴配置」
- 42cc 会自动识别格式并导入
注意:导出内容会包含当前配置的认证信息,分享前请先检查并脱敏。