本地运行,离线编程。更多模型,更多选择。
42cc 迎来重要更新——全面支持本地大模型及更多 Agents 类大模型。
本地模型支持
Ollama 集成
Ollama 是当下最流行的本地大模型运行方案。现在,42cc 原生支持 Ollama。
配置方式:
- 安装并运行 Ollama
- 下载模型:
ollama pull qwen2.5-coder - 在 42cc 中选择 "Ollama" 供应商
- Base URL 默认为
http://127.0.0.1:11434(本地服务) - 从下拉列表选择模型,或手动输入模型名称
- 保存并激活
无需 API Key。本地运行,完全离线,隐私有保障。
支持远程 Ollama 服务器。如果你在另一台机器上运行 Ollama,只需修改 Base URL 即可连接 (如 http://192.168.1.100:11434)。
推荐模型
| 模型 | 参数量 | 适用场景 |
|---|---|---|
| qwen2.5-coder | 7B / 32B | 代码生成、代码补全 |
| deepseek-coder-v2 | 16B / 236B | 复杂编程任务 |
| codellama | 7B / 34B | 通用代码任务 |
| llama3.2 | 3B / 90B | 多语言理解 |
根据你的硬件配置选择合适的模型。7B 模型在大多数 MacBook 上都能流畅运行。
更多 Agents 类大模型
Deepseek
Deepseek 以其出色的代码能力和超高性价比著称。42cc 现已原生支持 Deepseek API。
配置步骤:
- 在 42cc 中选择 "Deepseek" 供应商
- 输入你的 Deepseek API Key
- 选择默认模型 (如
deepseek-chat、deepseek-coder) - 保存并激活
开箱即用。支持 deepseek-chat、deepseek-coder 等全系列模型。
MiniMax
MiniMax 提供强大的中文理解能力。支持国内版和国际版两种接入方式。
- 国内版:适合中国大陆用户,低延迟
- 国际版:适合海外用户
智谱 GLM
智谱 AI 的 GLM 系列模型,在中文任务上表现优异。42cc 一键配置,即可接入。
自定义服务
任何兼容 Anthropic Messages API 的服务都可以接入。填写 Base URL 和 API Key,42cc 会自动适配。
适用于:
- 企业内部部署的模型服务
- 第三方 API 代理
- 其他兼容的模型提供商
配置切换说明
第三方配置之间互相切换,无需重启 Claude Code,配置立即生效。
以下情况需要重启 Claude Code:
- Ollama 与其他供应商之间切换
- 使用了模型别名参数 (如
ANTHROPIC_MODEL) 的配置之间切换 - Claude 官方配置与第三方配置之间切换
为什么重要
选择权回到开发者手中。
想用本地模型保护代码隐私?可以。想用 Deepseek 省钱?可以。想在不同模型间对比效果?切换一下就行。
Claude Code 的核心是编程效率。42cc 确保你能用上最适合自己的模型,无论是云端还是本地。
立即更新
已安装 42cc 的用户会自动收到更新提示。
新用户下载:
或使用包管理器:
# bun(推荐)
bun add -g @42ailab/42cc
# npm
npm install -g @42ailab/42cc
# Homebrew (macOS)
brew tap 42ailab/42cc && brew install --cask 42cc
活水AI实验室(42ailab),源自2023年成立的活水智能团队,致力于以认知科学为基石,推动人工智能与人类智能的深度融合与科学创新。
42cc。更多模型,更多可能。