跳到主要内容
返回博客
功能更新
本地模型
Ollama
Deepseek
Agents

42cc 支持本地大模型及更多 Agents 类大模型

2026-01-30
活水AI实验室

本地运行,离线编程。更多模型,更多选择。

42cc 迎来重要更新——全面支持本地大模型及更多 Agents 类大模型

本地模型支持

Ollama 集成

Ollama 是当下最流行的本地大模型运行方案。现在,42cc 原生支持 Ollama。

配置方式:

  1. 安装并运行 Ollama
  2. 下载模型:ollama pull qwen2.5-coder
  3. 在 42cc 中选择 "Ollama" 供应商
  4. Base URL 默认为 http://127.0.0.1:11434 (本地服务)
  5. 从下拉列表选择模型,或手动输入模型名称
  6. 保存并激活

无需 API Key。本地运行,完全离线,隐私有保障。

支持远程 Ollama 服务器。如果你在另一台机器上运行 Ollama,只需修改 Base URL 即可连接 (如 http://192.168.1.100:11434)。

推荐模型

模型参数量适用场景
qwen2.5-coder7B / 32B代码生成、代码补全
deepseek-coder-v216B / 236B复杂编程任务
codellama7B / 34B通用代码任务
llama3.23B / 90B多语言理解

根据你的硬件配置选择合适的模型。7B 模型在大多数 MacBook 上都能流畅运行。

更多 Agents 类大模型

Deepseek

Deepseek 以其出色的代码能力和超高性价比著称。42cc 现已原生支持 Deepseek API。

配置步骤:

  1. 在 42cc 中选择 "Deepseek" 供应商
  2. 输入你的 Deepseek API Key
  3. 选择默认模型 (如 deepseek-chatdeepseek-coder)
  4. 保存并激活

开箱即用。支持 deepseek-chat、deepseek-coder 等全系列模型。

MiniMax

MiniMax 提供强大的中文理解能力。支持国内版和国际版两种接入方式。

  • 国内版:适合中国大陆用户,低延迟
  • 国际版:适合海外用户

智谱 GLM

智谱 AI 的 GLM 系列模型,在中文任务上表现优异。42cc 一键配置,即可接入。

自定义服务

任何兼容 Anthropic Messages API 的服务都可以接入。填写 Base URL 和 API Key,42cc 会自动适配。

适用于:

  • 企业内部部署的模型服务
  • 第三方 API 代理
  • 其他兼容的模型提供商

配置切换说明

第三方配置之间互相切换,无需重启 Claude Code,配置立即生效。

以下情况需要重启 Claude Code:

  • Ollama 与其他供应商之间切换
  • 使用了模型别名参数 (如 ANTHROPIC_MODEL) 的配置之间切换
  • Claude 官方配置与第三方配置之间切换

为什么重要

选择权回到开发者手中。

想用本地模型保护代码隐私?可以。想用 Deepseek 省钱?可以。想在不同模型间对比效果?切换一下就行。

Claude Code 的核心是编程效率。42cc 确保你能用上最适合自己的模型,无论是云端还是本地。

立即更新

已安装 42cc 的用户会自动收到更新提示。

新用户下载:

或使用包管理器:

# bun(推荐)
bun add -g @42ailab/42cc

# npm
npm install -g @42ailab/42cc

# Homebrew (macOS)
brew tap 42ailab/42cc && brew install --cask 42cc

活水AI实验室(42ailab),源自2023年成立的活水智能团队,致力于以认知科学为基石,推动人工智能与人类智能的深度融合与科学创新。

42cc。更多模型,更多可能。

准备好试试了吗?

立即下载 42cc,开始享受极简配置体验

立即下载