nicedreamzapp/claude-code-local

⭐ 784 Stars 🍴 114 Forks Python

该项目允许用户在本地运行大型AI模型,如Claude Code,无需云服务或API费用,适用于需要高性能AI处理且关注隐私的用户。

来源:据 README 描述 查看 GitHub 仓库 →

为什么值得关注

该项目因提供本地AI模型运行能力而受关注,解决了云服务依赖和API费用的问题,填补了本地AI处理的需求空白。它采用了Apple Silicon GPU加速,具有独特的性能优势。

来源:综合 README 描述和项目特征

核心功能

本地AI模型运行

项目支持多种本地AI模型,包括Gemma 4 31B、Llama 3.3 70B和Qwen 3.5 122B,用户可根据需求选择。

来源:据 README 描述
多种运行模式

提供代码模式、浏览器模式、叙事模式和电话模式,满足不同场景下的使用需求。

来源:据 README 描述
数据隐私保护

项目确保用户代码和数据始终在本地处理,不涉及任何网络传输,保护用户隐私。

来源:据 README 描述

技术架构

项目采用模块化设计,包括服务器、代理、脚本和启动器等模块。数据在本地处理,通过Metal API与Apple Silicon GPU交互,确保高效运行。

来源:代码目录结构

技术栈

infra: Apple Silicon GPU  |  key_deps: mlx-lm, agent.py, proxy.py  |  language: Python  |  framework: Apple MLX framework

来源:代码目录结构 + 依赖文件

快速上手

1. Clone the repository. 2. Run `bash scripts/start-mlx-server.sh` to start the MLX server. 3. Choose a model and run the corresponding command (e.g., `Gemma 4 Code.command`).
来源:据 README Installation/Quick Start

使用场景

1. 需要在本地进行AI模型推理的开发者。 2. 关注数据隐私,不希望数据离开本地环境的用户。 3. 需要在没有互联网连接的环境中使用AI模型的用户。 4. 对AI模型性能有高要求的用户。

来源:README

优势与局限

优势

  • 优势1:提供高性能的本地AI模型运行能力
  • 优势2:保护用户数据隐私
  • 优势3:无需云服务或API费用

局限

  • 局限1:仅支持Apple Silicon GPU,兼容性有限
  • 局限2:模型选择有限,可能无法满足所有用户需求
来源:综合 README、代码结构和依赖分析

最新版本

信息不足,待补充

来源:GitHub Releases

总结评价

该项目对于需要高性能、本地化AI处理且关注数据隐私的开发者和用户来说是一个值得关注的选择。它特别适合那些在Apple Silicon平台上工作的用户,但可能不适合需要广泛兼容性的场景。

来源:综合分析
透明度声明
本页内容由 AI(大语言模型)基于以下公开材料自动生成:GitHub README、代码目录结构、依赖文件、Release 信息。 分析时间:2026-04-11 18:32。质量评分:85/100。 所有结论均标注了数据来源。如发现不准确之处,欢迎反馈。

数据来源: README、GitHub API、依赖文件