zai-org/GLM-5

⭐ 37 Stars 🍴 0 Forks Apache-2.0

GLM-5项目是一个针对复杂系统工程和长期目标代理任务的人工智能模型,旨在提升通用人工智能(AGI)的智能效率。

来源:据 README 描述 查看 GitHub 仓库 →

为什么值得关注

GLM-5项目因其强大的编码能力和在复杂系统工程和长期目标代理任务上的卓越表现而受到关注。它填补了在长上下文容量和部署成本之间的空白,并采用了创新的异步强化学习基础设施,显著提高了训练效率和吞吐量。

来源:综合 README 描述和项目特征

核心功能

GLM-5.1

GLM-5.1是下一代旗舰模型,具有比前代模型更强的编码能力,在SWE-Bench Pro上取得了最先进的性能,并在NL2Repo和Terminal-Bench 2.0上大幅领先GLM-5。

来源:据 README 描述
GLM-5

GLM-5针对复杂系统工程和长期目标代理任务,通过参数规模和预训练数据的增加,以及DeepSeek Sparse Attention(DSA)的集成,实现了显著的性能提升。

来源:据 README 描述

技术架构

项目采用模块化设计,代码目录结构清晰,包括GitHub issue模板、依赖管理、资源文件和示例代码。关键的技术决策包括使用transformers框架、pre-commit工具和accelerate库,以及支持多种本地部署方式。

来源:代码目录结构 + 依赖文件

技术栈

infra: Docker、vLLM、SGLang、xLLM 和 Ktransformers  |  key_deps: transformers, pre-commit, accelerate  |  language: 未知  |  framework: transformers

来源:依赖文件 + 代码目录结构

快速上手

vLLM: ```shell docker pull vllm/vllm-openai:glm51 docker pull vllm/vllm-openai:glm51-cu130 # For CUDA 13.0 ``` SGLang: ```bash SGLANG_ENABLE_SPEC_V2=1 sglang serve --model-path zai-org/GLM-5.1-FP8 --tp-size 8 --tool-call-parser glm47 --reasoning-parser glm45 --speculative-algorithm EAGLE --speculative-num-steps 3 --speculative-eagle-topk 1 --speculative-num-draft-tokens 4 --mem-fraction-static 0.85 --served-model-name glm-5.1-fp8 ```
来源:README Installation/Quick Start

使用场景

1. 复杂系统工程:用于解决复杂系统设计和优化问题。2. 长期目标代理任务:适用于需要长期规划和资源管理的任务。3. 代码生成:用于自动生成代码,提高开发效率。4. 机器学习研究:作为研究通用人工智能和代理工程的工具。

来源:README

优势与局限

优势

  • 优势1:强大的编码能力和长期目标代理任务处理能力。优势2:采用创新的异步强化学习基础设施,提高训练效率和吞吐量。优势3:支持多种本地部署方式,方便用户使用。

局限

  • 局限1:主要语言未知,可能存在兼容性问题。局限2:项目规模较大,对计算资源要求较高。局限3:缺乏详细的性能数据,难以全面评估其性能。
来源:综合 README、代码结构和依赖分析

最新版本

信息不足,待补充

来源:GitHub Releases

总结评价

GLM-5项目是一个值得关注的开源项目,对于从事通用人工智能和代理工程研究的团队和个人来说,它提供了一个强大的工具。该项目适合对复杂系统设计和优化、长期目标代理任务和代码生成有需求的用户。

来源:综合分析
透明度声明
本页内容由 AI(大语言模型)基于以下公开材料自动生成:GitHub README、代码目录结构、依赖文件、Release 信息。 分析时间:2026-04-09 00:31。质量评分:85/100。 所有结论均标注了数据来源。如发现不准确之处,欢迎反馈。

数据来源: README、GitHub API、依赖文件