type: entity tags: [llama.cpp, inference, ggml, release, 推理框架] related: [[ggml-llamacpp-hf]], [[coremltools-9]], [[mnn-350]] sources: - url: https://github.com/ggml-org/llama.cpp/releases/tag/b8851 title: "ggml-org/llama.cpp: b8851" date: 2026-04-19 reliability: high created: 2026-04-20 updated: 2026-04-20
llama.cpp b8851¶
增量更新:升级 cpp-httplib 至 0.42.0,持续优化多平台推理性能。
发布信息¶
- 版本: b8851
- 发布日期: 2026-04-19
- 仓库: ggml-org/llama.cpp
主要变更¶
依赖更新¶
- cpp-httplib 升级至 0.42.0 — HTTP 服务器库更新,可能包含安全修复和性能改进。llama.cpp 的内置 HTTP 服务器(用于 API 推理)依赖此库。
平台支持¶
| 平台 | 包格式 |
|---|---|
| macOS Apple Silicon (arm64) | 原生 + KleidiAI 变体 |
| macOS Intel (x64) | 原生 |
| iOS | XCFramework |
| Linux x64/arm64/s390x | CPU/Vulkan/ROCm/OpenVINO |
| Android | 原生 |
为什么重要¶
b8851 是一个维护性更新,核心变化是依赖库版本升级。cpp-httplib 0.42.0 的更新可能修复了 HTTP 处理中的边缘情况或安全问题,对于运行 llama.cpp HTTP 推理服务的生产环境有实际价值。
对于手机端 AIOS,llama.cpp 持续保持每周 2-3 个版本的迭代速度,表明端侧 LLM 推理生态的活跃度。b8851 距离 b8850 仅一天,说明项目采用持续集成 + 频繁发布的策略,新功能和修复能够快速到达用户手中。
关联¶
- [[ggml-llamacpp-hf]] — llama.cpp 的 GGML 生态和 HuggingFace 集成
- [[coremltools-9]] — Apple 平台的 Core ML 工具链与 llama.cpp iOS 部署互补
- [[mnn-350]] — Alibaba 的端侧推理引擎,与 llama.cpp 在移动端形成竞争
- [[edgeflow-cold-start]] — llama.cpp 的快速加载能力支持冷启动优化
- [[on-device-inference-memory-pressure]] — llama.cpp 的量化能力直接缓解内存压力