ollama v0.15.1更新:全面优化 GLM-4.7-Flash 性能、增强 Claude 与

ollama v0.15.1更新:全面优化 GLM-4.7-Flash 性能、增强 Claude 与 OpenCode 集成、提升跨平台构建效率

一、GLM-4.7-Flash 模型优化
本次更新对 GLM-4.7-Flash 模型进行了大幅性能优化与正确性修复,解决了部分重复回答与工具调用质量问题。同时,在量化策略上进行了改进:

• 量化更多张量为 q8_0 格式。
• 避免了双重 BOS Token 的问题。
• 修复了注意力机制中 scale 计算的错误,提升注意力计算精度和生成稳定性。
此外,server/quantization.go 中针对多头注意力(MLA)相关权重进行了精度提升,确保模型在高压缩量化下仍能保持高质量输出。

二、跨平台性能改进
Ollama v0.15.1 修复了 macOS 与 arm64 Linux 上的性能问题,并在各平台构建脚本中增加了高效优化编译参数:

• CGO 优化标志: 增加 -O3 编译优化。
• macOS 构建脚本(scripts/build_darwin.sh):
启用 -O3 优化并保持 -mmacosx-version-min 限定版本。
• Windows 构建脚本(scripts/build_windows.ps1):
若没有手动设置,会自动为 CGO_CFLAGS 与 CGO_CXXFLAGS 添加 -O3 优化。
这些改动显著提升了编译后可执行文件的运行效率。

三、工具集成:Claude 与 OpenCode 全新增强
本次更新最大亮点之一,是对 Claude Code 与全新集成项目 OpenCode 的支持完善。

1. Claude Code 一键启动优化
• 新增 ollama launch claude 命令的 智能路径检测机制:
可在系统 PATH 未找到 claude 时自动回退查找 ~/.claude/local/claude(Windows 系统为 claude.exe)。
• 若仍无法找到,将提示用户从官方站点下载安装。
• 测试文件 claude_test.go 覆盖了 PATH 检测、fallback 查找以及异常路径三种场景,确保健壮性。
2. OpenCode 集成正式登场
新版本引入了 OpenCode 这一开源终端 AI 编码助手,并提供完整的 Ollama 集成方案。

命令行支持:

ollama launch opencode
或仅配置不启动:

ollama launch opencode --config
配置文件(~/.config/opencode/opencode.json)示例中默认支持添加本地与云端模型:

• 本地模型示例:qwen3-coder
• 云端模型示例:glm-4.7:cloud
对应逻辑实现涵盖:

• 避免重复条目;
• 保留用户自定义字段;
• 自动将旧 [Ollama] 后缀条目迁移为 _launch 标记;
• 精确区分由 Ollama 管理的模型条目。
#大模型# #福大大架构师每日一题#
全部评论

相关推荐

01-27 15:41
门头沟学院 Java
想躺平的菜鸡1枚:我项目比你难、学历比你好、还有SCI论文,投java都被拒一大片,现在基本上都要问点agent开发
软件开发投递记录
点赞 评论 收藏
分享
评论
1
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务