avatar-decorate
获赞
5196
粉丝
213
关注
228
看过 TA
683
西昌学院
2011
golang
IP属地:北京
微信公众号:福大大架构师每日一题
私信
关注
ollama v0.13.5 发布详解:新模型接入、引擎升级与工具能力增强ollama v0.13.5 于 2025 年 12 月 19 日正式发布。本次版本更新规模较大,共合并 10 次提交,涉及约 150 个文件的调整,新增代码 10997 行,删除代码 6838 行。更新内容主要集中在模型支持、引擎能力、工具定义与解析、以及底层推理和运行时优化等方面。一、新模型支持:FunctionGemma 接入在 v0.13.5 中,ollama 正式引入了 Google 的 FunctionGemma 模型,并完成了对应的解析器和渲染器支持。这一更新使 FunctionGemma 能够在 ollama 生态中以原生方式运行,并正确处理函数声明、函数调用和函数响应等结构化内容。同时,SentencePiece 分词解析逻辑也进行了扩展,新增了对多种函数相关控制符号的识别,包括函数声明、函数调用、函数返回以及转义标记等。这保证了 FunctionGemma 在使用 spm 分词器时能够正确区分普通 token 与控制 token。二、BERT 架构模型全面切换至 Ollama 引擎本次更新的一个重要变化是:BERT 架构模型开始统一使用 Ollama 自研引擎运行,而不再依赖旧的执行路径。在架构判定与运行能力上完成了多项调整:• 将 bert 明确列为需要 Ollama Engine 的架构类型• 在特性判断中,bert 开始支持 flash attention• nomic-bert 等相关模型也统一纳入新的引擎判定逻辑这一变化为 BERT 及相关嵌入模型带来了更一致的执行方式,也为后续功能扩展提供了更稳定的基础。三、DeepSeek-V3.1 内置渲染与工具解析能力ollama v0.13.5 针对 DeepSeek-V3.1 增加了内置 renderer 和 tool parsing 能力,使模型在输出结构化结果时可直接由引擎完成解析和渲染。同时,补充并修复了工具定义中嵌套属性无法正确处理的问题,使 DeepSeek 系列模型在使用复杂工具参数结构时更加可靠。此外,还新增并完善了 DeepSeekV3 家族的专用解析器逻辑,进一步提升了该系列模型在 ollama 中的可用性与一致性。四、工具定义系统增强:支持嵌套属性在 API 类型层面,本次更新扩展了 ToolProperty 结构,新增了对 properties 字段的支持,使工具参数能够表达任意层级的嵌套对象结构。这一能力不仅支持简单对象嵌套,还支持深层多级嵌套,并通过新增的单元测试覆盖了以下场景:• 对象属性的嵌套定义• 多层对象中继续包含对象属性• JSON 的反序列化与序列化回环校验这使得 ollama 在函数调用和工具调用场景下,可以完整表达复杂参数定义,提升了与现代大模型工具调用规范的兼容性。五、GGML 与底层推理逻辑更新v0.13.5 更新了 GGML 版本引用,并同步调整了相关构建配置文件。Makefile 中的 GGML 上游提交指针发生变更,保证引擎使用最新的底层实现。在 KV Cache 和因果掩码构建逻辑中,也进行了精简和修复:• 移除了多余的 MaskBatchPadding 和 MaskDType 默认初始化逻辑• 简化了掩码构建过程,仅按当前 batch 大小生成 mask• 修复了 padding mask 计算中的冗余代码这些调整有助于减少不必要的内存占用,并提升推理阶段的稳定性。六、llama.cpp 集成与初始化流程整理在 llama.cpp 对接代码中,本次版本对模型初始化、上下文创建和采样器初始化流程进行了较大幅度的整理:• 引入了基于 impl 的封装结构来管理模型与上下文生命周期• 清理了重复的返回路径和无效代码• 修正了模型加载失败与上下文创建失败时的处理逻辑• 优化了采样器初始化与 logit bias 注入流程同时,在模型元信息解析中,采样参数读取逻辑被去重处理,避免重复判断配置标志,提高了代码可读性和一致性。七、其他杂项与维护性改进除核心功能外,v0.13.5 还包含一系列维护性更新,例如:• 清理不再需要的冗余代码• 调整类型定义,引入 ConfigV2 和 RootFS 相关类型• 回滚 granite-embedding 相关变更• 更新同步规则,补充 llama.cpp 中 mtmd 工具和模型源码的同步路径结语总体来看,ollama v0.13.5 是一次偏向基础能力增强与架构统一的版本更新。它在模型支持范围、工具系统表达能力以及底层执行稳定性方面都迈出了重要一步。对于使用 BERT、DeepSeek、FunctionGemma 等模型的用户而言,这一版本提供了更完善、更一致的运行体验,也为后续功能扩展奠定了坚实基础。
0 点赞 评论 收藏
分享
pion/webrtc v4.1.8 版本更新详解:DTLS 指纹校验、Mux 超时机制与稳定性改进pion/webrtc v4.1.8 版本已正式发布,本次更新主要集中在安全性增强、网络传输可靠性优化以及事件回调行为修正等方面。整体更新内容不多,但每一项都对实际使用场景具有明确价值,下面对本次版本变更逐条进行详细说明。一、新增 DTLS 握手阶段指纹校验选项在 v4.1.8 中,新增了在 DTLS 握手过程中检查指纹的可选能力。DTLS 是 WebRTC 中用于保障数据通道和媒体传输安全的关键协议,而证书指纹校验是确认通信对端身份的重要手段。新增该选项后,开发者可以在 DTLS 握手过程中决定是否对证书指纹进行校验,从而进一步提升连接安全性。这一改动使 pion/webrtc 在安全策略配置方面更加灵活,适用于对安全要求较高的实时通信场景,同时也保持了对原有行为的兼容性。二、为 Mux 实现超时控制机制本次版本为 Mux 实现了 deadlines(超时)机制。Mux 在 pion/webrtc 中承担着多路复用网络数据的职责,如果在网络异常或对端响应缓慢的情况下缺乏超时控制,可能导致阻塞或资源长期占用。加入超时机制后,Mux 在读写操作中可以感知截止时间,当超过设定时间仍未完成操作时及时返回,从而提升系统的健壮性和可控性。这一优化对于高并发连接和复杂网络环境下的 WebRTC 应用尤为重要。三、升级 STUN 依赖模块至 v3.0.2在依赖管理方面,pion/webrtc v4.1.8 将 github.com/pion/stun/v3 模块升级到了 v3.0.2 版本。STUN 是 WebRTC 用于 NAT 穿透的重要协议组件,更新依赖可以带来更好的稳定性和潜在的问题修复。该升级属于内部依赖更新,对外 API 行为没有直接影响,但有助于确保 pion/webrtc 在网络连接建立过程中的可靠性和兼容性。四、关闭后不再触发 OnBufferedAmountLow 回调在本次更新中,还修复了一个事件回调行为问题:当连接已经关闭时,不再触发 OnBufferedAmountLow 回调。此前在特定情况下,即使底层资源已关闭,相关回调仍可能被调用,这容易导致业务层逻辑混乱甚至出现异常处理。修复后,回调触发时机更加符合生命周期预期,开发者可以更加放心地在回调中处理缓冲区相关逻辑,从而提升整体代码健壮性。总结pion/webrtc v4.1.8 虽然不是一次大规模功能更新,但在安全性、网络超时控制、依赖维护以及事件回调一致性方面均进行了有针对性的改进。这些优化有助于提升 WebRTC 应用在真实生产环境中的稳定性与可控性,推荐相关项目逐步升级并验证。
0 点赞 评论 收藏
分享
agno v2.3.13 发布:AgentOS 引入 RBAC 权限控制与安全机制升级2025年12月15日,agno 发布了最新版本 v2.3.13。此次更新在功能与安全层面都有显著提升,尤其是为 AgentOS 引入了 基于角色的访问控制(RBAC) 机制,为系统安全和资源管理带来了更强的灵活性与可扩展性。一、主要新特性1. AgentOS Role-Based Access Control (RBAC)本次版本最大的亮点是 AgentOS 支持了 RBAC 权限控制。通过该机制,可以在自动或手动配置下使用 JWT(JSON Web Token) 进行基于授权范围的访问控制。RBAC 相关功能包括:• 全局 JWT 验证机制所有访问 AgentOS 的流量都需要携带签名的 JWT Token,包含正确的用户权限范围(Scopes),系统会基于该 Token 进行验证与授权。• 按端点授权控制管理员可以根据 JWT Token 中的权限范围,定义各端点(endpoint)的访问策略。是否允许访问某个接口,将根据配置的 Scope 自动判断并执行。• 按代理资源控制RBAC 还允许通过配置特定的资源访问范围(如 agents:my-agent:read)来控制可使用的 Agent。例如:• 调用 POST /agents/my-agent/runs 时可以精确控制哪些用户能运行特定的 Agent。• 调用 GET /agents 或 GET /agents/{id} 时可控制返回哪些 Agent 数据。此机制实现了对用户可 使用与查看哪些 Agent、团队及工作流(Workflow) 的完全控制,安全性与精细化管理能力显著提升。此外,AgentOS UI 将在未来几天内发布兼容版本,以支持该 RBAC 功能的可视化配置与使用。二、JWTMiddleware 类更新说明在 JWTMiddleware 中进行了重要调整:• secret_key 已弃用原有参数仍受支持,但建议使用新的参数 verification_keys=[...] 进行配置,以便支持更安全的密钥验证机制。• 默认算法更新默认算法由 HS256 修改为 RS256,采用非对称加密形式,更适合生产环境中的安全验证需求。这一变化将使 AgentOS 在安全性方面与主流标准接轨,同时简化了分布式系统中多节点验证的部署。三、其他更新与修复• 修复 Redis 中的 Reranker 分配问题。• 重构知识内容新增逻辑,改为同步方式以提升稳定性。• 修复搜索查询在引用(citations)处理上的异常。• 发布稳定版本 2.3.13。四、总结agno v2.3.13 是一次重要的安全与架构升级版本。随着 AgentOS RBAC 的加入,开发者与团队可以实现更细粒度的权限控制、更安全的用户验证流程以及更可控的 Agent 资源管理。
0 点赞 评论 收藏
分享
ollama v0.13.4 发布——全新模型与性能优化详解2025年12月13日,ollama v0.13.4版本预发布,随后于2025年12月16日正式发布。本次更新是一次重要的版本迭代,包含新模型的推出、引擎默认设置的调整、Flash Attention机制的自动化启用,以及一系列对Gemma 3架构模型的修复与增强。以下是详细更新内容。一、新增模型1. Nemotron 3 Nano这是一款全新的开放高效智能代理模型,定义了高性能标准,面向智能代理应用场景。2. Olmo 3 与 Olmo 3.1这一系列开放语言模型旨在推动语言模型研究科学化。其预训练基于 Dolma 3 数据集,后训练使用 Dolci 数据集,代表了更系统化的语言模型训练流程。二、主要更新内容• 默认启用 Ollama 引擎所有剩余模型均默认启用 Ollama 引擎,统一运行环境。• 默认启用 Flash Attention 自动模式模型将自动启用 Flash Attention,以优化注意力计算效率。• 修复 Gemma 3 长上下文处理问题解决了长文本情况下上下文处理异常的问题,使 Gemma 模型更加稳定。• 修复 Gemma 3 QAT 模型导入问题修复了 Gemma 3 架构在量化训练模型导入时可能出现的异常。三、代码更新与文档修订• 在 api/client.go 文件中修正了 Modelfile 的超链接后缀,将.md改为.mdx。• 删除了 macOS 与 Windows 平台中“发送 UI 请求消息”的冗余代码,使应用逻辑更简洁。• cocoa 对话框代码中增强了多文件处理机制,确保缓冲区内存安全。• Windows 文件对话框错误输出格式更准确。• server.go 修改了模型路径检查逻辑,在路径不可用时使用默认路径。• wintray/eventloop.go 改进了底层事件循环的内存安全处理,增加了注释控制。• 文档 docs/api.md 全面更新对 Modelfile.mdx 的链接引用,使说明一致化。• 新增工具文档与示例提取功能:新增目录:.docs/tools/extract-examples包含:提取后可执行:• README.md:介绍如何将 MDX 中的代码示例提取到临时目录运行。• main.go:示例提取脚本,支持自动生成 package.json 与 pyproject.toml 依赖文件。.cdnpm install  # JS示例node file.js 或 python file.py 或 bash file.sh四、环境配置与引擎优化• envconfig/config.go 调整了 OLLAMA_NEW_ENGINE 的默认值逻辑,引入 BoolWithDefault 方法,使引擎启用逻辑更灵活。• 增强了环境变量映射支持,结构更加全面。五、模型与计算优化1. Flash Attention 类型系统引入ml/device.go 新增 FlashAttentionType 枚举类型:• Auto• Disabled• Enabled此设计使 Flash Attention 模式控制更细化,支持自动适配硬件。2. GGML 图计算增强在 fs/ggml/ggml.go 中,Flash Attention 引入枚举类型接口,支持多种量化缓存类型检测与验证方法,提升兼容性。3. Llama 引擎增强llama/llama.go 重构了 Flash Attention 参数逻辑——支持自动、启用与禁用三种模式,适配不同模型及硬件环境。4. LLM 服务逻辑优化llm/server.go 增加了 Flash Attention 用户显式设置检测逻辑,并完善了 KV 缓存量化兼容性处理。当使用量化 KV 缓存类型时必须启用 Flash Attention。KV 缓存校验机制进一步完善,增加更详细的警告提示与逻辑分支。5. ML 后端结构改进ml/backend.go 与 ml/backend/ggml/ggml.go 中统一 Flash Attention 类型接口,并在注意力计算中使用新的枚举系统,实现高效的多设备内存调度与算子融合优化。六、Gemma 3 架构修复与改良model/models/gemma3/model_text.go对 Gemma 3 的旋转位置嵌入 (RoPE) 算法进行了调整:• 新增 ropeValuesForLayer 方法,按层返回位置嵌入基础值与缩放因子。• 修复 QAT 权重导致的错误缩放比问题,强制 ropeScale 为 1.0。• 优化滑动窗口注意力机制下的 softcap 和 rope 参数初始化逻辑,使注意力计算更加准确。七、OpenAI兼容层更新openai/responses.go调整了工具调用消息的合并逻辑:• 当助手消息存在时,将后续工具调用结果合并到上一条消息中,而非新建消息。• 保留思考过程(Thinking)内容的正确关联,确保连续对话上下文一致。同时新增全面的单元测试 openai/responses_test.go,覆盖函数调用与工具输出场景,验证新逻辑稳定性。八、贡献统计• 本次版本共有 9 次提交,22 个文件修改,涉及 6 位贡献者。• 修改代码约 812 行新增与 253 行删除,覆盖核心引擎、文档、模型逻辑与工具部分。九、总结ollama v0.13.4 是一次大幅度增强版发布,重点在于:• 增强引擎默认配置与性能自动化;• 推出新一代开放智能模型;• 完善 Gemma 与 Llama 架构的兼容性;• 引入更完整的 Flash Attention 类型系统;• 提高文档与开发工具的自动化程度。
0 点赞 评论 收藏
分享
DeepSpeed v0.18.3 发布:优化性能与稳定性,增强兼容性与调试体验DeepSpeed 正式发布了 v0.18.3 版本,本次更新重点围绕性能优化、调试工具增强、兼容性改进以及优化器与硬件支持拓展展开。该版本包含多个细节更新,进一步提升了分布式训练的稳定性与可扩展性。以下为本次版本的主要更新内容。一、系统与构建改进• 更新 version.txt 文件,确保版本管理一致性。• 更新模态持续集成逻辑(modal CI),修复并改进相关流程。• 解释并完善 leaf 模块说明,便于用户理解模块功能。• 禁用部分 nv-lightning 配置项,优化持续集成测试过程。• 使用 PyTorch 工具检测 ninja 构建工具,提高编译检测的可靠性。• 信任 Intel 服务器以进行 XPU 测试,增强跨硬件平台的测试安全性。• PyTorch 兼容的 backward API,进一步提升与 PyTorch 的接口一致性。• 启用 compiled autograd 进行反向传播,提升反向计算性能。二、优化器与学习率改进• Muon 优化器支持独立学习率参数:允许分别设置 “muon_lr” 和 “adam_lr”,以便更灵活地控制优化器的学习率。• Muon 优化器动量缓存在 GPU 上,减少主机与设备之间的数据传输,提高训练效率。• 低精度主参数/梯度/优化器状态支持,增强在 FP8、FP16 与 BF16 等低精度训练场景下的性能与稳定性。三、内存与性能优化• see_mem_usage 工具改进:确保无论何种情况下都能正确输出内存使用信息。• 使调试工具更加健壮,在异常和边界情况下保证运行稳定。• Zero Stage 1-2 优化:在未配置时不再固定内存,从而减少不必要的内存占用。• 修复在加载模型或 Zero 检查点时 ds_secondary_tensor 可能出现的数据污染问题,提高模型加载与恢复的正确性。• 在交换张量为空时跳过 aio wait 操作,进一步提升性能与资源利用效率。四、测试与数值稳定性改进• 改进 ROCm FP8 单元测试:对 FP16 和 BF16 情况放宽容差,以适应更多硬件环境。• 放宽低精度计算的限制,增强在 AMD GPU 等环境下的稳定性。五、功能拓展与社区支持• 新增 Qwen2.5 模型至 AutoTP 模型列表,支持更多自动并行模型配置。• 更新安全文档(SECURITY.md) 指向 GitHub 官方报告渠道,统一安全报告流程。• 新增关于 Ray 与 DeepSpeed 联合技术交流会的资讯,促进社区合作与技术传播。六、监控与性能分析• 新增 Wall Clock Timers API,为用户提供更精确的时间统计和性能分析接口,方便评估训练过程中的时间分布与瓶颈。总结:DeepSpeed v0.18.3 版本在保持高性能的同时,进一步提升了系统的稳定性、灵活性和兼容性。此次更新特别加强了优化器配置能力、内存管理与调试工具的可靠性,对于使用分布式训练的研究团队和开发者而言,将提供更高效、更可控的深度学习训练体验。
0 点赞 评论 收藏
分享
rust 1.92.0 更新详解:语言特性增强、编译器优化与全新稳定API1. 完善 MaybeUninit 的表示与有效性文档进一步明确 MaybeUninit 类型的内部表示和有效性规则,使文档更加清晰。2. 允许在安全代码中对 union 字段使用 &raw mut/const现在可以在安全代码中创建 union 字段的原始引用,提升灵活性。3. 自动特征和 Sized 约束更倾向于使用关联类型的 item bounds优化类型推断与 trait 约束逻辑,使语义更加一致。4. 不再在 [X; 0] 中生成 X,当 X 正在执行常量解包(unsizing)时减少不必要的物化操作,提高编译效率。5. 支持 [track_caller] 与 [no_mangle] 组合使用前提是所有声明都明确指定 [track_caller],这一改动让调用位置跟踪更灵活。6. "never" 类型相关警告调整两个 lints:never_type_fallback_flowing_into_unsafe 与 dependency_on_unit_never_type_fallback 被默认设置为 deny-by-default。7. 允许为同一关联项指定多个约束在 trait 对象中除外,这为更复杂的类型定义提供可能性。8. 加强高阶生命周期区域处理对一致性(coherence)规则进行轻微强化。9. 优化 unused_must_use lint当返回类型为 Result<(), !> 或 ControlFlow 时,不再警告,因为这些错误逻辑上永远不会发生。
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享
ollama v0.13.3 最新发布:新增模型与功能优化详细解读2025年12月12日,ollama v0.13.3 版本正式发布。本次更新引入了多款全新模型,并对现有功能进行了优化与修复,为开发者在代码分析、多语言检索以及软件工程领域提供了更高效的支持。一、全新模型1. Devstral-Small-2• 24B 参数模型• 擅长使用工具探索代码库• 支持多文件编辑• 为软件工程类智能代理提供强大能力支持2. rnj-1• 8B 参数开源权重、稠密模型• 由 Essential AI 从零开始训练• 针对代码及 STEM(科学、技术、工程、数学)领域优化• 性能可与当前开源权重领域的先进模型媲美3. nomic-embed-text-v2• 多语言 MoE(混合专家)文本嵌入模型• 出色的多语言检索能力二、功能优化与改进1. 嵌入接口优化• 改进了 /api/embed 与 /v1/embeddings 在使用时的截断逻辑2. 架构扩展• 在 Gemma 3 架构基础上扩展,支持 rnj-1 模型3. 模型输入修复• 修复了使用 qwen2.5vl 进行图像输入时出现的报错问题三、近期更新的具体改动• 截断逻辑优化:修正运行时截断逻辑,并移除服务器端截断• rope 重构:提升模型在长上下文处理中的性能稳定性• rnj-1 推理支持:新增对 rnj-1 模型的推理支持• qwen2.5vl metal argsort 修复• nomic-embed-text-v2 模型实现完善• UI优化:• 修复模型下载完成后能力不更新的问题• 使用 Ollama 接口进行用户认证与健康检查• 使用 requestAnimationFrame 防止文本底部被截断• 性能提升:升级 llama.cpp(17f7f4)版本,提升 SSM 性能• 命令行工具修复:• 修正 cmd/bench 下 README 中的选项表与二进制文件名• 路由优化:在工具调用中增加 logprobs 输出• 模型调整:更新 ministral 与 devstral 的转换与超参数设置• 模板功能增强:新增 yesterdayDate 辅助函数• 嵌入性能优化:调整 embeddings 的批量大小• API扩展:新增 v1/responses 接口支持• rotary embeddings 修复:解决 ministral 3 在旋转嵌入上的问题• 文档更新:调整 README 内容四、更新总结本次 ollama v0.13.3 发布,不仅带来了三款定位不同的新模型,覆盖了代码分析、科学工程以及多语言检索等多领域,同时对嵌入接口、模型架构、性能以及开发者工具进行了广泛优化,进一步提高了使用体验与运行稳定性。
投递超参数科技等公司6个岗位
0 点赞 评论 收藏
分享
nginx 1.29.4 发布:支持 HTTP/2 后端与加密客户端问候(ECH),多项功能优化与修复2025年12月11日,nginx 官方发布了 1.29.4 mainline 版本。本次更新带来了多项重要特性与修复,包括 HTTP/2 到后端的支持、Encrypted Client Hello (ECH) 集成,以及对 SSL、HTTP/2、代理模块的多方改进。以下是本次更新的详细内容:主要更新内容1. 构建信息优化• 配置流程确保在执行 nginx -V 时可以正确显示 “built by ...” 信息。• 增强 MSVC 与 PCRE2 10.47 的兼容性。2. SSL 功能更新与修复• 修改了 ngx_ssl_set_client_hello_callback() 接口,优化错误处理流程。• 修复了在使用 BoringSSL 时因先前改动导致的构建问题。• 避免在 ECH 未配置或不支持的情况下产生警告信息。• 增加通过 OpenSSL 的 ECH 共享模式支持,实现加密客户端问候功能。3. HTTP/2 改进• 扩展了对 NULL 缓冲区及零长度的防护检查,提升稳定性。• 禁用了在分块传输编码中使用裸 LF,提升协议安全性与兼容性。• 增加上游连接层面的 ALPN 协议协商支持。4. 代理模块优化• 修复 URI 变更时可能出现的段错误问题。• 针对 HTTP/2 协议进行了代理模块重构,新增 HTTP/2 代理模块。• 提取 ngx_http_proxy_v2_process_frames() 函数,以及控制帧与跳过函数,以提升代码可维护性。• 增加 HTTP/2 代理的缓冲支持与缓存支持,提升后端通信效率。5. 主机验证改进• 改进了主机头部验证逻辑,并调整了 ngx_http_validate_host() 接口。6. QUIC 协议修复• 修复 QUIC 握手失败时可能出现的段错误问题,提高稳定性。版本意义nginx 1.29.4 在功能上进一步完善了对现代协议的支持,尤其是 HTTP/2 后端通信 和 ECH 加密握手,提升了安全性与性能。同时,本次更新对 SSL、HTTP/2、代理及 QUIC 等模块进行了多方优化与 bug 修复,确保在高并发和多协议环境中运行更加稳定。
0 点赞 评论 收藏
分享
2025年12月TIOBE编程语言排行榜,Go语言排名第15,Rust语言排名17。编程语言 R 重返前十。本月头条:编程语言 R 重返前十编程语言 R 以非常契合统计学家和数据科学家的特点而闻名。随着统计分析和大规模数据可视化的重要性不断提升,R 的受欢迎程度再次上升。例如,这一趋势也反映在 Wolfram/Mathematica(另一种具有类似能力的工具)上,本月该工具重新进入了前 50 名。在一些“传统”软件工程师眼中,R 因其非传统的语法以及在大型生产系统中的有限可扩展性而受到质疑。但对于特定领域的专家来说,它仍然是一个功能强大且优雅的工具。R 在大学以及科研驱动型行业中依旧蓬勃发展。过去,R 和 Python 常被视为竞争对手,而这场竞争最终在普遍采用度上由 Python 取胜。然而,R 依然开辟了一个稳固且持久的细分领域。它在快速实验、统计建模以及探索性数据分析方面表现突出。我们已经见证了许多 TIOBE 指数前十的语言此起彼伏,值得关注的是 R 是否能够保持目前的位置。另一条值得关注的消息是:下个月我们将公布 2025 年度 TIOBE 年度编程语言。目前来看,C# 似乎是这一头衔的最有力竞争者。TIOBE 编程社区指数是衡量编程语言流行度的一个指标。该指数每月更新一次。排名依据是全球范围内的专业工程师人数、相关课程数量以及第三方供应商的情况。计算排名时会使用包括 Google、Amazon、Wikipedia、Bing 在内的 20 多个知名网站的统计数据。需要注意的是,TIOBE 指数并不是评判“最好的”编程语言,也不是根据某种语言编写代码的总行数来排名。该指数可以用来检验你的编程技能是否仍然保持最新状态,或者在开始构建新的软件系统时,帮助你做出关于采用哪种编程语言的战略决策。其他编程语言完整的前 50 名编程语言榜单如下所示。此概览为非正式发布,因为有可能我们遗漏了某种编程语言。接下来的 50 种编程语言以下语言列表对应排名 第 51 位到第 100 位。由于这些语言之间的差距相对较小,这里仅按字母顺序列出:ActionScript、Algol、Alice、Awk、B4X、Caml、CLIPS、Clojure、Common Lisp、Crystal、D、Elm、F#、Forth、GAMS、Groovy、Hack、Icon、Inform、Io、J、JScript、Logo、Maple、Modula-2、Mojo、MQL5、NATURAL、Nim、Oberon、OCaml、Occam、OpenCL、PL/I、Q、REXX、S、Scheme、Simulink、Smalltalk、SPARK、SPSS、Stata、SystemVerilog、Tcl、Transact-SQL、V、VHDL、X++、Xojo。本月指数中的变化本月对指数的定义进行了如下调整:• Johann Weiser 建议将 LEAN 编程语言加入 TIOBE 指数。• LEAN 符合所有收录标准,因此已被加入到监测列表中。• LEAN 在指数中的首秀排名为 第 145 位。长期历史趋势为了更好地了解整体趋势,以下表格展示了过去多年 前十种编程语言 的排名情况。请注意,这些排名是 12 个月平均位置。重要说明:• 2001 年之前的数据并非基于网络搜索引擎的统计结果,而是基于 Usenet 新闻组的命中次数,这些数据是通过回溯计算得出的。• 在上表中,“Visual Basic” 与 “(Visual) Basic” 是不同的概念。直到 2010 年,“(Visual) Basic” 指的是所有可能的 Basic 方言,包括 Visual Basic。经过讨论,决定将“(Visual) Basic”拆分为不同的方言,例如 Visual Basic .NET、经典 Visual Basic、PureBasic、Small Basic 等。由于 Visual Basic .NET 已经成为 Visual Basic 的主要实现版本,现在它被称为 “Visual Basic”。• SQL 编程语言是在 2018 年才被纳入 TIOBE 指数,因为有人指出 SQL 是图灵完备的。因此,尽管这门语言非常古老,但它在指数中只有很短的历史。编程语言名人堂下面的名人堂列出了历届“年度编程语言”奖项的获奖者。该奖项授予的是在一年内排名上升幅度最大的编程语言。缺陷与变更请求以下是最常被提出的 前 5 项改进或缺陷修复请求。1. 除了 “<语言> programming” 之外,还应该尝试其他查询,例如 “programming with <语言>”、“<语言> development” 和 “<语言> coding”。2. 添加其他自然语言(不仅限于英文)的查询。计划首先从中文搜索引擎 百度 开始。这一功能已部分实现,并将在未来几个月内完成。3. 增加一个已被拒绝的搜索关键词列表,以减少重复收到关于 Rails、jQuery、JSP 等的邮件。4. 启动面向数据库、软件配置管理系统和应用框架的 TIOBE 指数。5. 一些搜索引擎允许查询过去一年内新增的页面。TIOBE 指数应仅跟踪这些最近新增的页面。
聊聊我眼中的AI
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享
eino v0.7.7 发布:新增文件系统中间件,优化序列化与反序列化,修复工具信息流问题2025年12月4日,CloudWeGo 开源项目 eino 正式发布了 v0.7.7 版本。本次更新主要围绕文件系统中间件支持、序列化处理范围扩展、反序列化稳定性提升以及工具信息流优化进行了改进。以下是更新详情:一、支持文件系统中间件(filesystem middleware)在本版本中,ADK 模块新增了对文件系统中间件的支持。这一特性使得在处理文件存储、读取、传输等场景时,能够通过中间件机制实现更加灵活、可扩展的处理逻辑,从而简化开发者在文件操作过程中的接口适配工作。二、增加序列化处理范围(serialization scope)持续优化 CI 流程的同时,这一版本扩展了序列化的处理范围,使得数据在持久化与传输过程中能够涵盖更广泛的类型与使用场景。这对大规模数据处理以及分布式环境下的任务执行具有积极作用。三、修复数组与切片反序列化异常针对反序列化环节中出现的 checkpoint 恢复时数组和切片解析过程中可能引发的崩溃问题,本次更新进行了修复。此改进有效提升了系统在复杂数据恢复场景下的稳定性与可靠性,减少了运行时的潜在风险。四、工具信息流中增加工具名称在 ADK 模块的流式工具消息(stream tool message)中,现在会附带工具名称信息。这一改动可帮助开发者在处理多工具协作或调试日志时,快速定位消息来源工具,提高问题排查与调试的效率。总结eino v0.7.7 的发布为开发者带来了以下关键改进:• 文件系统中间件支持,更好地集成文件处理逻辑• 序列化范围扩展,适应更广泛的数据场景• 反序列化稳定性增强,避免数组和切片解析崩溃• 工具信息流更明确,便于调试与维护
0 点赞 评论 收藏
分享
pion/webrtc v4.1.7 版本更新详解2025 年 12 月 5 日,pion/webrtc 发布了最新版本 v4.1.7。该版本在稳定性、性能和协议兼容性方面都有明显提升,同时对多个依赖模块进行了更新。本次更新的重点包括对 RTP、ICE、DTLS、SRTP 等模块的升级与新特性支持,以及对测试稳定性的改进。主要更新内容1. 新功能与选项支持• 增加忽略 rid 暂停的选项新增了在 a=simulcast:recv 中可选择忽略 rid 暂停的功能,使得在多码流接收场景下更加灵活。• 精准 RTP 时间戳支持引入 WithDirectPTS 选项,可实现更精确的 RTP 时间戳处理,提升音视频同步效果。• ICE 候选 Trickling 能力检测新增 CanTrickleICECandidates 方法,用于判断是否支持 ICE trickling,这对于减少连接建立时间非常有用。• 支持广播 ICE trickling 信息增强 SDP 中 ICE trickling 的能力声明。• DTLS Cipher Suites 可配置新增了配置 DTLS 密码套件的选项,让用户可根据安全性需求选择不同的加密算法。2. 协议与流处理改进• Simulcast 改进• 在探测过程中不再丢弃数据包,提高多码流切换的平滑度。• 考虑首个数据包读取 Simulcast IDs,改善媒体流识别性能。• NACK/RTX 重传测试优化• 增加了确定性 NACK/RTX 重现测试,提高重传机制的可预测性。3. 模块更新本次版本升级同步更新了多个依赖模块,确保性能与兼容性:• RTP 升级至 v1.8.26• ICE/v4 升级至 v4.0.13,并在此版本中多次小更新至 v4.0.12 与 v4.0.11• DTLS/v3 升级至 v3.0.8• SRTP/v3 升级至 v3.0.9• SCTP 升级至 v1.8.41• Interceptor 升级至 v0.1.42• TURN/v4 升级至 v4.1.3,以及 v4.1.2• Transport/v3 升级至 v3.1.1 与 v3.1.0• STUN/v3 升级至 v3.0.1• RTCP 升级至 v1.2.164. 测试与稳定性提升• 修复多个测试用例的竞争条件问题,减少测试过程中的偶发失败。• 改进 Trickling-ICE 示例代码,提升演示效果。• 增加简单的 datachannel 示例(含 demo.html),方便开发者快速上手。• 改进 datachannel 示例性能。• 增加自定义日志示例说明。• 多项 CI 配置更新,确保持续集成环境的稳定。总结pion/webrtc v4.1.7 在多媒体传输稳定性和协议兼容性上有显著提升,尤其是 Simulcast 优化、ICE trickling 支持、精准 RTP 时间戳以及可配置 DTLS 密码套件,为开发者提供了更多控制和优化的可能性。同时,此次更新同步维护了依赖库版本,保障了整体系统的安全与性能。
0 点赞 评论 收藏
分享
agno v2.3.8 版本发布:引入模型级重试机制与多线程上下文变量传递优化近日,agno 正式发布了 v2.3.8 版本(2025 年 12 月 5 日),本次更新在功能、性能及稳定性方面均有显著提升。以下是本版本的详细更新内容。新特性(New Features)1. 模型级重试机制(Model-Level Retries)此次版本在模型执行层引入了 改进的重试逻辑。• 在模型配置中设置 retries=n 时,将会直接在 模型执行层 进行重试操作。• 这一机制对于应对模型提供商的 请求速率限制(Rate Limit) 特别有用。• 代理层(Agent-level)重试 依旧存在,并适用于代理执行循环中引发的任何异常。官方建议在不同使用场景下,合理区分模型级重试与代理级重试,以获得最佳执行稳定性。改进(Improvements)上下文变量在并行工作流多线程中的传递优化• 修复了在并行工作流中执行时,上下文变量 无法传递至子线程的问题。• 特别是在使用 ThreadPoolExecutor 执行并行步骤时,之前的版本可能导致 contextvars(如 OpenTelemetry 这样的追踪/监控库使用的上下文变量)无法在子线程中正常获取。• 此修复确保了在并行执行步骤时,上下文变量能够准确传递,使得分布式追踪和性能监控更加准确。Bug 修复(Bug Fixes)• 知识检索模块修复(Knowledge Retriever Update)解决了在调用 aget_relevant_docs_from_knowledge 时,错误地传递了 dependencies 而不是 run_context 的问题,确保知识检索过程依赖项传递正确。移除内容(Removals)• MemoriTools 移除由于 Memori 框架 的发展方向调整,MemoriTools 已被移除。官方说明该工具的功能已被新的架构取代,未来将参考最新文档进行调整。本次主要变更一览(What's Changed)• 更新 memorisdk 至 v3.0.5 版本• 修复知识检索器传参错误问题• 清理调试日志中的追踪相关输出• 新增模型级重试功能• 修复并行工作流子线程上下文传递问题• 发布 v2.3.8 版本总结agno v2.3.8 是一次兼顾新特性、性能优化与问题修复的重要版本:• 模型级重试机制有效提升了高并发场景下的执行稳定性;• 上下文变量多线程传递优化,对分布式追踪非常重要;• MemoriTools 的移除意味着相关用户需要关注新的 Memori 框架文档并更新方案。
0 点赞 评论 收藏
分享
github-mcp-server v0.24.0 发布:全面迁移至 modelcontextprotocol/go-sdk,新增仓库资源补全与AI问题评估工作流1. 核心SDK迁移• 本次版本将 GitHub MCP Server 的核心 Model Context Protocol 实现从 mark3labs/mcp-go 迁移到了 modelcontextprotocol/go-sdk。• 此更改对最终用户应当是透明的,但由于涉及底层协议库替换,建议在使用过程中关注可能出现的回归问题并及时反馈。2. 新增功能• 仓库资源补全(Repository Resource Completion)新增了资源补全能力,支持针对 GitHub 仓库资源进行补全处理,使 AI 工具能更智能地获取相关仓库信息与资源列表。• AI 问题评估工作流(AI Issue Assessment Workflow)新增 GitHub Actions 工作流文件 .github/workflows/ai-issue-assessment.yml,可在 Issue 创建或添加标签时自动调用 AI 进行评估,并根据评估结果添加标签或评论。• 支持 bug 报告评估 和 默认新问题评估 两种 prompt 文件:• .github/prompts/bug-report-review.prompt.yml• .github/prompts/default-issue-review.prompt.yml• AI 会根据问题或Bug报告的完整性自动给出三种评估结果:• Ready for Review• Missing Details• Unsure3. 其他改进• 增加了 X-MCP-Tools 的文档说明(docs/remote-server.md),详细描述了 Remote Server 对应的请求头与本地服务器参数的映射关系。• 修正了只读模式下工具跳过逻辑:确保在判断只读模式时不会错误跳过可写工具的检查条件。• README 中调整了部分工具参数说明格式,使描述更清晰一致。
0 点赞 评论 收藏
分享

创作者周榜

更多
关注他的用户也关注了:
牛客网
牛客网在线编程
牛客网题解
牛客企业服务