首页 / 福大大架构师每日一题
#

福大大架构师每日一题

#
118016次浏览 1577人互动
此刻你想和大家分享什么
热门 最新
pion/webrtc v4.1.8 版本更新详解:DTLS 指纹校验、Mux 超时机制与稳定性改进
pion/webrtc v4.1.8 版本更新详解:DTLS 指纹校验、Mux 超时机制与稳定性改进pion/webrtc v4.1.8 版本已正式发布,本次更新主要集中在安全性增强、网络传输可靠性优化以及事件回调行为修正等方面。整体更新内容不多,但每一项都对实际使用场景具有明确价值,下面对本次版本变更逐条进行详细说明。一、新增 DTLS 握手阶段指纹校验选项在 v4.1.8 中,新增了在 DTLS 握手过程中检查指纹的可选能力。DTLS 是 WebRTC 中用于保障数据通道和媒体传输安全的关键协议,而证书指纹校验是确认通信对端身份的重要手段。新增该选项后,开发者可以在 DTLS 握手过程中决定是否对证书指纹进行校验,从而进一步提升连接安全性。这一改动使 pion/webrtc 在安全策略配置方面更加灵活,适用于对安全要求较高的实时通信场景,同时也保持了对原有行为的兼容性。二、为 Mux 实现超时控制机制本次版本为 Mux 实现了 deadlines(超时)机制。Mux 在 pion/webrtc 中承担着多路复用网络数据的职责,如果在网络异常或对端响应缓慢的情况下缺乏超时控制,可能导致阻塞或资源长期占用。加入超时机制后,Mux 在读写操作中可以感知截止时间,当超过设定时间仍未完成操作时及时返回,从而提升系统的健壮性和可控性。这一优化对于高并发连接和复杂网络环境下的 WebRTC 应用尤为重要。三、升级 STUN 依赖模块至 v3.0.2在依赖管理方面,pion/webrtc v4.1.8 将 github.com/pion/stun/v3 模块升级到了 v3.0.2 版本。STUN 是 WebRTC 用于 NAT 穿透的重要协议组件,更新依赖可以带来更好的稳定性和潜在的问题修复。该升级属于内部依赖更新,对外 API 行为没有直接影响,但有助于确保 pion/webrtc 在网络连接建立过程中的可靠性和兼容性。四、关闭后不再触发 OnBufferedAmountLow 回调在本次更新中,还修复了一个事件回调行为问题:当连接已经关闭时,不再触发 OnBufferedAmountLow 回调。此前在特定情况下,即使底层资源已关闭,相关回调仍可能被调用,这容易导致业务层逻辑混乱甚至出现异常处理。修复后,回调触发时机更加符合生命周期预期,开发者可以更加放心地在回调中处理缓冲区相关逻辑,从而提升整体代码健壮性。总结pion/webrtc v4.1.8 虽然不是一次大规模功能更新,但在安全性、网络超时控制、依赖维护以及事件回调一致性方面均进行了有针对性的改进。这些优化有助于提升 WebRTC 应用在真实生产环境中的稳定性与可控性,推荐相关项目逐步升级并验证。
点赞 评论 收藏
分享
agno v2.3.13 发布:AgentOS 引入 RBAC 权限控制与安全机制升级
agno v2.3.13 发布:AgentOS 引入 RBAC 权限控制与安全机制升级2025年12月15日,agno 发布了最新版本 v2.3.13。此次更新在功能与安全层面都有显著提升,尤其是为 AgentOS 引入了 基于角色的访问控制(RBAC) 机制,为系统安全和资源管理带来了更强的灵活性与可扩展性。一、主要新特性1. AgentOS Role-Based Access Control (RBAC)本次版本最大的亮点是 AgentOS 支持了 RBAC 权限控制。通过该机制,可以在自动或手动配置下使用 JWT(JSON Web Token) 进行基于授权范围的访问控制。RBAC 相关功能包括:• 全局 JWT 验证机制所有访问 AgentOS 的流量都需要携带签名的 JWT Token,包含正确的用户权限范围(Scopes),系统会基于该 Token 进行验证与授权。• 按端点授权控制管理员可以根据 JWT Token 中的权限范围,定义各端点(endpoint)的访问策略。是否允许访问某个接口,将根据配置的 Scope 自动判断并执行。• 按代理资源控制RBAC 还允许通过配置特定的资源访问范围(如 agents:my-agent:read)来控制可使用的 Agent。例如:• 调用 POST /agents/my-agent/runs 时可以精确控制哪些用户能运行特定的 Agent。• 调用 GET /agents 或 GET /agents/{id} 时可控制返回哪些 Agent 数据。此机制实现了对用户可 使用与查看哪些 Agent、团队及工作流(Workflow) 的完全控制,安全性与精细化管理能力显著提升。此外,AgentOS UI 将在未来几天内发布兼容版本,以支持该 RBAC 功能的可视化配置与使用。二、JWTMiddleware 类更新说明在 JWTMiddleware 中进行了重要调整:• secret_key 已弃用原有参数仍受支持,但建议使用新的参数 verification_keys=[...] 进行配置,以便支持更安全的密钥验证机制。• 默认算法更新默认算法由 HS256 修改为 RS256,采用非对称加密形式,更适合生产环境中的安全验证需求。这一变化将使 AgentOS 在安全性方面与主流标准接轨,同时简化了分布式系统中多节点验证的部署。三、其他更新与修复• 修复 Redis 中的 Reranker 分配问题。• 重构知识内容新增逻辑,改为同步方式以提升稳定性。• 修复搜索查询在引用(citations)处理上的异常。• 发布稳定版本 2.3.13。四、总结agno v2.3.13 是一次重要的安全与架构升级版本。随着 AgentOS RBAC 的加入,开发者与团队可以实现更细粒度的权限控制、更安全的用户验证流程以及更可控的 Agent 资源管理。
点赞 评论 收藏
分享
2025年12月TIOBE编程语言排行榜,Go语言排名第15,Rust语言排名17。编程语言 R 重
2025年12月TIOBE编程语言排行榜,Go语言排名第15,Rust语言排名17。编程语言 R 重返前十。本月头条:编程语言 R 重返前十编程语言 R 以非常契合统计学家和数据科学家的特点而闻名。随着统计分析和大规模数据可视化的重要性不断提升,R 的受欢迎程度再次上升。例如,这一趋势也反映在 Wolfram/Mathematica(另一种具有类似能力的工具)上,本月该工具重新进入了前 50 名。在一些“传统”软件工程师眼中,R 因其非传统的语法以及在大型生产系统中的有限可扩展性而受到质疑。但对于特定领域的专家来说,它仍然是一个功能强大且优雅的工具。R 在大学以及科研驱动型行业中依旧蓬勃发展。过去,R 和 Python 常被视为竞争对手,而这场竞争最终在普遍采用度上由 Python 取胜。然而,R 依然开辟了一个稳固且持久的细分领域。它在快速实验、统计建模以及探索性数据分析方面表现突出。我们已经见证了许多 TIOBE 指数前十的语言此起彼伏,值得关注的是 R 是否能够保持目前的位置。另一条值得关注的消息是:下个月我们将公布 2025 年度 TIOBE 年度编程语言。目前来看,C# 似乎是这一头衔的最有力竞争者。TIOBE 编程社区指数是衡量编程语言流行度的一个指标。该指数每月更新一次。排名依据是全球范围内的专业工程师人数、相关课程数量以及第三方供应商的情况。计算排名时会使用包括 Google、Amazon、Wikipedia、Bing 在内的 20 多个知名网站的统计数据。需要注意的是,TIOBE 指数并不是评判“最好的”编程语言,也不是根据某种语言编写代码的总行数来排名。该指数可以用来检验你的编程技能是否仍然保持最新状态,或者在开始构建新的软件系统时,帮助你做出关于采用哪种编程语言的战略决策。其他编程语言完整的前 50 名编程语言榜单如下所示。此概览为非正式发布,因为有可能我们遗漏了某种编程语言。接下来的 50 种编程语言以下语言列表对应排名 第 51 位到第 100 位。由于这些语言之间的差距相对较小,这里仅按字母顺序列出:ActionScript、Algol、Alice、Awk、B4X、Caml、CLIPS、Clojure、Common Lisp、Crystal、D、Elm、F#、Forth、GAMS、Groovy、Hack、Icon、Inform、Io、J、JScript、Logo、Maple、Modula-2、Mojo、MQL5、NATURAL、Nim、Oberon、OCaml、Occam、OpenCL、PL/I、Q、REXX、S、Scheme、Simulink、Smalltalk、SPARK、SPSS、Stata、SystemVerilog、Tcl、Transact-SQL、V、VHDL、X++、Xojo。本月指数中的变化本月对指数的定义进行了如下调整:• Johann Weiser 建议将 LEAN 编程语言加入 TIOBE 指数。• LEAN 符合所有收录标准,因此已被加入到监测列表中。• LEAN 在指数中的首秀排名为 第 145 位。长期历史趋势为了更好地了解整体趋势,以下表格展示了过去多年 前十种编程语言 的排名情况。请注意,这些排名是 12 个月平均位置。重要说明:• 2001 年之前的数据并非基于网络搜索引擎的统计结果,而是基于 Usenet 新闻组的命中次数,这些数据是通过回溯计算得出的。• 在上表中,“Visual Basic” 与 “(Visual) Basic” 是不同的概念。直到 2010 年,“(Visual) Basic” 指的是所有可能的 Basic 方言,包括 Visual Basic。经过讨论,决定将“(Visual) Basic”拆分为不同的方言,例如 Visual Basic .NET、经典 Visual Basic、PureBasic、Small Basic 等。由于 Visual Basic .NET 已经成为 Visual Basic 的主要实现版本,现在它被称为 “Visual Basic”。• SQL 编程语言是在 2018 年才被纳入 TIOBE 指数,因为有人指出 SQL 是图灵完备的。因此,尽管这门语言非常古老,但它在指数中只有很短的历史。编程语言名人堂下面的名人堂列出了历届“年度编程语言”奖项的获奖者。该奖项授予的是在一年内排名上升幅度最大的编程语言。缺陷与变更请求以下是最常被提出的 前 5 项改进或缺陷修复请求。1. 除了 “<语言> programming” 之外,还应该尝试其他查询,例如 “programming with <语言>”、“<语言> development” 和 “<语言> coding”。2. 添加其他自然语言(不仅限于英文)的查询。计划首先从中文搜索引擎 百度 开始。这一功能已部分实现,并将在未来几个月内完成。3. 增加一个已被拒绝的搜索关键词列表,以减少重复收到关于 Rails、jQuery、JSP 等的邮件。4. 启动面向数据库、软件配置管理系统和应用框架的 TIOBE 指数。5. 一些搜索引擎允许查询过去一年内新增的页面。TIOBE 指数应仅跟踪这些最近新增的页面。
点赞 评论 收藏
分享
ollama v0.13.4 发布——全新模型与性能优化详解
ollama v0.13.4 发布——全新模型与性能优化详解2025年12月13日,ollama v0.13.4版本预发布,随后于2025年12月16日正式发布。本次更新是一次重要的版本迭代,包含新模型的推出、引擎默认设置的调整、Flash Attention机制的自动化启用,以及一系列对Gemma 3架构模型的修复与增强。以下是详细更新内容。一、新增模型1. Nemotron 3 Nano这是一款全新的开放高效智能代理模型,定义了高性能标准,面向智能代理应用场景。2. Olmo 3 与 Olmo 3.1这一系列开放语言模型旨在推动语言模型研究科学化。其预训练基于 Dolma 3 数据集,后训练使用 Dolci 数据集,代表了更系统化的语言模型训练流程。二、主要更新内容• 默认启用 Ollama 引擎所有剩余模型均默认启用 Ollama 引擎,统一运行环境。• 默认启用 Flash Attention 自动模式模型将自动启用 Flash Attention,以优化注意力计算效率。• 修复 Gemma 3 长上下文处理问题解决了长文本情况下上下文处理异常的问题,使 Gemma 模型更加稳定。• 修复 Gemma 3 QAT 模型导入问题修复了 Gemma 3 架构在量化训练模型导入时可能出现的异常。三、代码更新与文档修订• 在 api/client.go 文件中修正了 Modelfile 的超链接后缀,将.md改为.mdx。• 删除了 macOS 与 Windows 平台中“发送 UI 请求消息”的冗余代码,使应用逻辑更简洁。• cocoa 对话框代码中增强了多文件处理机制,确保缓冲区内存安全。• Windows 文件对话框错误输出格式更准确。• server.go 修改了模型路径检查逻辑,在路径不可用时使用默认路径。• wintray/eventloop.go 改进了底层事件循环的内存安全处理,增加了注释控制。• 文档 docs/api.md 全面更新对 Modelfile.mdx 的链接引用,使说明一致化。• 新增工具文档与示例提取功能:新增目录:.docs/tools/extract-examples包含:提取后可执行:• README.md:介绍如何将 MDX 中的代码示例提取到临时目录运行。• main.go:示例提取脚本,支持自动生成 package.json 与 pyproject.toml 依赖文件。.cdnpm install  # JS示例node file.js 或 python file.py 或 bash file.sh四、环境配置与引擎优化• envconfig/config.go 调整了 OLLAMA_NEW_ENGINE 的默认值逻辑,引入 BoolWithDefault 方法,使引擎启用逻辑更灵活。• 增强了环境变量映射支持,结构更加全面。五、模型与计算优化1. Flash Attention 类型系统引入ml/device.go 新增 FlashAttentionType 枚举类型:• Auto• Disabled• Enabled此设计使 Flash Attention 模式控制更细化,支持自动适配硬件。2. GGML 图计算增强在 fs/ggml/ggml.go 中,Flash Attention 引入枚举类型接口,支持多种量化缓存类型检测与验证方法,提升兼容性。3. Llama 引擎增强llama/llama.go 重构了 Flash Attention 参数逻辑——支持自动、启用与禁用三种模式,适配不同模型及硬件环境。4. LLM 服务逻辑优化llm/server.go 增加了 Flash Attention 用户显式设置检测逻辑,并完善了 KV 缓存量化兼容性处理。当使用量化 KV 缓存类型时必须启用 Flash Attention。KV 缓存校验机制进一步完善,增加更详细的警告提示与逻辑分支。5. ML 后端结构改进ml/backend.go 与 ml/backend/ggml/ggml.go 中统一 Flash Attention 类型接口,并在注意力计算中使用新的枚举系统,实现高效的多设备内存调度与算子融合优化。六、Gemma 3 架构修复与改良model/models/gemma3/model_text.go对 Gemma 3 的旋转位置嵌入 (RoPE) 算法进行了调整:• 新增 ropeValuesForLayer 方法,按层返回位置嵌入基础值与缩放因子。• 修复 QAT 权重导致的错误缩放比问题,强制 ropeScale 为 1.0。• 优化滑动窗口注意力机制下的 softcap 和 rope 参数初始化逻辑,使注意力计算更加准确。七、OpenAI兼容层更新openai/responses.go调整了工具调用消息的合并逻辑:• 当助手消息存在时,将后续工具调用结果合并到上一条消息中,而非新建消息。• 保留思考过程(Thinking)内容的正确关联,确保连续对话上下文一致。同时新增全面的单元测试 openai/responses_test.go,覆盖函数调用与工具输出场景,验证新逻辑稳定性。八、贡献统计• 本次版本共有 9 次提交,22 个文件修改,涉及 6 位贡献者。• 修改代码约 812 行新增与 253 行删除,覆盖核心引擎、文档、模型逻辑与工具部分。九、总结ollama v0.13.4 是一次大幅度增强版发布,重点在于:• 增强引擎默认配置与性能自动化;• 推出新一代开放智能模型;• 完善 Gemma 与 Llama 架构的兼容性;• 引入更完整的 Flash Attention 类型系统;• 提高文档与开发工具的自动化程度。
点赞 评论 收藏
分享
DeepSpeed v0.18.3 发布:优化性能与稳定性,增强兼容性与调试体验 DeepSpee
DeepSpeed v0.18.3 发布:优化性能与稳定性,增强兼容性与调试体验DeepSpeed 正式发布了 v0.18.3 版本,本次更新重点围绕性能优化、调试工具增强、兼容性改进以及优化器与硬件支持拓展展开。该版本包含多个细节更新,进一步提升了分布式训练的稳定性与可扩展性。以下为本次版本的主要更新内容。一、系统与构建改进• 更新 version.txt 文件,确保版本管理一致性。• 更新模态持续集成逻辑(modal CI),修复并改进相关流程。• 解释并完善 leaf 模块说明,便于用户理解模块功能。• 禁用部分 nv-lightning 配置项,优化持续集成测试过程。• 使用 PyTorch 工具检测 ninja 构建工具,提高编译检测的可靠性。• 信任 Intel 服务器以进行 XPU 测试,增强跨硬件平台的测试安全性。• PyTorch 兼容的 backward API,进一步提升与 PyTorch 的接口一致性。• 启用 compiled autograd 进行反向传播,提升反向计算性能。二、优化器与学习率改进• Muon 优化器支持独立学习率参数:允许分别设置 “muon_lr” 和 “adam_lr”,以便更灵活地控制优化器的学习率。• Muon 优化器动量缓存在 GPU 上,减少主机与设备之间的数据传输,提高训练效率。• 低精度主参数/梯度/优化器状态支持,增强在 FP8、FP16 与 BF16 等低精度训练场景下的性能与稳定性。三、内存与性能优化• see_mem_usage 工具改进:确保无论何种情况下都能正确输出内存使用信息。• 使调试工具更加健壮,在异常和边界情况下保证运行稳定。• Zero Stage 1-2 优化:在未配置时不再固定内存,从而减少不必要的内存占用。• 修复在加载模型或 Zero 检查点时 ds_secondary_tensor 可能出现的数据污染问题,提高模型加载与恢复的正确性。• 在交换张量为空时跳过 aio wait 操作,进一步提升性能与资源利用效率。四、测试与数值稳定性改进• 改进 ROCm FP8 单元测试:对 FP16 和 BF16 情况放宽容差,以适应更多硬件环境。• 放宽低精度计算的限制,增强在 AMD GPU 等环境下的稳定性。五、功能拓展与社区支持• 新增 Qwen2.5 模型至 AutoTP 模型列表,支持更多自动并行模型配置。• 更新安全文档(SECURITY.md) 指向 GitHub 官方报告渠道,统一安全报告流程。• 新增关于 Ray 与 DeepSpeed 联合技术交流会的资讯,促进社区合作与技术传播。六、监控与性能分析• 新增 Wall Clock Timers API,为用户提供更精确的时间统计和性能分析接口,方便评估训练过程中的时间分布与瓶颈。总结:DeepSpeed v0.18.3 版本在保持高性能的同时,进一步提升了系统的稳定性、灵活性和兼容性。此次更新特别加强了优化器配置能力、内存管理与调试工具的可靠性,对于使用分布式训练的研究团队和开发者而言,将提供更高效、更可控的深度学习训练体验。
点赞 评论 收藏
分享
dify 1.11.1 版本发布:重要安全更新、性能优化与新特性解析 1. React 和 Next
点赞 评论 收藏
分享
ollama v0.13.3 最新发布:新增模型与功能优化详细解读 2025年12月12日,oll
ollama v0.13.3 最新发布:新增模型与功能优化详细解读2025年12月12日,ollama v0.13.3 版本正式发布。本次更新引入了多款全新模型,并对现有功能进行了优化与修复,为开发者在代码分析、多语言检索以及软件工程领域提供了更高效的支持。一、全新模型1. Devstral-Small-2• 24B 参数模型• 擅长使用工具探索代码库• 支持多文件编辑• 为软件工程类智能代理提供强大能力支持2. rnj-1• 8B 参数开源权重、稠密模型• 由 Essential AI 从零开始训练• 针对代码及 STEM(科学、技术、工程、数学)领域优化• 性能可与当前开源权重领域的先进模型媲美3. nomic-embed-text-v2• 多语言 MoE(混合专家)文本嵌入模型• 出色的多语言检索能力二、功能优化与改进1. 嵌入接口优化• 改进了 /api/embed 与 /v1/embeddings 在使用时的截断逻辑2. 架构扩展• 在 Gemma 3 架构基础上扩展,支持 rnj-1 模型3. 模型输入修复• 修复了使用 qwen2.5vl 进行图像输入时出现的报错问题三、近期更新的具体改动• 截断逻辑优化:修正运行时截断逻辑,并移除服务器端截断• rope 重构:提升模型在长上下文处理中的性能稳定性• rnj-1 推理支持:新增对 rnj-1 模型的推理支持• qwen2.5vl metal argsort 修复• nomic-embed-text-v2 模型实现完善• UI优化:• 修复模型下载完成后能力不更新的问题• 使用 Ollama 接口进行用户认证与健康检查• 使用 requestAnimationFrame 防止文本底部被截断• 性能提升:升级 llama.cpp(17f7f4)版本,提升 SSM 性能• 命令行工具修复:• 修正 cmd/bench 下 README 中的选项表与二进制文件名• 路由优化:在工具调用中增加 logprobs 输出• 模型调整:更新 ministral 与 devstral 的转换与超参数设置• 模板功能增强:新增 yesterdayDate 辅助函数• 嵌入性能优化:调整 embeddings 的批量大小• API扩展:新增 v1/responses 接口支持• rotary embeddings 修复:解决 ministral 3 在旋转嵌入上的问题• 文档更新:调整 README 内容四、更新总结本次 ollama v0.13.3 发布,不仅带来了三款定位不同的新模型,覆盖了代码分析、科学工程以及多语言检索等多领域,同时对嵌入接口、模型架构、性能以及开发者工具进行了广泛优化,进一步提高了使用体验与运行稳定性。
投递超参数科技等公司6个岗位
点赞 评论 收藏
分享
eino v0.7.7 发布:新增文件系统中间件,优化序列化与反序列化,修复工具信息流问题 2025
eino v0.7.7 发布:新增文件系统中间件,优化序列化与反序列化,修复工具信息流问题2025年12月4日,CloudWeGo 开源项目 eino 正式发布了 v0.7.7 版本。本次更新主要围绕文件系统中间件支持、序列化处理范围扩展、反序列化稳定性提升以及工具信息流优化进行了改进。以下是更新详情:一、支持文件系统中间件(filesystem middleware)在本版本中,ADK 模块新增了对文件系统中间件的支持。这一特性使得在处理文件存储、读取、传输等场景时,能够通过中间件机制实现更加灵活、可扩展的处理逻辑,从而简化开发者在文件操作过程中的接口适配工作。二、增加序列化处理范围(serialization scope)持续优化 CI 流程的同时,这一版本扩展了序列化的处理范围,使得数据在持久化与传输过程中能够涵盖更广泛的类型与使用场景。这对大规模数据处理以及分布式环境下的任务执行具有积极作用。三、修复数组与切片反序列化异常针对反序列化环节中出现的 checkpoint 恢复时数组和切片解析过程中可能引发的崩溃问题,本次更新进行了修复。此改进有效提升了系统在复杂数据恢复场景下的稳定性与可靠性,减少了运行时的潜在风险。四、工具信息流中增加工具名称在 ADK 模块的流式工具消息(stream tool message)中,现在会附带工具名称信息。这一改动可帮助开发者在处理多工具协作或调试日志时,快速定位消息来源工具,提高问题排查与调试的效率。总结eino v0.7.7 的发布为开发者带来了以下关键改进:• 文件系统中间件支持,更好地集成文件处理逻辑• 序列化范围扩展,适应更广泛的数据场景• 反序列化稳定性增强,避免数组和切片解析崩溃• 工具信息流更明确,便于调试与维护
点赞 评论 收藏
分享
pion/webrtc v4.1.7 版本更新详解 2025 年 12 月 5 日,pion/web
pion/webrtc v4.1.7 版本更新详解2025 年 12 月 5 日,pion/webrtc 发布了最新版本 v4.1.7。该版本在稳定性、性能和协议兼容性方面都有明显提升,同时对多个依赖模块进行了更新。本次更新的重点包括对 RTP、ICE、DTLS、SRTP 等模块的升级与新特性支持,以及对测试稳定性的改进。主要更新内容1. 新功能与选项支持• 增加忽略 rid 暂停的选项新增了在 a=simulcast:recv 中可选择忽略 rid 暂停的功能,使得在多码流接收场景下更加灵活。• 精准 RTP 时间戳支持引入 WithDirectPTS 选项,可实现更精确的 RTP 时间戳处理,提升音视频同步效果。• ICE 候选 Trickling 能力检测新增 CanTrickleICECandidates 方法,用于判断是否支持 ICE trickling,这对于减少连接建立时间非常有用。• 支持广播 ICE trickling 信息增强 SDP 中 ICE trickling 的能力声明。• DTLS Cipher Suites 可配置新增了配置 DTLS 密码套件的选项,让用户可根据安全性需求选择不同的加密算法。2. 协议与流处理改进• Simulcast 改进• 在探测过程中不再丢弃数据包,提高多码流切换的平滑度。• 考虑首个数据包读取 Simulcast IDs,改善媒体流识别性能。• NACK/RTX 重传测试优化• 增加了确定性 NACK/RTX 重现测试,提高重传机制的可预测性。3. 模块更新本次版本升级同步更新了多个依赖模块,确保性能与兼容性:• RTP 升级至 v1.8.26• ICE/v4 升级至 v4.0.13,并在此版本中多次小更新至 v4.0.12 与 v4.0.11• DTLS/v3 升级至 v3.0.8• SRTP/v3 升级至 v3.0.9• SCTP 升级至 v1.8.41• Interceptor 升级至 v0.1.42• TURN/v4 升级至 v4.1.3,以及 v4.1.2• Transport/v3 升级至 v3.1.1 与 v3.1.0• STUN/v3 升级至 v3.0.1• RTCP 升级至 v1.2.164. 测试与稳定性提升• 修复多个测试用例的竞争条件问题,减少测试过程中的偶发失败。• 改进 Trickling-ICE 示例代码,提升演示效果。• 增加简单的 datachannel 示例(含 demo.html),方便开发者快速上手。• 改进 datachannel 示例性能。• 增加自定义日志示例说明。• 多项 CI 配置更新,确保持续集成环境的稳定。总结pion/webrtc v4.1.7 在多媒体传输稳定性和协议兼容性上有显著提升,尤其是 Simulcast 优化、ICE trickling 支持、精准 RTP 时间戳以及可配置 DTLS 密码套件,为开发者提供了更多控制和优化的可能性。同时,此次更新同步维护了依赖库版本,保障了整体系统的安全与性能。
点赞 评论 收藏
分享
ollama v0.13.1 发布:全新 Ministral-3 与 Mistral-Large-3
ollama v0.13.1 发布:全新 Ministral-3 与 Mistral-Large-3 模型,增强工具调用与GPU兼容性Ollama 2025年12月3日发布了 v0.13.1 版本更新,本次更新重点引入了两个新的模型家族,并带来了多项功能增强、错误修复及底层改进,进一步提升了模型的部署灵活性与运行稳定性。一、 全新模型登场1. Ministral-3 系列:此系列模型专为边缘部署设计,能够在广泛的硬件设备上高效运行,为资源受限的环境提供了强大的本地AI能力。2. Mistral-Large-3 系列:这是一个通用的多模态混合专家(MoE)模型,旨在处理生产级任务和企业级工作负载,在复杂场景下表现出色。二、 核心功能与改进1. 引擎与工具调用:• nomic-embed-text 模型现在默认使用 Ollama 自身的引擎运行。• 为 cogito-v2.1 模型新增了工具调用(tool calling)支持。• 同样为 cogito-v2.1 模型添加了思维链(thinking)解析功能。2. GPU 与系统兼容性修复:• 修复了 CUDA VRAM 发现的相关问题。• 解决了在仅配备 CPU 的系统上,模型可能被错误驱逐(evict)的问题。• 修复了在某些旧款 GPU 上无法检测到 CUDA 的问题。• 改进了对 CUDA 计算能力(CC)与目标库版本的兼容性验证。• (Windows系统)增加了对 PATH 中潜在不兼容库文件(如 ggml-base.dll)的检测与警告。3. 错误处理与用户体验:• Ollama 现在能够更好地呈现和渲染错误信息,而非简单地显示 “Unmarshal: errors”。• API 客户端 (api/client) 增强了对非 JSON 格式流式错误响应的处理能力。4. 应用与文档:• 修复了应用内连接打开逻辑,优化了用户体验。• 更新了应用内帮助链接,使其指向官方文档网站。• 清理了文档中已弃用参数(如 mirostat, mirostat_eta, mirostat_tau)的说明。三、 重要代码变更摘要本次更新包含了 18个提交,涉及 33个文件 的更改,由 12位贡献者 共同完成。部分关键变更包括:• API/客户端:增强了错误处理逻辑,当服务器返回非JSON格式的错误响应(如纯文本或HTML)时,能正确传递状态码和错误信息。• 应用层:优化了 macOS 和 Windows 系统上处理自定义 URL 协议(如 ollama://)的逻辑。• 模型支持:• ministral-3:模型支持现已集成,并添加了相应的测试。• deepseek2:升级以支持运行 v3+ 版本的模型。• 模型解析器:新增了针对 cogito-v2.1 模型的专用解析器,以支持其独特的工具调用和思维格式。• mistral3 模型结构:在转换逻辑中增加了对 LLAMA 4 缩放因子等新 rope 参数的支持。• 底层与发现:• GPU 发现:改进了设备发现机制,避免库路径重叠,并加入了对 NVIDIA Jetson Jetpack 版本的更精确匹配要求。• KV 缓存:测试现在同时覆盖使用和不使用 PermutedV 的情况。• LLM 服务器:修正了在仅有 CPU 的系统上进行模型布局验证的逻辑,防止不必要的模型驱逐。四、 其他调整• 将 Vulkan 着色器文件标记为“已供应”文件。• 更新了 .gitattributes 以正确归类相关文件。• 移除了代码检查工具中的 gocritic 规则。总结Ollama v0.13.1 版本是一个以模型扩展和系统稳固性为主的更新。它不仅为用户带来了适用于边缘和企业场景的新模型选择,还通过一系列关键的缺陷修复和兼容性改进,显著提升了软件在各类硬件环境下的可靠性和用户体验。特别是对 cogito 和 ministral 系列模型支持的增强,展现了 Ollama 生态持续扩展对多样化模型架构的兼容能力。
点赞 评论 收藏
分享
DeepSeek-V3.2系列正式发布:开源模型首次达到GPT-5水平,斩获四项国际竞赛金牌 继上周
DeepSeek-V3.2系列正式发布:开源模型首次达到GPT-5水平,斩获四项国际竞赛金牌继上周推出数学推理模型 DeepSeekMath-V2 之后,DeepSeek 再度更新,正式发布 V3.2 系列模型。这次一次带来两个版本,分别面向不同应用场景:日常使用与高难度推理。01 双模型定位与核心差异DeepSeek本次发布的V3.2系列包含两个定位分明的模型,以满足不同场景的需求 。DeepSeek-V3.2(标准版) 定位于日常使用场景,注重平衡推理能力与输出效率。该版本已全面部署于DeepSeek官方网页端、App和API服务 。在多项公开推理基准测试中,其表现接近GPT-5,仅略低于Gemini-3.0-Pro 。DeepSeek-V3.2-Speciale(研究版) 则专注于推动开源模型的极限推理能力边界。该模型是V3.2的长思考增强版,结合了DeepSeek-Math-V2的定理证明能力,在高度复杂任务上表现卓越 。02 卓越的性能表现DeepSeek-V3.2-Speciale在多项国际顶级竞赛中展现出惊人实力,成功斩获IMO2025(国际数学奥林匹克)、CMO2025(中国数学奥林匹克)、ICPCWorldFinals2025(国际大学生程序设计竞赛全球总决赛)及IOI2025(国际信息学奥林匹克)金牌 。其中,ICPC与IOI成绩分别达到了人类选手第二名与第十名的水平 。在主流推理基准测试上,Speciale模型的性能表现媲美Gemini-3.0-Pro,展现出强大的推理能力 。不过需要注意的是,该版本因推理链较长、Token消耗高,目前仅限研究使用 。
点赞 评论 收藏
分享
dify 1.10.1 多数据库时代开启:新增 MySQL 支持与性能全面优化 2025年11月26
dify 1.10.1 多数据库时代开启:新增 MySQL 支持与性能全面优化2025年11月26日,Dify 正式发布 1.10.1 版本,这次更新不仅带来了重大功能增强和稳定性修复,更标志着 Dify 进入了 多数据库新时代 —— MySQL 支持终于到来,并与 PostgreSQL、OceanBase 一起形成完整的多数据库体系。🚀 新功能亮点1. 基础设施与 DevOps 升级• MySQL 适配完成:现在 PostgreSQL / MySQL / OceanBase 均已全面支持。• 新增 DB_TYPE 配置选项,用于选择数据库类型。• 支持 MySQL 特有的 JSON / LONGTEXT / UUID / 索引差异。• Alembic 迁移脚本更新,适配多数据库兼容性。• 引入跨数据库 SQL 辅助方法,优化统计与日期处理。• 数据集元数据过滤重写,使用 SQLAlchemy JSON 操作符。• 新增 MySQL 迁移测试 CI 工作流。这一改动是 Dify 后端架构的重要里程碑,多数据库支持首次成为一等公民。2. 性能与工作流编辑器优化• 工作流编辑器性能显著提升:去除了高成本的逐节点验证,减少不必要渲染,性能从 50 节点变卡到接近 200 节点仍保持流畅。3. 工作流引擎与界面优化• 改进了工作流编辑器 UI、稳定性、交互体验,包括变量检查、媒体组件、节点交互优化。🛠 修复与改进运行时与工作流执行稳定性• 修复高级聊天工作流无法正确停止的问题,避免进程被卡住。• 修复草稿模式下运行任意节点会触发 500 错误的情况,提升调试稳定性。• 修正循环/迭代评估时的令牌统计错误(不涉及计费)。• 修复工作流作为工具返回空文件字段的问题。• 解决 FileService 会话作用域导致文件删除异常的问题。知识库• 修复使用 weightedScore 检索选项时触发 500 错误的问题,恢复加权排名稳定性。开发体验与 SDK• 修复 Node.js SDK 路由与 multipart 上传的处理问题,保证文件与数据提交稳定性。• 修复 OpenAPI/Swagger 加载失败的问题,恢复开发文档访问。Web UI 与用户体验• 修复暗色模式下 ExternalDataToolModal 渲染不一致的问题。• 优化 Marketplace 搜索触发与滚动行为。• 修复查看 chatflow 日志详情时导航不正确的问题。• 修复 README 显示面板的排版与渲染问题。• 减少 useNodes hook 的多余渲染,提升前端性能。插件与集成• 更新插件验证逻辑,改为使用唯一标识符,保证安装与更新的正确性。系统健壮性• 防止 TriggerProviderIdentity 中出现可空标签,避免运行时错误。• 优化无效 webhook 请求的错误提示,更清晰定位问题。反馈与日志• 修复点赞/点踩反馈在日志中不显示的问题。国际化 (i18n)• 统一触发与计费事件的术语。• 修复执行相关翻译缺失或错误的问题。• 删除错误的“running”翻译条目。• 重构 i18n 脚本并移除过期翻译键。• 增补缺失翻译,提升多语言覆盖率。维护与开发工具链• 新增前端自动化测试规则。• 升级系统库与 Python 依赖,保持安全性与兼容性。• 更新启动脚本使用 pnpm dev,简化贡献者开发流程。
点赞 评论 收藏
分享
eino v0.7.3 发布:升级 jsonschema 至 v1.0.3 在 2025 年 11
点赞 评论 收藏
分享
langgraph 1.0.4 最新发布:功能优化与修复详解 2025年11月26日,langgra
langgraph 1.0.4 最新发布:功能优化与修复详解2025年11月26日,langgraph 正式发布 1.0.4 版本,这是继 1.0.3 之后又一次重要的功能优化与问题修复版本。本次更新围绕稳定性、代码结构优化以及依赖清理进行了多项改进,同时发布了相关预构建版本。以下是详细更新内容:1. 功能与版本发布• langgraph 1.0.4 正式发布该版本延续了此前的功能特性,并在流处理、远程图配置等方面进行了微调与优化。• langgraph-prebuilt 1.0.5 发布针对预构建版本进行了更新,确保用户在无需手动构建的情况下也能获得最新功能与修复。• prebuilt 1.0.3 发布同步更新预构建依赖版本,修复了部分警告信息。2. 功能优化与结构调整• 移除远程图可配置字段中的线程 ID针对远程图的可配置字段做了清理,去除了线程 ID,以简化配置逻辑并减少潜在冲突。• 分离 prepare_push_* 系列函数对相关准备推送的函数进行重构和拆分,提升代码可维护性与模块化程度。• 清理部分引用删除了代码中不再使用的引用,保持代码整洁与可读性。3. SDK 与类型检查增强• Python SDK 增强类型检查增补了更多的类型检查规则,提升开发过程中类型推断的准确性,从而减少运行时错误。4. 问题修复• 修复流模式值中断问题修复了在流模式下可能发生的值中断问题,提升流处理的稳定性。• 预构建版本依赖警告修复修正了预构建版本中出现的依赖警告信息,保证构建输出的干净与稳定。总结本次 langgraph 1.0.4 更新主要集中在:• 性能优化:对远程图配置、预构建依赖进行了清理。• 代码结构升级:函数模块化、引用清理。• 稳定性提升:修复了流模式与依赖警告相关问题。• 开发体验改进:增强 Python SDK 的类型检查能力。
点赞 评论 收藏
分享
agno v2.3.3 发布:引入上下文压缩与内存优化,增强文件搜索和异步支持 2025 年 11
agno v2.3.3 发布:引入上下文压缩与内存优化,增强文件搜索和异步支持2025 年 11 月 27 日,agno 发布了 v2.3.3 版本,本次更新带来了多项新功能、性能改进以及 Bug 修复,尤其是在上下文管理、内存优化、文件搜索和异步支持方面有了显著增强。以下为详细更新内容。一、新功能(New Feature)1. 上下文压缩(Context Compression)• 新增运行时压缩工具调用结果的功能,有助于在智能体运行过程中对上下文进行管理。• 该功能可以帮助智能体保持在上下文窗口范围内,避免触发速率限制或响应质量下降。• 功能为 Beta 版,可参考官方文档获取更多信息。2. 内存优化(Memory Optimisation)• 新增总结用户记忆的能力,允许在智能体运行之外进行记忆摘要。• 在 MemoryManager 中新增 optimize_memories 和 aoptimize_memories 方法。• 当前仅支持一种策略,未来会扩展更多。• 功能为 Beta 版。3. Gemini 文件搜索支持(Gemini File Search Support)• 引入了对 Google Gemini File Search 的支持。4. 文件搜索存储管理(File Search Store Management)• 可创建、列出、获取和删除文档存储。5. 文件上传与导入(File Upload & Import)• 支持直接上传文件,可自定义分块配置及元数据。6. 文档管理(Document Management)• 支持基于元数据过滤列出、获取、删除和更新文档。7. 引用提取(Citation Extraction)• 提供辅助方法,从响应中提取并格式化引用来源。8. 异步支持(Async Support)• 全面支持 async/await 以满足生产环境负载需求。9. 示例 Cookbooks(暂未发布完整文档)• 基础文件搜索示例:cookbook/models/google/gemini/file_search_basic.py• 高级文件搜索示例:cookbook/models/google/gemini/file_search_advanced.py• RAG 文件搜索流水线示例:cookbook/models/google/gemini/file_search_rag_pipeline.py二、功能改进(Improvements)1. 运行时输出模式定义(output_schema on run/arun)• 可在 run() 和 arun() 方法(包括 Agent、Team 以及 AgentOS API)中动态覆盖 output_schema。2. AWS Bedrock API Key 支持• 新增对 AWS Bedrock API 密钥的支持。3. AWS Claude 兼容性增强• 增加对思考模型与缓存功能的支持。4. VertexAI Claude 兼容性增强• 增加对思考模型与缓存的支持。5. Gemini 3 思考等级(thinking_level)支持• 可为 Gemini 设置 thinking_level 参数。三、Bug 修复(Bug Fixes)1. 异步知识检索• 修复因缺少异步版本的 get_user_message,导致异步知识检索失败的问题。2. 团队成员事件流• 即使配置 stream_member_events=True 且 stream_events=False,仍确保成员事件能正确流式传输。3. 迁移管理器(MigrationManager)改进• 修复无法对 2.3.0 以下版本进行迁移的问题。• 新增强制迁移标志(force migration flag)。4. StopAgentRun 异常处理• 修复 StopAgentRun 无法正确终止智能体运行的问题。5. PDF 图像读取器• 修复生成 ID 基于文件名而不是 UUID 的问题。6. MCP 工具名前缀(tool_name_prefix)• 将默认值改为 None,避免默认添加“_”前缀。7. AGUI 界面修复• 修复工具调用 ID 出现重复值的问题。• 修复工具调用缺少助手消息的问题。四、本次版本主要变更总结(What's Changed)• 修正文档链接失效问题。• 修复异步知识检索逻辑。• 改进团队类的 JSON 输出逻辑。• 新增运行时可配置输出模式功能。• StopAgentRun 与 RetryAgentRun 正式实现。• 增加对 MongoDB 异步 SDK 的支持。• 引入记忆优化与工具调用压缩功能。• 优化 AWS Claude 兼容性及 API 密钥支持。• 增加 Gemini 文件搜索支持。• 修复测试用例中异步知识访问的稳定性问题。五、总结agno v2.3.3 版本是一次 功能与性能的双重提升 更新,尤其在 上下文压缩、内存优化、文件搜索能力 方面有重大改进,同时增强了 AWS Claude、VertexAI Claude 的兼容性,并全面支持 异步任务。
投递谷歌等公司6个岗位
点赞 评论 收藏
分享
mediamtx v1.15.4 San Francisco 发布更新详解 mediamtx 在 2
mediamtx v1.15.4 San Francisco 发布更新详解mediamtx 在 2025年11月21日发布了 v1.15.4 版本(代号 “San Francisco”),本次更新包含了多项修复与性能优化,涵盖了通用功能、RTP、RTSP、HLS,以及依赖库的升级,同时,还引入了安全构建机制,确保发布的二进制文件可信。以下为更新详情:一、通用功能更新• 支持多个 CORS 允许来源,提升跨域访问的灵活配置能力。• 新增 udpReadBufferSize 参数,可设置全局 UDP 读取缓冲区大小,应用于所有 UDP 套接字。• udpReadBufferSize 扩展到 WebRTC UDP 套接字,能够在不修改系统参数的情况下减少数据包丢失。• 修复录制功能中 FMP4 文件持续时间溢出的问题。两个采样之间的时间戳差值原本使用无符号整数存储,当为负数时会造成溢出。二、RTP相关更新• 在数据读取前先对 RTP 包进行重新排序,提升数据处理的连贯性和稳定性。三、RTSP相关更新• 支持没有状态消息的 RTSP 响应。• 修复在使用 Media Foundation 读取时的超时问题。• 修复 MIKEY 消息的 SP 负载,正确填充 PayloadSPPolicyParamTypeAuthTagLen 和 PayloadSPPolicyParamTypeSessionAuthKeyLen。• 支持动态 SSRC 的格式。• 优化性能,在解码时仅处理一次 RTP 头部。四、HLS相关更新• HLS 复用器中修复 FMP4 文件持续时间溢出的问题,避免播放时出现异常时间戳。
点赞 评论 收藏
分享
ragflow v0.22.1 发布:支持Word/Markdown导出、S3数据源接入、Flask
ragflow v0.22.1 发布:支持Word/Markdown导出、S3数据源接入、Flask升级为异步框架等重大改进一、主要改进1. Agent功能增强• 支持将 Agent 输出内容导出为 Word 或 Markdown 格式,方便用户进行后续文档处理与分享。• 新增 列表操作组件(List operations),实现对列表数据的处理功能。• 新增 变量聚合组件(Variable aggregator),用于聚合不同数据来源的变量值。2. 数据源拓展• 支持 S3 兼容的数据源,包括 MinIO 等对象存储系统。• 新增 JIRA 数据同步功能,实现与项目管理平台的数据联动。3. 界面与交互优化• 持续优化 Profile 页面布局,提升用户体验与交互流畅度。4. 服务架构升级• 将 Flask 框架从同步版本升级为 异步版本(Quart),显著提升并发能力,减少调用上游大模型服务时的阻塞问题。二、修复的主要问题• 解决 v0.22.0 中的 BUG:用户在包含已解析文件的数据集中,切换内置模型时无法正确解析或处理文件的问题。• 解决 Word 文档中图片拼接的显示问题。• 修复聊天记录中混合图片与文字未正确显示的问题。• 修复无法选择用户中心时区的问题。• 修复变量分配器连接其他运算符时的兼容性问题。• 修复在 API /api/v1/dify/retrieval 中查询无结果的问题。• 修复矿物解析(mineru_parser)属性获取逻辑错误。• 修复多次添加会话变量时被覆盖的问题。• 修复列表操作组件不支持对象数组排序的问题。• 修复 check_embedding 随机采样范围不合理的问题。• 修复圈状导入(circle imports)问题。• 修复结构化数据在某些操作中丢失的问题。三、新增支持的模型• Gemini 3 Pro Preview• 新增大模型服务提供商 Jiekou.AI四、其他功能优化与新增• 为 Agent 消息回复功能新增文件下载能力。• 新增动态变量赋值表单,提高变量管理的可视化体验。• 新增变量显示功能,在变量赋值节点中可直接查看当前变量值。• 为 RAPTOR 增加容错机制。• 为数据操作类组件增加结构化输出显示开关。• 新增删除查询变量时的用户警告提示。• 确保结构化数据仍存储于输出中,以兼容旧版本。• 允许 Begin 操作符的键值仅包含字母、数字与下划线。五、总结本次 ragflow v0.22.1 更新不仅在 Agent 功能、数据源类型、性能架构方面进行了大幅提升,还修复了多项影响使用体验的重要问题。同时,对多语言支持、结构化数据兼容性和可视化交互进行了细致优化,为构建高效、稳定的 RAG 工作流提供了坚实基础。
投递大连飞创信息技术有限公司等公司6个岗位
点赞 评论 收藏
分享
玩命加载中
牛客网
牛客网在线编程
牛客网题解
牛客企业服务