avatar-decorate
获赞
5195
粉丝
213
关注
226
看过 TA
682
西昌学院
2011
golang
IP属地:北京
微信公众号:福大大架构师每日一题
私信
关注
rust 1.92.0 更新详解:语言特性增强、编译器优化与全新稳定API1. 完善 MaybeUninit 的表示与有效性文档进一步明确 MaybeUninit 类型的内部表示和有效性规则,使文档更加清晰。2. 允许在安全代码中对 union 字段使用 &raw mut/const现在可以在安全代码中创建 union 字段的原始引用,提升灵活性。3. 自动特征和 Sized 约束更倾向于使用关联类型的 item bounds优化类型推断与 trait 约束逻辑,使语义更加一致。4. 不再在 [X; 0] 中生成 X,当 X 正在执行常量解包(unsizing)时减少不必要的物化操作,提高编译效率。5. 支持 [track_caller] 与 [no_mangle] 组合使用前提是所有声明都明确指定 [track_caller],这一改动让调用位置跟踪更灵活。6. "never" 类型相关警告调整两个 lints:never_type_fallback_flowing_into_unsafe 与 dependency_on_unit_never_type_fallback 被默认设置为 deny-by-default。7. 允许为同一关联项指定多个约束在 trait 对象中除外,这为更复杂的类型定义提供可能性。8. 加强高阶生命周期区域处理对一致性(coherence)规则进行轻微强化。9. 优化 unused_must_use lint当返回类型为 Result<(), !> 或 ControlFlow 时,不再警告,因为这些错误逻辑上永远不会发生。
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享
ollama v0.13.3 最新发布:新增模型与功能优化详细解读2025年12月12日,ollama v0.13.3 版本正式发布。本次更新引入了多款全新模型,并对现有功能进行了优化与修复,为开发者在代码分析、多语言检索以及软件工程领域提供了更高效的支持。一、全新模型1. Devstral-Small-2• 24B 参数模型• 擅长使用工具探索代码库• 支持多文件编辑• 为软件工程类智能代理提供强大能力支持2. rnj-1• 8B 参数开源权重、稠密模型• 由 Essential AI 从零开始训练• 针对代码及 STEM(科学、技术、工程、数学)领域优化• 性能可与当前开源权重领域的先进模型媲美3. nomic-embed-text-v2• 多语言 MoE(混合专家)文本嵌入模型• 出色的多语言检索能力二、功能优化与改进1. 嵌入接口优化• 改进了 /api/embed 与 /v1/embeddings 在使用时的截断逻辑2. 架构扩展• 在 Gemma 3 架构基础上扩展,支持 rnj-1 模型3. 模型输入修复• 修复了使用 qwen2.5vl 进行图像输入时出现的报错问题三、近期更新的具体改动• 截断逻辑优化:修正运行时截断逻辑,并移除服务器端截断• rope 重构:提升模型在长上下文处理中的性能稳定性• rnj-1 推理支持:新增对 rnj-1 模型的推理支持• qwen2.5vl metal argsort 修复• nomic-embed-text-v2 模型实现完善• UI优化:• 修复模型下载完成后能力不更新的问题• 使用 Ollama 接口进行用户认证与健康检查• 使用 requestAnimationFrame 防止文本底部被截断• 性能提升:升级 llama.cpp(17f7f4)版本,提升 SSM 性能• 命令行工具修复:• 修正 cmd/bench 下 README 中的选项表与二进制文件名• 路由优化:在工具调用中增加 logprobs 输出• 模型调整:更新 ministral 与 devstral 的转换与超参数设置• 模板功能增强:新增 yesterdayDate 辅助函数• 嵌入性能优化:调整 embeddings 的批量大小• API扩展:新增 v1/responses 接口支持• rotary embeddings 修复:解决 ministral 3 在旋转嵌入上的问题• 文档更新:调整 README 内容四、更新总结本次 ollama v0.13.3 发布,不仅带来了三款定位不同的新模型,覆盖了代码分析、科学工程以及多语言检索等多领域,同时对嵌入接口、模型架构、性能以及开发者工具进行了广泛优化,进一步提高了使用体验与运行稳定性。
投递超参数科技等公司6个岗位
0 点赞 评论 收藏
分享
nginx 1.29.4 发布:支持 HTTP/2 后端与加密客户端问候(ECH),多项功能优化与修复2025年12月11日,nginx 官方发布了 1.29.4 mainline 版本。本次更新带来了多项重要特性与修复,包括 HTTP/2 到后端的支持、Encrypted Client Hello (ECH) 集成,以及对 SSL、HTTP/2、代理模块的多方改进。以下是本次更新的详细内容:主要更新内容1. 构建信息优化• 配置流程确保在执行 nginx -V 时可以正确显示 “built by ...” 信息。• 增强 MSVC 与 PCRE2 10.47 的兼容性。2. SSL 功能更新与修复• 修改了 ngx_ssl_set_client_hello_callback() 接口,优化错误处理流程。• 修复了在使用 BoringSSL 时因先前改动导致的构建问题。• 避免在 ECH 未配置或不支持的情况下产生警告信息。• 增加通过 OpenSSL 的 ECH 共享模式支持,实现加密客户端问候功能。3. HTTP/2 改进• 扩展了对 NULL 缓冲区及零长度的防护检查,提升稳定性。• 禁用了在分块传输编码中使用裸 LF,提升协议安全性与兼容性。• 增加上游连接层面的 ALPN 协议协商支持。4. 代理模块优化• 修复 URI 变更时可能出现的段错误问题。• 针对 HTTP/2 协议进行了代理模块重构,新增 HTTP/2 代理模块。• 提取 ngx_http_proxy_v2_process_frames() 函数,以及控制帧与跳过函数,以提升代码可维护性。• 增加 HTTP/2 代理的缓冲支持与缓存支持,提升后端通信效率。5. 主机验证改进• 改进了主机头部验证逻辑,并调整了 ngx_http_validate_host() 接口。6. QUIC 协议修复• 修复 QUIC 握手失败时可能出现的段错误问题,提高稳定性。版本意义nginx 1.29.4 在功能上进一步完善了对现代协议的支持,尤其是 HTTP/2 后端通信 和 ECH 加密握手,提升了安全性与性能。同时,本次更新对 SSL、HTTP/2、代理及 QUIC 等模块进行了多方优化与 bug 修复,确保在高并发和多协议环境中运行更加稳定。
0 点赞 评论 收藏
分享
2025年12月TIOBE编程语言排行榜,Go语言排名第15,Rust语言排名17。编程语言 R 重返前十。本月头条:编程语言 R 重返前十编程语言 R 以非常契合统计学家和数据科学家的特点而闻名。随着统计分析和大规模数据可视化的重要性不断提升,R 的受欢迎程度再次上升。例如,这一趋势也反映在 Wolfram/Mathematica(另一种具有类似能力的工具)上,本月该工具重新进入了前 50 名。在一些“传统”软件工程师眼中,R 因其非传统的语法以及在大型生产系统中的有限可扩展性而受到质疑。但对于特定领域的专家来说,它仍然是一个功能强大且优雅的工具。R 在大学以及科研驱动型行业中依旧蓬勃发展。过去,R 和 Python 常被视为竞争对手,而这场竞争最终在普遍采用度上由 Python 取胜。然而,R 依然开辟了一个稳固且持久的细分领域。它在快速实验、统计建模以及探索性数据分析方面表现突出。我们已经见证了许多 TIOBE 指数前十的语言此起彼伏,值得关注的是 R 是否能够保持目前的位置。另一条值得关注的消息是:下个月我们将公布 2025 年度 TIOBE 年度编程语言。目前来看,C# 似乎是这一头衔的最有力竞争者。TIOBE 编程社区指数是衡量编程语言流行度的一个指标。该指数每月更新一次。排名依据是全球范围内的专业工程师人数、相关课程数量以及第三方供应商的情况。计算排名时会使用包括 Google、Amazon、Wikipedia、Bing 在内的 20 多个知名网站的统计数据。需要注意的是,TIOBE 指数并不是评判“最好的”编程语言,也不是根据某种语言编写代码的总行数来排名。该指数可以用来检验你的编程技能是否仍然保持最新状态,或者在开始构建新的软件系统时,帮助你做出关于采用哪种编程语言的战略决策。其他编程语言完整的前 50 名编程语言榜单如下所示。此概览为非正式发布,因为有可能我们遗漏了某种编程语言。接下来的 50 种编程语言以下语言列表对应排名 第 51 位到第 100 位。由于这些语言之间的差距相对较小,这里仅按字母顺序列出:ActionScript、Algol、Alice、Awk、B4X、Caml、CLIPS、Clojure、Common Lisp、Crystal、D、Elm、F#、Forth、GAMS、Groovy、Hack、Icon、Inform、Io、J、JScript、Logo、Maple、Modula-2、Mojo、MQL5、NATURAL、Nim、Oberon、OCaml、Occam、OpenCL、PL/I、Q、REXX、S、Scheme、Simulink、Smalltalk、SPARK、SPSS、Stata、SystemVerilog、Tcl、Transact-SQL、V、VHDL、X++、Xojo。本月指数中的变化本月对指数的定义进行了如下调整:• Johann Weiser 建议将 LEAN 编程语言加入 TIOBE 指数。• LEAN 符合所有收录标准,因此已被加入到监测列表中。• LEAN 在指数中的首秀排名为 第 145 位。长期历史趋势为了更好地了解整体趋势,以下表格展示了过去多年 前十种编程语言 的排名情况。请注意,这些排名是 12 个月平均位置。重要说明:• 2001 年之前的数据并非基于网络搜索引擎的统计结果,而是基于 Usenet 新闻组的命中次数,这些数据是通过回溯计算得出的。• 在上表中,“Visual Basic” 与 “(Visual) Basic” 是不同的概念。直到 2010 年,“(Visual) Basic” 指的是所有可能的 Basic 方言,包括 Visual Basic。经过讨论,决定将“(Visual) Basic”拆分为不同的方言,例如 Visual Basic .NET、经典 Visual Basic、PureBasic、Small Basic 等。由于 Visual Basic .NET 已经成为 Visual Basic 的主要实现版本,现在它被称为 “Visual Basic”。• SQL 编程语言是在 2018 年才被纳入 TIOBE 指数,因为有人指出 SQL 是图灵完备的。因此,尽管这门语言非常古老,但它在指数中只有很短的历史。编程语言名人堂下面的名人堂列出了历届“年度编程语言”奖项的获奖者。该奖项授予的是在一年内排名上升幅度最大的编程语言。缺陷与变更请求以下是最常被提出的 前 5 项改进或缺陷修复请求。1. 除了 “<语言> programming” 之外,还应该尝试其他查询,例如 “programming with <语言>”、“<语言> development” 和 “<语言> coding”。2. 添加其他自然语言(不仅限于英文)的查询。计划首先从中文搜索引擎 百度 开始。这一功能已部分实现,并将在未来几个月内完成。3. 增加一个已被拒绝的搜索关键词列表,以减少重复收到关于 Rails、jQuery、JSP 等的邮件。4. 启动面向数据库、软件配置管理系统和应用框架的 TIOBE 指数。5. 一些搜索引擎允许查询过去一年内新增的页面。TIOBE 指数应仅跟踪这些最近新增的页面。
聊聊我眼中的AI
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享
eino v0.7.7 发布:新增文件系统中间件,优化序列化与反序列化,修复工具信息流问题2025年12月4日,CloudWeGo 开源项目 eino 正式发布了 v0.7.7 版本。本次更新主要围绕文件系统中间件支持、序列化处理范围扩展、反序列化稳定性提升以及工具信息流优化进行了改进。以下是更新详情:一、支持文件系统中间件(filesystem middleware)在本版本中,ADK 模块新增了对文件系统中间件的支持。这一特性使得在处理文件存储、读取、传输等场景时,能够通过中间件机制实现更加灵活、可扩展的处理逻辑,从而简化开发者在文件操作过程中的接口适配工作。二、增加序列化处理范围(serialization scope)持续优化 CI 流程的同时,这一版本扩展了序列化的处理范围,使得数据在持久化与传输过程中能够涵盖更广泛的类型与使用场景。这对大规模数据处理以及分布式环境下的任务执行具有积极作用。三、修复数组与切片反序列化异常针对反序列化环节中出现的 checkpoint 恢复时数组和切片解析过程中可能引发的崩溃问题,本次更新进行了修复。此改进有效提升了系统在复杂数据恢复场景下的稳定性与可靠性,减少了运行时的潜在风险。四、工具信息流中增加工具名称在 ADK 模块的流式工具消息(stream tool message)中,现在会附带工具名称信息。这一改动可帮助开发者在处理多工具协作或调试日志时,快速定位消息来源工具,提高问题排查与调试的效率。总结eino v0.7.7 的发布为开发者带来了以下关键改进:• 文件系统中间件支持,更好地集成文件处理逻辑• 序列化范围扩展,适应更广泛的数据场景• 反序列化稳定性增强,避免数组和切片解析崩溃• 工具信息流更明确,便于调试与维护
0 点赞 评论 收藏
分享
pion/webrtc v4.1.7 版本更新详解2025 年 12 月 5 日,pion/webrtc 发布了最新版本 v4.1.7。该版本在稳定性、性能和协议兼容性方面都有明显提升,同时对多个依赖模块进行了更新。本次更新的重点包括对 RTP、ICE、DTLS、SRTP 等模块的升级与新特性支持,以及对测试稳定性的改进。主要更新内容1. 新功能与选项支持• 增加忽略 rid 暂停的选项新增了在 a=simulcast:recv 中可选择忽略 rid 暂停的功能,使得在多码流接收场景下更加灵活。• 精准 RTP 时间戳支持引入 WithDirectPTS 选项,可实现更精确的 RTP 时间戳处理,提升音视频同步效果。• ICE 候选 Trickling 能力检测新增 CanTrickleICECandidates 方法,用于判断是否支持 ICE trickling,这对于减少连接建立时间非常有用。• 支持广播 ICE trickling 信息增强 SDP 中 ICE trickling 的能力声明。• DTLS Cipher Suites 可配置新增了配置 DTLS 密码套件的选项,让用户可根据安全性需求选择不同的加密算法。2. 协议与流处理改进• Simulcast 改进• 在探测过程中不再丢弃数据包,提高多码流切换的平滑度。• 考虑首个数据包读取 Simulcast IDs,改善媒体流识别性能。• NACK/RTX 重传测试优化• 增加了确定性 NACK/RTX 重现测试,提高重传机制的可预测性。3. 模块更新本次版本升级同步更新了多个依赖模块,确保性能与兼容性:• RTP 升级至 v1.8.26• ICE/v4 升级至 v4.0.13,并在此版本中多次小更新至 v4.0.12 与 v4.0.11• DTLS/v3 升级至 v3.0.8• SRTP/v3 升级至 v3.0.9• SCTP 升级至 v1.8.41• Interceptor 升级至 v0.1.42• TURN/v4 升级至 v4.1.3,以及 v4.1.2• Transport/v3 升级至 v3.1.1 与 v3.1.0• STUN/v3 升级至 v3.0.1• RTCP 升级至 v1.2.164. 测试与稳定性提升• 修复多个测试用例的竞争条件问题,减少测试过程中的偶发失败。• 改进 Trickling-ICE 示例代码,提升演示效果。• 增加简单的 datachannel 示例(含 demo.html),方便开发者快速上手。• 改进 datachannel 示例性能。• 增加自定义日志示例说明。• 多项 CI 配置更新,确保持续集成环境的稳定。总结pion/webrtc v4.1.7 在多媒体传输稳定性和协议兼容性上有显著提升,尤其是 Simulcast 优化、ICE trickling 支持、精准 RTP 时间戳以及可配置 DTLS 密码套件,为开发者提供了更多控制和优化的可能性。同时,此次更新同步维护了依赖库版本,保障了整体系统的安全与性能。
0 点赞 评论 收藏
分享
agno v2.3.8 版本发布:引入模型级重试机制与多线程上下文变量传递优化近日,agno 正式发布了 v2.3.8 版本(2025 年 12 月 5 日),本次更新在功能、性能及稳定性方面均有显著提升。以下是本版本的详细更新内容。新特性(New Features)1. 模型级重试机制(Model-Level Retries)此次版本在模型执行层引入了 改进的重试逻辑。• 在模型配置中设置 retries=n 时,将会直接在 模型执行层 进行重试操作。• 这一机制对于应对模型提供商的 请求速率限制(Rate Limit) 特别有用。• 代理层(Agent-level)重试 依旧存在,并适用于代理执行循环中引发的任何异常。官方建议在不同使用场景下,合理区分模型级重试与代理级重试,以获得最佳执行稳定性。改进(Improvements)上下文变量在并行工作流多线程中的传递优化• 修复了在并行工作流中执行时,上下文变量 无法传递至子线程的问题。• 特别是在使用 ThreadPoolExecutor 执行并行步骤时,之前的版本可能导致 contextvars(如 OpenTelemetry 这样的追踪/监控库使用的上下文变量)无法在子线程中正常获取。• 此修复确保了在并行执行步骤时,上下文变量能够准确传递,使得分布式追踪和性能监控更加准确。Bug 修复(Bug Fixes)• 知识检索模块修复(Knowledge Retriever Update)解决了在调用 aget_relevant_docs_from_knowledge 时,错误地传递了 dependencies 而不是 run_context 的问题,确保知识检索过程依赖项传递正确。移除内容(Removals)• MemoriTools 移除由于 Memori 框架 的发展方向调整,MemoriTools 已被移除。官方说明该工具的功能已被新的架构取代,未来将参考最新文档进行调整。本次主要变更一览(What's Changed)• 更新 memorisdk 至 v3.0.5 版本• 修复知识检索器传参错误问题• 清理调试日志中的追踪相关输出• 新增模型级重试功能• 修复并行工作流子线程上下文传递问题• 发布 v2.3.8 版本总结agno v2.3.8 是一次兼顾新特性、性能优化与问题修复的重要版本:• 模型级重试机制有效提升了高并发场景下的执行稳定性;• 上下文变量多线程传递优化,对分布式追踪非常重要;• MemoriTools 的移除意味着相关用户需要关注新的 Memori 框架文档并更新方案。
0 点赞 评论 收藏
分享
github-mcp-server v0.24.0 发布:全面迁移至 modelcontextprotocol/go-sdk,新增仓库资源补全与AI问题评估工作流1. 核心SDK迁移• 本次版本将 GitHub MCP Server 的核心 Model Context Protocol 实现从 mark3labs/mcp-go 迁移到了 modelcontextprotocol/go-sdk。• 此更改对最终用户应当是透明的,但由于涉及底层协议库替换,建议在使用过程中关注可能出现的回归问题并及时反馈。2. 新增功能• 仓库资源补全(Repository Resource Completion)新增了资源补全能力,支持针对 GitHub 仓库资源进行补全处理,使 AI 工具能更智能地获取相关仓库信息与资源列表。• AI 问题评估工作流(AI Issue Assessment Workflow)新增 GitHub Actions 工作流文件 .github/workflows/ai-issue-assessment.yml,可在 Issue 创建或添加标签时自动调用 AI 进行评估,并根据评估结果添加标签或评论。• 支持 bug 报告评估 和 默认新问题评估 两种 prompt 文件:• .github/prompts/bug-report-review.prompt.yml• .github/prompts/default-issue-review.prompt.yml• AI 会根据问题或Bug报告的完整性自动给出三种评估结果:• Ready for Review• Missing Details• Unsure3. 其他改进• 增加了 X-MCP-Tools 的文档说明(docs/remote-server.md),详细描述了 Remote Server 对应的请求头与本地服务器参数的映射关系。• 修正了只读模式下工具跳过逻辑:确保在判断只读模式时不会错误跳过可写工具的检查条件。• README 中调整了部分工具参数说明格式,使描述更清晰一致。
0 点赞 评论 收藏
分享
ollama v0.13.1 发布:全新 Ministral-3 与 Mistral-Large-3 模型,增强工具调用与GPU兼容性Ollama 2025年12月3日发布了 v0.13.1 版本更新,本次更新重点引入了两个新的模型家族,并带来了多项功能增强、错误修复及底层改进,进一步提升了模型的部署灵活性与运行稳定性。一、 全新模型登场1. Ministral-3 系列:此系列模型专为边缘部署设计,能够在广泛的硬件设备上高效运行,为资源受限的环境提供了强大的本地AI能力。2. Mistral-Large-3 系列:这是一个通用的多模态混合专家(MoE)模型,旨在处理生产级任务和企业级工作负载,在复杂场景下表现出色。二、 核心功能与改进1. 引擎与工具调用:• nomic-embed-text 模型现在默认使用 Ollama 自身的引擎运行。• 为 cogito-v2.1 模型新增了工具调用(tool calling)支持。• 同样为 cogito-v2.1 模型添加了思维链(thinking)解析功能。2. GPU 与系统兼容性修复:• 修复了 CUDA VRAM 发现的相关问题。• 解决了在仅配备 CPU 的系统上,模型可能被错误驱逐(evict)的问题。• 修复了在某些旧款 GPU 上无法检测到 CUDA 的问题。• 改进了对 CUDA 计算能力(CC)与目标库版本的兼容性验证。• (Windows系统)增加了对 PATH 中潜在不兼容库文件(如 ggml-base.dll)的检测与警告。3. 错误处理与用户体验:• Ollama 现在能够更好地呈现和渲染错误信息,而非简单地显示 “Unmarshal: errors”。• API 客户端 (api/client) 增强了对非 JSON 格式流式错误响应的处理能力。4. 应用与文档:• 修复了应用内连接打开逻辑,优化了用户体验。• 更新了应用内帮助链接,使其指向官方文档网站。• 清理了文档中已弃用参数(如 mirostat, mirostat_eta, mirostat_tau)的说明。三、 重要代码变更摘要本次更新包含了 18个提交,涉及 33个文件 的更改,由 12位贡献者 共同完成。部分关键变更包括:• API/客户端:增强了错误处理逻辑,当服务器返回非JSON格式的错误响应(如纯文本或HTML)时,能正确传递状态码和错误信息。• 应用层:优化了 macOS 和 Windows 系统上处理自定义 URL 协议(如 ollama://)的逻辑。• 模型支持:• ministral-3:模型支持现已集成,并添加了相应的测试。• deepseek2:升级以支持运行 v3+ 版本的模型。• 模型解析器:新增了针对 cogito-v2.1 模型的专用解析器,以支持其独特的工具调用和思维格式。• mistral3 模型结构:在转换逻辑中增加了对 LLAMA 4 缩放因子等新 rope 参数的支持。• 底层与发现:• GPU 发现:改进了设备发现机制,避免库路径重叠,并加入了对 NVIDIA Jetson Jetpack 版本的更精确匹配要求。• KV 缓存:测试现在同时覆盖使用和不使用 PermutedV 的情况。• LLM 服务器:修正了在仅有 CPU 的系统上进行模型布局验证的逻辑,防止不必要的模型驱逐。四、 其他调整• 将 Vulkan 着色器文件标记为“已供应”文件。• 更新了 .gitattributes 以正确归类相关文件。• 移除了代码检查工具中的 gocritic 规则。总结Ollama v0.13.1 版本是一个以模型扩展和系统稳固性为主的更新。它不仅为用户带来了适用于边缘和企业场景的新模型选择,还通过一系列关键的缺陷修复和兼容性改进,显著提升了软件在各类硬件环境下的可靠性和用户体验。特别是对 cogito 和 ministral 系列模型支持的增强,展现了 Ollama 生态持续扩展对多样化模型架构的兼容能力。
0 点赞 评论 收藏
分享
DeepSeek-V3.2系列正式发布:开源模型首次达到GPT-5水平,斩获四项国际竞赛金牌继上周推出数学推理模型 DeepSeekMath-V2 之后,DeepSeek 再度更新,正式发布 V3.2 系列模型。这次一次带来两个版本,分别面向不同应用场景:日常使用与高难度推理。01 双模型定位与核心差异DeepSeek本次发布的V3.2系列包含两个定位分明的模型,以满足不同场景的需求 。DeepSeek-V3.2(标准版) 定位于日常使用场景,注重平衡推理能力与输出效率。该版本已全面部署于DeepSeek官方网页端、App和API服务 。在多项公开推理基准测试中,其表现接近GPT-5,仅略低于Gemini-3.0-Pro 。DeepSeek-V3.2-Speciale(研究版) 则专注于推动开源模型的极限推理能力边界。该模型是V3.2的长思考增强版,结合了DeepSeek-Math-V2的定理证明能力,在高度复杂任务上表现卓越 。02 卓越的性能表现DeepSeek-V3.2-Speciale在多项国际顶级竞赛中展现出惊人实力,成功斩获IMO2025(国际数学奥林匹克)、CMO2025(中国数学奥林匹克)、ICPCWorldFinals2025(国际大学生程序设计竞赛全球总决赛)及IOI2025(国际信息学奥林匹克)金牌 。其中,ICPC与IOI成绩分别达到了人类选手第二名与第十名的水平 。在主流推理基准测试上,Speciale模型的性能表现媲美Gemini-3.0-Pro,展现出强大的推理能力 。不过需要注意的是,该版本因推理链较长、Token消耗高,目前仅限研究使用 。
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享

创作者周榜

更多
关注他的用户也关注了:
牛客网
牛客网在线编程
牛客网题解
牛客企业服务