|
|
5 K$ [' o4 r0 z
出品 |《态度》栏目 作者 | 袁宁, P: l+ r) b+ ^
编辑 | 丁广胜% _8 b7 a4 S1 K7 u C# a* G" ^
0 ~ {# N" q) C; z
2月11日深夜到12日清晨,短短几个小时内,中国三家知名的大模型公司几乎同时完成了一轮关键更新:
3 f$ g1 e$ k2 W9 z* a# v7 [6 B% `, N3 O& d0 X* c
智谱正式发布 GLM-5,MiniMax M2.5在产品中悄然上线体验,DeepSeek 也启动新一轮能力升级。) W4 d* A: K* U" r, r. N7 W* T
智谱 GLM-5:从“写代码”到“搞工程”% j8 d3 W! i+ P# k6 Y
2月12日,智谱正式官宣上线并开源新模型 GLM-5。同时确认:此前在 OpenRouter 上爆火的匿名模型 Pony Alpha,正是 GLM-5。
) {- [; d- @9 d在匿名测试阶段,这个模型已经被全球开发者当作真实生产工具使用。有人用它做横版解谜游戏,有人搭建 Agent 交互世界,也有人直接基于它开发出论文版“抖音”等完整应用形态。模型在没有品牌背书的情况下完成真实市场验证,本身已经说明了能力层级的变化。
) y5 S9 h- N- S4 }+ ~8 r1 X1 v
* t* U6 b% @' [智谱对 GLM-5的定位非常明确:它不是一个聊天模型,而是一个 Agentic Engineering 基座模型。4 m+ w9 I2 J/ P! ?' r" q( S8 z" g
过去两年,大模型的主流叙事是“写代码”“写前端”;而现在,行业共识正在转向:模型需要完成完整工程与复杂任务,即从「Vibe Coding」走向「Agentic Engineering」。GLM-5正是这一阶段的代表产物。( ?! f' E1 k' U7 M. d( f8 q- X
& p5 W, Z8 H+ E+ \与上一代相比,GLM-5不再满足于生成一个漂亮 demo 或一段 Python 脚本,而是为稳定交付生产级结果而生。在真实编程场景的使用体感上,GLM-5已经被认为逼近当前行业天花板 Claude Opus 4.5。
. G) R( ]! Q3 u+ J在底层能力上,GLM-5进行了全面扩展:
( G& c2 ^: P2 \% M+ L* }● 参数规模: 从上一代的355B(激活32B)扩展至744B(激活40B)。
$ I A$ i* b- B3 D7 \● 数据量级: 预训练数据从23T 提升至28.5T。3 R7 ^* j4 o" _8 r4 D
● 架构创新: 首次集成了 DeepSeek Sparse Attention 机制。这一技术在维持长文本效果无损的同时,大幅降低了模型部署成本,提升了 Token 的生成效率。1 x$ p, s7 _- ~2 A" g9 E4 d+ U
● 异步强化学习: 构建了全新的“Slime”框架,让模型能够在长程交互中持续学习,不再是“聊几句就忘”。
' E* F5 B5 c( Q n. Q
2 M1 F7 u4 h# K
在全球权威的 Artificial Analysis 榜单中,GLM-5位居全球第四、开源第一。
6 _8 o# C# M3 N v# M" e- x
8 ]' A& |5 }/ I) w1 h, m! K
GLM-5在编程能力上实现了对 Claude Opus 4.5的对齐,在工程师最看重的 SWE-bench-Verified(软件工程基准测试)中,GLM-5拿下了77.8的高分;在 Terminal Bench 2.0(终端操作能力)中达到了56.2。这两个分数不仅是开源模型的 SOTA(State Of The Art),更直接超越了 Google 的 Gemini 3 Pro。
5 M3 U7 o( S' G在智谱内部的 Claude Code 评估集合中,GLM-5在后端重构和深度调试等“硬骨头”任务上,比 GLM-4.7平均提升了超过20%。; x- E* r0 F: Q) @: ~: {
: F2 G4 [1 h0 d7 h @0 @ Z
GLM-5在 Agent 能力上实现开源 SOTA,在多个评测基准中取得开源第一。
( R4 b7 E4 R3 |: K
4 \3 V( W. q4 r9 [- q更有意思的是 Vending Bench 2的测试结果。这个测试要求模型在一年期内经营一个模拟的自动售货机业务。GLM-5最终的账户余额达到了4432美元。这意味着它不仅会写代码,还懂得资源管理和长期规划,这种“经营能力”是迈向 AGI 的关键一步。
$ |% H2 D/ a( Q7 \+ f$ D* E B
a$ V$ L: }3 P$ x8 h同一夜:MiniMax 与 DeepSeek" S# Q; e1 ^( W
就在智谱官宣的同时,另外两家巨头的布局也在进行。7 [# |4 i1 M4 e/ U, U6 F
昨晚,细心的用户发现,在 MiniMax Agent 产品中,底层模型选项里悄然出现了一个新名字——MiniMax M2.5。7 E# ?) R& v) I a1 |
" {( o5 K+ r# v) O$ f) ]5 `, m
虽然公司尚未正式官宣,但这显然是一次在产品端的“实弹演习”。据早期测试用户反馈,“M2.5 Agent能力炸裂”,“编程和工具调用又强又便宜”。4 T4 V/ q) i# p" C
# ^5 e5 Q' G8 j8 R7 D
据我们了解,MiniMax M2.5定位为全球首个为Agent场景原生设计的生产级模型。其编程与智能体性能 (Coding & Agentic)比肩国际顶尖模型,直接对标 Claude Opus 4.6,支持PC、App、跨端应用的全栈编程开发,尤其在 Excel高阶处理、深度调研、PPT等Office核心生产力场景中处于SOTA地位。8 t& _; I: {# c4 g4 j* A; X
同时,M2.5模型激活参数量仅 10B,在显存占用和推理能效比上优势明显,支持 100 TPS 超高吞吐量。
c8 _, H7 c5 B! \此外,就在众人还在猜测DeepSeek V4何时到来时,DeepSeek也在悄然更新。! ? p- b$ t7 C; P
我们在昨晚尝试询问 DeepSeek 的最新状态,在关闭“深度思考”和“联网搜索”后查询模型信息时发现,其上下文长度已提升至1M Token(此前为128K),知识库截止日期更新至2025年5月。
9 V( s9 a7 R, e4 F
/ \# ]" f$ n& e- c
2026年,注定不会平静。5 N2 t+ a& b# Z
智谱用 GLM-5证明了中国模型在复杂工程能力上已能与世界最强掰手腕;MiniMax 在产品端极速狂奔,抢占用户心智;而所有人依旧在等待 DeepSeek 出招。
0 t/ Z$ b( U) }1 \$ ?/ G( O# C3 F' r
对于此时此刻的身处浪潮中的我们来说,唯一的选择就是——跟上速度。毕竟,在这个10倍速的夜晚过后,掉队可能只是一瞬间的事。
) V/ V: R4 K/ F/ L5 m) N% n8 T8 c& `
|
|