专业金融数据,下一代智能终端/ F- Y2 V5 b1 a: x$ C' s) U
2月13日,澎湃新闻记者获悉,DeepSeek 网页/ APP 正在测试新的长文本模型结构,支持 1M 上下文。其API 服务不变,仍为 V3.2,仅支持 128K 上下文。
4 q. O' }; y' n6 d* K- G r 这也被外界认为,DeepSeek或将在今年春节再次“炸场”发布新模型,复刻去年春节现象级轰动。9 ~, u/ k1 s, g/ q7 U1 |
今年1月12日,DeepSeek曾发布一篇新论文《Conditional Memory via Scalable Lookup:A New Axis of Sparsity for Large Language Models》(基于可扩展查找的条件记忆:大语言模型稀疏性的新维度),梁文锋位列作者名单中,这篇论文为北京大学和DeepSeek共同完成。据分析,这篇论文的核心直指当前大语言模型存在的记忆力“短板”,提出了“条件记忆”这一概念。* S- d% `1 X6 [
当时行业就普遍猜测,DeepSeek的下一代模型V4或将在今年春节前后正式发布。
Z( N7 _' y/ w+ B3 @5 }9 x 去年12月1日,DeepSeek曾经同时发布两个正式版模型:DeepSeek-V3.2 和 DeepSeek-V3.2-Speciale,官方网页端、App和API均已更新为正式版 DeepSeek-V3.2,Speciale版本目前仅以临时API服务形式开放,以供社区评测与研究。% B% n8 b# a( {6 |( }
( _6 Z0 o8 D9 v/ E8 Z* F3 b7 W! j* _/ u2 P( Z5 \. t3 \
7 `+ D& O1 R( {1 i. J' c
据介绍,DeepSeek-V3.2的目标是平衡推理能力与输出长度,适合日常使用,例如问答场景和通用Agent(智能体)任务场景。在公开的推理类Benchmark测试中,DeepSeek-V3.2达到GPT-5的水平,仅略低于Gemini-3.0-Pro;相比Kimi-K2-Thinking,V3.2的输出长度大幅降低,显著减少计算开销与用户等待时间。
3 W( ?# A# n! \3 s( n" |+ c 作为当之无愧的大模型风向标,DeepSeek一举一动都受到行业整体关注。网易有道词典发布2025年度词汇——“deepseek”以 8672940次年度搜索量成功当选。据有道词典负责人介绍,“deepseek”在词典内部的搜索曲线呈现明显的爆发式特征,从年初因“低成本”突破算力封锁起,几乎每个重要进展都会带动搜索量上涨。
$ H, O( Y% {6 V" h# g# q6 [1 j4 s(文章来源:澎湃新闻) |