参测阵容

套餐平台模型数 覆盖模型白天夜间备注
火山-Coding字节·火山引擎6doubao-seed-2.0-pro, doubao-seed-2.0-code, doubao-seed-code, deepseek-v3.2, glm-4.7, kimi-k2.5
GLM-Coding智谱 BigModel6glm-4.5-air, glm-4.5, glm-4.6, glm-4.7, glm-5, glm-5-turbo
KIMI-Coding月之暗面1kimi-for-coding
MiniMax-CodingMiniMax4m2.1, m2.5, m2.7, m2.7-highspeed
阿里CodingPlan阿里云百炼8qwen3-coder-next/plus, qwen3.5-plus, qwen3-max, glm-4.7, glm-5, kimi-k2.5, minimax-m2.5
硅基流动(参照组)SiliconFlow6kimi-k2.5, deepseek-v3.1-terminus/v3.2, glm-4.7, glm-5, minimax-m2.5无 Coding Plan,按量付费 API
腾讯CodingPlan腾讯云 LKEAP8hunyuan-t1, hunyuan-2.0-thinking/instruct, hunyuan-turbos, tc-auto, kimi-k2.5, minimax-m2.5, glm-5缺失夜测当晚 API Key 未续期失效
无问芯穹-CodingInfini-AI5kimi-k2.5, minimax-m2.5, minimax-m2.7, glm-5, deepseek-v3.2-thinking
优云智算-CodingModelVerse2kimi-k2.5, minimax-m2.1全部失败全部失败账号异常,不纳入比较

测试方法

指标定义
TTFT = 首 Token 延迟(越低越好);TPS = 解码吞吐 tokens/sec(越高越好);总耗时 = 完整响应时长(越低越好)。
合成上下文
用 5 类代码/文档/配置模板拼接成精确 token 数的仓库快照,tiktoken cl100k_base 编码,确保不同平台收到完全相同的输入。
客户端输出截断
max_output_tokens = 320。超出后客户端主动停止消费 SSE 流,避免不同平台输出长度差异导致总耗时失真。
采样规格
每格 5 次有效样本,网络/SSL/429/5xx 自动重试。4 档上下文:100 / 1K / 10K / 100K tokens。
昼夜双轮
夜间批次 2026-03-21 21:55,白天批次 2026-03-24 15:35。腾讯夜间 API Key 过期导致数据缺失。
排除项
优云智算账号状态异常,全部失败不纳入比较。无问芯穹 deepseek-v3.2-thinking @100K 两批均失败(上下文限制)。

套餐定价 & 配额

各平台月费档位、配额限制、当前促销及社区口碑。数据以官网为准,交叉验证 V2EX / 知乎 / 即刻等社区讨论,更新于 2026-03-29。

配额陷阱提醒:一次用户 prompt 在 Claude Code / Cline 中会触发 5–30 次 API 请求。标称 18,000 次/月的配额,实际可用对话轮次约 600–3,600 轮。各平台计量单位不统一(次请求 / prompt / token),直接比价需谨慎。
提供商 档位 月费 首月促销 配额(5h / 周 / 月) 模型数 社区口碑
火山-Coding
方舟 Coding Plan · 字节跳动
Lite¥40/月¥9.9 1,200次 / — / —6 V2EX 差评较多:高峰 20s+ 等待、配额消耗快(按 API 请求计数非 prompt)。doubao-seed-2.0-pro 速度尚可,但其他模型体验不稳定。首购限量每日 10:30 抢购。
Pro¥200/月¥49.96,000次 / — / —6
Max¥400/月— / — / —6
GLM-Coding
智谱 BigModel · 2026.02.12 涨价 30%
Lite¥49/月已取消 80 prompt / 400 / —6 模型质量公认最强(GLM-5 对标 Opus 4.6),但涨价后争议大。Lite 用户投诉 2 个 prompt 消耗 97% 额度。GLM-5 仅 Pro/Max 可用且消耗 3 倍配额。年付 Lite 仅 ¥34/月。
Pro¥149/月已取消400 prompt / 2,000 / —7+
Max¥469/月已取消1,600 prompt / 8,000 / —7+
KIMI-Coding
月之暗面 · kimi-k2.5 专属
Andante¥49/月年付 ¥39/月 — / ~26 prompt / —1 前端/视觉编码强(截图还原 80-90%),K2.5 代码专项训练。但周配额极紧(Andante 仅 ~26 轮/周),后端能力平庸。Allegretto 起支持 Agent Swarm 多智能体并行。
Moderato¥99/月年付 ¥79/月— / ~104 prompt / —1
Allegretto¥199/月— / ~520 prompt / —1
Allegro¥699/月— / ~1,560 prompt / —1
MiniMax
Token Plan · 2026.03.23 起新增周配额
标准 Starter¥29/月年付 ¥24/月 600次 / ~6,000 / —1 M2.7 被称「国产 SOTA」(SWE-Pro 56%),速度 ~100 TPS。¥29 起步性价比高。3/23 起新增周配额 + 高峰限速(工作日 15:00-17:30),部分用户不满。极速版延迟更低。
标准 Plus¥49/月年付 ¥41/月1,500次 / ~15,000 / —1
标准 Max¥119/月年付 ¥99/月4,500次 / ~45,000 / —1
极速 Plus¥98/月年付 ¥82/月1,500次 / ~15,000 / —1
极速 Max¥199/月年付 ¥166/月4,500次 / ~45,000 / —1
极速 Ultra¥899/月年付 ¥749/月30,000次 / ~300,000 / —1
阿里CodingPlan
阿里云百炼 · Lite 已停售新用户
Lite(停售)¥40/月¥7.9 ~2,000次 / ~9,000 / 18,0008 模型最多(8 款跨 4 厂商),¥7.9 首月最低。但按自然月计费(月末买亏)、非阿里模型无缓存(配额消耗更快)、输出低至 2.4 TPS、内容审查严格(403 封禁)。Lite 已对新用户停售。
Pro¥200/月¥39.96,000次 / 45,000 / 90,0008
腾讯CodingPlan
腾讯云 LKEAP · 优惠至 4/19
Lite¥40/月¥7.9(次月 ¥20) ~1,200次 / ~9,000 / 18,0004+ 3/5 新上线,双协议支持(OpenAI + Anthropic),含混元自研模型。新推 Token Plan 被社区猛批「比 Coding Plan 贵数倍」。混元模型在独立测评中推理任务交白卷。企业生态集成是优势。
Pro¥200/月¥39.9(次月 ¥100)~6,000次 / ~45,000 / 90,0004+
无问芯穹-Coding
Infini-AI · 多模型聚合
Lite¥40/月前 2 月 ¥19.9 1,000次 / 6,000 / 12,0008 促销价 ¥19.9 性价比高,正价 ¥40 与阿里持平。无 RPM/TPM 限制,适合轻度使用。品牌知名度低,售后响应慢,模型更新不及大厂。
Pro¥200/月前 2 月 ¥99.95,000次 / 30,000 / 60,0008
硅基流动(参照组)
SiliconFlow · 按量付费 · 非订阅制
GLM-5 Pro¥4+22/M tok RPM 500–10,000(按充值等级)30+ 纯按量付费,无月费。社区评价「体验丝滑」「把价格打下来了」。新注册送 ¥7 额度。R1 高峰可能等待数分钟。适合按需调用、多模型实验。
Kimi-K2.5 Pro¥4+21/M tok同上
DeepSeek-V3.2¥2+3/M tok同上

完整数据热力图

所有模型 × 4 档上下文。热力图色阶基于绝对阈值,与实际使用体验对应。

色阶: 优秀 良好 一般 较差 很差 TTFT:≤1.5s 优秀 | 1.5-3s 良好 | 3-8s 一般 | 8-20s 较差 | >20s 很差
TPS:≥80 优秀 | 50-80 良好 | 30-50 一般 | 15-30 较差 | <15 很差。总耗时阈值随上下文档位宽松。
@100 tokens@1K tokens@10K tokens@100K tokens
套餐模型TTFTTPS耗时TTFTTPS耗时TTFTTPS耗时TTFTTPS耗时
GLM-Codingglm-4.51.13566.971.865711.572.78766.6811.723322.04
GLM-Codingglm-4.5-air1.11973.481.101213.331.891034.7418.777523.64
GLM-Codingglm-4.62.64549.451.80659.952.44647.3614.261934.87
GLM-Codingglm-4.76.732522.521.12539.103.16647.628.835718.66
GLM-Codingglm-53.882812.573.873012.767.822318.736.472816.50
GLM-Codingglm-5-turbo1.19517.721.07497.691.43537.365.395611.20
火山-Codingdeepseek-v3.22.773210.782.213110.505.663116.0418.303027.81
火山-Codingdoubao-seed-2.0-code10.044816.849.454716.4712.005118.3145.125351.20
火山-Codingdoubao-seed-2.0-pro2.18846.042.39866.203.29767.5512.187716.36
火山-Codingdoubao-seed-code1.563710.361.34389.772.623711.2218.174026.20
火山-Codingglm-4.728.863239.3627.063637.1321.522733.6680.074287.95
火山-Codingkimi-k2.517.502530.5617.092430.8022.822336.7089.9822104.35
阿里CodingPlanglm-4.73.24747.603.95788.092.764112.1714.156620.21
阿里CodingPlanglm-51.533012.387.333616.548.203617.2612.013222.06
阿里CodingPlankimi-k2.523.353830.1910.943421.556.753914.5128.752951.19
阿里CodingPlanminimax-m2.54.124511.774.746110.144.52669.4313.113529.01
阿里CodingPlanqwen3-coder-next3.981476.243.511046.7911.586724.8815.289218.88
阿里CodingPlanqwen3-coder-plus3.04468.203.22479.614.415310.1528.096632.74
阿里CodingPlanqwen3-max-2026-01-232.493111.592.373212.074.883015.2011.023320.41
阿里CodingPlanqwen3.5-plus3.73618.974.54649.534.48768.938.5812511.19
MiniMax-Codingm2.14.124211.761.57488.232.44459.584.644312.08
MiniMax-Codingm2.52.123611.061.42517.595.544813.328.3410212.80
MiniMax-Codingm2.72.063710.631.98439.472.03439.475.284212.90
KIMI-Codingkimi-for-coding3.853112.215.393413.375.713514.2311.204817.28
无问芯穹-Codingdeepseek-v3.2-thinking2.962615.063.702616.263.262416.82
无问芯穹-Codingglm-53.422615.634.663314.443.702914.669.263020.09
无问芯穹-Codingkimi-k2.538.172551.1014.612627.027.762520.7818.872531.97
无问芯穹-Codingminimax-m2.54.545011.014.285210.615.305111.746.885712.55
无问芯穹-Codingminimax-m2.73.674710.503.19539.433.87539.957.494814.26
腾讯CodingPlanauto5.392816.582.273711.133.943413.275.633315.58
腾讯CodingPlanhunyuan-2.0-instruct1.35428.571.65527.563.08688.5010.826216.13
腾讯CodingPlanhunyuan-2.0-thinking1.15834.981.34855.152.51766.7316.248719.87
腾讯CodingPlanminimax-m2.51.723111.971.33419.161.92409.853.244310.66
腾讯CodingPlankimi-k2.52.462913.760.96379.7312.384419.6013.434720.39
腾讯CodingPlanglm-53.962833.882.023212.662.643013.765.183913.54
腾讯CodingPlanhunyuan-t11.05765.301.20844.992.35617.696.015811.47
腾讯CodingPlanhunyuan-turbos1.242910.691.842912.712.562913.526.822918.04
硅基流动-Prominimax-m2.52.19727.961.61856.231.89796.413.77748.62
硅基流动-Proglm-52.203711.321.50448.733.043612.176.362421.31
硅基流动-Prokimi-k2.50.992912.261.372912.391.753311.595.653016.31
硅基流动-Proglm-4.73.59668.420.78705.331.43715.9810.716415.77
硅基流动-Prodeepseek-v3.22.51957.779.282922.117.952721.2212.352329.27
硅基流动-Prodeepseek-v3.1-terminus1.022112.241.362014.511.662014.505.382017.55
优云智算-Codingkimi-k2.5
优云智算-Codingminimax-m2.1
@100 tokens@1K tokens@10K tokens@100K tokens
套餐模型TTFTTPS耗时TTFTTPS耗时TTFTTPS耗时TTFTTPS耗时
GLM-Codingglm-4.51.711304.111.781573.712.151424.047.321299.83
GLM-Codingglm-4.5-air1.89844.971.871104.382.73766.5118.227222.88
GLM-Codingglm-4.61.78479.431.75667.085.14979.519.299212.92
GLM-Codingglm-4.71.94736.172.11606.997.657812.975.311177.93
GLM-Codingglm-53.583810.262.21398.635.423313.047.853216.90
GLM-Codingglm-5-turbo1.75656.811.90627.752.39776.367.097011.74
火山-Codingdeepseek-v3.22.672911.152.962912.269.782920.2144.603054.57
火山-Codingdoubao-seed-2.0-code3.38499.925.986411.116.296911.0629.305934.74
火山-Codingdoubao-seed-2.0-pro3.02916.592.351015.576.919310.3820.658024.68
火山-Codingdoubao-seed-code1.93547.842.02498.703.975110.3423.385429.31
火山-Codingglm-4.72.714010.893.413513.866.463914.6339.863748.65
火山-Codingkimi-k2.52.081820.112.101918.884.461625.2730.871651.72
阿里CodingPlanglm-4.71.85736.292.23806.272.83826.798.838712.55
阿里CodingPlanglm-52.373711.112.09439.742.923811.4011.223520.52
阿里CodingPlankimi-k2.55.652122.785.311728.026.242024.269.204116.73
阿里CodingPlanminimax-m2.55.27739.854.44629.665.356210.579.165315.21
阿里CodingPlanqwen3-coder-next2.518413.392.001394.442.641315.0611.7612814.24
阿里CodingPlanqwen3-coder-plus1.96496.862.49498.882.86508.9419.366923.89
阿里CodingPlanqwen3-max-2026-01-233.943113.281.993211.056.043115.9520.383429.63
阿里CodingPlanqwen3.5-plus2.30538.422.32587.915.63968.987.3711811.38
MiniMax-Codingm2.12.984510.942.41499.972.80657.788.745317.31
MiniMax-Codingm2.53.13628.352.86529.843.87648.897.853922.50
MiniMax-Codingm2.72.90539.052.04518.362.76667.726.315112.60
KIMI-Codingkimi-for-coding3.082712.143.732813.533.413013.277.703516.64
无问芯穹-Codingdeepseek-v3.2-thinking2.702814.182.712913.703.662715.88
无问芯穹-Codingglm-52.363212.452.353810.963.273213.238.973219.05
无问芯穹-Codingkimi-k2.52.382813.923.972716.043.292515.969.602621.81
无问芯穹-Codingminimax-m2.54.14629.424.16708.929.956415.048.196313.85
无问芯穹-Codingminimax-m2.74.124711.123.25509.763.994910.626.695013.21
腾讯CodingPlanauto缺失缺失缺失缺失
腾讯CodingPlanhunyuan-2.0-instruct缺失缺失缺失缺失
腾讯CodingPlanhunyuan-2.0-thinking缺失缺失缺失缺失
腾讯CodingPlanminimax-m2.5缺失缺失缺失缺失
腾讯CodingPlankimi-k2.5缺失缺失缺失缺失
腾讯CodingPlanglm-5缺失缺失缺失缺失
腾讯CodingPlanhunyuan-t1缺失缺失缺失缺失
腾讯CodingPlanhunyuan-turbos缺失缺失缺失缺失
硅基流动-Prominimax-m2.52.234650.842.47886.175.16978.504.10768.36
硅基流动-Proglm-50.78576.400.78616.040.98556.823.774810.52
硅基流动-Prokimi-k2.51.72449.601.16528.081.20489.743.665310.34
硅基流动-Proglm-4.70.60734.960.76774.910.75745.082.45776.61
硅基流动-Prodeepseek-v3.22.603412.102.493113.044.293413.856.931830.10
硅基流动-Prodeepseek-v3.1-terminus1.642013.252.461916.942.111816.687.451723.03
优云智算-Codingkimi-k2.5
优云智算-Codingminimax-m2.1

上下文缩放分析

随上下文从 100 增长到 100K tokens,各模型 TPS 的保持情况(白天数据)。TPS 保持率 = TPS@100K ÷ TPS@100(越高越好,100% = 无衰减)。耗时倍增 = 总耗时@100K ÷ 总耗时@100。按保持率升序排列,衰减最严重的在上方。

套餐模型 TPS @100TPS @1KTPS @10KTPS @100K TPS 保持率 耗时 @100耗时 @100K耗时倍增
GLM-Codingglm-4.65465641935%9.4s34.9s3.7×
GLM-Codingglm-4.55657763359%7.0s22.0s3.2×
阿里CodingPlanqwen3-coder-next147104679262%6.2s18.9s3.0×
硅基流动-Proglm-53744362464%11.3s21.3s1.9×
阿里CodingPlankimi-k2.53834392977%30.2s51.2s1.7×
腾讯CodingPlanhunyuan-t17684615877%5.3s11.5s2.2×
阿里CodingPlanminimax-m2.54561663577%11.8s29.0s2.5×
GLM-Codingglm-4.5-air971211037577%3.5s23.6s6.8×
阿里CodingPlanglm-4.77478416689%7.6s20.2s2.7×
火山-Codingkimi-k2.52524232291%30.6s104.3s3.4×
火山-Codingdoubao-seed-2.0-pro8486767792%6.0s16.4s2.7×
硅基流动-Prodeepseek-v3.1-terminus2120202094%12.2s17.6s1.4×
硅基流动-Proglm-4.76670716496%8.4s15.8s1.9×
火山-Codingdeepseek-v3.23231313096%10.8s27.8s2.6×
无问芯穹-Codingkimi-k2.52526252599%51.1s32.0s0.6×
腾讯CodingPlanhunyuan-turbos2929292999%10.7s18.0s1.7×
GLM-Codingglm-528302328100%12.6s16.5s1.3×
无问芯穹-Codingminimax-m2.747535348102%10.5s14.3s1.4×
硅基流动-Prominimax-m2.572857974102%8.0s8.6s1.1×
MiniMax-Codingm2.142484543103%11.8s12.1s1.0×
硅基流动-Prokimi-k2.529293330104%12.3s16.3s1.3×
腾讯CodingPlanhunyuan-2.0-thinking83857687104%5.0s19.9s4.0×
阿里CodingPlanqwen3-max-2026-01-2331323033104%11.6s20.4s1.8×
阿里CodingPlanglm-530363632108%12.4s22.1s1.8×
火山-Codingdoubao-seed-code37383740110%10.4s26.2s2.5×
GLM-Codingglm-5-turbo51495356110%7.7s11.2s1.5×
火山-Codingdoubao-seed-2.0-code48475153111%16.8s51.2s3.0×
无问芯穹-Codingminimax-m2.550525157112%11.0s12.6s1.1×
MiniMax-Codingm2.737434342113%10.6s12.9s1.2×
无问芯穹-Codingglm-526332930114%15.6s20.1s1.3×
腾讯CodingPlanauto28373433114%16.6s15.6s0.9×
火山-Codingglm-4.732362742129%39.4s88.0s2.2×
腾讯CodingPlanminimax-m2.531414043138%12.0s10.7s0.9×
腾讯CodingPlanglm-528323039142%33.9s13.5s0.4×
阿里CodingPlanqwen3-coder-plus46475366143%8.2s32.7s4.0×
腾讯CodingPlanhunyuan-2.0-instruct42526862149%8.6s16.1s1.9×
KIMI-Codingkimi-for-coding31343548158%12.2s17.3s1.4×
腾讯CodingPlankimi-k2.529374447164%13.8s20.4s1.5×
阿里CodingPlanqwen3.5-plus616476125204%9.0s11.2s1.2×
GLM-Codingglm-4.725536457228%22.5s18.7s0.8×
硅基流动-Prodeepseek-v3.29292723248%57.8s29.3s0.5×
MiniMax-Codingm2.5365148102285%11.1s12.8s1.2×
无问芯穹-Codingdeepseek-v3.2-thinking26262415.1s

同模型跨厂商比较

相同基础模型在不同平台上的表现差异(白天数据),揭示平台基础设施和调度能力的差距。@100 和 @100K 两档对比。

Kimi K2.5

平台 TTFT @100TPS @100耗时 @100 TTFT @100KTPS @100K耗时 @100K
硅基流动 0.99 29 12.26 5.65 30 16.31
腾讯 2.46 29 13.76 13.43 47 20.39
KIMI 3.85 31 12.21 11.20 48 17.28
火山 17.50 25 30.56 89.98 22 104.35
阿里 23.35 38 30.19 28.75 29 51.19
无问芯穹 38.17 25 51.10 18.87 25 31.97

GLM-5

平台 TTFT @100TPS @100耗时 @100 TTFT @100KTPS @100K耗时 @100K
GLM 1.19 51 7.72 5.39 56 11.20
阿里 1.53 30 12.38 12.01 32 22.06
硅基流动 2.20 37 11.32 6.36 24 21.31
无问芯穹 3.42 26 15.63 9.26 30 20.09
GLM 3.88 28 12.57 6.47 28 16.50
腾讯 3.96 28 33.88 5.18 39 13.54

MiniMax M2.5

平台 TTFT @100TPS @100耗时 @100 TTFT @100KTPS @100K耗时 @100K
腾讯 1.72 31 11.97 3.24 43 10.66
MiniMax 2.12 36 11.06 8.34 102 12.80
硅基流动 2.19 72 7.96 3.77 74 8.62
阿里 4.12 45 11.77 13.11 35 29.01
无问芯穹 4.54 50 11.01 6.88 57 12.55

DeepSeek V3.2

平台 TTFT @100TPS @100耗时 @100 TTFT @100KTPS @100K耗时 @100K
硅基流动 2.51 9 57.77 12.35 23 29.27
火山 2.77 32 10.78 18.30 30 27.81
无问芯穹 2.96 26 15.06

综合体验评分

白天综合评分(含劣化惩罚)

基于白天实测数据的加权综合评分。TTFT 体验占 40%(对数评分,越低越好),TPS 体验占 60%(平方根评分,越高越好),按 4 档上下文加权(@100 30% + @1K 30% + @10K 25% + @100K 15%)得出基础分。再根据 @100K 昼夜 TTFT 劣化幅度施加惩罚系数(>200% → ×0.70,>100% → ×0.80,>50% → ×0.90,>20% → ×0.95)。无夜间数据的模型不扣分。

分数色阶: ≥75 优秀 60-75 良好 45-60 一般 30-45 较差 <30 很差
分档得分(0.4×TTFT + 0.6×TPS)
# 套餐 模型 @100 @1K @10K @100K 基础分 劣化系数 最终分
1 GLM-Coding glm-4.5-air 90.1 91.1 87.3 56.2 84.6 ×1.0 84.6
2 腾讯CodingPlan hunyuan-2.0-thinking 85.5 85.1 77.2 61.8 79.8 无夜间数据 79.8
3 硅基流动-Pro minimax-m2.5 77.0 83.8 80.6 72.9 79.3 ×1.0 79.3
4 腾讯CodingPlan hunyuan-t1 83.7 85.5 72.4 62.3 78.2 无夜间数据 78.2
5 火山-Coding doubao-seed-2.0-pro 81.1 81.0 74.8 61.7 76.6 ×0.95 72.8
6 阿里CodingPlan qwen3.5-plus 68.2 67.5 71.9 72.9 69.6 ×1.0 69.6
7 阿里CodingPlan qwen3-coder-next 80.7 81.9 58.7 64.1 73.1 ×0.95 69.4
8 腾讯CodingPlan hunyuan-2.0-instruct 68.6 71.6 72.6 57.6 68.9 无夜间数据 68.9
9 GLM-Coding glm-5-turbo 73.4 73.3 73.0 62.6 71.7 ×0.95 68.1
10 MiniMax-Coding m2.5 62.3 72.2 59.0 73.2 66.1 ×1.0 66.1
11 腾讯CodingPlan minimax-m2.5 61.4 68.3 65.1 62.0 64.5 无夜间数据 64.5
12 MiniMax-Coding m2.7 63.1 66.2 66.0 56.8 63.8 ×1.0 63.8
13 无问芯穹-Coding minimax-m2.7 62.6 66.5 64.7 55.9 63.3 ×1.0 63.3
14 GLM-Coding glm-4.5 75.8 72.7 76.4 43.9 70.2 ×0.9 63.2
15 无问芯穹-Coding minimax-m2.5 61.9 63.3 60.8 60.5 61.8 ×1.0 61.8
16 阿里CodingPlan glm-4.7 74.3 73.8 62.5 56.1 68.5 ×0.9 61.6
17 MiniMax-Coding m2.1 59.3 70.2 65.4 58.6 64.0 ×0.95 60.8
18 GLM-Coding glm-4.6 68.6 76.0 73.2 33.5 66.7 ×0.9 60.0
19 阿里CodingPlan qwen3-coder-plus 63.9 63.9 63.4 50.7 61.8 ×0.95 58.7
20 阿里CodingPlan minimax-m2.5 60.7 65.9 68.2 43.7 61.6 ×0.95 58.5
21 火山-Coding doubao-seed-code 65.2 66.8 61.1 42.5 61.2 ×0.95 58.2
22 腾讯CodingPlan hunyuan-turbos 62.6 59.8 57.1 47.6 58.1 无夜间数据 58.1
23 腾讯CodingPlan kimi-k2.5 57.4 68.4 48.7 49.1 57.3 无夜间数据 57.3
24 腾讯CodingPlan glm-5 52.5 60.7 57.4 55.6 56.6 无夜间数据 56.6
25 GLM-Coding glm-4.7 45.5 74.7 70.9 57.9 62.4 ×0.9 56.2
26 腾讯CodingPlan auto 49.5 62.3 55.8 51.8 55.3 无夜间数据 55.3
27 硅基流动-Pro glm-5 62.5 68.8 59.2 45.4 61.0 ×0.9 54.9
28 硅基流动-Pro kimi-k2.5 64.1 62.0 62.3 50.1 60.9 ×0.9 54.8
29 无问芯穹-Coding deepseek-v3.2-thinking 54.1 52.0 52.0 52.7 无夜间数据 52.7
30 阿里CodingPlan glm-5 61.7 50.6 49.4 43.2 52.5 ×1.0 52.5
31 硅基流动-Pro glm-4.7 70.5 83.3 79.9 58.5 74.9 ×0.7 52.4
32 硅基流动-Pro deepseek-v3.1-terminus 59.1 56.5 55.1 44.6 55.1 ×0.95 52.4
33 阿里CodingPlan qwen3-max-2026-01-23 58.4 59.4 51.6 44.6 54.9 ×0.95 52.2
34 无问芯穹-Coding glm-5 52.8 53.7 53.7 44.9 52.1 ×1.0 52.1
35 KIMI-Coding kimi-for-coding 54.5 52.7 52.7 51.6 53.1 ×0.95 50.4
36 GLM-Coding glm-5 52.7 53.9 42.7 47.6 49.8 ×1.0 49.8
37 火山-Coding deepseek-v3.2 58.0 59.4 50.7 37.3 53.5 ×0.9 48.1
38 火山-Coding doubao-seed-2.0-code 52.8 53.0 52.1 45.7 51.6 ×0.9 46.4
39 硅基流动-Pro deepseek-v3.2 42.9 44.3 44.9 37.7 43.1 ×0.9 38.7
40 无问芯穹-Coding kimi-k2.5 32.0 37.6 44.0 34.1 37.0 ×0.9 33.3
41 阿里CodingPlan kimi-k2.5 39.0 45.2 52.9 34.3 43.6 ×0.7 30.5
42 火山-Coding glm-4.7 35.9 38.0 33.8 40.9 36.8 ×0.8 29.4
43 火山-Coding kimi-k2.5 35.0 34.6 30.8 30.1 33.1 ×0.8 26.5

夜间综合评分

同一评分方法,使用夜间实测数据。夜间无劣化惩罚(本身就是基准时段)。腾讯因 API Key 过期无夜间数据,不参与此表。

分档得分(0.4×TTFT + 0.6×TPS)
# 套餐 模型 @100 @1K @10K @100K 最终分
1 GLM-Coding glm-4.5 88.0 87.7 86.2 74.6 85.5
2 硅基流动-Pro glm-4.7 85.6 85.9 84.9 77.8 84.3
3 阿里CodingPlan qwen3-coder-next 79.9 86.8 84.5 69.4 81.6
4 GLM-Coding glm-4.5-air 82.3 87.3 76.5 55.4 78.3
5 阿里CodingPlan glm-4.7 78.7 79.6 78.2 68.5 77.3
6 火山-Coding doubao-seed-2.0-pro 80.5 85.5 73.0 56.8 76.6
7 硅基流动-Pro glm-5 78.4 79.9 76.3 62.8 76.0
8 硅基流动-Pro minimax-m2.5 66.6 81.4 77.3 72.8 74.6
9 GLM-Coding glm-5-turbo 76.2 74.5 78.0 65.1 74.5
10 GLM-Coding glm-4.7 78.3 72.9 67.1 77.9 73.8
11 GLM-Coding glm-4.6 68.9 76.6 77.3 69.6 73.4
12 阿里CodingPlan qwen3.5-plus 69.4 71.3 76.1 74.5 72.4
13 硅基流动-Pro kimi-k2.5 67.8 74.0 72.1 65.2 70.4
14 MiniMax-Coding m2.7 67.3 69.5 72.9 59.0 68.1
15 MiniMax-Coding m2.5 70.2 67.1 69.0 51.3 66.1
16 MiniMax-Coding m2.1 63.7 67.3 72.4 56.4 65.8
17 阿里CodingPlan minimax-m2.5 69.2 66.9 65.1 55.9 65.5
18 无问芯穹-Coding minimax-m2.5 67.6 70.5 59.3 61.0 65.4
19 阿里CodingPlan qwen3-coder-plus 69.0 67.0 66.2 53.7 65.4
20 火山-Coding doubao-seed-code 71.2 68.7 63.6 46.1 64.8
21 火山-Coding doubao-seed-2.0-code 64.3 64.7 66.0 48.1 62.4
22 无问芯穹-Coding minimax-m2.7 61.5 65.1 62.7 57.9 62.3
23 阿里CodingPlan glm-5 61.9 65.8 60.6 45.5 60.3
24 无问芯穹-Coding glm-5 59.4 62.5 56.5 46.3 57.6
25 GLM-Coding glm-5 58.7 63.5 52.2 47.8 56.9
26 无问芯穹-Coding deepseek-v3.2-thinking 56.0 56.6 52.7 55.3
27 硅基流动-Pro deepseek-v3.2 59.6 58.4 55.0 40.6 55.2
28 火山-Coding glm-4.7 62.2 57.7 53.4 38.5 55.1
29 KIMI-Coding kimi-for-coding 54.3 53.1 55.1 49.5 53.4
30 阿里CodingPlan qwen3-max-2026-01-23 54.2 60.8 50.0 38.2 52.7
31 无问芯穹-Coding kimi-k2.5 57.1 51.9 52.5 42.3 52.2
32 硅基流动-Pro deepseek-v3.1-terminus 55.2 51.3 51.8 39.1 50.8
33 火山-Coding deepseek-v3.2 56.7 55.8 43.8 34.9 49.9
34 火山-Coding kimi-k2.5 52.0 52.6 43.6 26.0 46.2
35 阿里CodingPlan kimi-k2.5 44.8 42.6 43.1 50.6 44.6

核心发现

聚焦四大主力新模型(Kimi-K2.5、GLM-5、MiniMax-M2.7、Qwen3.5-Plus)在各平台的白天/夜间表现。小模型(GLM-4.5-air 等)更适合工作流和系统集成,单独点评见上方评分表。

Kimi-K2.5:平台差距远大于模型差距同一个 K2.5,白天 @100 TTFT 在硅基流动 0.99s,在腾讯 2.46s,但在无问芯穹 38.17s(差 38 倍)、阿里 23.35s、火山 17.50s。@100K 更夸张:硅基 5.65s vs 火山 89.98s。夜间差距收窄但仍显著:硅基 3.66s vs 火山 30.87s。结论:K2.5 模型本身没问题,白天高峰在火山、阿里、无问芯穹三个平台严重劣化。
GLM-5:旗舰模型但速度偏慢,自家平台最优GLM-5(754B)在自家 GLM-Coding 白天 TTFT 3.88s、TPS 28、@100K 总耗时 16.50s。阿里 TTFT 1.53s 更快但 TPS 仅 30。硅基流动白天 2.20s 但 TPS 37。腾讯 TTFT 3.96s 且 @100K 总耗时异常高达 33.88s。夜间各平台表现接近,差距不大。TPS 全场 24–39,不算快但能力被社区评为「对标 Opus 4.6」。选 GLM-5 看重的是能力而非速度。
MiniMax-M2.7:国产速度标杆,highspeed 版质变标准版白天 @100 TPS 37、@100K TPS 42,四档稳定无衰减。highspeed 版 TPS 飙升到 57–64(+50%),@100K 总耗时 10.9s。夜间标准版 TPS 提升到 51,差距缩小。值得注意的是 M2.7 在无问芯穹白天 TPS 47、TTFT 3.67s,比 MiniMax 自家标准版更快——说明无问芯穹对 MiniMax 模型的调度比对 Kimi 好得多。
Qwen3.5-Plus:唯一 TPS 随上下文逆增的模型阿里 qwen3.5-plus 白天 @100 TPS 61 → @1K 53 → @10K 66 → @100K 反升至 125,本次唯一不降反升的模型。@100K 总耗时仅 11.19s,在阿里平台所有模型中最快。夜间 @100K TPS 118 同样亮眼。这个模型特别适合需要投喂大量上下文的场景。但 @100 短上下文 TPS 61 属于中等水平。
Qwen3-Coder-Next:短上下文最快,长上下文衰减严重白天 @100 TPS 147 全场最高,@1K 104 仍然领先。但 @10K 跌至 67(↓54%),@100K TPS 92 虽然回升但总耗时 18.88s。夜间 @100K TPS 128 表现更好。适合短平快任务(补全、格式转换),不适合大仓库分析。
白天 vs 夜间:新模型劣化幅度普遍 50%–200%@100K 上下文下,Kimi-K2.5 在火山白天 89.98s / 夜间 30.87s(+191%),在阿里白天 28.75s / 夜间 9.20s(+213%)。GLM-5 在 GLM 平台白天 6.47s / 夜间 7.85s(反而夜间更慢,-18%,异常稳定)。M2.7 白天 5.28s / 夜间 6.31s(-16%,稳定)。结论:自研模型在自家平台昼夜稳定,第三方模型在聚合平台白天显著劣化。
KIMI-Coding 自有平台:稳但不快kimi-for-coding(K2.5)在 KIMI 自有平台白天 @100 TTFT 3.85s、TPS 31,@100K TTFT 11.20s、TPS 48。昼夜波动极小(@100 仅 +45%)。但 TPS 在所有 K2.5 部署中只排中游——硅基流动夜间 TPS 53 更高。KIMI 平台的优势在稳定性而非极速。
平台基础设施才是胜负手同一个 Kimi-K2.5 在 7 个平台测试,白天 @100K 总耗时从 10.34s(硅基夜间)到 104.35s(火山白天)。同一个 GLM-5 从 10.52s(硅基夜间)到 33.88s(腾讯白天)。选对平台比选对模型更重要——这是本次横评最核心的结论。

场景推荐

基于实测数据,按三大实际使用场景给出选型建议。每个场景对模型代际、速度、稳定性的优先级不同。

场景一:开发场景(Claude Code / Cursor / Cline)

核心要求:最新大模型 + 白天稳定。开发场景直接影响编码效率,模型能力是第一优先——必须用最新代际大模型(GLM-5、Kimi-K2.5、M2.7、Qwen3.5-Plus 等),同时白天高峰期不能出现 10 倍级波动。长上下文(10K–100K)的支撑能力决定了能否处理大文件重构。早期模型(GLM-4.5-air、M2.1 等)能力不够,不适合此场景。

推荐套餐 · 模型为什么选它白天实测月费
能力首选GLM-Coding · GLM-5最新旗舰(754B),社区评价对标 Opus 4.6。昼夜稳定(@100K 白天 6.47s / 夜间 7.85s,波动 -18%)。仅 Pro/Max 可用,GLM-5 消耗 3 倍配额。TTFT 3.88s · TPS 28 · @100K 总耗时 16.5s¥149/月
前端首选KIMI-Coding · kimi-for-codingK2.5 代码专项训练,前端/视觉编码极强(截图还原 80-90%)。自有平台白天 @100K TTFT 11.20s,昼夜波动仅 +45%,本次最稳定的新大模型之一。TTFT 3.85s · TPS 31 · @100K 总耗时 17.3s¥49/月
高吞吐阿里 · Qwen3.5-Plus唯一 TPS 随上下文逆增的大模型(61→125)。@100K 总耗时仅 11.19s,阿里平台最快。适合大文件重构。TTFT 3.73s · TPS 61→125 · @100K 11.2s¥200/月
速度均衡MiniMax · M2.7-highspeedM2.7 被称「国产 SOTA」(SWE-Pro 56%),极速版 TPS 57–64,@100K 总耗时 10.9s。3/23 起新增周配额需注意。TPS 57–64 · @100K 10.9s¥98/月
规避:K2.5 在火山白天 @100K 达 89.98s(夜间 30.87s)、阿里白天 28.75s(夜间 9.20s)——同模型在硅基流动仅 5.65s,问题在聚合平台对第三方模型的调度。建议 K2.5 优先走 KIMI 自有平台或硅基流动。

场景二:OpenClaw / 龙虾(消息端 AI 智能体)

核心要求:速度优先 + 昼夜稳定,模型代际可用中上代。OpenClaw 通过微信/飞书/Telegram 等消息平台下发指令,执行文件操作、Shell 命令等任务。用户发完消息后等待首字是主要体感摩擦点(TTFT < 3s 为佳)。中代际模型(GLM-4.7、M2.7、GLM-4.5-air 等)在 tool calling 可靠性上已足够。避免 thinking/推理模型(会导致智能体长时间无响应)。

推荐套餐 · 模型为什么选它实测数据月费
首选硅基流动 · GLM-4.7夜间 TTFT 0.60s 全场最快,白天 3.59s 可接受。TPS 64–77 全档稳定,上下文保持率 96%。按量无月费。TTFT 0.60–3.59s · TPS 64–77按量付费
月套餐GLM-Coding · GLM-4.5-airTTFT 1.11s,TPS 97 出字流畅。昼夜稳定,消息端体验丝滑。Lite 即可覆盖。TTFT 1.11s · TPS 97¥49/月
新大模型MiniMax · M2.7 标准¥29 起步,M2.7 SWE-Pro 56%,速度 TPS 37–43。tool calling 可靠,适合自动化。如果需要更强能力可选新大模型。TTFT 2.06s · TPS 37–43¥29/月
极速MiniMax · M2.7-highspeed极速版延迟更低,TPS 57–64。对速度敏感的自动化任务首选。TPS 57–64¥98/月
OpenClaw 社区推荐:不要用 thinking/推理模型(如 hunyuan-t1、deepseek-thinking),丰富上下文会导致模型「思考」数分钟无响应。优先选非推理的标准模型。

场景三:生产接入 / 系统集成

核心要求:速度为最大优先。模型作为系统组件处理短平快任务(代码补全、格式转换、摘要生成),不负责长程 Agent 链。早期/小模型完全够用——GLM-4.5-air、M2.5、doubao-seed-code 等速度快、成本低。关键指标是 TPS 和 TTFT 稳定性。按量付费优于月套餐(成本可预测),需要高 RPM 限额。

推荐套餐 · 模型为什么选它实测数据计费
首选硅基流动 · MiniMax-M2.5@100K 总耗时 8.62s 全场最快。TPS 72–85 全档稳定,按量付费无配额上限,RPM 按充值等级可达 10,000。早期模型但速度极致。TPS 72–85 · 耗时 8.0–8.6s按量/M tok
低延迟硅基流动 · GLM-4.7夜间 TTFT 0.60s,TPS 64–77,四档无衰减(保持率 96%)。中代模型,性能稳定可承诺 SLA。TPS 64–77 · TTFT 0.60s按量/M tok
超高吞吐GLM-Coding · GLM-4.5-airTPS 97–121 出字极快,TTFT 1.11s。最适合高频短任务。早期模型但速度碾压新大模型。TPS 97–121 · TTFT 1.11s¥49/月
短上下文阿里 · qwen3-coder-next@100 TPS 147 全场最高。适合补全/格式转换等短任务。@10K+ 衰减严重,不适合长上下文。TPS 147(@100) · 67(@10K)¥200/月
生产选型要点:硅基流动社区口碑「体验丝滑」「把价格打下来了」,API 稳定性在国内平台中评价最高。按量付费避免配额陷阱,更适合生产环境成本核算。

当前需规避的组合

优云智算 — 测试期间全部模型不可用,整套产品当前不可用。
无问芯穹 · kimi-k2.5 — 白天 TTFT 38.2s(夜间 2.4s,+1504%),任何场景均不可用。同平台 minimax-m2.7 波动 <10%,问题在模型调度而非平台。
火山 · glm-4.7 — 白天 TTFT 28.9s(夜间 2.7s,+965%),白天高峰完全不可用。同模型在硅基流动夜间仅 0.60s。
火山 · kimi-k2.5 — 白天 TTFT 17.5s(夜间 2.1s,+739%),同模型在硅基 0.99s、腾讯 2.46s,问题在火山侧。
阿里 · kimi-k2.5 — 白天 TTFT 23.3s,建议同平台转用 qwen3-coder-next(TTFT 3.73s,TPS 147)。