之前的帖子 这可能是下一个周经帖:国产大模型哪个编程能力最顶?已经过去一段时间,现在不少模型都已经更新了,而且都支持方便的接入 claude code 等 cli 工具或者 cursor 这样的 ide 。那么,在众多的国产模型中,从你的实际体验出发,哪个国产模型才是最佳日常编码的口粮模型呢?量大管饱,能处理大多数场景的需求。
来吧,分享一下你的体验!
GLM-4.7:目前收集到的信息是,测试的时候效果还不错,能跟 sonet 4.0 有来有回,coding plan 也比较便宜,但是超售严重,订阅后降智严重
MiniMax M2.1:也推出了自己的 coding plan ,总的来说反馈还是不错
DeepSeek-V3.2:写代码还是不太行,听说 4.0 很强!
kimi-for-coding:听说比较蠢,具体请反馈
Doubao-Seed-Code:最近新出,还得到了阮一峰推荐 https://www.ruanyifeng.com/blog/2025/11/doubao-seed-code.html
1
lipengliang2012 1 天前
MiniMax M2.1
|
2
dryadent 1 天前
MiniMax M2.1
|
3
musi 1 天前 少看点阮一峰推荐,广告一大堆,之前还推过七牛云,凡是买过的没有不骂的
|
4
zuosiruan 1 天前
MiniMax M2.1
|
5
404www 1 天前
> Doubao-Seed-Code:最近新出,还得到了阮一峰推荐
阮一峰非周五的都是广告好吧 |
6
madpudding 1 天前
GLM-4.7
|
7
zxjxzj9 1 天前
MiniMax M2.1 套餐真的很实用
|
8
YanSeven 1 天前 阮一峰的广告可信度较低
|
9
sn0wdr1am 1 天前 我的建议是:能不用还是先不要用。
|
10
chechengpeng 1 天前
GLM-4.7
|
11
defaw 1 天前
GLM-4.7 昨天看到 minimax 的赠金快过期了,在 cc 里按量付费用了一会儿 m2.1 ,不知所云,堪称灾难
|
12
idontnowhat2say 1 天前
有第一的模型为什么要用第二模型呢?第一的模型相比第二的就算订阅价格翻倍也不过等于每个月多吃了几顿外卖,但节省的时间可以自己的。
|
13
atusss 1 天前 GLM-4.7 慢的扣脚
|
14
ldapadmin 1 天前
相信我 MiniMax M2.1 codeplan 非常棒 GLM 谁买谁傻逼
|
15
Amcrow 1 天前
GLM 4.7 太慢
|
16
cmlx1014 1 天前
大厂小厂都呆过,需要用这些大模型吗,每天其实写不了多少代码,重业务重 JAVA ,IDEA 搭配个 TRAE ,解释些代码就行了,大规模生成的代码,完全不可用啊。
|
17
elechi 1 天前
我在 trae 国产版中,觉得 kimi 比其他的好用
|
18
qq1147 1 天前
口粮模型可还行,我是用的 GLM4.7
|
19
MelodYi 1 天前
minimax 很便宜,体感有 claude 8 成功力以上。
|
20
zhonghao01 1 天前
GLM4.7 主要是太慢。生成的结果还是可以的
|
21
nakun233 1 天前
模型这东西只用宇宙最 top,其余的都是浪费效率
|
22
jimrok 1 天前
kilo 搭配 GLM 4.7 用了一段时间,慢,有些工作蠢,修改代码容易找不到地方。其他没有试过,过段时间 GLM 套餐结束后,换一个试试。代码这东西,真是必须选能干的,否则就是白扔钱。所以后面模型在这方面竞争,没有 2-3 名生存的空间。
|
23
gowk 1 天前
目前我还是持观望态度。主力是 codex 和反重力
|
24
thetbw 1 天前
Doubao-Seed-Code 买了 9.9 的首月优惠套餐,质量太差,不太能用。
|
25
freefcw 1 天前
从我个人的角度上来说 minimax 2.1 似乎比 glm 4.7 好一点,但都是半斤八两吧
|
28
MzM2ODkx 1 天前
GLM-4.7
|
29
gowk 1 天前
@kaesi0 #26 反重力 Opus 量还算大,自认为是目前最强的编程模型,可以弥补反重力在工程上的不足。
主要是官方 Opus 订阅太贵,试过各种中转站也不太稳定。Codex 目前除了慢点,没别的毛病 |
30
ynxh 1 天前
MiMo 免费,速度快 ,接入 cc ,我用下来还可以
|
31
passion336699 1 天前
GLM-4.7
十一期间买的 lite, 最开始嘎嘎猛, 11 月份 4.6 开始有点蠢, 12 月份 4.7 又嘎嘎猛. 但是现在严重超卖, lite 卡的一批, 以前是上午速度还可以, 下午一般, 现在是上午下午都慢的跟屎一样... 我借了 pro 的 key 用了下, 体感比 lite 好很多, 但是我不会再升级 pro 了. 如果开年之后 lite 一直是这个吊样, 那就没什么用头了... 换 minimax 试试... |
32
forsceer 1 天前
@passion336699 我也是 lite 经常几十秒才回复完,pro 买过三月还挺快,但会降智,经常多改代码,现在买了 minimax Plus 感觉还行
|
33
darksheen 1 天前
我只用最好的模型,所以不用国产的。AI 就是用来节省自己的时间和精力,要用就用最好的,反正贵不了多少。
|
34
HENQIGUAI 1 天前
用差模型确实能气晕,还是用 top 模型吧,这样出问题就一定是自己指导的问题或者本身模型的限制。
而不用担心是不是因为这个模型不够好我换个更好的模型试试。 |
35
ianisme 1 天前
我觉得一分钱一分货,用了 genmini 、codex 、claude 、GLM 都试了下,国产的确认不太行。其他三个各有千秋,都可以
|
36
frankies 1 天前
别用!垃圾模型能用出高血压!有能力用 claude code opus4.5 ,至少目前写代码只要这一个,没有替代的。
|
38
passion336699 1 天前
@forsceer 我现在一般 context 到 60% 就压缩, 反正一分钱一分货, 不过 lite 的速度, 真的跟之前差太多太多了... 我已经有点绷不住了.
智普几个企微群大家也都是在喷, 反正没太大起色, 下午经常挂了几分钟 0 tokens... |
39
iorilu 1 天前
为啥要关心这个
都知道目前 claude 最好, 当然用 claude, 就算花点钱肯定省得来回折腾时间赚回来 更何况就算不花钱也有法子(学生会员啥的) |
40
sdshiyan2005 1 天前
M2.1 。但是用多了 anthropic 家的模型后换回国产的 GLM4.7 和 M2.1 ,看看有点蠢的代码和内容,血压就开始变高了……国产的还是得把需求拆的细一些做控制。
|
41
ericguo 1 天前
kimi 1T 模型,然后你认为蠢……价格这里面最高的好吗。
|
42
hemingway 1 天前
glm4.7
|
43
acisky 1 天前
MiniMax 偶尔会请求失败,实际体验反而不如 gemini
|
44
okekrrGo 1 天前
GLM-4.7
|
45
Biem 1 天前
GLM-4.7 配合给的 MCP 还好。我是 Codex 开荒做好脚手架,留好规格文档和接口函数,剩下的苦力交给 GLM
|
46
Aaron01 1 天前 via iPad
国产模型对比的头疼,都说自己是最好的,不如用 Gemini ,量大还能白嫖
|
47
1103409364 1 天前
Gemini
|
52
sanbucat 1 天前
MiniMax M2.1 感觉也还行
|
53
location123 1 天前
MiniMax 在 cc 里是灾难 plan 模式疯狂请求改代码 OpenCode 里面用的还行
|
54
asd999cxcx 23 小时 44 分钟前
目前主力反重力,g3pro 好用,速度准确率没话说,claude 总是需要 retry ,g3flash 偶尔小任务用用挺方便。
codebuddy 上感觉 ds3.2 还不错,但是容易 limit ,3.2 用完了就用 kimi 也还凑合。 体验过 codex ,是真的慢,但是基本 1-2 次就能解决问题。 在 opencode 上试了免费的 minimax m2.1 和 glm4.7 感觉 2.1 能做完,但是会有错误,需要不停修改,还不能一次性修改完。4.7 就是感觉做起来都有问题. |
55
asd999cxcx 23 小时 43 分钟前
至于为啥不用 trae ,国内版 4.7 和 minimax m2.1 都要排队就没兴趣了,除非偶尔需要截图说明哪哪哪的问题才会用下 doubao
|
56
eastcukt 21 小时 55 分钟前 via Android
@cmlx1014 差不多感觉。
业务复杂时不是几轮对话就能说清的。几轮对话能说清的有那时间我已经干完了。 还有就是项目组的整体代码风格也要保持统一,那就得再告诉 AI 去读整体内容风格,太头痛了直接嗝屁。 当前用到的地方就是一些实体的生成转换或冷门函数调用什么的,现存的大项目还是不太好用。 倒是感觉用在全栈的练手小项目里面还是挺不错的 |
57
npe 21 小时 23 分钟前
Gemini 2.5 preview
|
58
hekou123 20 小时 52 分钟前
都用过,首推 MiniMax M2.1
排序是:MiniMax M2.1>GLM-4.7>DeepSeek-V3.2 |
59
kepenj 20 小时 51 分钟前
国产貌似木有能打的,还是只能 opus4.5 挤挤用,贵就贵点,总比产生垃圾强。
|
60
S1ahs3r 20 小时 14 分钟前
MiniMax M2.1 我这里完全不敌 GLM-4.7
都是基础款的 coding plan |
61
stinkytofux 20 小时 10 分钟前
GLM4.7 不仅慢, 而且最近几天还频繁出现 API 频率限制的提示. 我都用了将近一个月了, 之前高频率使用都没出现, 应该是降低配额了.
|
62
heimoshuiyu 20 小时 9 分钟前
glm-4.7 上班时间慢得很...得错峰使用
|
63
Kontinue 19 小时 1 分钟前
所以 glm-4.7 就是慢咯,我还以为是 claude 的原因或者是我买的 lite 的关系。。。
|
64
lemonda 18 小时 49 分钟前
GLM 4.7 慢,不如 Opencode Zen 带的 free
Coding Plan 的 API 地址不一样,限并发,多开几个子 Agent 会提示。 MiniMax M2.1 强一些。 最能少量几次解决问题的目前是 Codex |
65
vantis 13 小时 44 分钟前
qwen-code-plus 没人用吗 我们公司深度绑定 aliyun 所以我用这个 原因是不用自己出钱 233
|
66
liantian 12 小时 59 分钟前
我现在是业余开发者,隔三岔五自己做做自己的东西。
我选 DeepSeek-V3.2 ,按量付费还是比较适合我。 |