V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
kaesi0
V2EX  ›  程序员

国产口粮模型选择,请投出你的一票

  •  
  •   kaesi0 · 1 天前 · 7311 次点击

    之前的帖子 这可能是下一个周经帖:国产大模型哪个编程能力最顶?已经过去一段时间,现在不少模型都已经更新了,而且都支持方便的接入 claude code 等 cli 工具或者 cursor 这样的 ide 。那么,在众多的国产模型中,从你的实际体验出发,哪个国产模型才是最佳日常编码的口粮模型呢?量大管饱,能处理大多数场景的需求。

    来吧,分享一下你的体验!


    GLM-4.7:目前收集到的信息是,测试的时候效果还不错,能跟 sonet 4.0 有来有回,coding plan 也比较便宜,但是超售严重,订阅后降智严重

    MiniMax M2.1:也推出了自己的 coding plan ,总的来说反馈还是不错

    DeepSeek-V3.2:写代码还是不太行,听说 4.0 很强!

    kimi-for-coding:听说比较蠢,具体请反馈

    Doubao-Seed-Code:最近新出,还得到了阮一峰推荐 https://www.ruanyifeng.com/blog/2025/11/doubao-seed-code.html

    第 1 条附言  ·  1 天前
    截止 16:00 有效投票
    MiniMax M2.1:6 票,有接近 calude 的效果
    GLM-4.7:3 ,总体可以,但是慢
    kimi:1
    66 条回复    2026-01-20 21:44:21 +08:00
    lipengliang2012
        1
    lipengliang2012  
       1 天前
    MiniMax M2.1
    dryadent
        2
    dryadent  
       1 天前
    MiniMax M2.1
    musi
        3
    musi  
       1 天前   ❤️ 11
    少看点阮一峰推荐,广告一大堆,之前还推过七牛云,凡是买过的没有不骂的
    zuosiruan
        4
    zuosiruan  
       1 天前
    MiniMax M2.1
    404www
        5
    404www  
       1 天前
    > Doubao-Seed-Code:最近新出,还得到了阮一峰推荐

    阮一峰非周五的都是广告好吧
    madpudding
        6
    madpudding  
       1 天前
    GLM-4.7
    zxjxzj9
        7
    zxjxzj9  
       1 天前
    MiniMax M2.1 套餐真的很实用
    YanSeven
        8
    YanSeven  
       1 天前   ❤️ 1
    阮一峰的广告可信度较低
    sn0wdr1am
        9
    sn0wdr1am  
       1 天前   ❤️ 1
    我的建议是:能不用还是先不要用。
    chechengpeng
        10
    chechengpeng  
       1 天前
    GLM-4.7
    defaw
        11
    defaw  
       1 天前
    GLM-4.7 昨天看到 minimax 的赠金快过期了,在 cc 里按量付费用了一会儿 m2.1 ,不知所云,堪称灾难
    idontnowhat2say
        12
    idontnowhat2say  
       1 天前
    有第一的模型为什么要用第二模型呢?第一的模型相比第二的就算订阅价格翻倍也不过等于每个月多吃了几顿外卖,但节省的时间可以自己的。
    atusss
        13
    atusss  
       1 天前   ❤️ 2
    GLM-4.7 慢的扣脚
    ldapadmin
        14
    ldapadmin  
       1 天前
    相信我 MiniMax M2.1 codeplan 非常棒 GLM 谁买谁傻逼
    Amcrow
        15
    Amcrow  
       1 天前
    GLM 4.7 太慢
    cmlx1014
        16
    cmlx1014  
       1 天前
    大厂小厂都呆过,需要用这些大模型吗,每天其实写不了多少代码,重业务重 JAVA ,IDEA 搭配个 TRAE ,解释些代码就行了,大规模生成的代码,完全不可用啊。
    elechi
        17
    elechi  
       1 天前
    我在 trae 国产版中,觉得 kimi 比其他的好用
    qq1147
        18
    qq1147  
       1 天前
    口粮模型可还行,我是用的 GLM4.7
    MelodYi
        19
    MelodYi  
       1 天前
    minimax 很便宜,体感有 claude 8 成功力以上。
    zhonghao01
        20
    zhonghao01  
       1 天前
    GLM4.7 主要是太慢。生成的结果还是可以的
    nakun233
        21
    nakun233  
       1 天前
    模型这东西只用宇宙最 top,其余的都是浪费效率
    jimrok
        22
    jimrok  
       1 天前
    kilo 搭配 GLM 4.7 用了一段时间,慢,有些工作蠢,修改代码容易找不到地方。其他没有试过,过段时间 GLM 套餐结束后,换一个试试。代码这东西,真是必须选能干的,否则就是白扔钱。所以后面模型在这方面竞争,没有 2-3 名生存的空间。
    gowk
        23
    gowk  
       1 天前
    目前我还是持观望态度。主力是 codex 和反重力
    thetbw
        24
    thetbw  
       1 天前
    Doubao-Seed-Code 买了 9.9 的首月优惠套餐,质量太差,不太能用。
    freefcw
        25
    freefcw  
       1 天前
    从我个人的角度上来说 minimax 2.1 似乎比 glm 4.7 好一点,但都是半斤八两吧
    kaesi0
        26
    kaesi0  
    OP
       1 天前
    @gowk 我也是之前主用反重力,不过感觉反重力太拉了,功能都不完善,而且 google 更新慢死了
    kaesi0
        27
    kaesi0  
    OP
       1 天前
    @thetbw 帮大家拔草了
    MzM2ODkx
        28
    MzM2ODkx  
       1 天前
    GLM-4.7
    gowk
        29
    gowk  
       1 天前
    @kaesi0 #26 反重力 Opus 量还算大,自认为是目前最强的编程模型,可以弥补反重力在工程上的不足。
    主要是官方 Opus 订阅太贵,试过各种中转站也不太稳定。Codex 目前除了慢点,没别的毛病
    ynxh
        30
    ynxh  
       1 天前
    MiMo 免费,速度快 ,接入 cc ,我用下来还可以
    passion336699
        31
    passion336699  
       1 天前
    GLM-4.7

    十一期间买的 lite, 最开始嘎嘎猛, 11 月份 4.6 开始有点蠢, 12 月份 4.7 又嘎嘎猛.

    但是现在严重超卖, lite 卡的一批, 以前是上午速度还可以, 下午一般,

    现在是上午下午都慢的跟屎一样...

    我借了 pro 的 key 用了下, 体感比 lite 好很多, 但是我不会再升级 pro 了.

    如果开年之后 lite 一直是这个吊样, 那就没什么用头了... 换 minimax 试试...
    forsceer
        32
    forsceer  
       1 天前
    @passion336699 我也是 lite 经常几十秒才回复完,pro 买过三月还挺快,但会降智,经常多改代码,现在买了 minimax Plus 感觉还行
    darksheen
        33
    darksheen  
       1 天前
    我只用最好的模型,所以不用国产的。AI 就是用来节省自己的时间和精力,要用就用最好的,反正贵不了多少。
    HENQIGUAI
        34
    HENQIGUAI  
       1 天前
    用差模型确实能气晕,还是用 top 模型吧,这样出问题就一定是自己指导的问题或者本身模型的限制。
    而不用担心是不是因为这个模型不够好我换个更好的模型试试。
    ianisme
        35
    ianisme  
       1 天前
    我觉得一分钱一分货,用了 genmini 、codex 、claude 、GLM 都试了下,国产的确认不太行。其他三个各有千秋,都可以
    frankies
        36
    frankies  
       1 天前
    别用!垃圾模型能用出高血压!有能力用 claude code opus4.5 ,至少目前写代码只要这一个,没有替代的。
    v21984
        37
    v21984  
       1 天前 via Android
    @ynxh 明天到期
    passion336699
        38
    passion336699  
       1 天前
    @forsceer 我现在一般 context 到 60% 就压缩, 反正一分钱一分货, 不过 lite 的速度, 真的跟之前差太多太多了... 我已经有点绷不住了.

    智普几个企微群大家也都是在喷, 反正没太大起色, 下午经常挂了几分钟 0 tokens...
    iorilu
        39
    iorilu  
       1 天前
    为啥要关心这个

    都知道目前 claude 最好, 当然用 claude, 就算花点钱肯定省得来回折腾时间赚回来

    更何况就算不花钱也有法子(学生会员啥的)
    sdshiyan2005
        40
    sdshiyan2005  
       1 天前
    M2.1 。但是用多了 anthropic 家的模型后换回国产的 GLM4.7 和 M2.1 ,看看有点蠢的代码和内容,血压就开始变高了……国产的还是得把需求拆的细一些做控制。
    ericguo
        41
    ericguo  
       1 天前
    kimi 1T 模型,然后你认为蠢……价格这里面最高的好吗。
    hemingway
        42
    hemingway  
       1 天前
    glm4.7
    acisky
        43
    acisky  
       1 天前
    MiniMax 偶尔会请求失败,实际体验反而不如 gemini
    okekrrGo
        44
    okekrrGo  
       1 天前
    GLM-4.7
    Biem
        45
    Biem  
       1 天前
    GLM-4.7 配合给的 MCP 还好。我是 Codex 开荒做好脚手架,留好规格文档和接口函数,剩下的苦力交给 GLM
    Aaron01
        46
    Aaron01  
       1 天前 via iPad
    国产模型对比的头疼,都说自己是最好的,不如用 Gemini ,量大还能白嫖
    1103409364
        47
    1103409364  
       1 天前
    Gemini
    b309f3337
        48
    b309f3337  
       1 天前
    @cmlx1014 目前日常工作 90%的甚至更多的代码都是用 AI 写的,完成度都挺高的
    YanSeven
        49
    YanSeven  
       1 天前
    @iorilu claude 还真不是花点钱的事儿。。。
    kaesi0
        50
    kaesi0  
    OP
       1 天前
    @gowk 哈哈,我把反重力的 oups 代理出来,又喂给 claude code 来用了,实在受不了反重力,跟个半成品似的
    kaesi0
        51
    kaesi0  
    OP
       1 天前
    @Biem 对 好多人也这么用 发挥各自模型的长处
    sanbucat
        52
    sanbucat  
       1 天前
    MiniMax M2.1 感觉也还行
    location123
        53
    location123  
       1 天前
    MiniMax 在 cc 里是灾难 plan 模式疯狂请求改代码 OpenCode 里面用的还行
    asd999cxcx
        54
    asd999cxcx  
       23 小时 44 分钟前
    目前主力反重力,g3pro 好用,速度准确率没话说,claude 总是需要 retry ,g3flash 偶尔小任务用用挺方便。

    codebuddy 上感觉 ds3.2 还不错,但是容易 limit ,3.2 用完了就用 kimi 也还凑合。

    体验过 codex ,是真的慢,但是基本 1-2 次就能解决问题。

    在 opencode 上试了免费的 minimax m2.1 和 glm4.7 感觉 2.1 能做完,但是会有错误,需要不停修改,还不能一次性修改完。4.7 就是感觉做起来都有问题.
    asd999cxcx
        55
    asd999cxcx  
       23 小时 43 分钟前
    至于为啥不用 trae ,国内版 4.7 和 minimax m2.1 都要排队就没兴趣了,除非偶尔需要截图说明哪哪哪的问题才会用下 doubao
    eastcukt
        56
    eastcukt  
       21 小时 55 分钟前 via Android
    @cmlx1014 差不多感觉。
    业务复杂时不是几轮对话就能说清的。几轮对话能说清的有那时间我已经干完了。
    还有就是项目组的整体代码风格也要保持统一,那就得再告诉 AI 去读整体内容风格,太头痛了直接嗝屁。
    当前用到的地方就是一些实体的生成转换或冷门函数调用什么的,现存的大项目还是不太好用。
    倒是感觉用在全栈的练手小项目里面还是挺不错的
    npe
        57
    npe  
       21 小时 23 分钟前
    Gemini 2.5 preview
    hekou123
        58
    hekou123  
       20 小时 52 分钟前
    都用过,首推 MiniMax M2.1
    排序是:MiniMax M2.1>GLM-4.7>DeepSeek-V3.2
    kepenj
        59
    kepenj  
       20 小时 51 分钟前
    国产貌似木有能打的,还是只能 opus4.5 挤挤用,贵就贵点,总比产生垃圾强。
    S1ahs3r
        60
    S1ahs3r  
       20 小时 14 分钟前
    MiniMax M2.1 我这里完全不敌 GLM-4.7
    都是基础款的 coding plan
    stinkytofux
        61
    stinkytofux  
       20 小时 10 分钟前
    GLM4.7 不仅慢, 而且最近几天还频繁出现 API 频率限制的提示. 我都用了将近一个月了, 之前高频率使用都没出现, 应该是降低配额了.
    heimoshuiyu
        62
    heimoshuiyu  
       20 小时 9 分钟前
    glm-4.7 上班时间慢得很...得错峰使用
    Kontinue
        63
    Kontinue  
       19 小时 1 分钟前
    所以 glm-4.7 就是慢咯,我还以为是 claude 的原因或者是我买的 lite 的关系。。。
    lemonda
        64
    lemonda  
       18 小时 49 分钟前
    GLM 4.7 慢,不如 Opencode Zen 带的 free
    Coding Plan 的 API 地址不一样,限并发,多开几个子 Agent 会提示。
    MiniMax M2.1 强一些。
    最能少量几次解决问题的目前是 Codex
    vantis
        65
    vantis  
       13 小时 44 分钟前
    qwen-code-plus 没人用吗 我们公司深度绑定 aliyun 所以我用这个 原因是不用自己出钱 233
    liantian
        66
    liantian  
       12 小时 59 分钟前
    我现在是业余开发者,隔三岔五自己做做自己的东西。
    我选 DeepSeek-V3.2 ,按量付费还是比较适合我。
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   5811 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 33ms · UTC 02:43 · PVG 10:43 · LAX 18:43 · JFK 21:43
    ♥ Do have faith in what you're doing.