V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
xitler
V2EX  ›  程序员

[纯吐槽]没想到 minimax 会这么难用

  •  
  •   xitler · 22 小时 23 分钟前 · 6085 次点击
    看了 ai benchmark 排名,显示说 m2.7 仅次于 gpt 5.4 。价格又很有诱惑力,差点没把持住买年卡。斥巨资 119 买了 max 套餐之后才发现实际上垃圾的要命,这是我用过最差劲的模型。别说国外模型了,比 kimi 都差一大截。
    真就跑分没输过,实战没赢过。
    79 条回复    2026-03-25 20:54:07 +08:00
    HFX3389
        1
    HFX3389  
       22 小时 12 分钟前 via iPhone
    拿来跑龙虾呗,跑龙虾应该足够聪明
    DiffView
        2
    DiffView  
       21 小时 54 分钟前
    没想到就对了,不骗你入坑,怎么有那么高的股价?
    ClericPy
        3
    ClericPy  
       21 小时 35 分钟前
    我好奇 highspeed 套餐真那么快吗?
    shakaraka
        4
    shakaraka  
    PRO
       21 小时 34 分钟前 via iPhone
    是什么让你这么正为的?我都有点好奇
    shakaraka
        5
    shakaraka  
    PRO
       21 小时 33 分钟前 via iPhone
    本来就不行的呀。怎么可能次于,次于 5.4 的是 opus4.6
    dingawm
        6
    dingawm  
       21 小时 5 分钟前
    试了下 glm 4.7 和 minimax 2.5 ,感觉 glm 的要强点
    laikicka
        7
    laikicka  
       21 小时 3 分钟前
    中产模型, 跑分没输过 体验没赢过
    snowsky
        8
    snowsky  
       19 小时 24 分钟前
    它刚出来的时候,用过一次,回答的最后一句,“以上答案由 Claude Sonnet 生成“。。。
    sddyzm
        9
    sddyzm  
       19 小时 10 分钟前 via iPhone   ❤️ 1
    ai 排行唯一真神 lmarena
    bingoso
        10
    bingoso  
       17 小时 10 分钟前 via iPhone
    我也来避个雷,豆包的那个 code 模型,也是一大坨。
    weixiangzhe
        11
    weixiangzhe  
       16 小时 4 分钟前 via Android
    minmax 写的规则 他一般只执行一半
    ehehela
        12
    ehehela  
       13 小时 29 分钟前
    现在国产最好用的是哪一个
    TK6
        13
    TK6  
       13 小时 23 分钟前
    目前就编码来看 GLM-5 是最好用的
    v2gba
        14
    v2gba  
       13 小时 12 分钟前
    我也买了 119

    感觉跑小龙虾 不让他写代码还能凑合 但是也根本没必要 119 感觉都用不完
    traffic
        15
    traffic  
       13 小时 3 分钟前
    以前用 minimax 2.5 ,给了 5000 字的背景信息,问了个问题,结果输出的是乱码。
    感觉在用 3B 模型
    traffic
        16
    traffic  
       13 小时 3 分钟前
    @traffic #15 说了是 MiniMax M2
    iorilu
        17
    iorilu  
       13 小时 2 分钟前
    跑分就和考试一样

    分数高不一定能力强
    xitler
        18
    xitler  
    OP
       13 小时 1 分钟前
    @shakaraka 只能说谁用谁知道,基本无法正常完成编程工作。从 opus 和 gpt 切过来落差巨大
    isnullstring
        19
    isnullstring  
       12 小时 59 分钟前
    特色模型,跟当初手机跑分一样
    subpo
        20
    subpo  
       12 小时 58 分钟前
    minimax 的宣传确实有问题,他本质上是一个“中”模型,和 GLM kimi 甚至小米 v2 pro 都是不能比的

    如果把他当作任务的执行者,是非常好用的,便宜的成本让人有 token 自由的快感,只用他担当主力是不行的

    其实相比 GLM ,我个人更喜欢 minimax ,GLM 很慢,和最顶尖的 codex/opus 比不够聪明,也不够便宜
    xitler
        21
    xitler  
    OP
       12 小时 57 分钟前
    @subpo 原来如此,不过确实是超级便宜,一周能有 4.5w 次请求的额度。拿来跑跑龙虾也算是"废物"利用了
    xitler
        22
    xitler  
    OP
       12 小时 56 分钟前
    @ClericPy 不太清楚,我买的是 50TPS 的,挺快的。
    subpo
        23
    subpo  
       12 小时 56 分钟前
    @subpo
    有人在本地买魔改 5090 跑 qwen3.5 27b ,我觉得 minimax 的定位类似于这个,执行模型或者辅助模型

    minimax 升级 token plan 后删除了 “周限额” 字段,max plan 官方 9 折后 1071 元包年,5 小时 300 prompt ,也就是每分钟可以跑一个任务,这个用量随便跑 autoresearch / ralph loop 了,真正的 token 自由,这个价格可能都不足自己本地跑模型的电费了,还要啥自行车
    NoNewWorld
        24
    NoNewWorld  
       12 小时 56 分钟前
    拿来跑龙虾还行。说实话,除了 claude , 其他只有 GPT 能勉强用用, 不过也挺拉的。
    Panameragt
        25
    Panameragt  
       12 小时 56 分钟前
    你不会是拿来它来编程吧?
    xitler
        26
    xitler  
    OP
       12 小时 55 分钟前
    @Panameragt 是啊
    qweink
        27
    qweink  
       12 小时 53 分钟前
    @HFX3389 实测跑龙虾也不行,多问几个问题就 api rate 限流,确实垃圾,年付了感觉上当。
    micookie
        28
    micookie  
       12 小时 53 分钟前
    https://arena.ai/leaderboard/code 的排名还挺高的。
    达到了 GLM5 的水平,远超 KIMI2.5 ,
    有刷榜的嫌疑吗?
    uqf0663
        29
    uqf0663  
       12 小时 53 分钟前
    楼上一堆说拿来跑龙虾的,为什么我拿 M2.7 跑龙虾都觉得好蠢,经常把自己搞死了。
    AlisterTT
        30
    AlisterTT  
       12 小时 49 分钟前
    我好奇有没有人试过国际站的,是不是不会有高峰限流问题
    SuQiankun
        31
    SuQiankun  
       12 小时 42 分钟前
    我的对比了一下 glm5 和 minimax2.5, 在 claude code 按照同一个规划文件来执行, minimax2.5 被 glm5 锤爆.....
    yanyao233
        32
    yanyao233  
       12 小时 40 分钟前
    确实很离谱,M2.5 真的真的很蠢,把 K2.5 衬托的简直像个天才...
    Panameragt
        33
    Panameragt  
       12 小时 29 分钟前
    @xitler #26 老老实实用 Anthropic 全家桶
    fadaixiaohai
        34
    fadaixiaohai  
       12 小时 23 分钟前
    M2.7 都不太好用,感觉经常会错意。体验起来不如 GLM5 ,甚至不如 deepseek 3.2
    someonelikeyouah
        35
    someonelikeyouah  
       12 小时 22 分钟前
    @snowsky #8 笑不活了
    zhiluop
        36
    zhiluop  
       12 小时 19 分钟前
    M2.7 拿来聊天就行,真要编程不如用 GLM 和 Kimi
    cheng6563
        37
    cheng6563  
       12 小时 18 分钟前
    我用起来,感觉还是 qwen 好用些,只要没撞上中英文间乱插空格的 bug
    MIUIOS
        38
    MIUIOS  
       12 小时 16 分钟前
    考虑半价出吗哥
    xitler
        39
    xitler  
    OP
       12 小时 12 分钟前
    @MIUIOS 你要吗,这周才买的没怎么用,可以 90 出给你
    zjcolvin
        40
    zjcolvin  
       12 小时 10 分钟前
    正在考虑中为 opencode 付费,有老哥评价一下的吗
    svtter
        41
    svtter  
       11 小时 31 分钟前
    @zjcolvin 直接卖 opencode go ,然后多用 glm-5
    rockddd
        42
    rockddd  
       11 小时 27 分钟前
    直接用隔壁站大佬的那个免费中转站跑龙虾呀,目前还挺好用的
    imsoso
        43
    imsoso  
       11 小时 23 分钟前
    自从我知道国产模型会对 benchmark 特调以后。。。
    xmy2232867
        44
    xmy2232867  
       11 小时 18 分钟前
    @shakaraka #5 GPT5.4 比 opus 还强了?
    cs10086
        45
    cs10086  
       11 小时 11 分钟前
    实在想不通为啥用 minimax ,codex 挺好付费的,claude 买个中转站也凑合。
    5800X3D
        46
    5800X3D  
       11 小时 1 分钟前
    不知道你是什么使用场景. 我平时写写 crud 后端没怎么用过, 前端基本上都是 miniMax M2.5 一把梭,体验还是非常好的.

    我是在 trae cn 里用的 miniMax M2.5, 优点就是免费, 错误率比较低. 缺点就是生成的比较慢;上下文太短了,基本上一次提示词下来就会占到 20%左右, 几个指令下来就要开新任务了..

    我也用过 cursor 的 auto 模式.里面应该都是国外的模型吧, 优点是代码生成速度快比 miniMax 要快的多. 缺点就是有小概率会出现引入了一些不存在的包,需要返工...
    codersdp1
        47
    codersdp1  
       10 小时 55 分钟前
    @snowsky 难怪刚开始免费的时候,我感觉它很强
    jchencode
        48
    jchencode  
       10 小时 48 分钟前
    国产模型,很多都是为了跑分,跑榜单,刷排名。细节体验,差的一批。跑龙虾我都不用,我不需要一个弱智龙虾。
    edisonwong
        49
    edisonwong  
       10 小时 24 分钟前
    很多模型都是为 swe ,榜单特殊优化的! 远离国产,glm-5 还行
    snowsky
        50
    snowsky  
       10 小时 10 分钟前
    @codersdp1 @someonelikeyouah 后来 Anthropic 说有些 model 是蒸馏出来的,我也就不奇怪了 LOL
    onedge
        51
    onedge  
       10 小时 8 分钟前
    @ehehela kimi2.5, GLM5 都还行 minimax 最弱智一档
    ssting
        52
    ssting  
       9 小时 30 分钟前
    全是跑分怪.
    一用拉跨
    unco020511
        53
    unco020511  
       9 小时 15 分钟前
    目前深度使用下来,AI coding 能真正产生很大生产力的系列模型只有三个: Opus 4.6/gemini 3.1pro/gpt5.3+,其他一众国产模型的都是打榜跑分怪,根本没法真正产生极大的生产力.
    Waschl
        54
    Waschl  
       9 小时 13 分钟前
    我就拿来跑 openclaw, 干活还是 Opus
    clemente
        55
    clemente  
       9 小时 10 分钟前
    模型只有

    claude/gemini/grok/gpt
    www12222
        56
    www12222  
       9 小时 7 分钟前
    便宜+快,拿来跑跑简单的任务不是挺好的
    cabing
        57
    cabing  
       9 小时 3 分钟前
    glm5 还行。
    shakaraka
        58
    shakaraka  
    PRO
       8 小时 51 分钟前
    @xmy2232867 #44 是的。除非 opus 出下一代。而且 GPT 5.4 Pro 更强,有幸用了几回。pro 没有在 codex 提供的
    stepan
        59
    stepan  
       8 小时 51 分钟前
    跑跑龙虾还可以 2.5 的时候试了一下,反正能用
    guichen
        60
    guichen  
       8 小时 38 分钟前
    官网套餐全都先付费没试用的,说明他们自己都对产品没信心,只能靠营销来吸引购买
    tairan2006
        61
    tairan2006  
       8 小时 24 分钟前
    别人$20 一个月,你$20 一年,还斥啥巨资。。
    xitler
        62
    xitler  
    OP
       8 小时 23 分钟前
    @tairan2006 119 一个月啊。。。比 claude pro 贵点了
    Gilfoyle26
        63
    Gilfoyle26  
       8 小时 10 分钟前
    评测没输过,实际没赢过
    KisekiRemi
        64
    KisekiRemi  
       8 小时 9 分钟前
    只能跑跑简单需求,真的要干活还得上 codex 和 claude
    ohoh
        65
    ohoh  
       8 小时 8 分钟前
    你们到底有几个真实且深度用过就在说差的?
    devloperchen
        66
    devloperchen  
       8 小时 2 分钟前
    老实说,我是深度使用过好几个月的。主要是用来开发 Android app ,而且是一个十年多的老项目了。没有你们说的那么难堪,只有你把功能描述完成,告诉它改哪个文件,用 claude code plan 模式基本上都是没有问题的。但是,和国外的模型肯定是有很大差距的。
    muxiaofei
        67
    muxiaofei  
       7 小时 40 分钟前
    @ohoh 买了年的,真的差,快是挺快,但是采用率很低
    bbbblue
        68
    bbbblue  
       7 小时 38 分钟前
    "看了 ai benchmark 排名,显示说 m2.7 仅次于 gpt 5.4 "

    ????那个 benchmark 是这么写的 是不是里面就只有 5 个模型 御三家 m2.5 和 m2.7 然后说仅次于 gpt 5.4 的 😂
    zhouxu
        69
    zhouxu  
       7 小时 30 分钟前
    图便宜买了 400 的年卡,发现生成的代码有时候没法看
    Leeeeex
        70
    Leeeeex  
    PRO
       7 小时 19 分钟前
    之前抽奖抽到了个 kimi 会员,试了一下 kimi cli
    重复任务和排查任务很快,速度和最终展示效果都挺不错的
    但是创新型任务就不太行了,还得用 claude
    你可以留着这个做一些简单的工作
    coolcoffee
        71
    coolcoffee  
       7 小时 17 分钟前
    大模型跑分就像安卓厂商跑分一样,一个特调了之后同行也要被迫特调的。
    slowgen
        72
    slowgen  
       7 小时 9 分钟前
    官方算力不够所以可能降智了,说不定 together.aifireworks.ai 这种自己部署的会好一点,毕竟海外不缺算力。
    我是自建的,用了 4 张 H20 跑 MiniMax M2.5 的 FP8 量化,挺好用的,无限 token 给了我很大想象力。再低成本一点可以 2 张 RTX Pro 6000 跑 NVFP4 ,或者等 M5 Ultra 出来,不要买 M5 之前的版本因为 prefill 慢。
    yinyu
        73
    yinyu  
       6 小时 55 分钟前   ❤️ 1
    指令的遵守都一坨屎,无力吐槽了。
    looplj
        74
    looplj  
       6 小时 3 分钟前
    写代码,国内模型我只用 glm5
    xiaolanger
        75
    xiaolanger  
       6 小时 0 分钟前
    2.7 比 kimi 好用
    johnsmith2077
        76
    johnsmith2077  
       5 小时 22 分钟前
    完全是弱智模型,给一个简单需求,能把之前代码都搞烂,路边一条,和 claude 和 gpt 没法比
    suyuyu
        77
    suyuyu  
       5 小时 16 分钟前
    别买假模型。认准 openai,a➗
    yh7gdiaYW
        78
    yh7gdiaYW  
       4 小时 39 分钟前
    @ehehela GLM-5/GLM-5-Turbo ,公司一堆人自由选择跑下来用量仅次于 claude 的模型
    eeeecho
        79
    eeeecho  
       1 小时 16 分钟前
    跑龙虾勉强还可以把
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3251 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 28ms · UTC 14:10 · PVG 22:10 · LAX 07:10 · JFK 10:10
    ♥ Do have faith in what you're doing.