MINIMAX是什么公司?MINIMAX M2.1模型怎么样?对比GPT5、Gemini 3性能如何?

MINIMAX,这家成立于 2021 年底的 AI 独角兽,在短短三年多时间里实现了从 0 到 2 亿用户的跨越,并即将成为 "AI 第一股"。与 OpenAI、谷歌、Anthropic 等硅谷巨头相比,MINIMAX 展现出了独特的发展路径和技术优势。

MINIMAX 的创始人闫俊杰,这位 89 年出生的博士,曾是商汤科技的副总裁、研究院副院长。2021 年 12 月,在商汤即将上市的关键时期,闫俊杰却选择了离开,在上海一间不到 100 平米的房间里创立了 MINIMAX。公司名称源于 "极小化极大算法"(Minimax Algorithm),体现了其追求极致优化的技术理念。

image

从 2021 年底创立至今,MINIMAX 已经走过了三个关键发展阶段:​2023 年突破语音模态,2024 年攻克视频与音乐生成,2025 年推出全球顶尖的文本模型 M2​,三年实现全模态覆盖,节奏远超行业平均水平。特别是其最新发布的 M2.1 模型,在全球权威测评榜单 Artificial Analysis 中位列​全球前五、开源第一​,综合成本仅为 Claude Sonnet 4.5 的​8% ​,而推理速度却快了近​一倍

一、MINIMAX 模型迭代史:从技术探索到全面突破

1.1 创业初期:技术积累与方向确立(2021-2023)

MINIMAX 的创业故事始于一个朴素的愿景。创始人闫俊杰在商汤工作时,他 80 岁的外公想要写一本书讲述人生经历,但因为不会打字而作罢。这个触动让闫俊杰意识到,​技术应该服务于每个人,而不是仅仅停留在论文和实验室中。

公司成立初期,MINIMAX 就确立了 "​Intelligence with Everyone​"(与所有人共创智能)的使命,致力于实现通用人工智能(AGI)。在技术路线上,MINIMAX 选择了一条独特的道路:​同时发力技术研发和产品落地,这在当时被业界认为是 "自杀式" 发展策略,但闫俊杰坚持认为 "对创业公司,至少对中国的创业公司来说,更好的方式是同时思考技术和产品"。

2023 年是 MINIMAX 的关键转折年。6 月,公司做出了一个大胆决定:​押上 80% 的可用算力资源投入 MoE(混合专家模型)架构研发。这个决定源于一个现实困境:传统的 Dense 模型生成 token 成本过高,延时严重,如果继续使用 Dense 模型,公司很快会因为推理成本问题耗尽资金。

在语音领域,MINIMAX 于 2023 年 11 月推出了​国内首个基于 Transformer 架构的语音大模型 abab-speech-01。这个模型支持多角色音频生成、文本角色分类等功能,3 个月内就有超过 400 家企业用户接入,成为第一个开放多角色配音商用接口的公司。

1.2 技术突破期:MoE 架构引领行业变革(2024)

2024 年标志着 MINIMAX 技术路线的全面开花。1 月 15 日,公司发布了​国内首个基于 MoE 架构的大语言模型 abab 6.0,成为国内首个数千亿参数级别的 MoE 模型。这个模型的发布具有里程碑意义,因为当时 MoE 还未成为行业共识,MINIMAX 的前瞻性布局开始显现成效。

紧接着,2024 年 4 月 17 日,MINIMAX 推出了​万亿参数 MoE 模型 abab 6.5 系列,包括 abab 6.5t 和 abab 6.5s 两个版本。其中,abab 6.5t 包含万亿参数,支持 200k tokens 的上下文长度;abab 6.5s 使用相同的训练技术和数据,但更加高效,支持 200k tokens 的上下文长度,可以在 1 秒内处理近 3 万字的文本。

在各类核心能力测试中,abab 6.5 系列模型的表现开始接近GPT-4、Claude-3、Gemini-1.5等世界领先的大语言模型。更重要的是,MINIMAX 开创了用 MoE 架构进行大规模商业化部署的先河,证明了这种架构不仅在技术上可行,在商业上也具有巨大优势。

2024 年 8 月,MINIMAX 的技术版图进一步扩展,一口气发布了​视频生成大模型 abab-video-1 和音乐模型 abab-music-1,实现了从单一语言模型向多模态模型的跨越。这种快速的技术迭代能力,充分体现了 MINIMAX"模块化研发 + 快速迭代" 的机制优势。

1.3 开源战略期:M 系列模型震撼登场(2025)

进入 2025 年,MINIMAX 迎来了爆发式增长。6 月 16 日,公司发布了​全球首个开源大规模混合架构推理模型 MiniMax-M1​。这个模型的核心突破在于其革命性的长文本处理能力:原生支持高达​100 万 Token 的上下文窗口​,与谷歌最新的 Gemini 2.5 Pro 持平,并支持业内最长的​8 万 Token 推理输出

M1 的技术创新源于其独创的 **"Lightning Attention" 混合架构 **,优化了传统 Transformer 模型在处理长序列时注意力机制计算量随序列长度呈平方级增长的核心瓶颈。在性能上,M1 在 Artificial Analysis Intelligence Index 榜单中位列全球开源模型第二名,在进行 8 万 Token 深度推理时,所需算力仅为同赛道其他先进模型的约​30%

2025 年 10 月 27 日,MINIMAX 发布了新一代文本大模型​MiniMax-M2​,这款仅有 10B 激活参数(总参 230B)的轻量级模型在 Artificial Analysis 榜单上总分冲入​全球前五、开源第一,成为中国开源大模型首次在该榜单中跻身全球前五。

最新的MiniMax-M2.1于 2025 年 12 月 23 日发布,作为开源模型中率先系统性引入 Interleaved Thinking 的模型系列,M2.1 的 systematic problem-solving 能力再次升级,重点聚焦于更多编程语言和办公场景的可用性。

1.4 多模态全面开花:从语音到视频的技术跃迁

在语音领域,MINIMAX 的技术演进呈现出快速迭代的特点。从 2023 年 11 月的 abab-speech-01 开始,到 2024 年推出的 Speech 02,综合性能提升至​全球第一​,累计已生成超过2.2 亿小时的语音。截至目前,语音模型已经迭代到 2.6 版本,支持​40 + 种语言

2025 年 6 月 18 日,MINIMAX 发布了新一代视频生成模型​Hailuo 02,这是全球唯一一个可以实现类似体操这种高度复杂场景的视频大模型。该模型支持 1080P 高清,视频时长延长至 10 秒,在动态表现、风格化呈现以及人物表演的细腻度方面取得显著突破。

2025 年 10 月 28 日发布的Hailuo 2.3进一步提升了动态表现力,在肢体动作呈现、风格化以及人物微表情方面实现了显著的效果提升,同时对运动指令响应做进一步优化。新版本模型在物理表现与指令遵循能力方面进行了进一步增强,能够呈现出更加复杂和流畅的人物肢体动作,在精准度和可控性方面都有明显提升。

在音乐生成领域,MINIMAX 也取得了重要突破。Music 1.5开启了 "一人即乐队" 的新时代,生成时长升至 4 分钟,具备强控制力、人声自然饱满、乐器层次丰富、歌曲结构清晰四大新突破。而Music 2.0更是实现了艺术与技术的深度融合,不仅能精准捕捉人声情感层次,支持男女对唱、阿卡贝拉等复杂形式,更可通过参数控制实现 "一声千变" 的音色变换,单首作品时长可达 5 分钟。

二、最新模型性能全面解析

2.1 多模态生成:引领行业新标杆

MINIMAX 在多模态生成领域的表现已经达到了国际先进水平,特别是在视频生成方面更是创造了多项世界纪录。根据实测数据,MINIMAX 的视频生成性能表现如下:

视频时长 平均生成时间 支持分辨率
5 秒视频 45 秒 720p-1080p
15 秒视频 120 秒 720p-1080p
30 秒视频 240 秒 720p-1080p

在图像生成方面,MINIMAX 同样表现出色:

  • 标准质量:平均生成时间 8 秒
  • 高清质量:平均生成时间 15 秒
  • 4K 质量:平均生成时间 35 秒
  • 支持批量并发处理

Hailuo 2.3作为最新的视频生成模型,在技术层面实现了多项突破。首先,得益于模型在物理表现与指令遵循进一步的增强,Hailuo 2.3 可以呈现出更加复杂的人物肢体动作,更加流畅自然,精确度和可控性更好。在不同的大动态运镜下,光线方向、明暗过渡和色调,都能实现近乎实拍的视觉效果。

在风格化方面,Hailuo 2.3 对动漫、插画类,以及水墨、游戏 CG 等特殊画风的支持效果更佳。通用模型的输出效果更稳定、更生动。在 Hailuo 2.3 中,真人面部表演、微表情变化等动作也更自然,用细腻的表情变化打造最动人的角色表演。

更值得关注的是,Hailuo 2.3 再次刷新了全球视频模型 "​效果 - 成本​"纪录,在提升性能表现的同时保持 Hailuo 02 既有价格,B 端与 C 端都" 加量不加价 "。此外,MINIMAX 还提供 Hailuo 2.3 Fast 模型,生成速度更快,定价更低,最高可为批量创作降低​50% 成本

在音乐生成方面,Music 2.0的表现同样令人瞩目。该模型突破性地融合人声情感捕捉与器乐动态表现,能够精准还原不同唱法的细微差异。据专业评测,其生成的人声音色与真实歌手的相似度达到​92% ,为音乐创作、影视配乐等领域开辟全新可能性。

2.2 AI 写作与文本处理:超长上下文的革命性突破

MINIMAX 在 AI 写作和文本处理领域的最大亮点是其​超长上下文处理能力​。MiniMax-Text-01 能够高效处理高达400 万 token的上下文,是 GPT-4o 的​32 倍​,Claude-3.5-Sonnet 的​20 倍

在 400 万 token 的 "大海捞针"(Needle-in-a-Haystack)检索基准测试中,MINIMAX 实现了全绿的准确率,并在实际 AI 助手任务中超越了部分顶级模型,模型综合性能比肩海外顶尖模型。这种超长上下文处理能力使得 MINIMAX 在处理大型文档、复杂任务时具有得天独厚的优势。

在文本生成性能方面,实测数据显示:

  • 短文本(100 字):平均响应时间 1.2 秒
  • 中等文本(1000 字):平均响应时间 3.8 秒
  • 长文本(10000 字):平均响应时间 15.2 秒
  • 超长文本(100000 字):平均响应时间 78 秒

更重要的是,MINIMAX-M1 不仅能 "读完"100 万 Token 的输入,还能生成长达 **80 万 Token(约 120 万汉字)** 的超长回应。在考验上下文 "精准记忆力" 的 MRCR 测试中,MINIMAX-M1 与 Gemini 2.5 并驾齐驱,直接把其它大模型甩在身后。

在实际应用中,使用 50 万字的长篇小说进行测试,M1 模型能够准确理解全文内容,并生成高质量的摘要和分析报告,生成质量细节丰富,情感表达到位,文化元素准确,长文本理解准确率提升​15%

2.3 代码生成:编程领域的新王者

MINIMAX 在代码生成领域的表现已经达到了业界顶尖水平,特别是最新的M2.1模型,在多语言编程能力上实现了重大突破。M2.1 系统性提升了Rust、Java、Golang、C++、Kotlin、Objective-C、TypeScript、JavaScript等语言的能力,多语言任务整体表现达到业内领先水平,覆盖从底层系统到应用层开发的完整链路。

在软件工程相关场景的核心榜单上,MiniMax-M2.1 相比于 M2 有了显著的提升,尤其是在多语言场景上,超过Claude Sonnet 4.5和​Gemini 3 Pro​,并接近​Claude Opus 4.5

代码质量方面的表现更是令人印象深刻。对于熟悉后台开发的程序员来说,M2.1 生成的代码完全符合 Go 语言的惯用法(idiomatic Go),正确使用了 context.Context 进行超时控制,同时采用了 Go 的 error wrapping 模式来进行错误处理。​最为关键的是,生成的代码可以直接运行,无需大量修改

在实际测试中,MINIMAX M2.1 展现出了强大的工程化能力:

  • 能够熟练配合Cursor、Claude Code等主流编程工具
  • 在存量代码库中执行精准的修复(Fix)或重构(Refactor)
  • 生成的项目包结构清晰,分好了实体类、枚举和实现逻辑等
  • 代码中写清楚了注释

更重要的是,M2.1 不再只是 "代码能力更强",在日常对话、技术说明与写作场景中,也能提供更具细节与结构性的回答。在公开的测试用例生成、代码性能优化,以及自建的代码审阅、指令遵从等细分场景的榜单上,MiniMax-M2.1 相比 M2 都表现出了全面的提升,持平或超过 Claude Sonnet 4.5。

2.4 综合性能基准测试结果

MINIMAX 模型在各大权威基准测试中都取得了优异成绩,充分证明了其技术实力:

测试项目 MINIMAX-M1 得分 对比模型及得分
SWE-bench Verified 56.0% 大幅领先 DeepSeek-R1 和 Qwen3
TAU-bench(代理工具使用) 62.8% 超越 DeepSeek 和 Qwen3
MRCR(多轮文档分析) 73.4% 接近顶级商业模型,远超其他开源模型
Core Academic Benchmark(GPQA Diamond) 54.4 分 超越 GPT-4o

在 128K 输入级别,MINIMAX 开始显现出明显优势,并超越了所有基准模型。在 VIBE(Visual & Interactive Benchmark for Execution)综合榜单中,MiniMax-M2.1 表现卓越,以平均88.6 分的成绩展现了接近 Claude Opus 4.5 的全栈构建能力,并在几乎所有子集上都显著优于 Claude Sonnet 4.5。

三、MINIMAX 独特优势与竞争力分析

3.1 技术架构创新:MoE 与线性注意力的完美结合

MINIMAX 最核心的技术优势在于其​创新的架构设计​。以最新的 M2.1 为例,该模型采用了稀疏混合专家(Mixture of Experts)架构,总参数量达​2300 亿​,但通过动态路由机制,每次推理仅激活​100 亿参数,实现了 "大参数容量 + 小计算开销" 的平衡。

这种设计带来了多重优势:

  • 推理速度提升​:实测在 A100 GPU 上推理速度达​100 TPS,远超行业平均的 60 TPS
  • 显存需求降低​:128K 长上下文处理仅需​32GB 显存(传统模型需 80GB)
  • 成本大幅下降​:推理过程节省60% 以上计算资源

更重要的是,MINIMAX 是​全球首个突破传统 Transformer 架构限制的模型,通过线性注意力机制实现了对 4M 长文本的高效处理能力,是 GPT-4o 的 32 倍、Claude-3.5-Sonnet 的 20 倍。这种架构创新不仅提升了性能,更重要的是大幅降低了使用门槛。

在强化学习阶段,MINIMAX 研究团队开发了名为CISPO的新算法,通过裁剪重要性采样权重来提升稳定性和效率。得益于 CISPO 的高效,M1 模型的整个强化学习阶段成本仅为​53.5 万美元,比最初预期少了一个数量级。这项技术甚至得到了国际同行的认可,Meta 在其论文中正式采用了 MINIMAX 原创的 CISPO 损失函数技术。

3.2 成本优势:重新定义 AI 服务价格体系

MINIMAX 最具颠覆性的优势在于其​极致的成本控制能力。根据官方数据,MINIMAX 的 API 定价为:

  • 输入:每百万 Token ​0.3 美元(约 2.1 元人民币)
  • 输出:每百万 Token ​1.2 美元(约 8.4 元人民币)

这个价格是​Claude Sonnet 4.5 的 8% ​,而推理速度却快了接近​一倍​。在实际部署中,部署 M2 的 vLLM 服务,每百万 token 推理成本约​0.15 美元​(含硬件折旧),而同等性能的 Claude 需要​2 美元

这种成本优势源于多个方面:

  • 架构效率:MoE 架构实现了计算资源的高效利用
  • 训练成本:CISPO 算法将强化学习成本降至 53.5 万美元
  • 运营优化:通过技术创新大幅降低了运营成本

更值得关注的是,MINIMAX 承诺让 "每个人都用得起 AI"。M2 发布后两周内开放全球 API 接口免费调用,同时上线限时免费的国内版 MiniMax Agent。在 MiniMax APP 和 Web 上,M1 模型支持​不限量免费使用

3.3 多模态融合:全栈自研的技术壁垒

MINIMAX 的另一个重要优势是其​全栈自研的多模态技术体系​。与其他公司不同,MINIMAX 选择了同步自研文本、语音、视频、音乐等多模态的大模型,这种策略使得在底层架构上实现了​80% 的资源复用

在外界看来,"全模态" 往往意味着巨大的资金黑洞,但 MINIMAX 却通过技术创新走出了一条极致的创新之路。公司采用 "​模块化研发 + 快速迭代"机制,将全模态模型拆解为文本、语音、视频等核心模块,各模块并行研发又相互协同,避免了资源浪费。同时,依托用户反馈快速优化模型,形成" 模型迭代 - 产品落地 - 用户反馈 - 模型优化 " 的飞轮效应。

这种全栈自研能力带来了独特的技术优势:

  • 技术协同:不同模态之间可以实现深度融合和优化
  • 成本优势:80% 的底层架构复用大幅降低了研发成本
  • 迭代速度:模块化设计使得每个模块都能快速迭代优化
  • 质量控制:全栈自研确保了整体技术栈的质量和稳定性

3.4 生态建设:开源战略与开发者友好

MINIMAX 在生态建设方面展现出了开放的态度和强大的执行力。作为开源模型的积极推动者,MINIMAX 不仅开源了核心模型,还在 API 兼容性方面下足了功夫。

在 API 兼容性方面,MINIMAX 实现了​OpenAI/Anthropic API 格式全兼容​,这意味着开发者可以轻松将现有的 AI 应用迁移到 MINIMAX 平台,​迁移成本几乎为零。这种兼容性设计大大降低了用户的切换成本,也体现了 MINIMAX 对开发者需求的深刻理解。

在开源策略上,MINIMAX 展现出了不同于其他公司的魄力。M1 模型在 MiniMax APP 和 Web 上支持​不限量免费使用​,这种 "​用业内最低的价格提供文本和多模态理解的 API" 的理念,让更多人能够享受到 AI 技术的红利。

3.5 本土化优势:深耕中文市场的技术积累

作为中国 AI 公司,MINIMAX 在中文市场具有天然的优势。根据测试数据,MINIMAX 在中文语境下的表现尤为出色:

  • 中文提示词生成准确率非常高
  • 对中文文化元素的理解更加准确
  • 长文本理解准确率提升 15%

这种本土化优势不仅体现在语言理解上,更体现在对中国用户需求的深刻理解。例如,在语音合成方面,MINIMAX 不仅支持标准普通话,还支持多种方言,满足了不同地区用户的需求。

同时,MINIMAX 还充分利用了中国市场的规模优势。通过 2 亿用户的使用数据,MINIMAX 能够持续优化模型性能,形成了 "使用 - 反馈 - 优化" 的良性循环。

四、与主流 AI 模型的全面对比

4.1 与 GPT-4 的对比:成本与性能的双重优势

与 OpenAI 的 GPT-4 相比,MINIMAX 展现出了明显的优势,特别是在成本和长文本处理能力方面:

对比维度 MINIMAX GPT-4
上下文长度 400 万 Token(Text-01) 12.5 万 Token
推理速度 100 TPS 约 60 TPS
API 成本 0.3-1.2 美元 / 百万 Token 约 3-6 美元 / 百万 Token
开源情况 完全开源 闭源
中文性能 准确率高 15% 标准水平

在性能方面,MINIMAX-Text-01 在 GPQA Diamond 测试中获得​54.4 分,超越了 GPT-4o。在 64K 输入级别,两者表现相当,但从 128K 开始,MINIMAX 显现出明显优势,并超越了所有基准模型。

更重要的是,MINIMAX 的成本仅为 GPT-4 的​六分之一,而推理速度却快了近一倍。这种 "高性能 + 低成本" 的组合,使得 MINIMAX 在商业应用中具有巨大的竞争优势。

4.2 与 Claude 的对比:全方位的性能超越

与 Anthropic 的 Claude 系列相比,MINIMAX 的优势更加明显:

速度对比

  • MINIMAX-M2.1 推理速度达 100 TPS,比 Claude 快近一倍
  • 完成同样的代码调试任务,M2 仅需​3 分钟​,而传统模型需要6 分 42 秒

成本对比

  • MINIMAX API 价格是 Claude Sonnet 4.5 的8%
  • 部署成本:MINIMAX 每百万 token 约 0.15 美元,Claude 需要 2 美元
  • 推理过程节省 60% 以上计算资源

性能对比

在多语言编程能力上,MINIMAX-M2.1 超过 Claude Sonnet 4.5 和 Gemini 3 Pro,并接近 Claude Opus 4.5。在 VIBE 综合榜单中,MiniMax-M2.1 以平均88.6 分的成绩展现了接近 Claude Opus 4.5 的全栈构建能力,并在几乎所有子集上都显著优于 Claude Sonnet 4.5。

4.3 与 Llama 的对比:开源生态的新标杆

与 Meta 的 Llama 系列相比,MINIMAX 在多个方面都展现出了优势:

架构创新

  • MINIMAX 是全球首个突破传统 Transformer 架构限制的模型
  • 通过线性注意力机制实现 4M 长文本处理,是 Llama 的 20 倍以上
  • MoE 架构实现 2300 亿参数仅激活 100 亿,效率更高

性能表现

在各大基准测试中,MINIMAX 的表现都优于 Llama 系列:

  • SWE-bench Verified:MINIMAX-M1 得分 56.0%,大幅领先 Llama 系列
  • MRCR 测试:MINIMAX-M1 得分 73.4%,远超其他开源模型

成本效率

MINIMAX 不仅性能更优,成本也更低。通过技术创新,MINIMAX 实现了在保持高性能的同时,将成本降至行业最低水平。

4.4 综合对比总结

通过与主流 AI 模型的全面对比,MINIMAX 的优势可以总结为:

优势维度 具体表现 竞争意义
成本优势 仅为 GPT-4 的 1/6,Claude 的 8% 大幅降低 AI 应用门槛
速度优势 推理速度比 Claude 快 1 倍 提升用户体验和效率
技术创新 400 万上下文,MoE 架构 引领技术发展方向
开源策略 完全开源,免费使用 构建开发者生态
本土化 中文准确率高 15% 深耕中国市场

这些优势使得 MINIMAX 在激烈的 AI 竞争中占据了独特的位置,特别是在成本敏感的商业应用场景中,MINIMAX 几乎具有不可替代的优势。

五、面向不同受众的价值分析

5.1 技术人员:创新架构与开发便利

对于技术人员而言,MINIMAX 提供了丰富的技术价值:

架构创新的学习机会

MINIMAX 的技术架构代表了 AI 领域的最新发展方向。其独创的 "Lightning Attention" 混合架构、MoE(混合专家)架构,以及 CISPO 强化学习算法,都为技术人员提供了宝贵的学习素材。特别是其在保持 2300 亿总参数的同时仅激活 100 亿参数的设计,展示了如何通过架构创新实现性能与效率的最佳平衡。

开发便利性

MINIMAX 在开发体验方面下足了功夫:

  • 实现了​OpenAI/Anthropic API 格式全兼容,迁移成本为零
  • 提供标准的 API 接口,赋能开发者完成所在行业的 AI 场景创新
  • 支持多种编程语言,包括 Python、Go、Java、C++ 等
  • 提供详细的开发文档和示例代码

性能优势

对于追求高性能的技术人员,MINIMAX 提供了卓越的性能表现:

  • 推理速度达 100 TPS,远超行业平均水平
  • 支持超长上下文处理,最高可达 400 万 Token
  • 在多语言编程、代码生成等任务上表现优异

开源生态

作为开源模型的积极参与者,MINIMAX 为技术人员提供了:

  • 完全开源的模型代码,可自由研究和改进
  • 活跃的开发者社区,便于技术交流
  • 持续的模型更新和优化

5.2 投资者:商业前景与投资价值

对于投资者而言,MINIMAX 展现出了巨大的投资价值:

融资历程与估值

MINIMAX 的融资历程彰显了其市场认可度:

  • 累计完成​5 轮融资​,融资金额超11.5 亿美元
  • 2025 年 7 月完成近​3 亿美元 C 轮融资,由上海国资母基金领投
  • 估值已达​40 亿美元(约 300 亿元人民币)
  • 即将成为 "AI 第一股",有望创造 AI 行业最快 IPO 纪录

豪华的投资阵容

MINIMAX 背后汇集了顶级投资机构:

  • 战略投资人:米哈游、阿里巴巴、腾讯、小红书、小米、金山
  • 财务投资人:高瓴资本、IDG、红杉、经纬、明势、云启
  • 其中,米哈游和 IDG 资本被认定为 "领航资深独立投资者"

商业模式与盈利能力

MINIMAX 已经建立了成熟的商业模式:

  • 覆盖 C 端与 B 端的 AI 原生产品矩阵,包括海螺 AI、Talkie 和星野等
  • 为企业用户和开发者提供开放平台服务
  • 采用 "云端 API 调用" 模式,而非低效的 "私有化部署" 模式,实现高毛利
  • 2025 年预计收入将达到7000 万美元

市场前景

MINIMAX 的市场前景广阔:

  • 用户规模已突破​2 亿,展现出强大的用户获取能力
  • 在多模态 AI 领域处于领先地位,技术壁垒高
  • 成本优势明显,在价格敏感的中国市场具有巨大潜力
  • 计划借助资本力量进一步加码万卡级 AI 训练算力建设、多模态技术研发迭代,以及全球化市场的深度拓展

5.3 普通用户:产品体验与使用价值

对于普通用户而言,MINIMAX 提供了丰富的产品选择和卓越的使用体验:

产品矩阵

MINIMAX 为不同需求的用户提供了多样化的产品:

  • 海螺 AI:智能助手,支持语音交互、文生视频、图生视频等功能
  • 星野:AI 陪伴产品,提供虚拟角色互动体验
  • MiniMax Agent:智能体工具,支持复杂任务自动化

海螺 AI 的核心优势

海螺 AI 在用户体验方面表现突出:

  • 语音效果逼真,音色稳定柔和,语气自然
  • 支持倍速调整(0.8、1.0、1.2 倍)和更换音色
  • 中英文混杂输出毫无违和感
  • 支持声音克隆,1 分钟完成,还原度达70%

用户反馈显示:"第一次体验语音的时候就被它吓到了,声音竟然如此逼真,连语气都这么自然,逼真就算了,响应速度还这么快"。

星野的独特体验

星野作为 AI 陪伴产品,为用户提供了全新的交互体验:

  • 丰富的虚拟角色选择,涵盖各种人设
  • 女性用户占比超过55%
  • 人均使用时长达到43.29 分钟

价格策略

MINIMAX 的价格策略非常友好:

  • 免费版:提供基础功能,每日限量使用
  • 付费版:价格实惠,如语音合成仅5 元 / 万字符
  • 经常推出免费试用活动,如新用户可免费创建 3 个声音模型
  • M1 模型在 APP 和 Web 上支持不限量免费使用

使用场景

MINIMAX 的产品适用于多种场景:

  • 日常对话和信息查询
  • 创意内容创作(视频、音乐、文本)
  • 学习辅助(语言学习、知识问答)
  • 娱乐休闲(虚拟陪伴、创意互动)
一叶
一叶

一个好奇的玩家,热爱生活,更热爱探索

文章: 2101

留下评论

您的邮箱地址不会被公开。 必填项已用 * 标注

玩亦可及