Xiaomi MiMo大模型是什么?

小米 MiMo大模型是小米大模型Core团队(由AI专家罗福莉领导)打造的系列化开源AI模型家族,核心定位为专为推理任务优化,专注于“小参数大能力”,之后又陆续开发出“MoE”、视觉、音频、具身智能等众多系列,都是全部开源的。覆盖语言、视觉、音频、具身智能等多种模态,为推理、编码、智能体(Agent)场景打造,全系列采用MIT等友好开源协议,支持开发者二次开发与商业落地。

小米 MiMo大模型家族第一个版本(MiMo-7B)于2025年4月30日首次开源,最新的旗舰版本MiMo-V2-Flash于12月16日晚的模型权重及代码率先发布于Hugging Face和GitHub,12月17日在 Xiaomi“人车家全生态”合作伙伴大会上卢伟冰官宣开源,罗福莉 (小米大模型 Core 团队负责人) 现场解读技术细节

Xiaomi MiMo大模型

核心定位与起源

  • 研发主体:小米新成立的 “大模型 Core 团队”,由AI专家罗福莉领导。
  • 核心目标:突破参数规模限制,在7B 基础参数下实现超越更大模型的推理性能。
  • 首发亮点:首个专为推理 (Reasoning) 而生的开源大模型,在数学推理与代码生成领域表现突出。

模型家族核心成员与关键参数

模型名称 发布时间 核心架构 参数规模 特色能力
MiMo-7B系列 2025.4.30 标准 Transformer 7B 数学推理、代码生成,超越 OpenAI o1-mini 和阿里 32B 模型
MiMo-VL 2025.8 视觉语言融合 7B 最强 7B 级开源视觉语言模型,支持 2508 序列长度
MiMo-Audio 2025.11 音频专用架构 7B 1 亿小时预训练,多模态音频理解超越 Gemini 开源版
MiMo-Embodied 2025.11.21 具身智能架构 业界首个打通自动驾驶与具身智能的跨域基座模型
MiMo-V2-Flash 2025.12.17 MoE(混合专家) 总参数 309B

激活参数 15B

高速推理,支持 256k 上下文窗口,混合思维模式

核心技术优势

  1. 推理性能突破:连接预训练模型+强化学习训练方法使得7B参数模型的成绩在测评数学推理 (AIME 24-25) 和代码生成 (LiveCodeBench v5) 测评中超越部分32B参数级模型。
  2. 混合思维模式:“思考模式”(深度推理)、“即答模式”切换,满足不同任务需求。
  3. MoE 架构创新:MiMo-V2-Flash 采用专家混合架构,在保持 15B 激活参数高效推理的同时,掌握拥有309B总参数的知识容量。
  4. 超长上下文:最新模型上下文支持256k,能够处理超长文章和复杂Agent交互任务。
  5. 多模态扩展:从语言推理到视觉理解、音频处理、具身智能,实现跨领域能力覆盖。
Xiaomi MiMo大模型

开源范围

  • 模型权重 (包括Base版本) 采用MIT 协议全面开源,对商业使用友好
  • 完整推理代码贡献至 SGLang 社区
  • 技术报告与模型细节全部公开
  • 提供网页端体验 (https://aistudio.xiaomimimo.com) 与API服务 (限时免费) 

适用场景

  • 数学与逻辑推理:做复杂的数学题、逻辑推理题,适用于教育和科研。
  • 代码生成与优化:支持多语言代码编写、调试和优化,提升开发效率。
  • 智能体 (Agent) 应用:MiMo-V2-Flash专门适用于Agent,支持几百轮的交互,支持工具调用。
  • 视觉内容理解:MiMo-VL 可处理图像描述、视觉问答等复杂视觉语言任务。
  • 音频智能交互:语音识别、情感分析、音频内容理解,赋能智能设备交互。
  • 具身与自动驾驶:MiMo-Embodied 实现机器人控制与自动驾驶的统一建模。
  • 企业级 AI 应用:低成本高效推理,适合需要快速响应的商业智能系统。

Xiaomi MiMo大模型官方开源地址汇总

一、主仓库地址

平台 官方地址 说明
Hugging Face https://huggingface.co/XiaomiMiMo MiMo 全系列模型官方主页,包含所有版本权重与配置
GitHub https://github.com/XiaomiMiMo/MiMo 主项目仓库,含基础模型代码、技术报告与使用文档GitHub

二、各版本专项仓库

1. MiMo-V2-Flash(最新旗舰版)

  • GitHub: https://github.com/XiaomiMiMo/MiMo-V2-Flash
  • Hugging Face: https://huggingface.co/XiaomiMiMo/MiMo-V2-Flash
  • 技术报告: https://github.com/XiaomiMiMo/MiMo-V2-Flash/blob/main/paper.pdf

2. MiMo-VL(视觉语言版)

  • GitHub: https://github.com/XiaomiMiMo/MiMo-VL
  • Hugging Face: https://huggingface.co/XiaomiMiMo/MiMo-VL-7B-SFT
  • 技术报告: https://github.com/XiaomiMiMo/MiMo-VL/blob/main/MiMo-VL-Technical-Report.pdf

3. MiMo-Audio(音频版)

  • GitHub: https://github.com/XiaomiMiMo/MiMo-Audio
  • Hugging Face: https://huggingface.co/XiaomiMiMo/MiMo-Audio-7B-Base

4. MiMo-7B 基础系列

模型变体 Hugging Face 地址
MiMo-7B-Base https://huggingface.co/XiaomiMiMo/MiMo-7B-Base
MiMo-7B-RL-Zero https://huggingface.co/XiaomiMiMo/MiMo-7B-RL-Zero
MiMo-7B-Instruct https://huggingface.co/XiaomiMiMo/MiMo-7B-Instruct

三、快速访问提示

  1. 所有模型均采用MIT 开源协议,商业使用友好
  2. 在线体验: https://aistudio.xiaomimimo.com (支持 MiMo-V2-Flash 最新功能)
  3. 官方博客: https://mimo.xiaomi.com/blog/mimo-v2-flash
关于Xiaomi MiMo大模型特别声明

本站自媒体指南所展示的Xiaomi MiMo大模型均来源于网络,本站无法保证外部链接的准确性与完整性,且不对外部链接指向的内容拥有实际控制权。收录于2026年3月2日 上午10:07的网页内容,在收录时均合规合法;若后续内容出现违规情况,可联系网站管理员进行删除处理,自媒体指南对此不承担任何法律责任。

Xiaomi MiMo大模型 相关网站

暂无评论

暂无评论...