Mistral Small 4是什么
Mistral Small 4 是 Mistral AI 开源的多模态大模型,模型首次将推理(Magistral)、多模态(Pixtral)和智能体编码(Devstral)能力统一于单一架构,支持文本与图像输入,可通过 reasoning_effort 参数灵活切换快速响应与深度推理模式。模型针对企业级效率优化,延迟降低 40%,吞吐量提升 3 倍,已上架 Mistral API、Hugging Face 及英伟达 NIM 平台。
Mistral Small 4的主要功能
- 统一多能力架构:首次将聊天指令(Instruct)、深度推理(Reasoning)和多模态理解(Multimodal)整合到单一模型中,无需在不同模型间切换。
- 可调推理强度:通过
reasoning_effort参数灵活控制:none:快速响应,适合日常对话。high:深度逐步推理,适合复杂问题。
- 原生多模态处理:同时支持文本和图像输入,可实现文档解析、视觉分析、图文理解等任务。
- 智能体编码能力:支持代码生成、代码库探索、自动化编程工作流等开发场景。
- 长上下文处理:支持256K 上下文窗口、长文档分析和长对话
- 企业级效率:相比前代延迟降低 40%,吞吐量提升 3 倍,支持高效部署。
Mistral Small 4的关键信息和使用要求
- 架构:Mixture of Experts (MoE)
- 专家数量:128 个专家,每 token 激活 4 个
- 总参数量:1190 亿 (119B)
- 激活参数量:60 亿/ token (含嵌入层 80 亿)
- 上下文窗口:256K tokens
- 开源协议:Apache 2.0
- 硬件要求
- 最低配置:4× NVIDIA HGX H100 或 2× HGX H200 或 1× DGX B200
- 推荐配置:4× NVIDIA HGX H100 或 4× HGX H200 或 2× DGX B200
Mistral Small 4的核心优势和价值
- 一体化整合:首次将推理、多模态、Agent编程三大能力统一到一个模型,无需在多个模型间切换。
© 版权声明
文章版权归作者所有,未经允许请勿转载。

