Mistral Small 4 – Mistral AI开源的多模态大模型

AI工具1周前发布
5 0

Mistral Small 4是什么

Mistral Small 4 是 Mistral AI 开源的多模态大模型,模型首次将推理(Magistral)、多模态(Pixtral)和智能体编码(Devstral)能力统一于单一架构,支持文本与图像输入,可通过 reasoning_effort 参数灵活切换快速响应与深度推理模式。模型针对企业级效率优化,延迟降低 40%,吞吐量提升 3 倍,已上架 Mistral API、Hugging Face 及英伟达 NIM 平台。

Mistral Small 4 – Mistral AI开源的多模态大模型

Mistral Small 4的主要功能

  • 统一多能力架构:首次将聊天指令(Instruct)、深度推理(Reasoning)和多模态理解(Multimodal)整合到单一模型中,无需在不同模型间切换。
  • 可调推理强度:通过 reasoning_effort 参数灵活控制:
    • none:快速响应,适合日常对话。
    • high:深度逐步推理,适合复杂问题。
  • 原生多模态处理:同时支持文本和图像输入,可实现文档解析、视觉分析、图文理解等任务。
  • 智能体编码能力:支持代码生成、代码库探索、自动化编程工作流等开发场景。
  • 长上下文处理:支持256K 上下文窗口、长文档分析和长对话
  • 企业级效率:相比前代延迟降低 40%,吞吐量提升 3 倍,支持高效部署。

Mistral Small 4的关键信息和使用要求

  • 架构:Mixture of Experts (MoE)
  • 专家数量:128 个专家,每 token 激活 4 个
  • 总参数量:1190 亿 (119B)
  • 激活参数量:60 亿/ token (含嵌入层 80 亿)
  • 上下文窗口:256K tokens
  • 开源协议:Apache 2.0
  • 硬件要求
    • 最低配置:4× NVIDIA HGX H100 或 2× HGX H200 或 1× DGX B200
    • 推荐配置:4× NVIDIA HGX H100 或 4× HGX H200 或 2× DGX B200

Mistral Small 4的核心优势和价值

  • 一体化整合:首次将推理、多模态、Agent编程三大能力统一到一个模型,无需在多个模型间切换。

© 版权声明

相关文章