👀 家人们,每天看行情、刷大佬观点,却从来不开口说两句?你的观点可能比你想的更有价值!
广场新人 & 回归福利正式上线!不管你是第一次发帖还是久违回归,我们都直接送你奖励!🎁
每月 $20,000 奖金等你来领!
📅 活动时间: 长期有效(月底结算)
💎 参与方式:
用户需为首次发帖的新用户或一个月未发帖的回归用户。
发帖时必须带上话题标签: #我在广场发首帖 。
内容不限:币圈新闻、行情分析、晒单吐槽、币种推荐皆可。
💰 奖励机制:
必得奖:发帖体验券
每位有效发帖用户都可获得 $50 仓位体验券。(注:每月奖池上限 $20,000,先到先得!如果大家太热情,我们会继续加码!)
进阶奖:发帖双王争霸
月度发帖王: 当月发帖数量最多的用户,额外奖励 50U。
月度互动王: 当月帖子互动量(点赞+评论+转发+分享)最高的用户,额外奖励 50U。
📝 发帖要求:
帖子字数需 大于30字,拒绝纯表情或无意义字符。
内容需积极健康,符合社区规范,严禁广告引流及违规内容。
💡 你的观点可能会启发无数人,你的第一次分享也许就是成为“广场大V”的起点,现在就开始广场创作之旅吧!
Mistral发布Mistral 3:面向企业和边缘AI的下一代开源模型
简要
Mistral 刚刚发布了 Mistral 3,这是一个由 10 个开源权重模型组成的新系列,设计可在从消费级云到笔记本电脑、无人机和机器人等各种设备上运行。
AI 初创公司 Mistral 推出了 Mistral 3,这是其最新一代模型系列,包括三个紧凑型高性能稠密模型(参数量分别为 14B、8B 和 3B),以及其迄今为止最先进的模型 Mistral Large 3——一个稀疏专家混合系统,训练时活跃参数为 41B,总参数达 675B。所有模型均采用 Apache 2.0 许可协议,开发者可获得多种压缩格式的开源访问权限,以支持分布式 AI 应用。
Ministral 模型旨在实现强大的性能与成本效率,而 Mistral Large 3 则定位为领先的指令微调开源模型之一。该模型在 3,000 张 NVIDIA H200 GPU 上从零开始训练,是公司自 Mixtral 系列以来首个专家混合模型的发布,并代表了预训练方面的重大进步。经过后训练优化后,在通用提示下与顶级指令微调开源权重模型表现相当,并展现出先进的图像理解和卓越的多语言对话能力。
Mistral Large 3 在 LMArena 榜单上首次亮相排名 #2 in the OSS non-reasoning models category and #6。基础版和指令微调版均以 Apache 2.0 协议发布,为企业和开发者定制提供了强大平台,未来还计划推出推理版。
Mistral 与 NVIDIA、vLLM 及 Red Hat 合作提升 Mistral 3 的可用性与性能
通过与 vLLM 和 Red Hat 的合作,Mistral Large 3 已高度开放给开源社区。NVFP4 格式的检查点经过 llm-compressor 优化,可在 Blackwell NVL72 系统或单个 8×A100 或 8×H100 节点上通过 vLLM 高效运行。
先进开源 AI 模型的开发依赖于广泛的软硬件优化,这得益于与 NVIDIA 的合作。所有 Mistral 3 模型(包括 Large 3 和 Ministral 3)均在 NVIDIA Hopper GPU 上训练,利用高带宽 HBM3e 内存支持大规模工作负载。NVIDIA 的协同设计方法将硬件、软件与模型整合,实现了在 Mistral 3 系列中通过 TensorRT-LLM 和 SGLang 的高效推理,支持低精度执行。
针对 Large 3 的稀疏专家混合架构,NVIDIA 实现了 Blackwell attention 和 MoE 核心,增加了预填充/解码分离式服务,并协作开发了 speculative decoding,使开发者能够在 GB200 NVL72 系统及更高平台上处理长上下文、高吞吐量的工作负载。Ministral 模型也针对 DGX Spark、RTX PC 和笔记本电脑、Jetson 设备等进行了优化,实现了从数据中心到边缘应用的一致高性能体验。Mistral 对 vLLM、Red Hat 及 NVIDIA 的支持与合作表示感谢。
Ministral 3:面向边缘与本地部署的先进 AI 性能
Ministral 3 系列专为边缘和本地部署设计,提供 3B、8B 和 14B 三种参数规模。每种规模均有基础版、指令版和推理版,均具备图像理解能力,并以 Apache 2.0 许可协议发布。结合原生多模态与多语言能力,Ministral 3 系列为企业和开发者应用提供多样化解决方案。
该系列在开源模型中具有出色的性价比,指令版在生成显著更少 token 的情况下可与同类模型匹敌甚至超越。对于精度要求极高的场景,推理版可进行更深层次的计算,在其权重级别内实现领先的精度,例如 14B 模型在 AIME ’25 上可达 85%。
Mistral 3 目前可通过 Mistral AI Studio、Amazon Bedrock、Azure Foundry、Hugging Face (Large 3 & Ministral)、Modal、IBM WatsonX、OpenRouter、Fireworks、Unsloth AI 和 Together AI 访问,并即将在 NVIDIA NIM 和 AWS SageMaker 上线。
Mistral 依然是欧洲 AI 模型生态和开源倡议的重要贡献者,尽管其最新旗舰模型在性能、速度和成本方面仍落后于行业顶级竞争对手。较小的 Ministral 子型号可能提供更具实用性的替代方案,为不同场景和设备的多样化部署提供灵活选择。