据官方发布的博客,在 Arena AI 文本排行榜上,Gemma 4 的 31B Dense 模型以 307 亿参数规模登上开源模型全球第三,26B A4B MoE 模型位居第六,后者推理时仅激活 38 亿参数,却击败了参数量数百亿乃至数千亿级别的竞品 … 当端侧 4B 参数模型能够处理多模态、语音、长上下文任务,当 307 亿参数模型可以在单张 H100 上运行且跻身开源排行榜前三,「本地 AI」与「云端 AI」的能力边界正在被重新定义 … 谷歌选择了同时开放所有模型权重、拥抱 Apache 2.0、覆盖从手机到云端的全硬件栈 —— 这种「全栈开源」策略,既是对 Meta Llama 系列和 Mistral 等开源竞品的正面回应,也是对「闭源才能维持技术壁垒」这一传统认知的直接挑战。
暂无讨论,说说你的看法吧

