谷歌DeepMind近日正式推出全新开放权重模型系列Gemma 4,其最大亮点在于采用Apache 2.0许可证,彻底摒弃此前备受争议的限制性条款。这一改变被开源社区视为重大突破——企业可自由部署、修改及商业化应用模型,无需担忧谷歌单方面修改使用规则。Hugging Face联合创始人Clément Delangue评价称,此举标志着开放模型生态进入新阶段。
Gemma 4系列包含四个版本,覆盖从移动设备到工作站的全场景需求。针对高性能计算场景,谷歌推出310亿参数的稠密模型与260亿参数的混合专家模型。前者以输出质量见长,后者通过动态激活128个专家模块中的部分组件,实际运行参数仅38亿,在保持效率的同时支持图像输入与25.6万token的上下文窗口,可处理整份长文档或代码库。边缘设备端则提供E2B(51亿参数压缩至23亿运行)与E4B(80亿参数压缩至45亿运行)两款模型,新增音频输入能力,支持离线语音识别与翻译。
技术层面,所有模型均原生支持函数调用与结构化输出,开发者可构建自动化智能体。其代码生成能力尤为突出,用户可在本地部署AI编程助手,无需上传代码至云端。视觉能力方面,模型支持70至1120块的可变分辨率图像分割,适应从简单分类到OCR识别的多样化任务,并具备多图与视频帧序列分析能力。
性能测试数据显示,310亿参数稠密模型在AIME 2026数学测试中取得89.2%的准确率,LiveCodeBench编程测试得分80.0%,Codeforces算法竞赛评分达2150分。混合专家模型紧随其后,分别获得88.3%与77.1%的成绩。边缘模型E4B在同类测试中取得42.5%与52.0%的得分,超越前代270亿参数的Gemma 3。有开发者评价其"以小博大"的表现远超预期。
许可证变更被视为Gemma 4的核心竞争力。此前模型采用谷歌自定义协议,条款变动风险与法律审查门槛阻碍了企业级应用。Apache 2.0作为安卓系统、阿里Qwen及法国Mistral等项目采用的通用协议,此次被谷歌采纳后,企业可安全进行模型微调与商业化部署。谷歌声明称,此决定源于对开发者需求的深度倾听。
硬件适配方面,谷歌与高通、联发科合作优化小模型在移动端的能效表现。260亿参数混合专家模型经4位量化后,可在24GB显存的消费级显卡运行;310亿稠密模型量化后亦适配普通硬件。同步推出的量化感知训练技术确保模型降精度后性能稳定。目前,Hugging Face、Kaggle等平台已上线模型资源,vLLM、SGLang等主流框架完成适配。
Gemma系列自初代发布以来累计下载量突破4亿次,社区衍生出超10万个变种模型。Gemma 4的推出延续了这一趋势,其技术路线与Gemini系列共享底层架构,标志着谷歌将前沿研究成果以开放权重形式向开发者全面开放。安卓开发者现可通过AICore预览版体验智能体工作流,未来将与Gemini Nano 4实现无缝兼容。












