不装了!谷歌掏出“最强家底”:Gemma 2 开启零元购模式,开源界要变天?

温故智新AIGC实验室

TL;DR:

谷歌这次是真的“破防”了(划掉,是开窍了),反手就把性能爆表的 Gemma 2 彻底开源。不仅性能直接背刺两倍体量的对手,还贴心地支持单卡运行,简直是打算让开发者们人手一个“口袋版”最强大脑。

曾几何时,谷歌在开源界就像那个“家里有矿但性格保守”的大地主,好东西总得藏着掖着。但就在最近,这位地主老哥突然大步流星走出门,指着地里的金子说:“各位,这些我不要了,拿走不谢!”

没错,谷歌正式发布了 Gemma 2。这不只是一次常规的版本更新,更像是谷歌对 Meta 旗下的 Llama 系列投下的一枚深水炸弹。更劲爆的是,这次不仅有 9B 和 27B 这样的核心版本,甚至还预告了未来更强的家族成员,甚至连 Apache 2.0 这种“真·良心”协议都安排上了。1 2

降维打击:27B 的身材,50B 的战力?

在 AI 界,通常大家觉得“块头越大越聪明”。但 Gemma 2 偏要跳出来说:不,那是你们没掌握好“浓缩的才是精华”。

根据最新的基准测试,270 亿参数(27B)的 Gemma 2 表现非常离谱,它居然能和那些规模是自己两倍以上的主流模型打得有来有回。3 这种“小钢炮”式的性能表现,直接把去年底还觉得高不可攀的 AI 算力门槛给踹翻了。

“这就像是你买了一辆紧凑型轿车,结果跑高速时发现它能超了旁边的大货车,还能在小胡同里灵活掉头。”

更绝的是,为了练就这身“肌肉”,谷歌在训练中使用了大模型蒸馏技术。简单来说,就是让家里那个还没出阁的“老大哥”手把手教小弟,把复杂逻辑精炼成更高效的表达。这种“名师出高徒”的套路,让 Gemma 2 在对话、代码和逻辑推理上都显得很有灵性。2

硬件“减负”:单卡 A100/H100 就能当家作主

以前想要部署一个能打的模型,开发者往往得对着那一排排闪烁着金钱光芒的显卡集群叹气。但 Gemma 2 的出现,让这种尴尬成了过去式。

现在的 27B 模型,只需要一片 NVIDIA H100 或者是 A100 就能流畅运行。1 这意味着什么?意味着你不需要去租昂贵的服务器集群,甚至在一些高端桌面设备上也能尝试跑起这个“数字大脑”。

对于那些还在纠结成本的中小企业来说,这简直是及时雨。部署成本的直线下降,让 AI 不再是硅谷大佬们的专属玩具,而是变成了像水电一样的基础生产力工具。甚至有传闻称,未来的精简版模型可以直接在移动设备或者是树莓派上离线跑,这画面美得简直不敢想。4

行业“地震”:谁在笑,谁在焦虑?

谷歌这次的“豪横”开源,最开心的莫过于 Hugging Face 上的开发者社区了。Gemma 2 发布的第一时间,各种集成工具、微调版本和优化容器就已经排队上线。2 相比于某些“半遮半掩”的所谓开源,谷歌这次给出的 Apache 2.0 许可证允许了商业用途和再分发,诚意直接拉满。

但对于隔壁的 Meta 来说,压力可能就来到了 Llama 这边。开源模型市场的竞争已经从“比谁参数多”变成了“比谁性价比高”。如果 Gemma 2 能在更低的算力需求下提供更好的效果,那么开发者凭什么还要去折腾那些沉重的大家伙呢?

“当谷歌开始谈论‘性价比’和‘社区友好’的时候,你就知道 AI 圈的下半场已经开始了。”

从 Gemma 2 到传闻中拥有 128K 上下文、能压进手机内存的未来系列,谷歌正试图通过一套组合拳,重新夺回它在开源生态中的话语权。4 这场关于开源 AI 的权杖之争,受益的终将是每一个手握代码的开发者。

引用


  1. 谷歌发布Gemma 2 开源AI 模型 - 第一财经 · 第一财经 (2024/6/28) · 检索日期2024/6/28 ↩︎ ↩︎

  2. 欢迎使用Gemma 2 - Google 最新的开放大语言模型 · Hugging Face · Hugging Face Blog (2024/6/27) · 检索日期2024/6/27 ↩︎ ↩︎ ↩︎

  3. 谷歌最强开源模型Gemma 2发布!270亿参数奇袭Llama 3 · 知乎 (2024/6/28) · 检索日期2024/6/28 ↩︎

  4. 谷歌发布新一代开源模型;行业组织严禁AI换脸合成丨新鲜早科技 · 21世纪经济报道 · 骆轶琪 (2026/4/3) · 检索日期2026/4/3 ↩︎ ↩︎