机器之心报道机器之心编辑部谷歌 Gemma 3 上线刚刚过去一个月,现在又出新版本了。该版本经过量化感知训练(Quantization-Aware Training,QAT)优化,能在保持高质量的同时显著降低内存需求。..
18584883263 立即咨询发布时间:2025-09-02 热度:1
机器之心报道 机器之心编辑部 谷歌 Gemma 3 上线刚刚过去一个月,现在又出新版本了。 该版本经过量化感知训练(Quantization-Aware Training,QAT)优化,能在保持高质量的同时显著降低内存需求。 比如经过 QAT 优化后,Gemma 3 27B 的 VRAM 占用量可以从 54GB 大幅降至 14.1GB,使其完全可以在 NVIDIA RTX 3090 等消费级 GPU 上本地运行! Chatbot Arena Elo 得分:更高的分数(最上面的数字)表明更大的用户偏好。点表示模型使用 BF16 数据类型运行时所需的 NVIDIA H100 GPU 预估数量。 机器之心在一台配备了 RTX 3070 的电脑上简单测试了其中的 12B 版本,可以看到虽然 Gemma 3 的 token 输出速度不够快,但整体来说还算可以接受。 基于量化感知训练的 Gemma 3 在 AI 模型中,研究者可以使用更少的位数例如 8 位(int8)甚至 4 位(int4)进行数据存储。 采用 int4 量化意味着每个数值仅用 4 bit 表示 —— 相比 BF16 格式,数据大小缩减至 1/4。 但是,这种量化方式通常会导致模型性能下降。 那谷歌是如何保持模型质量的?答案是采用 QAT。 与传统在模型训练完成后才进行量化的方式不同,QAT 将量化过程直接融入训练阶段 —— 通过在训练中模拟低精度运算,使模型在后续被量化为更小、更快的版本时,仍能保持准确率损失最小化。 具体实现上,谷歌基于未量化的 checkpoint 概率分布作为目标,进行了约 5,000 步的 QAT 训练。当量化至 Q4_0(一种常见的量化格式) 时,困惑度下降了 54%。 这样带来的好处之一是加载模型权重所需的 VRAM 大幅减少: 此图仅表示加载模型权重所需的 VRAM。运行该模型还需要额外的 VRAM 用于 KV 缓存,该缓存存储有关正在进行的对话的信息,并取决于上下文长度。 现在看来,用户在消费级设备上就能运行更大、更强的 Gemma 3 模型,其中: 来自 Two Minute Papers 频道的玩笑 官方 int4 和 Q4_0 非量化 QAT 模型已在 Hugging Face 和 Kaggle 上线。谷歌还与众多热门开发者工具合作,让用户无缝体验基于 QAT 的量化 checkpoint: 激动的网友已经无法抑制内心的喜悦:「我的 4070 就能运行 Gemma 3 12B,这次谷歌终于为即将破产的开发者做了一些事情。」 「希望谷歌朝着 1bit 量化使使劲。」 这个可以本地运行的 Gemma 3 你用了吗,效果如何,欢迎大家评论区留言。 参考链接:https://developers.googleblog.com/en/gemma-3-quantized-aware-trained-state-of-the-art-ai-to-consumer-gpus/?linkId=14034718
关键词:

英伟达这几年很火。因为AI的带动,它几乎成为全球最受关注的公司。 我们总是会在网上看到和英伟达有关的一些名词,例如: A100、B100、H100、GH200、GB200、NVLINK、NVSwitch、DGX、H···...

本文来自微信公众号:王智远,作者:王智远,原文标题:《H20解禁,中美AI闭环竞赛开启》,题图来自:AI生成 黄仁勋又来了。 今年第三次来中国,北京35度的大热天,他居然还穿着那件标志性的“黄夹克”,站在小米汽车前···...

不得不说,英伟达专门为中国市场定制的H20芯片,最近算是彻底卖不动了。原因其实挺直接——性能拉胯还可能有安全隐患,中国用户自然不买账。 先说性能问题。H20是基于英伟达高端芯片H100“阉割”而来的,但阉割得实在太狠,性能···...

2025 年 7 月 17 日,英伟达首席执行官黄仁勋离开北京中国国际供应链博览会 (CISCE) 时向人群挥手致意。 看点英伟达的最新盈利数据显示其芯片销售持续强劲,但有一个缺项却格外引人注目···...

你提到的关于英伟达H20芯片的情况,确实涉及到一些复杂的技术和安全问题。下面我将根据目前的信息,为你梳理一下事件的来龙去脉和可能的影响。 网信办约谈英伟达的原因 国家互联网信息办公室(网信办)在2025年···...

导语 当地时间8月21日下午,科技媒体《The Information》援引知情人士消息披露,英伟达(NVIDIA)已通知韩国三星电子、美国安靠科技等核心供应链企业,暂停H20芯片的相关生产工作。这款曾支撑起英伟达中国市场···...

近日,英伟达销售给我国的算力芯片H20,因被曝出存在严重安全问题,被我国网信办约谈。 人民日报锐评道:英伟达,让我怎么相信你? 简单捋下事件脉络。 2023年底,英伟达推出H20芯片,陆续向中国客户供货。今···...

日前,英伟达CEO黄仁勋在北京访问期间宣布,美国政府已批准H20芯片恢复对华出口。 H20芯片,是英伟达按照美国对华技术出口管制要求专为中国市场设计的AI芯片,性能远不及其国际市场主流GPU芯片H100。今年4月,该芯片被···...

(来源:即梦AI ) 朋友们,今天接着聊AI芯片的话题。 据“观察者网”报道,8月22日,外媒援引知情人士的消息称,英伟达已经告知安靠科技、三星等供应商,暂停H20相关生产。而在此前的7···...

快科技8月30日消息,英伟达刚刚发布的财报显示,本财季中国厂商没有采购一块H20芯片,黄仁勋都看在眼里,他也非常着急。 H20被质疑可能存有后门风险后,虽然黄仁勋和英伟达多次回应,但也仅仅停留在语言层面,而没有拿出什么有利···...

今年3月份,英伟达发布了Blackwell B200,号称全球最强的 AI 芯片。它与之前的A100、A800、H100、H800有怎样的不同? 英伟达GPU架构演进史 我们先回顾一下,历代英伟达AI加速···...

小明 发自 凹非寺 量子位 | 公众号 QbitAI 双十一大促没有羊毛可薅? 不如来看看算力吧(doge)。 A800价格低至5.88元/卡时,H800价格低至9.99元/卡时。限量开抢,先到先得···...

作者|程茜编辑|心缘 智东西2月24日报道,刚刚,DeepSeek开源周第一天重磅更新来了,开源首个代码库——FlashMLA,发布一小时GitHub Star数冲上1700。 FlashMLA指的是De···...

大周末的,DeepSeek悄么声放了个大招。 他们知乎官号发了一篇雄文,披露了【如何对DeepSeek V3/R1的推理系统进行优化】,文章有2大核心内容↓ 一、如何通过优化架构,让模型推理获得更大的吞吐和更低的延···...

这个暑假,在学校搞 AI 的你是不是还在卷研究? 是不是还缺点算力? 是不是想要点折扣? 它来了!面向高校用户,英博云特别推出「暑期现金消耗返券活动」。 满足规则,A800 低至 4.26 元 / ···...
客服微信号
安徽合肥高新区