极力GPU-极致算力租赁平台欢迎您!
您当前位置:首页>技术资讯>行业新闻

Llama2推理RTX3090胜过4090,延迟吞吐量占优,但被A800远远甩开难以置信

机器之心报道编辑:杜伟、小舟这是为数不多深入比较使用消费级 GPU(RTX 3090、4090)和服务器显卡(A800)进行大模型预训练、微调和推理的论文。大型语言模型 (LLM) 在学界和业界都取得了巨大的进展。..

18584883263 立即咨询

快速申请测试

称       呼 :
手机号码 :
备       注:
分享:

Llama2推理RTX3090胜过4090,延迟吞吐量占优,但被A800远远甩开难以置信

发布时间:2025-09-02 热度:2

机器之心报道

编辑:杜伟、小舟

这是为数不多深入比较使用消费级 GPU(RTX 3090、4090)和服务器显卡(A800)进行大模型预训练、微调和推理的论文。

大型语言模型 (LLM) 在学界和业界都取得了巨大的进展。但训练和部署 LLM 非常昂贵,需要大量的计算资源和内存,因此研究人员开发了许多用于加速 LLM 预训练、微调和推理的开源框架和方法。然而,不同硬件和软件堆栈的运行时性能可能存在很大差异,这使得选择最佳配置变得困难。

最近,一篇题为《Dissecting the Runtime Performance of the Training, Fine-tuning, and Inference of Large Language Models》的新论文从宏观和微观的角度详细分析了 LLM 训练、微调、推理的运行时性能。

论文地址:https://arxiv.org/pdf/2311.03687.pdf

具体来说,该研究首先在三个 8-GPU 上对不同规模(7B、13B 和 70B 参数)的 LLM,面向预训练、微调、服务进行端到端的性能基准测试,涉及具有或不具有单独优化技术的平台,包括 ZeRO、量化、重新计算、FlashAttention。然后,该研究进一步提供了子模块的详细运行时分析,包括 LLM 中的计算和通信运算符。

方法介绍

该研究的基准测试采用自上而下的方法,涵盖 Llama2 在三个 8-GPU 硬件平台上的端到端步骤时间性能、模块级时间性能和运算符时间性能,如图 3 所示。

三个硬件平台分别为 RTX4090、RTX3090 和 A800,具体规格参数如下表 1 所示。

在软件方面,该研究比较了 DeepSpeed 和 Megatron-LM 在预训练和微调方面的端到端步骤时间。为了评估优化技术,该研究使用 DeepSpeed 逐一启用如下优化:ZeRO-2、ZeRO-3、offloading、激活重计算、量化和 FlashAttention,以衡量性能改进以及时间和内存消耗方面的下降。

在 LLM 服务方面,存在三个高度优化的系统,vLLM、LightLLM 和 TGI,该研究在三个测试平台上比较了它们的性能(延迟和吞吐量)。

为了保证结果的准确性和可重复性,该研究计算了 LLM 常用数据集 alpaca 的指令、输入和输出的平均长度,即每个样本 350 个 token,并随机生成字符串以达到 350 的序列长度。

在推理服务中,为了综合利用计算资源并评估框架的鲁棒性和效率,所有请求都以突发模式调度。实验数据集由 1000 个合成句子组成,每个句子包含 512 个输入token。该研究在同一 GPU 平台上的所有实验中始终保持「最大生成 token 长度」参数,以保证结果的一致性和可比性。

端到端性能

该研究通过预训练、微调和推理不同尺寸 Llama2 模型(7B、13B 和 70B)的步骤时间、吞吐量和内存消耗等指标,来衡量在三个测试平台上的端到端性能。同时评估了三个广泛使用的推理服务系统:TGI、vLLM 和 LightLLM,并重点关注了延迟、吞吐量和内存消耗等指标。

模块级性能

LLM 通常由一系列模块(或层)组成,这些模块可能具有独特的计算和通信特性。例如,构成 Llama2 模型的关键模块是 Embedding、LlamaDecoderLayer、Linear、SiLUActivation 和 LlamaRMSNorm。

预训练结果

在预训练实验环节,研究者首先分析了三个测试平台上不同尺寸模型(7B、13B 和 70B)的预训练性能(迭代时间或吞吐量、内存消耗),然后进行了模块和操作层面的微基准测试。

端到端性能

研究者首先进行实验来比较 Megatron-LM 和 DeepSpeed 的性能,二者在 A800- 80GB 服务器上预训练 Llama2-7B 时没有使用任何内存优化技术(比如 ZeRO)。

他们使用的序列长度为 350,并为 Megatron-LM 和 DeepSpeed 提供了两组批大小,从 1 到最大批大小。结果如下表 II 所示,以训练吞吐量(tokens / 秒)和消费级 GPU 内存(单位 GB)为基准。

结果表明,当批大小都为 1 时,Megatron-LM 稍快于 DeepSpeed。不过当批大小达到最大时,DeepSpeed 在训练速度上最快。当批大小相同时,DeepSpeed 消耗了比基于张量并行的 Megatron-LM 更多的 GPU 内存。即使批大小很小,这两个系统都消耗了大量的 GPU 内存,导致 RTX4090 或 RTX3090 GPU 服务器的内存溢出。

在训练 Llama2-7B(序列长度为 350,批大小为 2)时,研究者使用了带有量化的 DeepSpeed 来研究不同硬件平台上的扩展效率。结果如下图 4 所示,A800 几乎是线性扩展,RTX4090 和 RTX3090 的扩展效率略低,分别为 90.8% 和 85.9%。在 RTX3090 平台上,NVLink 连接比没有 NVLink 时的扩展效率提升了 10%。

研究者使用 DeepSpeed 来评估不同内存和计算高效方法下的训练性能。为公平起见,所有评估设置成序列长度为 350,批大小为 1,默认加载模型权重为 bf16。

对于具有卸载功能的 ZeRO-2 和 ZeRO-3,他们分别将优化器状态和优化器状态 + 模型卸载到 CPU RAM。对于量化,他们使用了具有双重量化的 4bits 配置。此外报告了 NVLink 失效时 RTX3090 的性能(即所有数据通过 PCIe 总线传输)。结果如下表 III 所示。

研究者通过最大化每种方法的批大小以获得最大吞吐量,进一步利用不同 GPU 服务器的计算能力。结果如下表 IV 所示,表明了增加批大小可以很容易改进训练过程。因此,具有高带宽和大内存的 GPU 服务器比消费级 GPU 服务器更适合做全参数混合精度训练。

模块级分析

下表 V 展示了单步预训练 Llama2-7B 模型的前向、后向和优化器的整体及计算核心时间成本。对于后向阶段,由于总时间包含了非重叠时间,计算核心时间远远小于前向阶段和优化器。如果非重叠时间从后向阶段中移除,该值变成 94.8。

重计算和 FlashAttention 的影响

加速预训练的技术大致可以分为两类:节省内存增加批大小、加速计算核心。如下图 5 所示,GPU 在前向、后向和优化器阶段有 5-10% 的时间处于闲置状态。

研究者认为这种闲置时间是批大小较小造成的,因此他们测试了所有技术可以使用的最大批大小。最终利用重计算来增加批大小,利用 FlashAttention 来加速计算核心分析。

如下表 VII 所示,随着批大小的增加,前向和后向阶段的时间大幅增加,GPU 闲置时间几乎没有。

下表 VIII 显示出,FlashAttention 分别可以将前向和后向的注意力模块加速 34.9% 和 24.7%。

微调结果

在微调环节,研究者主要讨论参数高效微调方法(PEFT),展示 LoRA 和 QLoRA 在各种模型大小和硬件设置下的微调性能。使用序列长度为 350,批大小为 1,默认将模型权重加载到 bf16。

结果如下表 IX 所示,使用 LoRA 和 QLoRA 微调 Llama2-13B 的性能趋势与 Llama2-7B 保持一致。与 lama2-7B 相比,微调 Llama2-13B 的吞吐量下降了约 30%。

不过当结合所有优化技术时,即使 RTX4090 和 RTX3090 也可以微调 Llama2-70B,实现 200 tokens / 秒的总吞吐量。

推理结果

端到端性能

下图 6 显示了各种硬件平台和推理框架下吞吐量的全面分析,其中省略了 Llama2-70B 的相关推理数据。其中 TGI 框架展现了卓越的吞吐量,尤其是 RTX3090 和 RTX4090 等具有 24GB 内存的 GPU。此外 LightLLM 在 A800 GPU 平台上的性能显著优于 TGI 和 vLLM,吞吐量几乎翻倍。

这些实验结果表明,TGI 推理框架在 24GB 内存 GPU 平台上具有卓越的性能,而 LightLLM 推理框架在 A800 80GB GPU 平台上表现出最高的吞吐量。这一发现表明 LightLLM 专门针对 A800/A100 系列高性能 GPU 进行了优化。

不同硬件平台和推理框架下的延迟表现如下图 7、8、9、10 所示。

综上所示,A800 平台在吞吐量和延迟方面均显著优于 RTX4090 和 RTX3090 两款消费级平台。并且在两款消费级平台中,RTX3090 比 RTX4090 略有优势。当在消费级平台上运行时,TGI、vLLM 和 LightLLM 三个推理框架在吞吐量方面没有表现出实质性差异。相比之下,TGI 在延迟方面始终优于其他两个。在 A800 GPU 平台上,LightLLM 在吞吐量方面表现最好,其延迟也非常接近 TGI 框架。

更多实验结果参考原论文。

关键词:

关闭窗口
上一篇:我们不是好惹的! RTX 3090 SLI VS RTX 4090,谁技高一筹?干货分享
下一篇:RTX 4060 Ti 8GB VS RX 9060 XT 16GB,性能差距几何?2K游戏对比出炉奔走相告

相关阅读

一文看懂英伟达的产品体系和命名规则不要告诉别人
一文看懂英伟达的产品体系和命名规则不要告诉别人

英伟达这几年很火。因为AI的带动,它几乎成为全球最受关注的公司。 我们总是会在网上看到和英伟达有关的一些名词,例如: A100、B100、H100、GH200、GB200、NVLINK、NVSwitch、DGX、H···...

H20解禁,英伟达地位动摇?这都可以
H20解禁,英伟达地位动摇?这都可以

本文来自微信公众号:王智远,作者:王智远,原文标题:《H20解禁,中美AI闭环竞赛开启》,题图来自:AI生成 黄仁勋又来了。 今年第三次来中国,北京35度的大热天,他居然还穿着那件标志性的“黄夹克”,站在小米汽车前···...

H20没人买了,英伟达要推高端AI芯片,来打压中国芯?一看就会
H20没人买了,英伟达要推高端AI芯片,来打压中国芯?一看就···

不得不说,英伟达专门为中国市场定制的H20芯片,最近算是彻底卖不动了。原因其实挺直接——性能拉胯还可能有安全隐患,中国用户自然不买账。 先说性能问题。H20是基于英伟达高端芯片H100“阉割”而来的,但阉割得实在太狠,性能···...

英伟达的季报显示中国专用芯片H20销售收入为零这都可以
英伟达的季报显示中国专用芯片H20销售收入为零这都可以

2025 年 7 月 17 日,英伟达首席执行官黄仁勋离开北京中国国际供应链博览会 (CISCE) 时向人群挥手致意。 看点英伟达的最新盈利数据显示其芯片销售持续强劲,但有一个缺项却格外引人注目···...

关于英伟达H20芯片的情况,确实涉及到一些复杂的技术和安全问题原创
关于英伟达H20芯片的情况,确实涉及到一些复杂的技术和安全问···

你提到的关于英伟达H20芯片的情况,确实涉及到一些复杂的技术和安全问题。下面我将根据目前的信息,为你梳理一下事件的来龙去脉和可能的影响。 网信办约谈英伟达的原因 国家互联网信息办公室(网信办)在2025年···...

或将退出历史舞台?英伟达被传暂停生产H20芯片奔走相告
或将退出历史舞台?英伟达被传暂停生产H20芯片奔走相告

导语 当地时间8月21日下午,科技媒体《The Information》援引知情人士消息披露,英伟达(NVIDIA)已通知韩国三星电子、美国安靠科技等核心供应链企业,暂停H20芯片的相关生产工作。这款曾支撑起英伟达中国市场···...

H20芯片后门的冷思考难以置信
H20芯片后门的冷思考难以置信

近日,英伟达销售给我国的算力芯片H20,因被曝出存在严重安全问题,被我国网信办约谈。 人民日报锐评道:英伟达,让我怎么相信你? 简单捋下事件脉络。 2023年底,英伟达推出H20芯片,陆续向中国客户供货。今···...

H20芯片解禁,怎么看?学会了吗
H20芯片解禁,怎么看?学会了吗

日前,英伟达CEO黄仁勋在北京访问期间宣布,美国政府已批准H20芯片恢复对华出口。 H20芯片,是英伟达按照美国对华技术出口管制要求专为中国市场设计的AI芯片,性能远不及其国际市场主流GPU芯片H100。今年4月,该芯片被···...

英伟达H20芯片背后的暗战:「15%保证金」能守住我国AI安全吗?这都可以
英伟达H20芯片背后的暗战:「15%保证金」能守住我国AI安···

(来源:即梦AI ) 朋友们,今天接着聊AI芯片的话题。 据“观察者网”报道,8月22日,外媒援引知情人士的消息称,英伟达已经告知安靠科技、三星等供应商,暂停H20相关生产。而在此前的7···...

H20一块没卖出!黄仁勋想卖中国厂商英伟达新GPU 谁会/敢买没想到
H20一块没卖出!黄仁勋想卖中国厂商英伟达新GPU 谁会/敢···

快科技8月30日消息,英伟达刚刚发布的财报显示,本财季中国厂商没有采购一块H20芯片,黄仁勋都看在眼里,他也非常着急。 H20被质疑可能存有后门风险后,虽然黄仁勋和英伟达多次回应,但也仅仅停留在语言层面,而没有拿出什么有利···...

英伟达AI芯片A100 、A800、 H100 、H800 、B200满满干货
英伟达AI芯片A100 、A800、 H100 、H800 ···

今年3月份,英伟达发布了Blackwell B200,号称全球最强的 AI 芯片。它与之前的A100、A800、H100、H800有怎样的不同? 英伟达GPU架构演进史 我们先回顾一下,历代英伟达AI加速···...

¥9.99租英伟达H800!双十一算力羊毛真香,闲置卡也能挂机变现学会了吗
¥9.99租英伟达H800!双十一算力羊毛真香,闲置卡也能挂···

小明 发自 凹非寺 量子位 | 公众号 QbitAI 双十一大促没有羊毛可薅? 不如来看看算力吧(doge)。 A800价格低至5.88元/卡时,H800价格低至9.99元/卡时。限量开抢,先到先得···...

DeepSeek开源大餐来了!解锁H800,带飞GPU推理速度,1小时10万观看深度揭秘
DeepSeek开源大餐来了!解锁H800,带飞GPU推理速···

作者|程茜编辑|心缘 智东西2月24日报道,刚刚,DeepSeek开源周第一天重磅更新来了,开源首个代码库——FlashMLA,发布一小时GitHub Star数冲上1700。 FlashMLA指的是De···...

太震撼!DeepSeek用226台H800服务器,日赚409万!这样也行?
太震撼!DeepSeek用226台H800服务器,日赚409···

大周末的,DeepSeek悄么声放了个大招。 他们知乎官号发了一篇雄文,披露了【如何对DeepSeek V3/R1的推理系统进行优化】,文章有2大核心内容↓ 一、如何通过优化架构,让模型推理获得更大的吞吐和更低的延···...

A800、H800都低到这个价了,这个暑假搞了点算力福利万万没想到
A800、H800都低到这个价了,这个暑假搞了点算力福利万万···

这个暑假,在学校搞 AI 的你是不是还在卷研究? 是不是还缺点算力? 是不是想要点折扣? 它来了!面向高校用户,英博云特别推出「暑期现金消耗返券活动」。 满足规则,A800 低至 4.26 元 / ···...



客服微信号

24小时热线18584883263

安徽合肥高新区