llm-numbers

llm-numbers

LLM开发者必知的关键数据和实用见解

该项目汇集了LLM开发中的重要数据和见解,包括提示工程、模型训练和GPU内存管理等方面。内容涵盖成本比率、训练费用和GPU内存要求,为开发者提供决策参考和资源优化指导。这些信息有助于快速评估和理解LLM开发的关键因素,是大语言模型开发者的实用参考资料。

LLMGPUAIOpenAIRayGithub开源项目

每个大语言模型开发者都应该知道的数字

英文

在谷歌,传奇工程师Jeff Dean整理了一份文档,名为每个工程师都应该知道的数字。对大语言模型开发者来说,拥有一套类似的数字也非常有用,可以用于快速估算。这里我们分享Anyscale使用的一些特定数字,解释它们的重要性以及如何利用它们。

GitHub版本说明

最后更新:2023-05-17

如果您认为数字存在准确性问题,请提交issue。认为还有其他应该添加到本文档的数字?请告诉我们或提交PR。

我们正在考虑下一步应该在这里添加不同模型的每秒token数等统计数据。

提示词

40-90%1:在提示词末尾添加"请简明扼要"可节省的成本

请记住,回复是按token收费的。这意味着要求大语言模型简明扼要可以为您节省大量资金。这可以扩展到不仅仅是在提示词末尾添加"请简明扼要":如果您使用GPT-4生成10个备选方案,也许可以只要求5个,节省一半的费用。

1.3:1 - 平均每个单词的token数

大语言模型是基于token运作的。Token是单词或单词的子部分,因此"eating"可能被分解为"eat"和"ing"两个token。一份750个英语单词的文档大约有1000个token。对于英语以外的语言,每个单词的token数会根据它们在大语言模型嵌入语料库中的常见程度而增加。

了解这个比率很重要,因为大多数计费是按token进行的,大语言模型的上下文窗口大小也是以token定义的。

价格2

价格当然会发生变化,但考虑到运营大语言模型的昂贵成本,本节中的数字至关重要。我们在这里使用OpenAI的数字,但您应该查看其他提供商(Anthropic, Cohere)的价格,它们在同一水平。

~50:1 - GPT-4与GPT-3.5 Turbo的成本比3

这意味着对于许多实际应用,最好使用GPT-4来生成高质量的微调数据,或用于其他模型的自动评估 - 这些可能只需要执行一次,而不是在推理周期中反复使用。使用GPT-3.5-Turbo的成本大约是GPT-4的50分之一("大约"是因为GPT-4对提示和生成的输出收费不同) - 所以您真的需要检查GPT-3.5-Turbo能做到什么程度。例如,对于摘要等任务,GPT-3.5-Turbo已经足够了。

5:1 - 使用GPT-3.5-Turbo生成文本与OpenAI嵌入的成本比

这意味着在向量存储中查找内容比要求大语言模型生成它要便宜得多。例如,在神经信息检索系统中查找"特拉华州的首府是什么?"的成本比询问GPT-3.5-Turbo要低约5倍4。与GPT-4相比,成本差异高达250倍!

10:1 - OpenAI嵌入与自托管嵌入的成本比

注意:这个数字对负载和嵌入批量大小敏感,因此请将其视为近似值。

在我们的博客文章中,我们注意到使用g4dn.4xlarge(按需价格:$1.20/小时),我们能够使用Hugging Face的SentenceTransformers(它们与OpenAI的嵌入几乎一样好)每秒嵌入约9000个token。对该速率和该节点类型进行一些基本计算表明,自托管嵌入要便宜得多(便宜10倍左右)(这还是在考虑入站和出站费用之前)。

6:1 - OpenAI微调模型与基础模型查询的成本比

在OpenAI上,为微调模型提供服务的成本是基础模型的6倍。这相当昂贵,但可能是因为基础模型可能的多租户性。这也意味着调整基础模型的提示词比微调定制模型更具成本效益。

1:1 - 自托管基础模型与微调模型查询的成本比

如果您自己托管模型,那么为微调模型和基础模型提供服务的成本基本相同:模型的参数数量是一样的。

训练和微调

~100万美元:训练一个130亿参数的模型,使用1.4万亿个token的成本

LLaMa论文提到他们使用2048个A100 80GB GPU花了21天来训练LLaMa。我们考虑过在Red Pajama训练集上训练自己的模型,然后我们计算了一下。上述数字假设一切顺利,没有崩溃,第一次就成功完成计算等。而且它涉及2048个GPU的协调。这不是大多数公司能做到的(无耻推广时间:当然,我们Anyscale可以 - 这是我们的拿手好戏!如果您想了解更多,请联系我们)。关键是训练自己的大语言模型是可能的,但并不便宜。而且每次运行都将花费数天时间。使用预训练模型要便宜得多。

< 0.001:微调与从头开始训练的成本比

这有点概括,但微调的成本可以忽略不计。例如,我们展示了您可以用大约7美元微调一个60亿参数的模型。即使按OpenAI最昂贵的可微调模型Davinci的费率,每1000个token也只需3美分。这意味着在莎士比亚全集(约100万个单词)上进行微调,大约需要40美元5。然而,微调是一回事,从头开始训练又是另一回事...

GPU内存

如果您自己托管模型,了解GPU内存非常重要,因为大语言模型会将您的GPU内存推到极限。以下统计数据专门针对推理。训练或微调需要更多内存。

V100: 16GB, A10G: 24GB, A100: 40/80GB:GPU内存容量

这可能看起来很奇怪,但了解不同类型GPU的内存容量很重要。这将限制您的大语言模型可以拥有的参数数量。通常,我们喜欢使用A10G,因为它们在AWS按需价格上每小时每个1.50到2美元,并有24G的GPU内存,而A100在AWS按需价格上每个大约5美元。

2倍参数数量:大语言模型服务的典型GPU内存需求

例如,如果您有一个70亿参数的模型,它需要约14GB的GPU空间。这是因为大多数情况下,每个参数需要一个16位浮点数(或2字节)。通常不需要超过16位精度,大多数情况下当您降到8位精度时,会开始失去分辨率(尽管在某些情况下这可能是可以接受的)。当然,也有一些努力来减少这一点,特别是llama.cpp,它通过积极量化到4位(8位影响不大)在6GB GPU上运行130亿参数模型,但这并不典型。

~1GB:嵌入模型的典型GPU内存需求

当您进行句子嵌入(这是进行聚类、语义搜索和分类任务时非常典型的操作)时,您需要一个嵌入模型,如sentence transformers。OpenAI也有自己的商业嵌入服务。

通常您不必担心嵌入在GPU上占用多少内存,它们相当小。我们甚至在同一个GPU上同时运行过嵌入模型和LLM。

>10倍:批处理LLM请求的吞吐量提升

通过GPU运行LLM查询的延迟很高:可能需要5秒,吞吐量为每秒0.2次查询。有趣的是,如果运行两个任务,可能只需要5.2秒。这意味着如果您能将25个查询打包在一起,大约需要10秒,我们的吞吐量就提高到了每秒2.5次查询。然而,请参见下一点。

~1 MB:13B参数模型输出1个token所需的GPU内存

您需要的内存量与您想要生成的最大token数直接成正比。例如,如果您想生成最多512个token(约380个词)的输出,您需要512MB。您可能会说这没什么大不了的——我有24GB可用,512MB算什么?但是,如果您想运行更大的批次,它就开始累积了。所以如果您想做16个批次,就需要8GB的空间。目前正在开发一些克服这个问题的技术,但这仍然是一个真实的问题。

速查表

<img width="1097" alt="Screenshot 2023-05-17 at 1 46 09 PM" src="https://github.com/ray-project/llm-numbers/assets/9677264/5d40c6a3-84d7-436a-8fc4-a8d58008765d">

下一步

请查看我们之前关于解决生成式AI基础设施问题使用LangChain与Ray的博客系列。

如果您想了解更多关于Ray的信息,请访问Ray.ioDocs.Ray.io

要与Ray社区联系,请加入Ray Slack上的#LLM频道或我们的讨论论坛

如果您对我们的Ray托管服务(用于ML训练和服务)感兴趣,请查看Anyscale.com/Platform并点击"立即试用"按钮。

**Ray Summit 2023:**如果您有兴趣了解更多关于如何使用Ray构建高性能和可扩展的LLM应用程序,以及在Ray上微调/训练/服务LLM,请参加9月18-20日的Ray Summit!我们有一系列出色的主题演讲嘉宾,包括来自OpenAI的John Schulman和来自Cohere的Aidan Gomez,还有关于Ray的社区和技术讲座,以及专注于LLM的实践培训

注释

Footnotes

  1. 基于2023年5月8日使用一系列提示对GPT-3.5-Turbo进行的实验。

  2. 2023年5月8日从http://openai.com/pricing获取。

  3. GPT-4:提示每1k个token收费6美分,生成每1k个token收费12美分(32,000窗口版本,8,000窗口版本是这个价格的一半)。GPT-3.5 Turbo:每1k个token收费0.2美分。

  4. 这假设向量查找是"免费的"。实际上并非如此,但它使用CPU(更便宜)且相当快。

  5. 100万词 / 0.75 tokens/词 / 1000*0.03 = 40美元。

编辑推荐精选

蛙蛙写作

蛙蛙写作

AI小说写作助手,一站式润色、改写、扩写

蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。

AI辅助写作AI工具蛙蛙写作AI写作工具学术助手办公助手营销助手AI助手
Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

下拉加载更多