HugeCTR是一个GPU加速的推荐框架,专为大型深度学习模型的训练和推理而设计。
设计目标:
注意:如果您在使用HugeCTR时有任何问题,请提交issue或加入我们的Slack频道进行更多互动讨论。
HugeCTR支持多种功能,包括以下内容:
要了解我们最新的改进,请参阅我们的发布说明。
如果您想快速使用Python接口训练模型,请按以下步骤操作:
通过运行以下命令启动NGC容器,并挂载您的本地主机目录(/your/host/dir):
docker run --gpus=all --rm -it --cap-add SYS_NICE -v /your/host/dir:/your/container/dir -w /your/container/dir -it -u $(id -u):$(id -g) nvcr.io/nvidia/merlin/merlin-hugectr:24.06
注意:/your/host/dir目录与**/your/container/dir目录一样可见。/your/host/dir**目录也是您的起始目录。
注意:HugeCTR使用NCCL在不同排之间共享数据,NCCL可能需要共享内存用于IPC和锁定(页锁定)系统内存资源。建议您通过在docker run
命令中添加以下选项来增加这些资源:
-shm-size=1g -ulimit memlock=-1
编写一个简单的Python脚本来生成合成数据集:
# dcn_parquet_generate.py
import hugectr
from hugectr.tools import DataGeneratorParams, DataGenerator
data_generator_params = DataGeneratorParams(
format = hugectr.DataReaderType_t.Parquet,
label_dim = 1,
dense_dim = 13,
num_slot = 26,
i64_input_key = False,
source = "./dcn_parquet/file_list.txt",
eval_source = "./dcn_parquet/file_list_test.txt",
slot_size_array = [39884, 39043, 17289, 7420, 20263, 3, 7120, 1543, 39884, 39043, 17289, 7420,
20263, 3, 7120, 1543, 63, 63, 39884, 39043, 17289, 7420, 20263, 3, 7120,
1543 ],
dist_type = hugectr.Distribution_t.PowerLaw,
power_law_type = hugectr.PowerLaw_t.Short)
data_generator = DataGenerator(data_generator_params)
data_generator.generate()
通过运行以下命令为您的DCN模型生成Parquet数据集:
python dcn_parquet_generate.py
注意:生成的数据集将位于./dcn_parquet
文件夹中,其中包含训练和评估数据。
编写一个简单的Python训练脚本:
# dcn_parquet_train.py
import hugectr
from mpi4py import MPI
solver = hugectr.CreateSolver(max_eval_batches = 1280,
batchsize_eval = 1024,
batchsize = 1024,
lr = 0.001,
vvgpu = [[0]],
repeat_dataset = True)
reader = hugectr.DataReaderParams(data_reader_type = hugectr.DataReaderType_t.Parquet,
source = ["./dcn_parquet/file_list.txt"],
eval_source = "./dcn_parquet/file_list_test.txt",
slot_size_array = [39884, 39043, 17289, 7420, 20263, 3, 7120, 1543, 39884, 39043, 17289, 7420,
20263, 3, 7120, 1543, 63, 63, 39884, 39043, 17289, 7420, 20263, 3, 7120, 1543 ])
optimizer = hugectr.CreateOptimizer(optimizer_type = hugectr.Optimizer_t.Adam,
update_type = hugectr.Update_t.Global)
model = hugectr.Model(solver, reader, optimizer)
model.add(hugectr.Input(label_dim = 1, label_name = "label",
dense_dim = 13, dense_name = "dense",
data_reader_sparse_param_array =
[hugectr.DataReaderSparseParam("data1", 1, True, 26)]))
model.add(hugectr.SparseEmbedding(embedding_type = hugectr.Embedding_t.DistributedSlotSparseEmbeddingHash,
workspace_size_per_gpu_in_mb = 75,
embedding_vec_size = 16,
combiner = "sum",
sparse_embedding_name = "sparse_embedding1",
bottom_name = "data1",
optimizer = optimizer))
model.add(hugectr.DenseLayer(layer_type = hugectr.Layer_t.Reshape,
bottom_names = ["sparse_embedding1"],
top_names = ["reshape1"],
leading_dim=416))
model.add(hugectr.DenseLayer(layer_type = hugectr.Layer_t.Concat,
bottom_names = ["reshape1", "dense"], top_names = ["concat1"]))
model.add(hugectr.DenseLayer(layer_type = hugectr.Layer_t.MultiCross,
bottom_names = ["concat1"],
top_names = ["multicross1"],
num_layers=6))
model.add(hugectr.DenseLayer(layer_type = hugectr.Layer_t.InnerProduct,
bottom_names = ["concat1"],
top_names = ["fc1"],
num_output=1024))
model.add(hugectr.DenseLayer(layer_type = hugectr.Layer_t.ReLU,
bottom_names = ["fc1"],
top_names = ["relu1"]))
model.add(hugectr.DenseLayer(layer_type = hugectr.Layer_t.Dropout,
bottom_names = ["relu1"],
top_names = ["dropout1"],
dropout_rate=0.5))
model.add(hugectr.DenseLayer(layer_type = hugectr.Layer_t.Concat,
bottom_names = ["dropout1", "multicross1"],
top_names = ["concat2"]))
model.add(hugectr.DenseLayer(layer_type = hugectr.Layer_t.InnerProduct,
bottom_names = ["concat2"],
top_names = ["fc2"],
num_output=1))
model.add(hugectr.DenseLayer(layer_type = hugectr.Layer_t.BinaryCrossEntropyLoss,
bottom_names = ["fc2", "label"],
top_names = ["loss"]))
model.compile()
model.summary()
model.graph_to_json(graph_config_file = "dcn.json")
model.fit(max_iter = 5120, display = 200, eval_interval = 1000, snapshot = 5000, snapshot_prefix = "dcn")
注意:确保合成数据集的路径相对于这个Python脚本是正确的。data_reader_type
、check_type
、label_dim
、dense_dim
和data_reader_sparse_param_array
应与生成的数据集保持一致。
通过运行以下命令来训练模型:
python dcn_parquet_train.py
注意:由于使用的是随机生成的数据集,因此假定评估AUC值是不正确的。当训练完成后,将生成包含导出的图形JSON、保存的模型权重和优化器状态的文件。
更多信息,请参阅HugeCTR用户指南。
我们能够通过导出重要的HugeCTR组件来支持无法直接使用HugeCTR的外部开发者:
如果您遇到任何问题或有疑问,请访问https://github.com/NVIDIA/HugeCTR/issues并提交问题,以便我们能够为您提供必要的解决方案和答案。为了进一步推进HugeCTR的路线图,我们鼓励您使用这个调查问卷分享有关您的推荐系统管道的所有详细信息。
HugeCTR是一个开源项目,我们欢迎公众的贡献。通过您的贡献,我们可以继续提高HugeCTR的质量和性能。要了解如何贡献,请参阅我们的HugeCTR贡献者指南。
网页 |
---|
NVIDIA Merlin |
NVIDIA HugeCTR |
Yingcan Wei, Matthias Langer, Fan Yu, Minseok Lee, Jie Liu, Ji Shi and Zehuan Wang, "针对大规模深度推荐模型的GPU专用推理参数服务器,"第16届ACM推荐系统会议论文集,第408-419页,2022年。
Zehuan Wang, Yingcan Wei, Minseok Lee, Matthias Langer, Fan Yu, Jie Liu, Shijie Liu, Daniel G. Abel, Xu Guo, Jianbing Dong, Ji Shi and Kunlun Li, "Merlin HugeCTR:GPU加速的推荐系统训练和推理,"第16届ACM推荐系统会议论文集,第534-537页,2022年。
会议 / 网站 | 标题 | 日期 | 演讲者 | 语言 |
---|---|---|---|---|
ACM RecSys 2022 | 面向大规模深度推荐模型的GPU专用推理参数服务器 | 2022年9月 | Matthias Langer | 英语 |
短视频系列第1集 | Merlin HugeCTR:GPU 加速的推荐系统框架 | 2022年5月 | Joey Wang | 中文 |
短视频系列第2集 | HugeCTR 分级参数服务器如何加速推理 | 2022年5月 | Joey Wang | 中文 |
短视频系列第3集 | 使用 HugeCTR SOK 加速 TensorFlow 训练 | 2022年5月 | Gems Guo | 中文 |
GTC 2022春季大会 | Merlin HugeCTR:使用GPU嵌入缓存的分布式分层推理参数服务器 | 2022年3月 | Matthias Langer, Yingcan Wei, Yu Fan | 英语 |
阿里云栖大会2021 | GPU 推荐系统 Merlin | 2021年10月 | Joey Wang | 中文 |
GTC 2021春季大会 | 了解腾讯如何在Merlin GPU推荐框架上部署广告系统 | 2021年4月 | Xiangting Kong, Joey Wang | 英语 |
GTC 2021春季大会 | Merlin HugeCTR:深入性能优化 | 2021年4月 | Minseok Lee | 英语 |
GTC 2021春季大会 | 将HugeCTR嵌入集成到TensorFlow中 | 2021年4月 | Jianbing Dong | 英语 |
GTC中国2020 | MERLIN HUGECTR :深入研究性能优化 | 2020年10月 | Minseok Lee | 英语 |
GTC中国2020 | 性能提升 7 倍 + 的高性能 GPU 广告推荐加速系统的落地实现 | 2020年10月 | Xiangting Kong | 中文 |
GTC中国2020 | 使用 GPU EMBEDDING CACHE 加速 CTR 推理过程 | 2020年10月 | Fan Yu | 中文 |
GTC中国2020 | 将 HUGECTR EMBEDDING 集成于 TENSORFLOW | 2020年10月 | Jianbing Dong | 中文 |
GTC 2020春季大会 | HugeCTR:高性能点击率估算训练 | 2020年3月 | Minseok Lee, Joey Wang | 英语 |
GTC中国2019 | HUGECTR: GPU 加速的推荐系统训练 | 2019年10月 | Joey Wang | 中文 |
会议 / 网站 | 标题 | 日期 | 作者 | 语言 |
---|---|---|---|---|
微信博客 | Merlin HugeCTR 分级参数服务器系列之三:集成到TensorFlow | 2022年11月 | Kingsley Liu | 中文 |
NVIDIA开发者博客 | 使用 Merlin 分层参数服务器扩展推荐系统推理 | 2022年8月 | Shashank Verma, Wenwen Gao, Yingcan Wei, Matthias Langer, Jerry Shi, Fan Yu, Kingsley Liu, Minseok Lee | 英语/中文 |
NVIDIA开发者博客 | Merlin HugeCTR Sparse Operation Kit 系列之二 | 2022年6月 | Kunlun Li | 中文 |
NVIDIA开发者博客 | Merlin HugeCTR Sparse Operation Kit 系列之一 | 2022年3月 | Gems Guo, Jianbing Dong | 中文 |
微信博客 | Merlin HugeCTR 分级参数服务器系列之二 | 2022年3月 | Yingcan Wei, Matthias Langer, Jerry Shi | 中文 |
微信博客 | Merlin HugeCTR 分级参数服务器系列之一 | 2022年1月 | Yingcan Wei, Jerry Shi | 中文 |
NVIDIA开发者博客 | 使用HugeCTR TensorFlow嵌入插件加速嵌入 | 2021年9月 | Vinh Nguyen, Ann Spencer, Joey Wang and Jianbing Dong | 英语 |
medium.com | 优化美团的机器学习平台:黄俊访谈 | 2021年9月 | Sheng Luo and Benedikt Schifferer | 英语 |
medium.com | 领导腾讯广告推荐系统的设计和开发:孔祥婷访谈 | 2021年9月 | Xiangting Kong, Ann Spencer | 英语 |
NVIDIA开发者博客 | 扩展和加速大型深度学习推荐系统 – HugeCTR 系列第 1 部分 | 2021年6月 | Minseok Lee | 中文 |
NVIDIA开发者博客 | 使用 Merlin HugeCTR 的 Python API 训练大型深度学习推荐模型 – HugeCTR 系列第 2 部分 | 2021年6月 | Vinh Nguyen | 中文 |
medium.com | 使用Merlin HugeCTR的Python API训练大型深度学习推荐模型 — HugeCTR系列第2部分 | 2021年5月 | Minseok Lee, Joey Wang, Vinh Nguyen and Ashish Sardana | 英语 |
medium.com | 扩展和加速大型深度学习推荐系统 — HugeCTR系列第1部分 | 2021年5月 | Minseok Lee | 英语 |
IRS 2020 | Merlin:GPU加速的推荐框架 | 2020年8月 | Even Oldridge等 | 英语 |
NVIDIA开发者博客 | 介绍NVIDIA Merlin HugeCTR:专门用于推荐系统的训练框架 | 2020年7月 | Minseok Lee and Joey Wang | 英语 |
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
高分辨率纹理 3D 资产生成
Hunyuan3D-2 是腾讯 开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。
一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。
3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号